Quand les algorithmes biaisent notre vision du monde
Les réseaux sociaux et leurs algorithmes sont-ils les ennemis de l’homme ? A voir la façon dont nos visites et actions sur ces supports sont interprétés et utilisés, on peut se le demander.
Lorsqu’on clique sur un lien plutôt qu’un autre, le contenu que de nombreux sites vont nous montrer par la suite sera altéré. Les algorithmes utilisés par des réseaux sociaux comme Facebook apprennent de nos préférences, et fournissent de plus en plus de contenu calibré selon ces intérêts… Au risque de ne plus rien montrer de contraire à nos opinions, et de déformer notre vision du monde. «En triant de plus en plus finement ce que vous allez voir, ces algorithmes distordent la réalité. Les réseaux sociaux deviennent alors des caisses de résonance où les opinions tendent vers l’extrême», explique Elisa Celis, chercheuse à la faculté Informatique et Communication de l’EPFL.
Des algorithmes qui façonnent votre opinion
Et l’impact sur le lecteur est bien réel. «De nombreuses études ont montré que si vous êtes indécis, l’ordre dans lequel on vous montre une information et sa fréquence de répétition vont vous influencer. Ces algorithmes vont donc façonner votre opinion à partir de données biaisées», poursuit Elisa Celis. Pour répondre à ce problème, la chercheuse a travaillé avec Nisheeth Vishnoi, professeur à l’EPFL, pour développer un système qui empêche la polarisation à l’extrême du contenu proposé aux utilisateurs.
Concrètement, ils ont conçu un algorithme qui peut être réglé pour fixer un taux de diversification minimum du contenu. «Un réseau social pourrait choisir de présenter au moins 10% de points de vue opposés à ses utilisateurs, par exemple, afin de garder une vision du monde plus équilibrée», expliquent les chercheurs.
L’algorithme pourrait facilement être intégré dans les systèmes actuels. Le plus gros défi étant inciter les grandes entreprises à s’y intéresser. «Des plateformes comme Facebook dépendent de l’efficacité de ces algorithmes pour leurs revenus publicitaires : nous voulions donc démontrer qu’il est possible de créer un outil tout aussi efficace, mais qui permette une personnalisation équilibrée et équitable», indique Nisheeth Vishnoi.
“En tant que citoyen, je me sens impuissant.
Sensibiliser les gouvernements à cette problématique serait un facteur important pour combler l’actuel vide législatif qui entoure encore ce domaine. Plusieurs organisations de défense des droits de l’homme ont déjà montré leur intérêt, et les chercheurs de l’EPFL ont pu récemment présenter leur projet devant des délégués d’organisations humanitaires à Genève, y compris des membres du Haut-Commissariat des Nations unies aux droits de l’homme.
«Aujourd’hui, aucune régulation n’existe, car l’impact de ces biais introduits par les algorithmes est encore mal connu. En tant que citoyen, je me sens impuissant, car je n’ai aucun contrôle sur ce qui m’est présenté. J’estime que la situation actuelle est dangereuse pour la démocratie et qu’il est essentiel de trouver des alternatives», conclut Nisheeth Vishnoi.