Adrien Pavão


Quels sont les dangers des algorithmes de recommandation ?

Est-ce que vous vous souvenez des dernières vidéos que vous avez visionnées ? Des derniers articles qui ont attiré votre attention ? Ou encore, des photos de voyage de cette inconnue ? Et est-ce que vous avez pris le temps de vous demander comment ces médias sont parvenus jusqu'à vous ? Comme vous le savez, une grande partie de ce que nous visionnons sur internet nous est proposée par des systèmes de recommandation. Et cet article, lui-même, que vous êtes en train de lire, vous a-t-il été proposé par un algorithme de recommandation ? Pour chaque recommandation que l'on reçoit, on peut s'interroger : Pourquoi ai-je reçu cette recommandation ? Peut-être est-ce parce que je suis francophone ? Intéressé par les technologies ? Peut-être que d'autres personnes dans ma tranche d'âge, et partageant des goûts similaires, ont montré leur intérêt pour ce contenu ?

Perdu dans la forêt des recommandations. Illustration générée par MidJourney.

"Big Brother is watching you"

Le système de recommandation, l'algorithme, connait tout de vous : Vos habitudes de navigation, vos heures de connexion, vos informations personnelles ou encore vos passions et vos opinions politiques. Chaque détail de votre comportement alimente une base de données colossale. Ces données, extrêmement invasives, sont mises bout à bout afin de révéler vos préférences les plus intimes. Et l'algorithme les utilise donc pour vous suggérer du contenu. Il sait quels titres vous feront réagir, quels sujets susciteront votre intérêt ou votre colère, et il n'hésite pas à jouer de vos émotions pour vous pousser à en vouloir toujours plus.

Les algorithmes de recommandation constituent notre premier interlocuteur dans l'accès à l'information. Tout simplement parce que c'est presque impossible d'explorer Internet sans ces recommandations. À titre d'exemple, YouTube c'est un siècle de contenu publié chaque jour. Et ces systèmes sont omniprésents, on les retrouve sur toutes les plateformes : YouTube donc, mais aussi TikTok, Facebook, Amazon, Spotify, Netflix, Tinder, ou encore sur les sites d'actualités, et bien d'autres.

Sachant qu'aujourd'hui la moitié de l'humanité est connectée à Internet, ces algorithmes de recommandation deviennent donc, pour une large partie de la population, la première porte d'entrée vers l'information et vers le divertissement. Plus que de simples outils, ils sont des intermédiaires incontournables entre nous et cet immense flux de contenus en ligne.

Des systèmes surhumains

Contrairement à l'idée reçue selon laquelle les IA les plus gigantesques seraient celles du traitement du langage, comme chatGPT, les algorithmes de recommandation sont souvent encore plus vastes. GPT-3, par exemple, possède 175 milliards de paramètres, et le modèle PaLM de Google, en compte 540 milliards. Ce qu'on appelle un paramètre, c'est simplement un nombre, qui est choisi pendant la phase d'apprentissage du modèle. Réunis ensemble, tous ces paramètres définissent le fonctionnement du modèle, et donc, le nombre de paramètres représente une mesure pertinente de la taille du modèle. Comme on le disait, les grands modèles de langage peuvent se situer autour de 500 milliards de paramètres, voire plus. On a également des modèles multimodaux qui interprètent à la fois du texte et des images : Par exemple Switch Transformer de Google qui possède 1600 milliards de paramètres, ou M6 d'Alibaba avec 10 000 milliards de paramètres. C'est énorme. Ce qui est moins connu, c'est que l'algorithme de recommandation de TikTok, nommé PERSIA, compte 100 000 milliards de paramètres, bien plus que la plupart des modèles de langage. Cet algorithme est géant et son fonctionnement est littéralement surhumain.

Toute cette puissance algorithmique est concentrée entre les mains d'une poignée d'entreprises dont l'influence est immense. Car ce sont ces algorithmes, et non plus notre propre volonté, qui déterminent de plus en plus souvent ce que nous lisons, ce que nous regardons, ce que nous achetons. Mais en leur déléguant ce rôle, nous leur cédons aussi une forme de pouvoir : celui de façonner nos goûts, nos opinions et, potentiellement, notre vision du monde.

Les risques pour l'utilisateur

Alors, quels sont les dangers auxquels on s'expose avec un tel système ?

  • Le premier danger, c'est tout simplement l'addiction. Les algorithmes sont conçus pour maximiser l'engagement, car plus vous passez de temps à regarder, cliquer ou commenter, plus la plateforme est rentable. Ces machines surhumaines sont donc employées à optimiser l'addiction des utilisateurs. On observe notamment chez les plus jeunes une consommation parfois incontrôlée des réseaux sociaux, avec une moyenne de 3 heures par jour.
  • Un autre danger, c'est la radicalisation : En proposant du contenu susceptible de provoquer des réactions fortes, les algorithmes ont tendance à renforcer les opinions existantes et à enfermer les utilisateurs dans des bulles d'information. Cela peut concerner toutes sortes d'opinions et de vision du monde. Un exemple dramatique concerne la responsabilité de Facebook dans la propagation de discours haineux contre les Rohingya en Birmanie. Amnesty International et l'ONU ont souligné le rôle de ce réseau social dans les violences, la persécution, et donc dans ce qui a été reconnu comme un génocide contre les Rohingya. D'autres cas existent, par exemple en Éthiopie et au Soudan, où l'on estime que les appels à la haine sur les réseaux sociaux ont contribué à faire des millions de victimes.
  • Et pour finir, un danger également important, c'est l'influence psychologique. Autant l'influence sur les opinions, que l'impact sur la santé mentale. En 2014, Facebook a réalisé une expérience durant laquelle l'algorithme mettait davantage en avant des contenus joyeux et positifs pour certains utilisateurs, ou bien tristes et négatifs pour d'autres. Résultat : l'humeur générale s'en est ressentie, au point d'influencer les émotions exprimées dans les publications des utilisateurs concernés. Cette expérience n'a duré qu'une semaine, mais c'est un indice très clair de la manière dont notre état mental peut être modulé par ce que nous consommons en ligne.

Elle n'a duré qu'une semaine pour des raisons éthiques, et pourtant ce sont bien ce genre d'expériences sur sujets humains que les algorithmes continuent de réaliser tous les jours, automatiquement, et à grande échelle.


Plus généralement, on peut s'étonner qu'une telle manipulation soit réalisée sans véritable consentement informé de la part des utilisateurs. La réalité est que les algorithmes de recommandation testent en permanence différentes stratégies pour accroître le temps d'écran des utilisateurs. Leur objectif, qui prend la forme d'une fonction mathématique, se résume la plupart du temps à la maximisation de l'engagement (et donc du temps d'écran et de l'addiction des utilisateurs). Nous sommes donc les sujets involontaires, les cobayes, d'expériences massives menées par ces géants du numérique.

Y a-t-il encore de l'espoir ?

Maintenant qu'on a dit tout ça, il est temps de se demander : Quelles sont les solutions face à ce problème ? Il n'existe pas de remède miracle, mais plusieurs pistes se dessinent :

  • Tout d'abord, exiger plus de transparence et de réglementation : Pour limiter les dérives, il est essentiel d'avoir un contrôle plus clair sur ce que font ces algorithmes et sur la manière dont nos données sont utilisées. Des lois commencent à émerger, mais elles doivent être appliquées et renforcées au niveau international.
  • Ensuite, proposer une éducation au numérique, sensibiliser le grand public à l'existence et aux risques de ces systèmes de recommandation. Apprendre à repérer le sensationnalisme, la manipulation et la désinformation.
  • Et finalement, aller vers une conception plus éthique des algorithmes : Les ingénieurs et les scientifiques ont aussi un rôle à jouer en repensant ces algorithmes pour qu'ils ne se contentent pas de maximiser le temps passé à l'écran, mais respectent également la santé mentale et la diversité d'opinion.

Donc, pour résumer, on a vu que les algorithmes de recommandation sont omniprésents : Ce sont des modèles aux dimensions démesurées, qui utilisent toutes sortes de données personnelles afin de maximiser l'engagement des utilisateurs. Ils constituent la porte d'entrée à l'information pour la moitié de l'humanité. Cela pose de nombreux problèmes, notamment l'addiction, la radicalisation, et l'influence sur l'opinion et la santé mentale. Alors, que faire ? Rester conscients, apprendre à prendre du recul, et exiger davantage de transparence et de responsabilité de la part des plateformes qui façonnent notre paysage numérique. Concevoir des algorithmes plus respectueux des besoins humains.

Car si nous continuons de confier nos choix, nos décisions, à des machines, chaque jour un peu plus... nous prenons le risque de nous vider de nos impulsions singulières, de notre liberté de pensée, et, finalement, de notre humanité.

Références

PERSIA : https://arxiv.org/pdf/2111.05897

Expérience de Facebook :
https://www.pnas.org/doi/full/10.1073/pnas.1320040111

Amnesty international :
https://www.amnesty.org/en/latest/news/2022/09/myanmar-facebooks-systems-promoted-violence-against-rohingya-meta-owes-reparations-new-report/

Taille des LLMs :
https://medium.com/@georgeanil/visualizing-size-of-large-language-models-ec576caa5557