Face aux usages capitalistes de l’IA, défendons la démocratie numérique !

19.02.2024

Résolution approuvée lors de l’Assemblée annuelle de la JS Suisse des 17 et 18 février 2024 à Berne-Bümpliz

Ces dernières années, les performances de la génération de texte et d‘image par intelligence artificielle a explosé, et a placé l’IA[1] au centre de l’attention. Ce nouvel intérêt suscite beaucoup de préoccupations, souvent centrée autour du copyright ou du droit d’auteur. Elles sont légitimes, mais les problèmes réels du fonctionnement actuel des IA sont plus profonds.

Dans le cadre de cette résolution, nous désignons par « Intelligence artificielle » les programmes « capable[s], à partir de grands volumes de données, de dégager des modèles et d'en générer de nouveaux, ou d'améliorer les modèles existants »[2] et nous intéressons particulièrement aux modèles générateurs de texte, d’image et de vidéo.

Les IA ingèrent une grande quantité d’input d’un certain type et régurgitent un output du même type. Par exemple, après avoir été entraîné sur un grand nombre de lettres de motivations, un modèle générateur de texte sera capable de générer une lettre de motivation sur mesure.

La technologie de l’intelligence artificielle n’est rien de plus qu’un outil. Elle n’est pas une bonne ou une mauvaise chose en tant que telle. Cependant, dans la situation actuelle, son utilisation a des conséquences problématiques dans plusieurs domaines.

D’abord, les IA ne sont capables de générer du bon contenu que si elles sont entraînées sur un grand volume de données. Cela pose deux problèmes : d’abord la propriété des données, ensuite leur qualité.

Le travail humain est souvent mis en concurrence avec l’IA dans sa capacité à produire des résultats rapidement et à bas prix. Des entreprises ont ainsi commencé à renvoyer des employé·es pour confier leurs tâches à des IA.[3] Mais les résultats générés par IA dépendent du travail humain sur lequel elle est entraînée. Dans le cas du travail de création d’image, comme le graphisme ou l’illustration, cela signifie qu’un·e artiste ne sera payé·e qu’une seule fois pour créer une image, mais celle-ci pourrait être utilisée dans l’entraînement d’une IA pour générer un grand nombre d’illustrations dans le style de l’artiste, sans qu’elle·il touche de rémunérations supplémentaires. Au contraire, d’éventuelles recettes iront à l’entreprise qui développe cette IA.

La facilité de créer du contenu par IA a une autre conséquence : la multiplication de ces contenus sur internet, au point de prendre plus de place que le contenu d’origine humaine. Cela conduit les IA à être entraînées sur du contenu déjà généré par IA. Cette boucle mène à une multiplication des erreurs.[4] Et comme les IA ont un volume d’output bien plus important que la production humaine, les contenus générés par IA prennent progressivement une part de plus en plus importante des contenus accessibles en ligne.

Mais ce n’est pas tout : malgré une certaine efficacité, il est difficile de mettre en place des mécanismes qui préviennent les erreurs des IA, car le processus qui amène à ces erreurs est opaque. Le remplacement de la main-d’œuvre humaine par des IA avec pas ou trop peu de contrôle humain amène donc à une baisse de qualité.

Le problème de l’opacité intervient aussi dans les biais des IA. Elles sont entrainées sur des données qui ont les mêmes biais que toute notre société, et génèrent des outputs également biaisés.[5]

L’usage d’IA facilite également la production de « deepfakes »[6]. Ils peuvent être utiliser pour nuire à une personne ou pour manipuler l’opinion publique, et leur diffusion fait baisser la confiance du public en l’information disponible sur internet.

De plus, les canaux d’actualités gérés par intelligence artificielle, notamment sur les réseaux sociaux, propagent une quantité très importante de fake news.[7] Ces contenus sont favorisés par les algorithmes des réseaux sociaux, qui poussent les contenus les plus choquants afin d’obtenir un maximum de clics, et donc de revenus de publicité.

La conséquence de la complexité des algorithmes des IA est très concrète : c’est une grosse consommation en énergie, mais également en d’eau pour refroidir les serveurs.[8] Dans un contexte de sécheresses de plus en plus fréquentes dues à la crise climatique, ce n’est pas innocent.

À cela s’ajoutent les externalités en travail humain. Les données sur lesquelles sont entraînées les IA doivent être triées. Ce travail est essentiellement effectué par des travailleuse·eurs du Sud global, dans des relations de travail précaires et pour des salaires très bas.[9]

Notre vision pour l’IA

En l’état des choses, le développement et l’utilisation de l’IA pose d’énorme problèmes dans de nombreux domaines. Mais ces dégâts ne sont pas une fatalité. Ils sont liés au développement de l’IA par des entreprises orientées vers le profit, qui se soucient peu de l’impact humain ou écologique. Pour être utilisées dans l’intérêt du plus grand nombre, ces technologies prometteuses doivent être placées sous contrôle démocratique. Nous voulons la démocratie digitale.

C’est pourquoi nous demandons :

  • L’expropriation des grandes entreprises numériques, et le contrôle démocratique des technologies d’intelligence artificielle ;
  • Des standards stricts sur l’utilisation des deepfakes ;
  • L’interdiction d’utiliser l’IA dans des cadres où le processus de décision doit être traçable ;
  • Lorsqu’une IA est utilisée, la transparence sur les données l’ayant entraînée et son paramétrage, afin de mettre les biais en évidence
  • L’obligation d’un consentement de type «opt in » pour l’entraînement d’IA sur des données, s’agissant de données personnelles comme de produit d’un travail (production artistique, textes scientifiques, journalisme, etc.) ;
  • Des standards internationaux stricts sur les conditions de travail dans le tri des données d’IA.

[1] Cette résolution s’appuie en grande partie, dans ses arguments et sa structure, sur la vidéo «Here’s What Ethical AI Really Means», de la chaîne Youtube Philosophy Tube : https://www.youtube.com/watch?v=AaU6tI2pb3M&t=2909s , et réutilise également des sources tirées de la bibliographie de cette même vidéo.

[2] «Intelligence», Le Robert en ligne : https://dictionnaire.lerobert.com/definition/intelligence (consulté le 21.1.2024)

[3] Par exemple : https://www.washingtonpost.com/technology/2024/01/10/duolingo-ai-layoffs/

[4] https://venturebeat.com/ai/the-ai-feedback-loop-researchers-warn-of-model-collapse-as-ai-trains-on-ai-generated-content/

[5] https://www.nytimes.com/2023/07/04/arts/design/black-artists-bias-ai.html

[6] https://fr.wikipedia.org/wiki/Deepfake

[7] https://www.washingtonpost.com/technology/2023/12/17/ai-fake-news-misinformation/

[8] https://www.standard.co.uk/news/tech/ai-chatgpt-water-power-usage-b1106592.html

[9] Voir par exemple : https://www.theverge.com/features/23764584/ai-artificial-intelligence-data-notation-labor-scale-surge-remotasks-openai-chatbots ou https://www.washingtonpost.com/world/2023/08/28/scale-ai-remotasks-philippines-artificial-intelligence/