Difendiamo la democrazia digitale di fronte all’uso capitalista dell’IA

19.02.2024

Risoluzione approvata dell’assemblea annuale della GISO Svizzera del 17 e 18 febbraio 2024 a Berna, Bümpliz.

Negli ultimi anni, la qualità dei testi e delle immagini generate dall'IA[1] è aumentata notevolmente, ponendo l'IA al centro dell'attenzione. Questo nuovo interesse solleva molte preoccupazioni, spesso incentrate sul copyright o sui diritti di proprietà intellettuale. Le preoccupazioni sono legittime, ma i veri problemi del funzionamento attuale dell'IA sono molto più profondi.

Nel contesto di questa risoluzione, utilizziamo il termine "intelligenza artificiale" per descrivere programmi che sono "in grado di riconoscere modelli da grandi volumi di dati e di generare nuovi modelli o migliorare quelli esistenti".[2] Siamo particolarmente interessat* alle AI che generano testi, immagini e video.

Le IA ricevono una grande quantità di input di un certo tipo e generano output di tipo simile. Ad esempio, un generatore di testo che è stato addestrato con un gran numero di lettere di motivazione è in grado di generare una lettera di motivazione personalizzata.

La tecnologia dell'intelligenza artificiale non è altro che uno strumento. Non è di per sé una cosa buona o cattiva. Tuttavia, nella situazione attuale, l'uso dell'IA ha implicazioni problematiche in diverse aree.

Le IA sono in grado di generare buoni contenuti solo se sono state precedentemente addestrate con una grande quantità di dati. Questo comporta due problemi: problemi relativi alla proprietà dei dati e problemi relativi alla qualità dei dati.

Il lavoro umano è spesso messo in competizione con l'IA per la sua capacità di fornire risultati in tempi rapidi e a basso costo. Le aziende hanno iniziato a licenziare dipendenti per affidare i loro compiti alle IA.[3] Tuttavia, i risultati generati dall'IA dipendono dal lavoro umano su cui è stata addestrata. Nel caso della generazione di un'immagine come un disegno grafico o un'illustrazione, ciò significa che un* artista non viene pagato più di una volta per la creazione di un'immagine, ma questa immagine può essere utilizzata per l'addestramento di un'IA, consentendo così di generare un gran numero di illustrazioni nello stile dell'artista senza ricevere un'ulteriore remunerazione. Al contrario, ogni guadagno va all'azienda che ha sviluppato l'IA.

La capacità di generare contenuti attraverso l'IA ha un'altra conseguenza: la moltiplicazione di questi contenuti su internet al punto da occupare più spazio dei contenuti di origine umana. Questo fa sì che le IA vengano addestrate su contenuti che sono già stati generati da IA. Questo porta a moltiplicare gli errori.[4] E poiché le IA hanno un volume di produzione di gran lunga superiore a quello umano, i contenuti generati dalle IA stanno occupando una parte sempre più importante e consistente dei contenuti disponibili online.

Ma non è tutto: nonostante un certo livello di efficienza, è difficile inserire nell'IA meccanismi che prevengano gli errori, poiché i processi che portano a questi errori sono poco trasparenti. Sostituire la manodopera umana con l'IA senza o con troppo poco controllo da parte dell’essere umano porta quindi a una perdita di qualità.

Anche il problema dell'opacità gioca un ruolo nella distorsione dei risultati delle IA. Le IA vengono alimentate con dati soggetti agli stessi pregiudizi dell'intera società e generano risultati che sono anch'essi contaminati da questi pregiudizi.[5]

Inoltre, l'IA viene utilizzata anche per creare "deepfakes"[6] Questi possono essere utilizzati per danneggiare una persona o manipolare l'opinione pubblica e la loro diffusione riduce la fiducia del pubblico nelle informazioni disponibili su internet.

Inoltre, i canali di informazione controllati dall'intelligenza artificiale, soprattutto sui social network, diffondono una grande quantità di fake news.[7] Questi contenuti sono favoriti dagli algoritmi dei social network, che spingono i contenuti più scioccanti per generare il maggior numero possibile di clic e quindi anche di introiti pubblicitari.

Le conseguenze concrete della complessità degli algoritmi di IA sono anche di natura ambientale: un elevato consumo di energia e di acqua per raffreddare i server.[8] In un contesto di siccità sempre più frequenti a causa della crisi climatica, questo aspetto non può essere banalizzato.

A questo si aggiunge l'esternalizzazione del lavoro umano. I dati utilizzati per addestrare le IA devono essere organizzati. Questo lavoro viene svolto principalmente da lavoratori/trici* del Sud globale in condizioni di lavoro precarie e con salari molto bassi.[9]

La nostra visione dell'IA

Allo stato attuale, lo sviluppo e l'utilizzo dell'IA sta causando enormi problemi in molti settori. Tuttavia, questi danni non sono inevitabili. I problemi sono legati allo sviluppo dell'IA da parte di aziende orientate al profitto che si preoccupano poco dell'impatto sulle persone e sull'ambiente. Per poter essere utilizzate nell'interesse del maggior numero possibile di persone, queste promettenti tecnologie devono essere sottoposte a un controllo democratico: vogliamo la democrazia digitale.

Perciò, chiediamo:

  • L'esproprio delle grandi aziende digitali e il controllo democratico delle tecnologie AI;
  • Standard rigorosi per l'uso dei deepfake;
  • Il divieto di utilizzare l'IA quando il processo decisionale deve essere tracciabile;
  • Quando si utilizza l'IA, trasparenza sui dati che ha addestrato e sulle sue attitudini per scoprire i pregiudizi riprodotti;
  • Richiedere il consenso "opt-in" per l'addestramento delle IA con i dati, sia per i dati personali che per i prodotti di lavoro (produzione artistica, testi scientifici, giornalismo, ecc.);
  • Standard internazionali rigorosi sulle condizioni di lavoro durante lo smistamento dei dati delle IA.

[1] Questa risoluzione fa riferimento, nella sua argomentazione e nella sua struttura, in gran parte al video "Here's What Ethical AI Really Means" del canale Youtube Philosophy Tube: https://www.youtube.com/watch?v=AaU6tI2pb3M&t=2909s, e utilizza fonti tratte dalla bibliografia di questo video.

[2] Trad. da «Intelligence», Le Robert en ligne : https://dictionnaire.lerobert.com/definition/intelligence (verificato il 21.1.2024)

[3] Per esempio: https://www.washingtonpost.com/technology/2024/01/10/duolingo-ai-layoffs/

[4] https://venturebeat.com/ai/the-ai-feedback-loop-researchers-warn-of-model-collapse-as-ai-trains-on-ai-generated-content/

[5] https://www.nytimes.com/2023/07/04/arts/design/black-artists-bias-ai.html

[6] https://fr.wikipedia.org/wiki/Deepfake

[7] https://www.washingtonpost.com/technology/2023/12/17/ai-fake-news-misinformation/

[8] https://www.standard.co.uk/news/tech/ai-chatgpt-water-power-usage-b1106592.html

[9] Per esempio: https://www.theverge.com/features/23764584/ai-artificial-intelligence-data-notation-labor-scale-surge-remotasks-openai-chatbots ou https://www.washingtonpost.com/world/2023/08/28/scale-ai-remotasks-philippines-artificial-intelligence/