Lasst uns die digitale Demokratie angesichts der kapitalistischen Benützung von KI verteidigen!

19.02.2024

Resolution verabschiedet an der Jahresversammlung der JUSO Schweiz vom 17. und 18. Februar 2024 in Bern-Bümpliz

In den letzten Jahren hat die Qualität der durch KI[1] generierten Texte und Bilder drastisch zugenommen, wodurch KI ins Zentrum der Aufmerksamkeit gerückt wurde. Dieses neue Interesse weckt viele Bedenken, die sich oft um Copyright oder Urheber*innenrecht drehen. Die Bedenken sind legitim, doch die reellen Problem der aktuellen Funktionsweise von KI gehen weit tiefer.

Im Rahmen dieser Resolution bezeichnen wir mit «Künstlicher Intelligenz» Programme, welche «in der Lage sind, aus grossen Datenvolumen Muster zu erkennen und neue zu generieren oder existierende Muster zu verbessern» [2], wobei uns insbesondere Text- Bild- und Video-generierende KIs interessieren.

KIs nehmen eine grosse Menge an Input eines bestimmten Typs auf und generieren Output ähnlicher Art. So ist zum Beispiel ein Textgenerator, welcher mit einer grossen Anzahl Motivationsschreiben trainiert wurde, in der Lage, ein massgeschneidertes Motivationsschreiben zu generieren.

Die Technologie der künstlichen Intelligenz ist nichts weiter als ein Werkzeug. Sie ist in sich keine gute oder schlechte Sache. Doch in der gegenwärtigen Situation hat die Benutzung von KI problematische Auswirkungen in mehreren Bereichen.

KIs sind nur dann in der Lage, gute Inhalte zu generieren, wenn sie zuvor mit einem grossen Datenvolumen trainiert wurden. Dies führt zu zweierlei Problemen: Probleme in Bezug auf das Eigentum der Daten und in Bezug auf die Qualität der Daten.

Die Arbeit der Menschen wird oft in Konkurrenz zur KI gestellt, aufgrund deren Vermögen, bei niedrigen Kosten schnell Ergebnisse liefern zu können. So haben Unternehmen damit begonnen, Angestellte zu entlassen, um ihre Aufgaben an KIs zu übergeben.[3] Doch die KI-generierten Ergebnisse hängen von der menschlichen Arbeit ab, aufgrund derer sie trainiert wurde. Im Falle der Generierung eines Bildes wie einem Grafikdesign oder einer Illustration bedeutet dies, dass ein*e Künstler*in nicht mehr als einmal für die Kreierung eines Bilds bezahlt wird, dieses Bild jedoch beim Training einer KI eingesetzt werden kann, und somit eine grosse Anzahl generierter Illustrationen im Stil des*der Künstler*in ermöglicht, ohne dass er*sie zusätzliche Vergütungen erhält. Im Gegenteil; allfällige Einnahmen gehen an das Unternehmen, welches die KI entwickelt hat.

Die Möglichkeit, Inhalte durch KI generieren zu können, hat eine andere Konsequenz: die Vervielfältigung dieser Inhalte im Internet bis zum Punkt, an dem sie mehr Raum einnehmen, als Inhalte menschlichen Ursprungs. Dies führt dazu, dass KIs von Inhalten trainiert werden, welche bereits KI generiert sind. Dies führt zu einer Vervielfältigung allfälliger Fehler.[4] Und da die KIs ein weitaus grösseres Outputvolumen haben als die menschliche Produktion, nehmen die KI-generierten Inhalte einen zunehmend wichtigen und grossen Teil der online erhältlichen Inhalte ein.

Doch das ist nicht alles: Trotz einer gewissen Effizienz ist es schwierig, Mechanismen in KI einzubauen, welche Fehler verhindern, da die Prozesse, welche zu diesen Fehlern führen, undurchsichtig sind. Der Ersatz menschlicher Arbeitskraft durch KI mit keiner oder zu wenig menschlicher Kontrolle führt daher zu einem Qualitätsverlust.

Das Problem der Undurchsichtigkeit spielt auch bei der Verzerrung von Outputs der KI eine Rolle. Sie werden mit Daten gefüttert, welche den selben Vorurteilen unterliegen, wie unsere gesamte Gesellschaft, und generieren Output, der ebenfalls von diesen Vorurteilen belastet ist. [5]

KI wird des Weiteren für die Erstellung von «Deepfakes» genutzt.[6] Diese können dafür benutzt werden, einer Person zu schaden oder die öffentliche Meinung zu manipulieren, zudem senkt ihre Verbreitung das Vertrauen der Öffentlichkeit in die im Internet verfügbaren Informationen.

Darüber hinaus propagieren von künstlicher Intelligenz gesteuerte News-Kanäle, insbesondere in den sozialen Netzwerken, eine grosse Anzahl Fake News.[7] Diese Inhalte werden von den Algorithmen der sozialen Netzwerke favorisiert, welche die schockierendsten Inhalte pushen, um möglichst viele Klicks und somit auch Werbeeinnahmen zu generieren.

Die konkreten Konsequenzen der Komplexität der KI-Algorithmen: ein hoher Energieverbrauch und ein hoher Wasserverbrauch, um die Server zu kühlen.[8] Vor dem Hintergrund immer häufiger auftretender Dürren aufgrund der Klimakrise ist dies nicht zu verharmlosen.

Hinzu kommt die Auslagerung menschlicher Arbeit. Die Daten, mit denen KIs trainiert werden, müssen sortiert werden. Diese Arbeit wird hauptsächlich von Arbeiter*innen aus dem Globalen Süden in prekären Arbeitsverhältnissen und zu sehr niedrigen Löhnen geleistet. [9]

Unsere Vision für KI

So wie die Dinge stehen, verursachen die Entwicklung und der Einsatz von KI in vielen Bereichen enorme Probleme. Diese Schäden sind jedoch kein unabwendbares Schicksal. Sie hängen mit der Entwicklung von KI durch profitorientierte Unternehmen zusammen, die sich wenig um Auswirkungen auf Mensch und Umwelt kümmern. Um im Interesse möglichst vieler eingesetzt zu werden, müssen diese vielversprechenden Technologien einer demokratischen Kontrolle unterstellt werden. Wir wollen digitale Demokratie.

Deshalb fordern wir:

  • Die Enteignung grosser digitaler Unternehmen und die demokratische Kontrolle von KI-Technologien;
  • Strenge Standards zur Benutzung von Deepfakes;
  • Das Verbot, KI zu verwenden, wenn der Entscheidungsprozess rückverfolgbar sein muss;
  • Wenn KI eingesetzt wird, Transparenz über die Daten, die sie trainiert hat, und über ihre Einstellungen, um reproduzierte Vorurteile aufzudecken;
  • Das Erfordernis einer "Opt-In"-Einwilligung für das Training von KIs mit Daten, sowohl für persönliche Daten als auch für Arbeitsprodukte (Kunstproduktion, wissenschaftliche Texte, Journalismus usw.);
  • Strenge internationale Standards zu den Arbeitsbedingungen bei der Sortierung der KI-Daten.

[1] Diese Resolution bezieht sich in ihrer Argumentation und ihrem Aufbau in weiten Teilen auf das Video « Here’s What Ethical AI Really Means » des Youtube-Kanals Philosophy Tube : https://www.youtube.com/watch?v=AaU6tI2pb3M&t=2909s , und benutzt Quellen aus der Bibliographie dieses Videos.

[2] «Intelligence», Le Robert en ligne : https://dictionnaire.lerobert.com/definition/intelligence (consulté le 21.1.2024)

[3] Zum Beispiel : https://www.washingtonpost.com/technology/2024/01/10/duolingo-ai-layoffs/

[4] https://venturebeat.com/ai/the-ai-feedback-loop-researchers-warn-of-model-collapse-as-ai-trains-on-ai-generated-content/

[5] https://www.nytimes.com/2023/07/04/arts/design/black-artists-bias-ai.html

[6] https://fr.wikipedia.org/wiki/Deepfake

[7] https://www.washingtonpost.com/technology/2023/12/17/ai-fake-news-misinformation/

[8] https://www.standard.co.uk/news/tech/ai-chatgpt-water-power-usage-b1106592.html

[9] Zum Beispiel : https://www.theverge.com/features/23764584/ai-artificial-intelligence-data-notation-labor-scale-surge-remotasks-openai-chatbots ou https://www.washingtonpost.com/world/2023/08/28/scale-ai-remotasks-philippines-artificial-intelligence/