KI for Good – KI kann Hoffnung bedeuten…
Aber nur, wenn wir ihre Fallstricke überwinden
Künstliche Intelligenz wird von den einen als das Werkzeug der Zukunft gefeiert – eines, das die Effizienz steigert, Krankheiten heilt und den Planeten rettet. Von anderen wird KI als unheilbringende Weltuntergangstechnologie gefürchtet. Doch beide Erzählungen ignorieren einen zentralen Punkt: Algorithmen sind neutrale Werkzeuge. Wer sie kontrolliert, entscheidet jedoch, wem sie dienen. Sie ist ein Spiegel unserer Gesellschaft – und dieser Spiegel reflektiert Risse, die tief in kolonialen, patriarchalen und kapitalistischen Strukturen verwurzelt sind. In den nächsten Wochen werde ich mich mit meiner neuen Reihe genau mit diesem Spiegel beschäftigen.
Der Mythos der „Intelligenz“: Warum KI (noch) nicht denkt
Der Begriff „Künstliche Intelligenz“ ist irreführend. Was wir heute als KI bezeichnen, sind statistische Modelle, die Muster in historischen Daten erkennen – nicht mehr. Diese Systeme haben kein Bewusstsein, keine Empathie, keine Fähigkeit zur ethischen Reflexion. Bestes Beispiel ist wahrscheinlich das Wein-Glas-Problem: Eine KI kann noch keine Bilder von vollen Weingläsern generieren, da ihre Trainingsdaten nur halb volle zeigen. Sie extrapoliert lediglich aus dem Vorhandenen – ein limitierter Akt des Nachahmens, kein kreativer Sprung. Doch dass KI-Sprachhmodelle immer mehr selbstbestimmtes Arbeiten lernt, zeigt ein inzwischen gelöstes Problem: In früheren ChatGPT-Versionen antwortete es auf die Frage „How many Rs are in strawberry?“ immer falsch. Das lag daran, dass die KI nur rät, was sie als Nächstes sagt. Man kann es sich ein wenig wie ein Wahrscheinlichkeitsspiel vorstellen: Die KI errechnet, welches möglichste Wort wie wahrscheinlich ist, auf Grundlage unzähliger Texte, Bücher, Artikel und anderer Quellen. Jeder Satz ist also nur ein Mosaik, basierend auf den Worten von Millionen anderer Autor:innen.
KI ist auch keineswegs neutral. Ein Beispiel? 2018 musste Amazon einen KI-Rekrutierungsalgorithmus einstampfen, der Frauen systematisch benachteiligte. Grund: Die Daten stammten aus einer männerdominierten Tech-Branche – die KI lernte: „Bewerber:innen mit Frauennamen sind weniger geeignet“.
Systemische Voreingenommenheit: Wenn Algorithmen Ungleichheit zementieren
Die Daten, von denen künstliche Intelligenz lernt, stammen aus einer rassistischen, sexistischen und schlichtweg diskriminierenden Welt. Doch für KIs sind diese Daten die Realität; statt eine selektive Wahrnehmung zu behandeln, nehmen KIs diese Daten als neutrales Handbuch der Welt. Predictive-Policing-Systeme sind etwa KIs, welche historische Kriminalitätsdaten analysieren, um „Hotspots“ zu identifizieren. Doch diese Daten sind geprägt von Überpolicing in migrantisch geprägten Vierteln. Das Ergebnis: ein Teufelskreis aus Kontrollen, Festnahmen und verzerrten Statistiken. Denn die KI fragt nicht nach dem Warum der Daten, sondern muss sich mit ihrer absoluten Wahrheit zufriedengeben. Wie denn auch? Würde sie die Daten hinterfragen, fiele die Grundlage dieser Intelligenz weg – der ganze Algorithmus wäre hinfällig.
Doch nicht nur rassifizierte Menschen trifft es hart. Laut einer Studie des Berkeley Haas Center zeigen 44 % der KI-Tools im HR-Bereich geschlechtsspezifische Verzerrungen. Sprachmodelle assoziieren „CEO“ automatisch mit männlichen Pronomen, „Assistenz“ mit weiblichen. Aber auch armutsbetroffene Menschen werden durch KI-gestützte Kreditvergabe-Tools wie ZestFinance, die indirekte Indikatoren (Postleitzahlen, Browserverlauf) nutzen, um Kreditwürdigkeit zu bewerten, systematisch benachteiligt – nun kann nämlich ein „falscher“ Wohnort oder ein blöder Social-Media-Aufruf dafür sorgen, dass du nicht umziehen kannst. Das katapultiert einen natürlich in einen Kreislauf, und das ist das Hauptproblem selbstlernender Algorithmen: Sie wollen ihre Daten nur immer wieder bestätigen. Natürlich will ein Algorithmus, der ja kein Bewusstsein hat, nichts aktiv. Der Fehler legt in seiner Programmierung.
Das ist nicht das einzige Problem. Zwar könnte KI theoretisch menschenunwürdige Arbeit obsolet machen – ein Segen. Doch in unserem System, wo Arbeit nicht der Logik der Bedürfnisbefriedigung, sondern der Profitmaximierung folgt, wird sie zur Bedrohung. Lkw-Fahrer:innen, Kassierer:innen, Übersetzer:innen – 30 % aller Jobs in OECD-Ländern sind durch Automatisierung gefährdet (OECD, 2023).
Das Paradox der Produktivität entsteht: Während KI Unternehmen Milliarden spart, fehlt das Geld für Umschulungen. Stattdessen wächst die Prekarität, und Maschine und Arbeiter:in werden wieder zum Feind. Schon einmal sahen wir diese Entwicklung während der Industrialisierung. Arbeit ist im Kapitalismus nämlich kein Mittel zum Leben, sondern ein Zwang zur Anpassung. KI verschärft diesen Widerspruch nur noch.
Zwischen Utopie & Dystopie: Warum KI kein Schicksal ist
Die KI-Revolution wird kommen (wir sind eigentlich schon mittendrin), und es nutzt nichts, sich zu verstecken. Wir als Progressive & Demokrat:innen müssen aber früh einen Weg finden, KI zu unserem Freund zu machen. Initiativen wie BLOOM (ein KI-Modell, das von 1.000 Forscher:innen weltweit entwickelt wurde) zeigen auch schon: Dezentrale, gemeinwohlorientierte KI ist möglich. Oder das Kollektiv Feminist AI, welches Algorithmen entwickelt, die Care-Arbeit sichtbar machen und umverteilen. Doch große Firmen wie OpenAI (Entwickler von ChatGPT) deuten darauf hin, dass die meiste Künstliche Intelligenz in den Dienst der Herrschenden gestellt wird. Noch. Gleichwohl hat KI auch Aussicht auf Utopie: Wir könnten eine ganz neue Art des Arbeitens finden und Produktionsmittel in die Hände einer uns allen gehörenden und von uns allen kontrollierten Entität geben. Die Möglichkeiten sind unendlich – allerdings nicht nur positiv. Diesen Gedankenexperimenten möchte ich mich die nächsten Wochen & Monate auf meinen Blog widmen. Mit der Reihe KI for Good, werde ich ausführlich über KI schreiben. Bleibt gespannt.
KI ist politisch – also kämpfen wir um sie
KI ist weder gut noch böse. Sie ist ein Spiegel – doch wir können entscheiden, was sie reflektiert. Die Frage ist nicht, ob wir KI nutzen, sondern wie wir sie gestalten:
Als Verstärker von Ungleichheit – oder als Werkzeug, um Machtstrukturen aufzubrechen?
Als Überwachungsmaschine – oder als Archiv marginalisierter Perspektiven?
Als Jobkiller – oder als Befreierin von entfremdeter Arbeit?
Der Weg dorthin führt über Regulation, zivilgesellschaftliche Kontrolle und die Einsicht, dass Daten nie neutral sind. Wie einst das Internet muss KI dem Gemeinwohl dienen – nicht umgekehrt.