Außerschulische Bildung 3-2024

Wir brauchen Künstliche Intelligenz, die uns nützt

Auf der einen Seite stehen Überschriften wie „KI-Einsatz revolutioniert die Geschäftswelt“ und „Wie Künstliche Intelligenz den Krebs besiegen soll“, auf der anderen heißt es: „KI bedroht die Menschheit“ oder „KI so gefährlich wie Pandemien oder Atomkrieg“. Diese realen Überschriften fassen die Diskussion über KI schon recht gut zusammen. Es gibt Heilsversprechen und düstere Dystopien, dazwischen ist – so wirkt es zumindest – erstaunlich wenig Platz. Außerdem fällt auf: Oft wird die KI dargestellt wie ein Wesen, das selbstständig handelt.

Das beeinflusst auch die Art und Weise, wie Politiker*innen versuchen, diese sogenannte Künstliche Intelligenz zu regulieren. Es geht um die Zähmung dieses wunderlichen Dings, oft als Reaktion auf aktuelle Ereignisse, Angst vor demokratiezersetzender Desinformation vor Wahlen beispielsweise. Oder um Chancen, die man nutzen muss, ganz alternativlos.

Ich würde mir wünschen, wir würden in dieser ganzen Diskussion drei Punkte beachten.

Erstens: Lasst uns genauer sagen, worüber wir reden, wenn wir über „die KI“ sprechen. Geht es um die großen Sprachmodelle wie ChatGPT und Co. oder Bildgeneratoren, die uns auf Aufforderung schnell mit jeder Menge plausibel aussehenden Inhalten versorgen? Geht es um Mustererkennung, die dabei helfen kann, in einer Fabrik Fehler zu erkennen oder auf Röntgenbildern Auffälligkeiten zu entdecken? Geht es um automatisierte Entscheidungssysteme, die irgendwann bestimmen sollen, ob ein Mensch Asyl bekommt oder seine Sozialleistungen gekürzt werden?

Grafik: Erstellt von Tim Schrock; Prompt: „ethical ai“; Software: Stable Diffusion; outpainter.app; Upscayl

Außerdem ist es wichtig, welche Verfahren hinter einem System stecken. Ist es ein super-komplexes neuronales Netz, wo es für die Anwender*innen schwer durchschaubar ist, wie aus einer Eingabe eine bestimmte Ausgabe zustande kommt? Oder gleicht die Anwendung doch einem simplen Entscheidungsbaum wie: Wenn die Raumtemperatur geringer als 18° C ist und der Nutzer mit dem Handy „Frostbeules Smartphone“ im WLAN eingeloggt ist, schalte die Heizung an?

Wenn KI-Anwendungen Vorurteile reproduzieren, dann liegt das an den Vorurteilen, die bereits vorhanden sind.

Schon diese wenigen Beispiele zeigen, dass es „die KI“ nicht gibt. Und genauso können wir „die KI“ nicht regulieren. Wir können uns aber Gedanken darüber machen, wie die Rechte und die Existenz von Kunstschaffenden gesichert werden können. Oder welche Entscheidungen wir in die Hände von Maschinen legen wollen und welche nicht. Und wie nachvollziehbar die noch für einen Menschen sein müssen.

Zweitens: Lasst uns aufhören, KI-Anwendungen zu mystifizieren und zu vermenschlichen. Am Ende sind sie alle: Programmcode, der von Menschen geschrieben wurde. Gefüttert mit Trainingsdaten, die von Menschen erstellt oder zusammengestellt werden, oft unter ausbeuterischen Bedingungen im Globalen Süden. Und damit wird auch die Verantwortung für die Anwendungen klarer: Sie liegt in der Hand derer, die sie entwickeln.

Wenn KI-Anwendungen Vorurteile reproduzieren, dann liegt das an den Vorurteilen, die bereits vorhanden sind. Wer in einer bekannten Übersetzungsanwendung eingibt „the teacher“ lackiert Fingernägel, bekommt zurück: „die Lehrerin“. Werden nicht Fingernägel, sondern Holz lackiert, wird aus dem neutralen „teacher“ plötzlich „der Lehrer“. In diesem Fall ist leicht zu erahnen, wo die entsprechende Verzerrung liegt.

Denken wir an automatisierte Systeme, die von Justiz und Strafverfolgung eingesetzt werden oder über wichtige Bereiche unseres Lebens bestimmen, wiegen die Konsequenzen schwer: Da werden Menschen häufiger kontrolliert und als verdächtig markiert, weil sie nicht weiß sind. Da bekommen Menschen keinen Kredit, weil sie im „falschen“ Stadtviertel wohnen. Da stuft uns das Bewerbungssystem eines künftigen Arbeitgebers als weniger geeignet für den Job ein, weil wir im Videocall nicht vor einem Bücherregal sitzen.

Indem wir von KI als handelndem Wesen reden, als unbegreiflichem – mal faszinierenden, mal beängstigenden – Phänomen, verkennen wir die Verantwortlichkeit für solche Probleme. Und dass wir daran arbeiten können, ihnen zu begegnen. Bei automatisierten Erkennungs- und Entscheidungssystemen muss klar sein, auf welcher Grundlage sie trainiert werden. Nur so kann geprüft und verbessert werden, wenn sie vorverurteilen und diskriminieren. Und wenn wir diese Risiken nicht in den Griff bekommen, dürfen wir die Systeme nicht einsetzen. Schon gar nicht da, wo sie wichtige Entscheidungen treffen oder Menschen dabei unterstützen sollen.

Diese Gelegenheit hat die EU im kürzlich verabschiedeten AI Act verstreichen lassen. Der schränkt zwar KI-Einsatz bei Hochrisiko-Systemen ein, bringt aber im gleichen Zug großzügige Ausnahmen mit, etwa bei der Strafverfolgung oder der Grenzkontrolle. Doch gerade das sind Bereiche, wo Menschen besonders verwundbar sind.

Damit nicht der Profit und der Wert von Unternehmen im Vordergrund steht, müssen wir das Gemeinwohl bei der Entwicklung von KI-Systemen mehr in den Mittelpunkt rücken.

Drittens: Lasst uns mehr darüber reden, was wir wollen und uns wünschen. Gerade entscheiden vor allem große westliche und profitorientierte Konzerne, was entwickelt wird und für wen. Sie präsentieren uns die Ergebnisse und wir staunen. Unternehmen wie OpenAI und andere sind gut darin, den Hype um ihre Produkte zu befeuern, teils mit ungewohnten Marketingmethoden. Etwa indem sie ihre Stimmgeneratoren als so gefährlich darstellen, dass sie erstmal zurückgehalten werden – womit sie sich nebenbei noch als ethische Ritter in glänzender Rüstung inszenieren.

Damit nicht der Profit und der Wert von Unternehmen im Vordergrund steht, müssen wir das Gemeinwohl bei der Entwicklung von KI-Systemen mehr in den Mittelpunkt rücken. Wofür wollen wir solche Systeme nutzen? Wie sollen die Arbeitsbedingungen für diejenigen sein, die zahllose Daten zum Training der Anwendungen aufbereiten? Wie gehen wir mit dem teils immensen Energiehunger von Programmen für generative KI um? Wie transparent müssen die Verfahren sein? Was bringt uns als Gesellschaft wirklich weiter?

Anna Biselli ist Co-Chefredakteurin bei netzpolitik.org. Sie interessiert sich vor allem für staatliche Überwachung und Dinge rund um digitalisierte Migrationskontrolle.
anna@netzpolitik.org