Außerschulische Bildung 3-2024

Die Gesellschaft mit Künstlicher Intelligenz

Zwischen Hoffnung und Herausforderung

Dieser einleitende Beitrag geht sowohl auf Erwartungen und Herausforderungen, die der Einsatz Künstlicher Intelligenz (KI) mit sich bringt, ein, als auch auf Möglichkeiten diesen zu begegnen. Dabei wird ein besonderer Fokus auf Arbeit, Verwaltung, Regierung und Öffentlichkeit gelegt, um die Risiken und Chancen facettenreich zu beleuchten. von Charalampos Babis Karpouchtsis

Im Mai 2024 twitterte der CEO von OpenAI, der Firma hinter ChatGPT, einfach das Wort „Her“. Der Verweis auf den Film „Her“ In „Her“ verliebt sich ein einsamer Schriftsteller namens Theodore in ein fortschrittliches Betriebssystem mit Künstlicher Intelligenz, das sich „Samantha“ nennt und durch seine Fähigkeit zur emotionalen Interaktion eine tiefe Beziehung zu ihm aufbaut. Der Film erkundet die Komplexität menschlicher Emotionen und die Auswirkungen von Technologie auf zwischenmenschliche Beziehungen in einer nahen Zukunft. ist eine Anspielung auf die neueste Version von ChatGPT, die nun sehen, hören und sprechen kann. Die Interaktion mit der Anwendung erhält die Natürlichkeit eines Gesprächs. Die Aktivierung der Handykamera ermöglicht einen direkten Blick in die Umgebung des Nutzers. Neben der bisherigen Schriftform generativer KI-Tools kommt damit die direkte Interaktion ins Spiel. Die Möglichkeiten, eine solche Maschine als Assistent, Freund, Liebhaber, Redakteur, Übersetzer etc. einzusetzen, sind nur durch die Phantasie der Nutzenden begrenzt. Die neuesten Entwicklungen zeigen Möglichkeiten auf, die über Large Language Models und Multimodal Large Language Models Large Language Models (LLMs) sind KI-Systeme, die mithilfe umfangreicher Textdaten trainiert werden, um menschliche Sprache zu verstehen und zu erzeugen. Multimodal Large Language Models erweitern diese Fähigkeit, indem sie zusätzlich zu Text auch andere Datentypen wie Bilder, Audio oder Videos verarbeiten und verstehen können, um komplexere Aufgaben zu lösen. hinausgehen. Eine solche tief integrierte, präzise und interaktiv agierende KI ist in hohem Maße in der Lage, aus einer Situation Schlussfolgerungen zu ziehen und sich selbst weitere Aufgaben zu geben. Eine einzige Aufforderung oder Frage löst eine Kette von Befehlen aus, die sich die KI selbst gibt. Diese KI wird auch „Agent“ genannt, weil sie durch einen Auftrag weitere Aufträge generiert.

Inzwischen geht es nicht mehr um die Frage ob neue KI-Technologien überall eindringen und mehrere Bereiche über Gesundheit und Sicherheit bis hin zur Produktion und Information verändern werden. Vielmehr geht es um die Frage, wie sich die Gesellschaft verändert und welche Folgen, Risiken und Chancen die Technologie für Mensch und Gesellschaft haben kann. Denn mit dem Fortschritt von KI-Anwendungen und verwandten Technologien gehen tiefgreifende gesellschaftliche Veränderungen einher. Auf der einen Seite stehen Effizienz- und Innovationsvorteile, auf der anderen Seite finden sich auch große Herausforderungen. Diese müssen adressiert werden um sicherzustellen, dass KI einen positiven Beitrag für die Gesellschaft leistet. Schließlich geht es um die Frage, wie wir mit KI in der Gesellschaft leben wollen. Welches sind die relevanten Entwicklungen, die einen direkten oder baldigen Impact auf die Gesellschaft haben (könnten) und was bedeutet das für die Menschen und für die Demokratie?

Erwartungen an die „allgegenwärtigen Algorithmen“ und die Zukunft der Arbeit

Es wird allgemein erwartet, dass sich die KI-Technologie exponentiell entwickeln wird (vgl. Mainzer 2019). Algorithmen und generative KI wird inzwischen in der Text-, Bild- und Bewegungserkennung sowie Big-Data-Verfahren zur Datenerkennung und Kategorisierung breit angewendet. Durch Big-Data-Analysen werden für das menschliche Auge unsichtbare Zusammenhänge und Dynamiken sichtbar. Diese Verfahren sind auch für verschiedenste reale Anwendungen vorteilhaft, etwa in einer Produktionsstraße, in der ein Fehler schnell erkannt, eine Unfallgefahr sichtbar oder die Sicherheitslücke einer Anlage oder eines Systems offensichtlich wird. Damit verändert KI unsere Umwelt, aber auch die Wahrnehmung dieser und gleichzeitig die Interaktion zwischen Mensch und Maschine. Einerseits werden Maschinen weitgehend autonom arbeiten können, andererseits wird erwartet, dass Menschen anders arbeiten werden (vgl. Rovzanec et al. 2022). Die zu erwartende Beschleunigung der Produktion hat einen enormen Einfluss auf die Arbeitswelt, der jedoch schwer vorhersehbar ist. Wenn wir an die verschiedenen Revolutionen in der Arbeitswelt denken, befinden wir uns mitten in der vierten industriellen Revolution, wenn nicht bereits am Anfang einer fünften.

Industrie 4.0 bezeichnet die vierte industrielle Revolution, die durch die umfassende Digitalisierung und Vernetzung der industriellen Produktion gekennzeichnet ist. Dies beinhaltet die Nutzung von Cyber-Physischen Systemen (CPS), dem Internet der Dinge (IoT), Künstlicher Intelligenz (KI) und Big-Data, um intelligente Fabriken (Smart Factories) zu schaffen. Ziel ist es, Produktionsprozesse effizienter, flexibler und individueller zu gestalten.

Die Vorstellungen über die Zukunft der Arbeit gehen auseinander. Zu den positiven Entwicklungen gehört die Verringerung repetitiver und mechanischer Arbeit. Dies soll nicht nur die menschliche Arbeitskraft entlasten, sondern auch zu Effizienz- und Qualitätssteigerungen führen. KI soll auch Innovationspotenziale in der Produktion und Herstellung von Produkten und Gütern ermöglichen, da durch Big-Data-Analysen sowohl Konsumenten als auch Ressourcen und deren Allokation zusammengeführt werden können (vgl. Rane 2023). Diese Entwicklung ist jedoch nicht ohne Risiken, da insbesondere die Abhängigkeit von der Technologie und der Verlust menschlicher Fähigkeiten, aber auch die Belastung der Umwelt und die Zunahme sozialer Ungleichheiten zu berücksichtigen sind. Darüber hinaus wird befürchtet, dass der massive Einsatz von KI zu Massenarbeitslosigkeit führen könnte, obwohl auch davon ausgegangen wird, dass es zu einer Steigerung der Nachfrage nach spezialisierten Arbeitskräften kommen wird (vgl. Bordot 2022). Weitere Bedenken ergeben sich aus ethischen Gesichtspunkten. Sie betreffen das Management der Arbeit und die Selbstbestimmung und Freiheit der Arbeitenden (vgl. Huchler 2023). Arbeit ist ein Eckpfeiler der Gesellschaft. Damit werden die Auswirkungen und Veränderungen in der Arbeitswelt die gesamte Gesellschaft betreffen.

Auch akademische Tätigkeiten verändern sich durch den Einsatz von KI. Es zeigt sich, dass insbesondere Wissenschaftler*innen hohe Erwartungen und großes Vertrauen in die KI-Technologien haben. Damit verbunden ist die Erwartung, dass sich ihr eigener Output sowohl quantitativ als auch qualitativ verbessern wird. Dies ist jedoch sowohl fragwürdig als auch risikobehaftet. Ein zu hohes Vertrauen in KI kann zum Verlust von Fähigkeiten oder Innovationspotenzial führen und die Fehleranfälligkeit des wissenschaftlichen Outputs erhöhen (vgl. Messeri/Crockett 2024). Doch auch Staatsapparat und Regierung bleiben von KI nicht unberührt.

Der KI-Staat, aber welcher? Veränderungen in Verwaltung und Regierung

Es lohnt sich, zunächst Anwendungsbeispiele in verschiedenen Staaten zu betrachten, um dann einen Blick auf andere Verfahren zu werfen. In der Zusammenschau zeigen sich Risiken und Chancen für Demokratien und ihre Systeme, aber auch die Möglichkeiten für autoritäre Systeme. In Deutschland wird strikt zwischen Verwaltung und Regierung unterschieden, in der englischsprachigen Literatur werden beide jedoch häufig unter dem Begriff „Government Services“ zusammengefasst. Unabhängig von dieser strikten Trennung ist die Anwendung von KI in verschiedenen Prozessen, die beide Bereiche betreffen, bereits Realität (vgl. Lucke 2024). Ein Beispiel ist der Prototyp F13, ein System zur Unterstützung von Verwaltungsmitarbeitenden, das von der Firma Aleph Alpha in Kooperation mit dem Land Baden-Württemberg entwickelt wurde. Der Prototyp F13 unterstützt – nach Angaben der Projektverantwortlichen – bei der Recherche und Texterstellung nach den Vorgaben der Landesverwaltung und nutzt dabei interne Wissensdatenbanken unter strikter Einhaltung des Datenschutzes. Die KI arbeite vertraulich und nachvollziehbar und könne die Quellen der bereitgestellten Informationen angeben.

Screenshot vom 29.03.2024

In anderen Ländern werden KI-Chatbots zur Beantwortung von Verwaltungsfragen eingesetzt. So versucht Griechenland mit der Anwendung mAIgov eine Art KI-Bürgeramt zu schaffen, das klar und präzise Orientierung und Klärung bei/vor/statt von Behördengängen bietet. Auch in den Verwaltungsapparaten der Parlamente wird KI inzwischen eingesetzt, sei es bei der Erstellung und Vorbereitung von Gesetzestexten oder bei der Bewertung und Übereinstimmung bzw. Widersprüchlichkeit von Gesetzestexten (vgl. Lucke/Fitsilis 2023). Auch staatliche Behörden wie Finanz- und Bürgerämter verfügen über zahlreiche Daten, die in anonymisierter Form genutzt werden könnten. Denkt man an den Datenschatz eines Staates, so könnte Big-Data zur Gestaltung der Gesellschaft genutzt werden, um die Anzahl der Krippenplätze, der Schulgebäude in einer Region, des Lehrpersonals etc. genauer zu prognostizieren und zu planen. Das dafür notwendige Government Data Mining kann aber auch Risiken bergen.

In der Zusammenschau zeigen sich Risiken und Chancen für Demokratien und ihre Systeme, aber auch die Möglichkeiten für autoritäre Systeme.

Dies wird besonders deutlich, wenn wir einerseits an operationalisierbare psychologisch-menschliche Prozesse wie den Myside bias oder den self-confirmation bias denken (vgl. Stanovich 2021). In Kombination mit Big-Data-Analysen kann eine Synergie entstehen, um Verhaltensänderungen herbeizuführen – sogenannte Nudges (vgl. Thaler/Sunstein 2009). Durch KI und algorithmische Auswertung der Kommunikation kann eine „Feedbackschleife“ geschaffen werden (vgl. Jesse/Jannach 2021; Wagner 2021), indem überprüft wird, ob die Kommunikation zum gewünschten Verhalten führt, woraufhin die Kommunikation und die Auswertung weiter verbessert werden, um das gewünschte Verhalten zu erzeugen.

Insgesamt können Big-Data-Analysen in Kombination mit anderen algorithmischen Verfahren und generativer KI eine Vielzahl von Aufgaben übernehmen (eine Auflistung realer Anwendungen und deren Erfolge und Misserfolge wird zweiwöchentlich im AlgorithmWatch-Newsletter vorgestellt; AlgorithmWatch 2024). Ein Beispiel ist die Überwachung von Menschenmengen oder bestimmten Orten mit Sensoren und Kameras. Dies soll einerseits zur Erhöhung der öffentlichen Sicherheit führen, kann aber zur direkten und indirekten Massenüberwachung der Bevölkerung genutzt werden. Dieses orwellsche Szenario ist nicht nur düster für die Zukunft, sondern birgt auch viele Gefahren für die Bürger*innen selbst durch False Positives (z. B. wenn automatisierte Gesichtserkennung zu falschen Verhaftungen führt). Zudem führen solche Verfahren zu einem Vertrauensverlust in demokratische Institutionen. Ob solche Anwendungen an der EU-Außengrenze oder in einer europäischen Innenstadt eingesetzt werden, ist keine Frage des „ob“, sondern des „wann“ und unter welchen Bedingungen. Die „Black-Box-Funktion“ algorithmischer Verfahren, die nicht vollständig nachvollziehbar und erklärbar sind, stellt eine Herausforderung für Demokratie und Rechtsstaat dar (vgl. Webb 2019; Rudin 2018). Wissenschaftler*innen sehen darin eine der Gefahren für die Aushöhlung der Demokratie. Gleichzeitig sind sie nützliche Werkzeuge im Baukasten autoritärer Regime (vgl. McQuillan 2023).

Algorithmische Kuratierung und Empfehlungssysteme – eine allumfassende Veränderung

Kommunikation und Informationsvermittlung verändern sich bereits stark, insbesondere durch Social Media und Online-Dienste. Verschiedene KI-Verfahren spielen dabei eine zentrale Rolle. Algorithmische Kuratierung, die zum Beispiel Filme auf Netflix empfiehlt oder Vorschläge auf Instagram macht, verbessert das Konsumerlebnis. Darüber hinaus wird generative KI für individualisierte Kommunikation eingesetzt, etwa durch Chatbots oder Avatare. Diese Entwicklungen können gesellschaftspolitisch brisant werden, da personalisierte bzw. individualisierte Inhalte zur Stärkung eigener Positionen führen können. Dies ist insbesondere bei politischen und Nachrichteninhalten relevant, da Algorithmen den politischen Diskurs beeinflussen können, indem sie Voreingenommenheit verstärken, um Klicks zu generieren. Gezielte algorithmische Personalisierung kann aber auch zur Deradikalisierung und Dialogförderung beitragen (vgl. Santos et al. 2021). Die Befürchtung, dass Plattformen die Wählerschaft beeinflussen könnten und zur Polarisierung der Gesellschaft beitragen können, führt zur Diskussion über die „weaponisation of social media“ (Singer/Brooking 2018).

Die Kombination von algorithmischer Personalisierung und generativer KI eröffnet vielfältige Anwendungsmöglichkeiten, insbesondere in der politischen und Regierungskommunikation. Ein Beispiel ist der KI-generierte Avatar der ukrainischen Regierung, der seit Mai 2024 als außenpolitische Sprecherin agiert, bei dem die Inhalte zwar von Menschen erstellt werden, der öffentliche Auftritt aber von der KI übernommen wird. Dieses Paradigma könnte sich weiterverbreiten und dazu führen, dass ein Teil der Regierungskommunikation auf KI verlagert wird. So wäre es beispielsweise denkbar, dass Regierungskommunikation und Informationsarbeit bald weitgehend durch KI-Chatbots unterstützt oder sogar in Teilen ersetzt werden.

Kommunikation und Informationsvermittlung verändern sich bereits stark, insbesondere durch Social Media und Online-Dienste. Verschiedene KI-Verfahren spielen dabei eine zentrale Rolle.

Im Rahmen der Regierung werden algorithmische Verfahren in Kombination mit generativer KI weiter an Bedeutung gewinnen. Die Möglichkeit, in Krisensituationen automatisiert zu kommunizieren, um Evakuierungs- oder Schutzanweisungen zu geben, oder die Möglichkeit, Menschen bei Pandemien und anderen öffentlichen Gefahren mit präzisen Inhalten anzusprechen, scheint attraktiv. Die Veränderung der Kommunikation zwischen Bürger*innen mit der Regierung ist ein qualitativer Unterschied zu allem was es bisher gab, weil die politische Öffentlichkeit grundlegend verändert wird. Zum ersten Mal wird die Kommunikation von one to many (Regierung zu Bürger*innen) auch umgekehrt zu many to one (von Bürger*innen zur Regierung) durch eine Feedbackschleife möglich (vgl. Schäfer/Karpouchtsis/Schaal 2023), und das ohne aktive Kommunikation. Die hier dargestellten Veränderungen bergen sowohl Chancen als auch Herausforderungen insbesondere für den gesellschaftlichen Zusammenhalt, die politische Öffentlichkeit und die Funktionsfähigkeit der Demokratie und ihrer Institutionen. Hier gehen wir auf die Risiken ein, die die Gesellschaft und die Demokratie treffen können.

„Die Vorstellungen über die Zukunft der Arbeit gehen auseinander. Zu den positiven Entwicklungen gehört die Verringerung repetitiver und mechanischer Arbeit.“ Grafik: Erstellt von Tim Schrock; Prompt: „robot carrying gifts, ink draw illustration”, Software: deepai.org; outpainter.app; Upscayl

Zusammenfassung von Risiken

Fragmentierung der Öffentlichkeit

Die Fragmentierung der Öffentlichkeit ist bereits Realität (vgl. Ritzi 2022; Rau/Stier 2019). KI kann hier eine doppelte Rolle spielen: Sie kann entweder eine gemeinsame Öffentlichkeit unterstützen oder sie weiter fragmentieren. Der menschliche Faktor darf jedoch nicht vernachlässigt werden. Algorithmen zielen u. a. darauf ab, mehr Klicks und Aufmerksamkeit zu generieren, aber die Nutzer*innen haben die Freiheit, ihren Zugang zur Öffentlichkeit zu gestalten. Hierbei kann algorithmische Kuratierung – der Nachrichten oder der sozialen Medien – eine enorme Rolle zur weiteren Verengung oder Verbreitung des Informationsflusses spielen.

Die Veränderung der Kommunikation zwischen Bürger*innen mit der Regierung ist ein qualitativer Unterschied zu allem was es bisher gab, weil die politische Öffentlichkeit grundlegend verändert wird.

Amplifizierung von Desinformation und Angriffe auf die Öffentlichkeit

Künstliche Intelligenz spielt eine immer wichtigere Rolle bei der Verbreitung von Desinformation in die Breite (allgemein) als auch in die Tiefe (zielgerichtet und präzise auf bestimmte Gruppen). Fortgeschrittene Algorithmen ermöglichen es, personalisierte Desinformationskampagnen effizient zu gestalten, indem sie Inhalte erstellen, die auf die psychologischen Profile der Nutzer*innen zugeschnitten sind. Dies erhöht die Gefahr der Manipulation und Polarisierung, da bestehende Überzeugungen verstärkt und kritisches Denken untergraben werden. Besonders besorgniserregend sind Deepfakes, die realistisch wirkende, aber falsche audiovisuelle Inhalte erzeugen und das Vertrauen in authentische Informationsquellen untergraben. Die Herausforderung besteht nur in Teilen darin, Mechanismen zu entwickeln, die die Erkennung und Eindämmung von KI-gestützter Desinformation ermöglichen, um die Integrität der öffentlichen Meinungsbildung zu schützen. Die eigentliche Gefahr liegt im schleichenden Vertrauensverlust in Medien, öffentliche Diskussionen und Institutionen, was einen konstruktiven und inklusiven Dialog erschwert.

Black-Box-Gesellschaft

Das genannte Phänomen der Black-Box-Society hängt mit der Unnachvollziehbarkeit algorithmischer Entscheidungen zusammen. Je mehr solche Systeme institutionelles Handeln in Justiz, Verwaltung und Bürokratie ersetzen und die Nachvollziehbarkeit von Entscheidungen für Bürger*innen erschweren, desto weniger Vertrauen werden staatliche Institutionen genießen. Das kann zur Destabilisierung des Systems führen.

Szenario: absolute Personalisierung

Die Kombination von algorithmischer Personalisierung und generativer KI kann zu einer Entkopplung von Individuum und Öffentlichkeit führen. Dieses Szenario sieht eine Verbesserung und tiefe Integration fortgeschrittener KI-Technologien vor. Man kann sich das vorstellen wie einen integrierten Assistenten, der über das Mobiltelefon oder Wearables mit der nutzenden Person kommuniziert, diese immer besser kennt und erkennt und mit ihr ganz personalisiert interagiert. Dabei werden auch KI-generierte Inhalte immer stärker personalisiert und zugeschnitten. Das eigene Weltbild wird nur zufällig in Frage gestellt oder kritisiert. Die Menschen werden zunehmend konfliktunfähig und intolerant gegenüber anderen Meinungen und Ansichten, was in die Unfähigkeit münden könnte, sich mit anderen Menschen und Fakten auseinanderzusetzen, oder andere Weltsichten zu tolerieren. Eine Zersetzung der Öffentlichkeit wäre die Folge.

Wachsende soziale Ungleichheit – national und global

Verschiedene Überlegungen zur Zukunft der Arbeit wurden bereits angeschnitten. Es könnte einen Punkt geben, an dem das Ungleichgewicht zwischen KI und menschlicher Arbeit so groß wird, dass wirtschaftliche und soziale Probleme entstehen (vgl. Occhipinti et al. 2024). Dies könnte soziale Ungleichheiten verstärken, den gesellschaftlichen Zusammenhalt verringern und zu mehr Spannungen führen. In einem solchen Fall wären dauerhafte staatliche Interventionen notwendig, um die Stabilität zu wahren. Global gesehen müssen auch aktuelle digitale Dienstleistungsketten berücksichtigt werden, wie z. B. die Datenkategorisierung, die oft in digital fortgeschrittenen, aber ärmeren Ländern in Afrika und Asien stattfindet. Der Einsatz von KI für diese Aufgaben kann Wirtschaftsmodelle disruptiv verändern und Einkommensverluste für diese Länder bedeuten, was sich wiederum in der regionalen und globalen sozialen Ungleichheit widerspiegeln würde. Die Destabilisierung anderer Regionen beeinflusst auch die Stabilität der EU und der hiesigen Gesellschaften.

Herausforderungen begegnen, Chancen nutzen!

Den Herausforderungen muss begegnet werden. Es stellt sich die pragmatische Frage, in welcher Gesellschaft und in welcher Welt wir mit KI leben wollen. Paradoxerweise ist die Lösung für viele Herausforderungen oft „mehr KI“. Ein einleuchtendes Beispiel dafür ist die Erkennung von Fakes und Desinformation, die durch KI erheblich verbessert werden kann. Fragen des institutionellen Vertrauens müssen durch erklärbare und nachvollziehbare KI-Modelle sowie durch menschliche Aufsicht („human oversight“) oder andere Kontrollmechanismen stets verbessert werden. Ein Beispiel hierfür ist die Reproduktion von Bias in KI-Systemen. Wenn die Entwicklungsteams vom Bias im System erfahren, können sie Korrekturen und Gewichtungen vornehmen, um Voreingenommenheit zu mindern.

Der Vertrauensverlust in Institutionen kann auch dadurch gemildert werden, dass KI zur Verbesserung staatlicher Dienstleistungen und der Verwaltung eingesetzt wird, was einen realen Mehrwert für die Bürger*innen darstellt und vertrauensfördernd wirkt. Damit zusammenhängend könnte man auch wachsenden Disparitäten begegnen. Diese bestehen bereits jetzt innerhalb der europäischen Gesellschaften und auf nationaler Ebene. Der Umgang damit ist Teil der Demokratie und der sozialen Problemlösungsansätze, die kontinuierlich herausgefordert und überdacht werden müssen. In welche Richtung sich ein regulatorischer Rahmen soziopolitisch, staatlich oder gesellschaftlich und ökonomisch entwickeln wird, bleibt zu sehen und sollte von den Bürger*innen mitgestaltet werden.

Es stellt sich die pragmatische Frage, in welcher Gesellschaft und in welcher Welt wir mit KI leben wollen. Paradoxerweise ist die Lösung für viele Herausforderungen oft „mehr KI“. Ein einleuchtendes Beispiel dafür ist die Erkennung von Fakes und Desinformation, die durch KI erheblich verbessert werden kann.

Besonders interessant wird die Frage der absoluten Verkapselung der Person bzw. der Entkopplung des Menschen von der politischen Öffentlichkeit. Ähnlich wie bei den Empfehlungssystemen von Streamingdiensten, Konsumseiten und sozialen Medien könnte ein „politisches Empfehlungssystem“ entstehen. Ein KI-Assistenzsystem, das seine Nutzer*innen gut kennt und Film- oder Nachrichtenempfehlungen macht, könnte auch auf politisch relevante Entwicklungen lokal, regional, national und international aufmerksam machen. Es könnte beispielsweise einer Forscherin mitteilen, dass Gesetzesänderungen zur Beschäftigung von Universitätsangestellten diskutiert werden, sie über verschiedene Positionen und Stakeholder informieren und Wege aufzeigen, sich zu beteiligen oder weiter zu informieren. Solche Systeme würden die politische Öffentlichkeit zwar massiv verändern, aber nicht zersetzen oder abbauen. Wir hätten ein Empfehlungssystem der politischen Information und Partizipation.

Die Möglichkeit, die Technologien in beide Richtungen zu denken und zu nutzen, ist gegeben. Die Frage wie wir mit KI leben möchten ist und bleibt weiter aktuell. Doch die Welt wird nicht anhalten, damit wir diese Debatte führen können, da wir uns mitten in der Veränderung befinden. Es ist umso bedeutender, Orientierung an Werten des gesellschaftlichen Zusammenhalts und der Demokratie zu finden, um die Potenziale von KI im Sinne der Gesellschaft hier und anderswo einzusetzen.

Zum Autor

Dr. Charalampos Babis Karpouchtsis ist Politikwissenschaftler und wissenschaftlicher Mitarbeiter am Lehrstuhl für Politische Theorie der Helmut-Schmidt-Universität/Universität der Bundeswehr Hamburg. Er arbeitet am Democratic Resilience Center und ist unter anderem zuständig für das Projekt KI und öffentliche Kommunikation. Zu seinen Forschungsschwerpunkten gehören Conflict Studies, Künstliche Intelligenz und Öffentliche Kommunikation sowie Internationale Beziehungen und Versöhnungspolitik.
karpoucc@hsu-hh.de

Literatur

AlgorithmWatch (2024): Automated Society – AlgorithmWatch; https://automatedsociety.algorithmwatch.org/#/de/archive; zuletzt aktualisiert am 15.04.2024 (Zugriff: 10.06.2024)
Bordot, Florent (2022): Artificial Intelligence, Robots and Unemployment: Evidence from OECD Countries. In: Journal of Innovation Economics & Management N° 37 (1), S. 117–138
Huchler, Norbert (2023): Arbeiten mit Künstlicher Intelligenz. Wie KI Arbeit strukturiert und was sie mit der indirekten Steuerung verbindet. In: WSI 76 (5), S. 365–373
Jesse, Mathias/Jannach, Dietmar (2021): Digital nudging with recommender systems: Survey and future directions. In: Computers in Human Behavior Reports 3, S. 100052
Lucke, Jörn von (2024): Regieren und Verwalten im Informationszeitalter. Abschlussbericht des Forschungsprojektes „Regieren und Verwalten im Informationszeitalter“ am Forschungsinstitut für öffentliche Verwaltung bei der Deutschen Hochschule für Verwaltungswissenschaften Speyer. Projektleiter: Univ.-Prof. Dr. Heinrich Reinerma. Berlin: Duncker & Humblot (Schriftenreihe der Hochschule Speyer)
Lucke, Jörn von/Fitsilis, Fotios (2023): Using Artificial Intelligence in Parliament – The Hellenic Case. In: Lindgren, Ida/Csáki, Csaba/Kalampokis, Evangelos/Janssen, Marijn/Viale Pereira, Gabriela/Virkar, Shefali et al. (Eds.): ELECTRONIC GOVERNMENT. 22nd ifip wg 8.5 international conference, egov 2023, Bd. 14130. (S.l.): SPRINGER INTERNATIONAL PU (Lecture Notes in Computer Science), pp. 174–191
Mainzer, Klaus (2019): Künstliche Intelligenz – Wann übernehmen die Maschinen? Berlin/Heidelberg: Springer
McQuillan, Dan (2023): Resisting AI. An anti-fascist approach to artificial intelligence. Bristol: Bristol University Press (Policy Press scholarship online)
Messeri, Lisa/Crockett, Molly J. (2024): Artificial intelligence and illusions of understanding in scientific research. In: Nature 627 (8002), pp. 49–58
Occhipinti, Jo-An/Prodan, Ante/Hynes, William/Green, Roy/Burrow, Sharan/Eyre, Harris A. et al. (2024): The recessionary pressures of generative AI: A threat to wellbeing; http://arxiv.org/pdf/2403.17405v1 (Zugriff: 17.06.2024)
Rane, Nitin (2023): ChatGPT and Similar Generative Artificial Intelligence (AI) for Smart Industry: Role, Challenges and Opportunities for Industry 4.0, Industry 5.0 and Society 5.0. In: SSRN Journal; https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4603234 (Zugriff: 17.06.2024)
Rau, Jan Philipp/Stier, Sebastian (2019): Die Echokammer-Hypothese: Fragmentierung der Öffentlichkeit und politische Polarisierung durch digitale Medien? In: Z Vgl Polit Wiss 13 (3), S. 399–417
Ritzi, Claudia (2022): Politische Öffentlichkeit zwischen Vielfalt und Fragmentierung. In: Weinstock, Maja (Hrsg.): Carbon queen. The remarkable life of nanoscience pioneer Mildred Dresselhaus. Cambridge Massachusetts: The MIT Press, pp. 61–82
Rovzanec, Jovze M./Novalija, Inna/Zajec, Patrik/Kenda, Klemen/Tavakoli, Hooman/Suh, Sungho et al. (2022): Human-centric artificial intelligence architecture for industry 5.0 applications. In: International Journal of Production Research 61, pp. 6847–6872
Rudin, Cynthia (2018): Stop explaining black box machine learning models for high stakes decisions and use interpretable models instead. In: Nature Machine Intelligence, 18.11.2018
Santos, Fernando P./Lelkes, Yphtach/Levin, Simon A. (2021): Link recommendation algorithms and dynamics of polarization in online social networks. In: Proceedings of the National Academy of Sciences of the United States of America 118 (50)
Schäfer, Philip J./Karpouchtsis, Charalampos B./Schaal, Gary S. (2023): Bericht zur Konferenz Politische Kommunikation und KI – Chancen und Herausforderung für die Regierungskommunikation. In: ZfAS 16, S. 199–203; https://doi.org/10.1007/s12399-023-00945-9 (Zugriff: 17.06.2024)
Singer, Peter W./Brooking, Emerson T. (2018): Likewar. The weaponization of social media. Boston: Houghton Mifflin Harcourt an Eamon Dolan Boo
Stanovich, Keith E. (2021): The bias that divides us. The science and politics of myside thinking. Cambridge, Massachusetts: The MIT Press
Thaler, Richard H./Sunstein, Cass R. (2009): Nudge (electronic resource). Improving decisions about health, wealth, and happiness. In: Thaler, Richard H./Sunstein, Cass R.: Revised and expanded edition. New York: Penguin Books
Wagner, Dirk (2021): On the emergence and design of AI nudging: the gentle big brother? In: ROBONOMICS: The Journal of the Automated Economy 2, p. 18
Webb, Amy (2019): The big nine. How the tech titans and their thinking machines could warp humanity. New York: PublicAffairs