Strategie, Rahmungen und Projekte der EU
Die digitale Dekade
Im Politikprogramm „für die digitale Dekade“ der EU werden die Zielstellungen von Digitalpolitik bis 2023 im Sinne der „Stärkung der Handlungsfähigkeit der Bürger und der Unternehmen durch den digitalen Wandel“ formuliert (EU 2022/2481). Zugriff auf alle in diesem Beitrag genannten Links: 20.06.2024 Es gehe dabei um die
„Förderung einer auf den Menschen ausgerichteten, auf Grundrechten beruhenden, inklusiven, transparenten und offenen digitalen Umgebung, in der die Grundsätze, Rechte und Werte der Union durch sichere und interoperable digitale Technik und digitale Dienste gewahrt und gestärkt werden, die für alle überall in der Union zugänglich sind.“
Im Einzelnen wird dies dann näher umrissen:
Bildung: Förderung der „Entwicklung grundlegender und fortgeschrittener digitaler Kompetenzen und Qualifikationen, einschließlich beruflicher Aus- und Weiterbildung sowie lebensbegleitendem Lernen“ mit dem Ziel der „Stärkung der kollektiven Resilienz der Mitgliedstaaten und Überwindung der digitalen Kluft, Erreichung eines ausgewogenen Geschlechterverhältnisses und einer geografischen Ausgewogenheit“.
Digitale Souveränität als wichtiges strategisches Ziel adressiert die globale Unabhängigkeit und Wettbewerbsfähigkeit der EU „insbesondere durch sichere und zugängliche digitale und Dateninfrastrukturen, die große Datenmengen effizient speichern, übertragen und verarbeiten können“. Dabei wird die Transformation der Wirtschaft „insbesondere von KMU, und der Resilienz der Wertschöpfungsketten“ und die Stärkung von Start-ups hervorgehoben.
Datennutzung und Forcierung von Plattformisierung: Daten werden als entscheidende Stellschraube gesehen: „Einführung und Nutzung digitaler Fähigkeiten, die die geografische digitale Kluft verringern und den Zugang zu digitalen Technologien und Daten unter offenen, barrierefreien und fairen Bedingungen gewähren, um einen hohen Grad an digitaler Intensität und Innovation in den Unternehmen der Union, insbesondere in Start-ups und KMU, zu erreichen.“ In der Europäischen Datenstrategie wird dies auf den Punkt gebracht: „Um Europas Potenzial freizusetzen, müssen wir unseren eigenen, europäischen Weg finden, indem wir den Austausch und die breite Nutzung von Daten kanalisieren und gleichzeitig hohe Datenschutz-, Sicherheits- und Ethik-Standards wahren.“ (EC COM 2020/66 final)
Forschung: Bei der Forschungsförderung geht es um den Aufbau leistungsfähiger Infrastrukturen und von digitaler Hochtechnologie innerhalb der EU, die „hohe Sicherheits- und Datenschutzstandards“ erfüllen sollen.
Teilhabe und Staat: Teilhabe wird vor allem als Zugänglichkeit verstanden – „digitale Teilhabe am demokratischen Leben für alle“. Bei der Digitalisierung im öffentlichen Sektor liegt der Fokus auf der breiten Zugänglichkeit öffentlicher Dienstleistungen sowie der Optimierung der „Gesundheits- und Pflegedienste“ auch in ländlichen Gebieten.
Nachhaltigkeit: Dies meint „digitale Infrastrukturen und Technologien einschließlich ihrer Lieferketten nachhaltiger, resilienter und energie- und ressourceneffizienter“ umbauen, als Beitrag zum von der Kommission 2019 ausgerufenen Europäischen Grünen Deal (der die Netto-Treibhausgasemissionen bis 2030 um 55 % senken möchte) (EC COM 2019/640 final).
Public Private Partnership: „Stärkung von Synergien zwischen privaten und öffentlichen Investitionen und der Verwendung von Unionsmitteln und nationalen Mitteln, und durch die Entwicklung vorhersehbarer Regulierungs- und Unterstützungsansätze, die auch die regionale und die lokale Ebene einbeziehen.“
Sicherheit: Insbesondere die „Widerstandsfähigkeit gegenüber Cyberangriffen“ und der „Ausbau der Anstrengungen öffentlicher und privater Organisationen“ werden hier prioritär erwähnt.
Ziele in Bezug auf die Demokratie liefern insofern den regulatorischen Kontext, als sie zwar in den vorausgestellten Erwägungen formuliert werden, nicht in den Zieldefinitionen selbst. Hier werden beispielsweise erwähnt: Beteiligung aller „interessierten Kreise“, „Schwerpunkt auf den Bereich Bildung“ und Qualifizierung von Fachkräften, sowie, dass „Verbesserungen in Bezug auf die Demokratie, die verantwortungsvolle Staatsführung, die soziale Inklusion und effizientere öffentliche Dienste“ mit dem digitalen Wandel einhergehen müssten.
Diese Aspekte legitimieren die konkreten Regulierungsvorhaben, über die im Folgenden gesprochen wird. Auch die „Europäische Erklärung zu den digitalen Rechten und Grundsätzen für die digitale Dekade“ (EU 2023/C 23/01) fasst deklamatorisch die Vorstellungen der EU und ihrer Mitgliedsstaaten zum Wesen der digitalen Transformation und ihren Zielen zusammen.
Demokratie – Wirtschaft – Bildung
Die vorgestellten strategischen Aspekte beschreiben die größere Vision, die neben den beschriebenen Maßnahmen und Teilzielen selbst zum Gegenstand kritischer politischer Bildung werden sollte und an der politische Bildung reale Entwicklungen und Umsetzungen der Digitalisierung messen kann: Ursachen, Akteurskonstellationen und gesellschaftliche Verhältnisse, aus denen Digitalpolitik entwickelt wird, ihre (ideologischen) Rechtfertigungen, ihre Auswirkungen auf Menschen und Gruppen sowie, wie die Pfade der digitalen Transformation mitgestaltet und verändert werden können (vgl. Lösch/Eis 2024, S. 40).
Die vorangestellte Vision ist wiederum in den größeren Kontext der europäischen Verträge eingebettet. Im Vertrag über die Arbeitsweise der EU (AEUV; EU 2007) wird nach ausschließlichen, geteilten und unterstützenden Zuständigkeiten der EU differenziert. Weil Wettbewerbsregeln und Handelspolitik zum ausschließlichen Bereich gehören (Art. 3 AEUV) und weitere wirtschaftsrelevante Aspekte zu den geteilten Zuständigkeiten (Art 4 AEUV) – wie der Binnenmarkt, Sozialpolitik (bezogen etwa auf Lebensbedingungen, Förderung von Beschäftigung oder Arbeitsbedingungen), Verbraucherschutz, transeuropäische Netze, wirtschaftlicher/sozialer/territorialer Zusammenhalt –, ist europäische Digitalpolitik als ein stark von Überlegungen des Marktes getriebenes Projekt zu verstehen.

Lediglich unterstützend ist die EU bei der allgemeinen und beruflichen Bildung, Jugend und Sport, Kultur und im Gesundheitswesen tätig. Sie kann hier Vorschläge und Anreize zur Verbesserung geben. In diesem Sinne ist auch eine politische Bildung des Digitalen formal nicht im Fokus der EU. Sie kann sich jedoch Spielräume eröffnen, indem sie sich auf EU-Programme und Ziele beruft, wenn es ihr um die Förderung digitaler Kompetenzen, bei der Befähigung von Bürger*innen, ihre Grundrechte wahrzunehmen, oder bei der Begleitung digitalpolitischer Vorhaben geht (politische Bildung als Akteurin zur Beteiligung der Bürger*innen, als Ort für Information und Urteilsbildung …).
Zudem ergeben sich aus dem EU-Politikprogramm für die Digitale Dekade 2030 auch Ansprüche der politischen Bildung und der Zivilgesellschaft an die Bundesregierung, sie in ihrer Eigenschaft als relevante Stakeholder besser einzubeziehen. Dies gilt dann auch für die EU-Bildungspolitiken: Der Aktionsplan digitale Bildung (EC COM/2020/624 final) formuliert zum Beispiel den von den Mitgliedsstaaten umzusetzenden Anspruch zur Förderung digitaler Kompetenz für den Wandel insbesondere auch bei Fachkräften oder dass der digitale Ausbau der Bildung vorankomme (und übrigens auch der Aufbau nationaler Bildungsplattformen). Hier hat politische Bildung prinzipiell etwas beizutragen, das berufliche und allgemeine Bildung nicht leisten. Sie sollte sich mit Verweis darauf deutlicher Gehör in Berlin und Brüssel verschaffen.
Gerade wenn Digitalisierung als ein gesellschaftlicher Transformationsprozess begriffen wird, in dem politische und wirtschaftliche Weichenstellungen in eine tendenziell offene und ungewisse Zukunft wirken möchten, wird klar, dass sich politische Bildung kritisch und konstruktiv mit den aus diesem Dreieck ergebenen Spannungsfeldern beschäftigen muss.
Während Bildung also vor allem Sache der Mitgliedsstaaten ist, hat die EU in Bezug auf Rechtsstaatlichkeit und Grundrechte eine wichtigere Rolle (geteilte Zuständigkeit). Vor allem wird im Lissabon-Vertrag (EU EUV/2016) in Artikel 2 auf die „Achtung der Menschenwürde, Freiheit, Demokratie, Gleichheit, Rechtsstaatlichkeit und die Wahrung der Menschenrechte“ referenziert und in Artikel 3 die EU als „Raum der Freiheit, der Sicherheit und des Rechts ohne Binnengrenzen“ definiert. In Artikel 6 (1) des Lissabon-Vertrags wird auch die Europäische Grundrechtecharta als bindend anerkannt und der Beitritt der EU zur Europäischen Konvention zum Schutz der Menschenrechte und Grundfreiheiten (des Europarats) erklärt.
Somit ist europäische Digitalpolitik an Grundrechte und Menschenrechte gebunden. Jedoch im Gegensatz zum Europarat, dessen oberste Zielebene bei der Entwicklung von Instrumenten zur Steuerung und Rahmung von Digitalpolitik die Menschenrechte sind, gewichtet die EU aufgrund ihrer Verfasstheit und ihres begrenzten Auftrags anders.
Diese Rahmensetzungen in Betracht ziehend kann man europäische Digitalpolitik dennoch in ihrer systemischen Ambition würdigen. Sie ordnet digitalpolitische Vorhaben in eine größere Strategie ein, die auch die Beziehungen der EU zu anderen globalen Akteur*innen einbezieht (insbesondere in Abgrenzung von den USA und China). Sie hat auch erkannt, dass ein zukunftsfähiges Modell generell nur für und mit Bürger*innen funktionieren kann, also keine rein technologieoptimistische Strategie sein kann, die die bei den Bevölkerungen persistente Kritik und das Unbehagen politisch und industriepolitisch auslässt.
Seit der Europäischen Datenschutzgrundverordnung (DSGVO) geht vor allem von Brüssel das Signal aus: Wir ergeben uns nicht der instrumentellen Logik des Datenkapitalismus, sondern arbeiten an der Wiedererlangung politischer Lenkungsfähigkeit. Die Digitalpolitik zielt aber im Kern auf einen digitalen Markt und auf den Aufbau europäischer Wettbewerbsfähigkeit. Erläutert wird dies auch in der europäischen Industriestrategie (EC COM/2020/102 final).
Besonders die Existenz und intensive Nutzung von Daten sind zentrale Stellschrauben der europäischen Digitalvisionen. Die gesondert formulierte Europäische Datenstrategie (EC COM 2020/66 final) erklärt, dass der Anteil der EU an der globalen Datenwirtschaft in Zukunft mindestens ihrer Wirtschaftskraft entsprechen solle. Sie sieht Daten als den entscheidenden Treibstoff („Der eigentliche Wert von Daten liegt in ihrer Nutzung und Weiterverwendung“; EC COM 2020/66 final) und versucht (zuletzt mit dem Data Act; EU 2023/2854) die Begierde der Digitalwirtschaft nach Daten in Balance mit Grundrechten auszutarieren. Am Europäischen Raum für Gesundheitsdaten kann man dies veranschaulichen: Einerseits soll die Weiterverwendung von Gesundheitsdaten für Wirtschaft und Forschung forciert werden, andererseits Einzelnen (auch) Kontrolle über ihre Daten ermöglicht werden.
In den nächsten Abschnitten werden einige europäische digitalpolitische Vorhaben skizziert.
Europäische digitalpolitische Vorhaben
Digital Services Act (DSA)
Der DSA definiert wichtige Regeln für Onlinedienste. Er definiert hierzu „sehr große“ Onlinedienste (Plattformen und Suchmaschinen) und weist ihnen besondere Pflichten zu Berichten, Risikominimierung und Transparenz zu. In „Krisenzeiten“ kann die EU ihnen auch spezifische Maßnahmen als Reaktion auferlegen (genannt sind Moderation, Geschäftsbedingungen und Algorithmen anpassen, Zusammenarbeit mit Hinweisgebern, Sensibilisierung der User und Informationsverbreitung) (DSA, Erwägung 91, Art. 36; EU 2022/2065). Aktuell sind 20 Plattformen und zwei Suchmaschinen als „sehr groß“ eingeordnet.
Besonders hervorzuheben ist das Verbot von personalisierter Werbung bei Minderjährigen (ursprünglich war ihr generelles Verbot im Gespräch; DSA, Art. 28). Auch darf Profilbildung nicht unter Einbezug sensibler persönlicher Informationen geschehen (DSA, Art. 26.3). Außerdem soll bei personalisierten Inhalten transparent werden, wie die Personalisierung geschieht. „Dark Patterns“ werden weiter eingeschränkt, also Techniken, mit denen Anbieter*innen Nutzer*innen zu einer Auswahl oder Entscheidung drängen oder verleiten wollen (DSA, Erwägung 67). Illegale Inhalte müssen leicht zu melden sein, die Position von „trusted flaggers“ (DSA, Art. 22), vertrauenswürdigen Hinweisgebern, etwa aus der Zivilgesellschaft, wird verbessert. Gleichzeitig weisen Forscher*innen in einer Stellungnahme darauf hin, wie die Regeln faktisch in Deutschland umgesetzt werden müssten (vgl. Klinger/Ohme 2023), denn Zugang zu den Schnittstellen der Plattformen ist die Grundlage für ihr Social Media Monitoring und die Meldung von z. B. Hate Speech oder Schadinformation.
Deutschland hat als nationale Koordinationsstelle die Bundesnetzagentur benannt, die mit den anderen Koordinatoren und dem Europäischen Gremium zur Aufsicht zusammenarbeiten soll. Das neue Digitale-Dienste-Gesetz (DDG) setzt den DSA in Deutschland um (das Telemediengesetz und das Netzdurchsuchungsgesetz ersetzend).
Digital Markets Act (DMA)
Das DMA regelt die Verantwortungen von Plattformen im Wettbewerb. Herausgehoben werden sogenannte Gatekeepers mit einem Umsatz über 7,5 Mrd. EUR oder mit einem Marktwert von mindestens 75 Mrd. EUR (DMA, Art. 3; EU 2022/1925), also große Plattformen wie Betriebssysteme, Suchmaschinen, Vermittlungsdienste, Video-Sharing, Browser, Assistenten, Clouddienste, Werbedienste (DMA, Art. 2). Aktuell sind dies sieben Unternehmen. Sie dürfen personenbezogene Daten nicht (mehr) einfach für Werbung nutzen oder mit anderen ihrer zentralen Dienste oder den Diensten anderer verknüpfen (DMA, Art. 5). Die Systeme werden für User geöffnet, etwa durch Interoperabilität und alternative Installationsmöglichkeiten (DMA, Art. 6). Zudem werden kleinere Unternehmen besser geschützt, deren Angebote auf diesen großen Plattformen aufbauen. Die Strafen für Verletzungen der Regeln können bis zu 10 % des weltweiten Jahresumsatzes ausmachen (DMA, Art. 30), die die EU-Kommission verhängt. Im Sommer 2024 wird die erste Strafe auf der Basis des DMA gegen Apple erwartet.
AI Act
Das KI-Gesetz (AI Act) von 2024 kategorisiert Systeme, die mit Künstlicher Intelligenz arbeiten, nach ihrem Risikopotenzial in Systeme mit minimalen Risiken, Hochrisikosysteme und unakzeptabel riskante Systeme (EU PE 24 2024 REV 1). Hochrisikosysteme sind etwa jene für die biometrische Echtzeitüberwachung und die Teil kritischer Infrastruktur sind. Auch KI-Systeme, die in der Bildung und im Arbeitskontext eine Rolle spielen, gelten als hochriskant: Systeme für den Zugang zu Bildung und Arbeit, für die Bewertung von Lernergebnissen, für die Einstufung des Lernniveaus, zur Überwachung und Erkennung verbotenen Verhaltens bei Prüfungen, bei Entscheidungen über Arbeitsbedingungen, Beförderungen, Kündigungen oder Verhaltensbeurteilungen und -messungen. Auch im Behördeneinsatz gelten KI-Systeme als hochriskant, wenn sie automatisiert Entscheidungen über Leistungen treffen, Urteile fällen oder Risikobewertungen vornehmen. Ebenso ist in dieser Liste das Feld Migration und Grenzkontrolle zu finden (AI Act, Anhang III zu Art. 6.2). Für Hochrisikosysteme gelten besondere Kontroll- und Analysepflichten.
Grundmodelle von KI (im KI-Gesetz als „KI-Modelle für allgemeine Zwecke“ bezeichnet) werden besonderen Kontroll- und Dokumentationsregeln aufgrund des potenziellen systemischen Risikos unterworfen. Just zu dem Zeitpunkt, an dem ChatGPT mit seinem Angebot auf den Markt drängte, wurden diese aufgeweicht. Als zu risikoreich gelten die biometrische Kategorisierung von Menschen aufgrund sensibler Eigenschaften (in letzter Minute wurden Ausnahmen für die schwere Strafverfolgung hineinverhandelt). Ebenso ist das ziellose Sammeln von Gesichtsabbildungen für die Identifizierung von Personen, soziales Scoring oder die Ausnutzung von Vulnerabilitäten verboten. Verstöße können mit Strafen von bis zu 7 % des weltweiten Jahresumsatzes geahndet werden, Aufsicht über die Umsetzung des KI-Gesetzes hat das AI-Board. Auch wenn der AI Act den nationalen Gesetzgebern viele Ausnahmen ermöglicht, etwa bei Fragen der nationalen Sicherheit, wäre die Bundesregierung frei, diese nicht zu nutzen und den AI Act in einer wenig aufgeweichten Form umzusetzen. Eine Koalition aus digitalen Bürgerrechtsorganisationen und die europäische Dachorganisation European Digital Rights (EDRi) kritisieren die Ausnahmen und Vagheit in Bezug auf Bürger*innenrechte (vgl. EDRi 2024). Die schnelle Verabschiedung des KI-Gesetzes erklärt sich auch aus dem parallelen Prozess zur „Rahmenkonvention über künstliche Intelligenz, Menschenrechte, Rechtsstaatlichkeit und Demokratie“ des Europarats (Europarat 2024), die 2024 verabschiedet wurde und sicherstellen will, „dass Aktivitäten im Lebenszyklus eines KI-Systems voll mit Menschenrechten, Demokratie und Rechtsstaatlichkeit übereinstimmen“. Auch sie leidet an Aufweichungen (sie gilt z. B. nun nur noch für von öffentlichen Stellen betriebene KI-Systeme und für „private Akteure, die stellvertretend für sie handeln“). Da Deutschland auch Mitglied im Europarat ist und die Konvention eine herausgehobene strategische Bedeutung für den Europarat hat, sei sie an dieser Stelle als wesentlicher Kontext erwähnt.
Plattformarbeits-Richtlinie
Die EU-Richtlinie über Plattformarbeit will die Rechtsposition von Plattformarbeitern als Beschäftigte stärken, da sie bislang oft formal als Selbständige gelten (zumal bei schlechtbezahlter Arbeit wie Gig Work). Nun sollen die Mitgliedsstaaten ihre Regeln so anpassen, dass im Zweifel davon ausgegangen werde, dass es sich um ein abhängiges Beschäftigungsverhältnis handelt (rechtliche Vorannahme), wenn Fakten zeigen, dass die Kontrolle und Weisung bei der Plattform liegen. Des Weiteren sollen digitale Plattformen algorithmische Kontrolle limitieren: Kein Tracking von Gefühlen und psychischen Zuständen, sowie von privaten Unterhaltungen. Keine Sammlung von Daten außerhalb der Arbeitszeit, sowie von Daten, die auf die Wahrnehmung der Arbeitnehmerrechte hinweisen. Auch das Sammeln biometrischer Daten, um sie mit Daten in einer Datenbank abzugleichen, soll verboten werden. In Deutschland muss dies nun in nationales Recht umgesetzt werden und es bleibt abzuwarten, ob die Bundesregierung ihre auf europäischer Ebene gezeigte relativierende Position beibehält oder sich stärker für Plattformarbeitende einsetzen wird.
Neue Ökodesign-Regeln
Aus dem Aktionsplan für Kreislaufwirtschaft (EC COM 2020/98 final) werden besonders für den Bereich der Informationstechnik relevante Maßnahmen für verbesserte „Haltbarkeit, Wiederverwendbarkeit, Nachrüstbarkeit und Reparierbarkeit von Produkten“ abgeleitet. Dazu gehört das zentrale Vorhaben eines Rechts auf Reparatur. Dies soll in einer neuen Ökodesign-Richtlinie (Ecodesign for Sustainable Products Regulation ESPR) umgesetzt werden, auf deren Grundzüge sich Europaparlament, Kommission und Rat noch kurz vor den EP-Wahlen 2024 einigten.
Europäische-Digitale-Identität (EUDI)
Die Regulierung forciert die Einführung von Identitäts-Brieftaschen in allen EU-Mitgliedsstaaten bis 2026. Sie sollen für „alle natürlichen und juristischen Personen in der Union einen sicheren, vertrauenswürdigen und nahtlosen grenzüberschreitenden Zugang zu öffentlichen und privaten Diensten“ ermöglichen (EU 2024/1183), also zur Ausweisung und Anmeldung. Dabei ist eine Integration von datenschutzfreundlichen Verfahren wie „zero knowledge proofs“ (Identifizierung durch Beweise, die nur man selbst erbringen kann) oder Pseudonymisierung vorgesehen, ebenso eine lokale Verschlüsselung der hinterlegten Daten. Das Vorhaben trifft auch auf Kritik, dass Personendaten auch als Ergänzung von Nutzer*innenprofilen genutzt werden können oder dass Dienste mehr Daten als erforderlich abfragen könnten (vgl. Leisegang 2024).
Digitaler Euro, bargeldloses Bezahlen
Mit einem von der Europäischen Zentralbank ausgegebenen digitalen Euro würden Bürger*innen direkte Kunden der EZB und Eurobeträge in einer eigenen digitalen Brieftasche aufbewahren können. Auf der Basis eines Berichts über die erste Untersuchungsphase (vgl. EZB 2023) wird nun die Umsetzung geplant. Die EZB hebt hierbei besonders hervor, dass mit dem digitalen Euro eine sichere und datenanalysefreie Ergänzung bisheriger Zahlungsmittel möglich wäre. Damit steht sie in Konkurrenz zum von aktuell vierzehn in der European Payment Initiative (EPI) organisierten Banken vorangetriebenen Projekt wero. Dies ist eine Instant-Paymentlösung, die integriert in die Bankapps der teilnehmenden Banken und als unabhängige App funktioniert.
Chatkontrolle – Bekämpfung des sexuellen Missbrauchs von Kindern
Die geplante Verordnung zur „Festlegung von Vorschriften zur Prävention und Bekämpfung des sexuellen Missbrauchs von Kindern“ geht in ihren Mitteln weit über Kindesmissbrauch hinaus und wird deshalb in Deutschland als „Chatkontrolle“ diskutiert. Um illegales Material aufzufinden, müssten alle Chats und Kommunikationen durchsuchbar werden. Dies betrifft auch verschlüsselte Kommunikation. Der Bundesdatenschutzbeauftragte kommt (wie sein europäisches Pendant) etwa zum Schluss: „die sogenannte ‚Chatkontrolle‘ bietet kaum Schutz für Kinder, wäre aber Europas Einstieg in eine anlasslose und flächendeckende Überwachung der privaten Kommunikation“ (BfDI 2022, S. 45). Das Vorhaben verfolgt eine ähnliche Zielsetzung wie die von der EU-Kommission eingesetzte hochrangige „Arbeitsgruppe für den Zugang zu Daten für effektive Strafverfolgung“ (High-Level Group on access to data for effective law enforcement), die Zugriff auf Verschlüsselung und Vorratsdatenspeicherung empfiehlt (vgl. HLG 2024).

Schlussfolgerungen
Die Beispiele und Strategien der EU-Digitalpolitik zeigen, dass Wirtschafts-, Grundrechts- und Gesellschaftspolitik sowie Technologiepolitik miteinander verwoben sind. Die dabei immer wieder auftretenden Dilemmata im Dreieck Technologie-Grundrechte-Markt sind der digitalen Transformation immanent. Gerade wenn Digitalisierung als ein gesellschaftlicher Transformationsprozess begriffen wird, in dem politische und wirtschaftliche Weichenstellungen in eine tendenziell offene und ungewisse Zukunft wirken möchten, wird klar, dass sich politische Bildung kritisch und konstruktiv mit den aus diesem Dreieck ergebenen Spannungsfeldern beschäftigen muss.
Politische Bildung verfügt über das methodische und analytische Instrumentarium, systemische Bezüge pädagogisch zu integrieren und somit gesellschaftliche Komplexität erlernbar und besprechbar zu machen.
Ungeachtet der manchmal etwas spröden Sprache europäischer Politikgestaltung, bietet jedes der zuvor vorgestellten Politikfelder und konkreten Vorhaben Stoff für den Einstieg in eine lebensnahe politische Bildung. Es kommt umso mehr darauf an, sie auf die konkrete Lebenswelt herunterzubrechen, also zu überlegen, was daraus für das Leben Einzelner konkret folgen kann bzw. soll.
Hier wird ein Qualitätsmerkmal politischer Bildung sichtbar. Sie verfügt über das methodische und analytische Instrumentarium, systemische Bezüge pädagogisch zu integrieren und somit gesellschaftliche Komplexität erlernbar und besprechbar zu machen.
Gleichzeitig liegt der Schwerpunkt von Demokratie- und Menschenrechtsbildung auf der Weiterentwicklung der Demokratie und auf den Grundrechten. Deshalb stellt sie an die Politiken und Strategien aus Europa die Frage, wie sich die digitale Transformation vor allem menschenzentriert und demokratisch entwickeln kann und soll. Insofern muss politische Bildung die der EU-Strategie eingeschriebene Balancelogik dann kritisch herausfordern, wenn Dilemmata nicht in einem „sowohl als auch“ aufgelöst werden können.
Die Beispiele zeigen auch, dass in Brüssel heute über das diskutiert wird, was in zwei oder drei Jahren in Deutschland auf der Tagesordnung steht. Eine am Digitalen interessierte politische Bildung müsste früher auf europäische Digitalpolitik schauen und diese nicht mehr in eine gesonderte Europabildung auslagern. Insbesondere die Rolle des Europäischen Parlaments ist dabei wichtig, ist dieses doch der öffentliche Ort, in dem gewählten Repräsentant*innen um die digitale Zukunft Europas ringen.
Zum Autor

zimmermann@adb.de