Die demokratische Willensbildung ist das Herzstück moderner Verfassungsstaaten. Sie lebt von der freien, offenen und informierten Auseinandersetzung der Bürger:innen mit politischen Inhalten. Digitale Technologien haben diese Prozesse in den vergangenen Jahrzehnten tiefgreifend verändert und zunächst vor allem erweitert: Informationen sind jederzeit verfügbar, politische Teilhabe scheint niederschwelliger denn je. Mit dem Aufkommen leistungsfähiger Systeme, automatisierter Kommunikationsinstrumente und synthetischer Medienformate wie Deep-Fakes tritt jedoch eine neue Qualität der Gefährdung hinzu. Die politische Öffentlichkeit wird zunehmend durch Akteure geprägt, deren Einfluss weder transparent noch ohne Weiteres zurechenbar ist. KI-Systeme ermöglichen es gezielt auf Kommunikationsräume Einfluss zu nehmen und diese zu manipulieren, Wahrnehmungen zu verzerren und Vertrauen in die Faktizität öffentlicher Aussagen zu untergraben.
Die zentrale Herausforderung besteht darin, diese Entwicklungen rechtlich und politisch so einzuhegen, dass die Funktionsfähigkeit demokratischer Prozesse gewahrt bleibt, ohne die verfassungsrechtlich garantierten Freiheitsrechte unverhältnismäßig einzuschränken.
Die Risiken, die von KI-gestützter Kommunikation ausgehen, betreffen sowohl die Struktur öffentlicher Diskurse als auch die Qualität der in ihnen zirkulierenden Informationen. Ein zentrales Problem ist die Skalierbarkeit von Desinformation. Automatisierte Bots sind in der Lage, innerhalb kürzester Zeit große Mengen an Inhalten zu generieren und zu verbreiten. Diese Inhalte können gezielt emotionalisiert, zugespitzt und auf maximale Reichweite optimiert werden. Der dadurch erzeugte Eindruck gesellschaftlicher Mehrheiten – ohne reale Grundlage – beeinträchtigt die autonome Urteilsbildung der Bürger:innen.
Hinzu tritt die Logik algorithmischer Selektion. Digitale Plattformen organisieren Sichtbarkeit nicht neutral, sondern anhand von Kriterien wie Interaktionswahrscheinlichkeit oder Verweildauer. Dies führt zur systematischen Bevorzugung polarisierender und emotionalisierender Inhalte. Die Folge ist eine Fragmentierung der Öffentlichkeit in kommunikative Teilräume, in denen sich bestehende Überzeugungen verstärken und Gegenpositionen kaum noch wahrgenommen werden. Die demokratische Deliberation wird dadurch strukturell geschwächt.
Eine besonders gravierende Herausforderung stellen Deep-Fakes dar. Die Möglichkeit, täuschend echte Audio- und Videoinhalte zu erzeugen, erschüttert die epistemische Grundlage politischer Kommunikation. Wo Bilder und Töne nicht mehr als verlässliche Belege gelten können, gerät die Unterscheidung zwischen Wahrheit und Fiktion ins Wanken. Dies eröffnet nicht nur Raum für gezielte Täuschung, sondern fördert auch eine allgemeine Skepsis gegenüber medial vermittelten Informationen.
Im Übrigen ermöglichen KI-Systeme eine bislang unerreichte Form der individualisierten Ansprache. Durch die Auswertung umfangreicher Datenbestände können politische Botschaften präzise auf einzelne Zielgruppen zugeschnitten werden. Dieses sog. „Microtargeting“ entzieht sich weitgehend öffentlicher Kontrolle: Unterschiedliche Wählergruppen erhalten unterschiedliche Informationen, ohne dass ein gemeinsamer, überprüfbarer Diskursraum bestehen bleibt. Die Transparenz politischer Kommunikation wird dadurch erheblich beeinträchtigt.
Zurück bleibt die Frage nach rechtlichen Handlungsmöglichkeiten und Instrumenten zur Begrenzung eben dieser Gefahren. Insbesondere der Europäische Gesetzgeber hat das aufgezeigte Risikobild erkannt und erste Regulierungsvorhaben umgesetzt.
Ein zentraler Baustein ist die Plattformregulierung. Mit dem Digital Services Act (DSA)1 hat die Europäische Union einen Ordnungsrahmen geschaffen, der insbesondere große OnlinePlattformen in die Verantwortung nimmt. Diese werden in Art. 34 und Art. 35 DSA verpflichtet, systemische Risiken – etwa die Verbreitung von Desinformation – zu identifizieren, zu bewerten2 und geeignete Gegenmaßnahmen zu ergreifen (sog. Risikominderungsmaßnahmen).3 Flankiert wird dies durch umfassende Transparenzanforderungen, etwa hinsichtlich der Funktionsweise von Empfehlungssystemen.4 Etwaige Regelungen zielen darauf ab, die strukturellen Verzerrungen digitaler Öffentlichkeiten – insbesondere algorithmische Verstärkung und Fragmentierung – rechtlich zu adressieren. Der DSA verlagert Verantwortung bewusst auf Plattformbetreiber und etabliert damit eine Form der regulierten Selbstverantwortung.
Ergänzend hierzu verfolgt die KI-Verordnung (AI-Act)5 einen risikobasierten Regelungsansatz und reguliert KI-Systeme je nach Gefährdungspotenzial unterschiedlich.6 Abseits bestimmter verbotener KI-Praktiken7 und Sicherheitsanforderungen an Hochrisiko-KI-Systeme (Risikomanagement, Daten-Governance, Transparenz, menschliche Aufsicht) ist für die politische Kommunikation die Kennzeichnungs- und Offenlegungspflicht in Art. 50 KI-VO von wesentlicher Bedeutung.8 Insbesondere Deep-Fakes sollen künftig klar als solche erkennbar sein. Technische Lösungen wie digitale Wasserzeichen oder kryptographische Signaturen können die Authentizität von Inhalten nachweisbar machen und so die Täuschungsgefahr reduzieren. Diese Ansätze setzen nicht auf ein Verbot der Technologie, sondern auf Transparenz als Voraussetzung informierter Meinungsbildung. Der AI-Act ist damit weniger auf einzelne Kommunikationsakte gerichtet, sondern auf die systemische Vertrauenswürdigkeit von KI-Technologien insgesamt.
Der DSA und AI-Act bilden gemeinsam ein mehrschichtiges Regulierungsregime, wodurch nicht nur Kommunikationsräume und Plattformlogiken angesteuert, sondern das Risikofeld intelligenter Systeme insgesamt einem harmonisierten Regelungsrahmen unterstellt wird. Rechtliche Standards schaffen Vertrauen bei Nutzer:innen und Unternehmen. Der europäische Ansatz verfolgt explizit dieses Ziel und wird internationale Standards prägen können. Während in anderen Regionen regulatorische Unsicherheit fortbesteht, bietet der europäische Regulierungsansatz erste klare Leitplanken. Er darf insgesamt als großer Wurf verstanden werden, mit dem der europäische Gesetzgeber digitale Kommunikationsräume absichert und grenzüberschreitenden Desinformationskampagnen begegnet. Ob dieser Ansatz nicht nur Grundrechte schützt, sondern zugleich Innovationsfähigkeit sichert und global Maßstäbe setzt, wird maß- geblich darüber entscheiden, ob Europa im digitalen Zeitalter nicht nur ein Rechts-, sondern auch ein Gestaltungsraum bleibt.
Ungeachtet der regulatorischen Bestrebungen dürfte vor allem die Stärkung der gesellschaftlichen Resilienz ein Schlüsselfaktor sein, um die unabhängige politische Willensbildung unter dem Eindruck der Digitalisierung abzusichern. Bildungsinitiativen, Aufklärungskampagnen und die Förderung unabhängiger journalistischer Angebote tragen dazu bei, die Fähigkeit der Bevölkerung zu stärken, Informationen kritisch zu bewerten und manipulative Inhalte zu erkennen. Eben diese sind unverzichtbare Elemente zur Absicherung moderner Demokratien.
Die durch künstliche Intelligenz, Bots und Deep-Fakes geprägte digitale Öffentlichkeit stellt die demokratische Willensbildung vor einen tiefgreifenden Stresstest. Die klassischen Annahmen über Transparenz, Rationalität und Nachvollziehbarkeit politischer Kommunikation geraten zunehmend unter Druck.
Der Gesetzgeber steht vor der anspruchsvollen Aufgabe, ein Regulierungssystem fortzuentwickeln, das den neuartigen Gefährdungen wirksam begegnet, ohne die Grundlagen der offenen Gesellschaft zu unterminieren. Die bisherigen Initiativen – insbesondere auf europäischer Ebene – markieren wichtige Schritte in diese Richtung. Gleichwohl wird sich ihre Wirksamkeit im Zusammenspiel mit technischer Innovation, institutioneller Durchsetzung und gesellschaftlicher Aufklärung erst noch erweisen müssen. Die Sicherung demokratischer Willensbildung im digitalen Zeitalter ist damit keine einmalige gesetzgeberische Aufgabe, sondern ein fortlaufender Prozess, der Anpassungsfähigkeit, interdisziplinäres Denken und internationale Zusammenarbeit erfordern
1 Verordnung (EU) 2022/2065 des Europäischen Parlaments und des Rates vom 19. Oktober 2022 über einen Binnenmarkt für digitale Dienste und zur Änderung der Richtlinie 2000/31/EG (Gesetz über digitale Dienste), ABl. EU L 277/1.
2 Art. 34 Verordnung (EU) 2022/2065, ABl. EU L 277/64.
3 Art. 35 Verordnung (EU) 2022/2065, ABl. EU L 277/65.
4 Art. 27 Verordnung (EU) 2022/2065, ABl. EU L 277/59.
5 Verordnung (EU) 2024/1689 des Europäischen Parlaments und des Rates vom 13. Juni 2024 zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz und zur Änderung der Verordnungen (EG) Nr. 300/2008, (EU) Nr. 167/2013, (EU) Nr. 168/2013, (EU) 2018/858, (EU) 2018/1139 und (EU) 2019/2144 sowie der Richtlinien 2014/90/EU, (EU) 2016/797 und (EU) 2020/1828 (Verordnung über künstliche Intelligenz), ABl EU L vom 12.07.2024, S. 1.
6 Vgl. Martini in: Hilgendorf/Roth-Isigkeit, Die neue Verordnung der EU zur Künstlichen Intelligenz, 2023, S. 87.
7 Vgl. Art. 5 Verordnung (EU) 2024/1689, ABl EU L vom 12.07.2024, S. 51. f.
8 Vgl. Art. 50 Verordnung (EU) 2024/1689, ABl EU L vom 12.07.2024, S. 82 f.