Der EU-AI-Act

Auf dem Weg zu einer europäischen KI-Gesetzgebung

07.12.2023

Die künstliche Intelligenz und ihre Regulierung sind spätestens seit der Veröffentlichung von ChatGPT zum Dauerthema geworden. Die potentiellen Fähigkeiten der KI wurden noch nicht ausreichend erforscht. Jedoch stellt sich bereits jetzt eine zunehmende Sorge vor den erheblichen Risiken der Technologie ein. Wie kann die Europäische Union den Einsatz von KI regulieren, ohne dabei ihre digitale Souveränität weiter zu gefährden? 

Im Frühjahr hat die EU-Kommission die Verordnung zur Festlegung harmonisierter Vorschriften für Künstliche Intelligenz (EU AI Act) entworfen, die den Einsatz von Künstlicher Intelligenz im europäischen Raum reguliert. Die Verordnung soll einen rechtlichen Rahmen für die Entwicklung, den Einsatz und die Nutzung von AI-Systemen in der EU schaffen, um auch eine vertrauenswürdige Nutzung und innovationsfreundliche Forschung zu fördern. Die KI-Verordnung der EU gilt als Vorreiter für die Regulierung von künstlicher Intelligenz auf der ganzen Welt. Die geplante Verordnung sieht vor, dass die KI-Systeme nach bestimmten Kriterien in Risikoklassen eingestuft werden. Die jeweiligen Anbieter müssen je nach Risikoklasse des KI-Systems unterschiedliche Verpflichtungen erfüllen.

Diskussionsveranstaltung zum AI-Act

Am 12. Dezember diskutieren wir die Auswirkungen des AI-Acts auf die Digitalwirtschaft und die digitale Souveränität Europas. Sie sind herzlich eingeladen!


Inakzeptables Risiko

KI-Systeme stellen ein inakzeptables Risiko dar, wenn sie als Bedrohung für Menschen gelten. Diese KI-Systeme sind grundsätzlich verboten. Sie umfassen:

  • kognitive Verhaltensmanipulation von Personen oder bestimmten gefährdeten Gruppen, zum Beispiel sprachgesteuertes Spielzeug, das gefährliches Verhalten bei Kindern fördert;
  • Soziales Scoring: Klassifizierung von Menschen auf der Grundlage von Verhalten, sozioökonomischem Status und persönlichen Merkmalen;
  • biometrischen Echtzeit-Fernidentifizierungssystemen, zum Beispiel Gesichtserkennung.

Hochrisiko-KI-Systeme

KI-Systeme, die ein hohes Risiko für die Gesundheit und Sicherheit oder für die Grundrechte natürlicher Personen darstellen, gelten als hochriskant und werden in zwei Hauptkategorien eingeteilt.

1. KI-Systeme, die in Produkten verwendet werden, die unter die Produktsicherheitsvorschriften der EU fallen. Dazu gehören Spielzeug, Luftfahrt, Fahrzeuge, medizinische Geräte und Aufzüge.

2. KI-Systeme, die in acht spezifische Bereiche fallen, und die in einer EU-Datenbank registriert werden müssen:

  • biometrische Identifizierung und Kategorisierung von natürlichen Personen;
  • Verwaltung und Betrieb von kritischen Infrastrukturen;
  • allgemeine und berufliche Bildung;
  • Beschäftigung, Verwaltung der Arbeitnehmer und Zugang zur Selbstständigkeit;
  • Zugang zu und Inanspruchnahme von wesentlichen privaten und öffentlichen Diensten und Leistungen;
  • Strafverfolgung;
  • Verwaltung von Migration, Asyl und Grenzkontrollen;
  • Unterstützung bei der Auslegung und Anwendung von Gesetzen.


Alle KI-Systeme mit hohem Risiko werden vor dem Inverkehrbringen während ihrer Anwendung regelmäßig neu bewertet.

Generative KI

Generative KI-Modelle und Basismodelle mit vielfältigen Einsatzmöglichkeiten wurden in dem ursprünglich eingereichten Entwurf für den AI-Act nicht berücksichtigt. Nach der Veröffentlichung von ChatGPT wurde kontrovers diskutiert, wie solche Systeme bewertet werden müssen. Insbesondere Deutschland, Frankreich und Italien hatten im Laufe der Verhandlungen - wohl im Interesse der heimischen KI-Unternehmen - gefordert, dass für die Generative KI keine zusätzlichen Regeln gelten sollten. Stattdessen befürworten sie eine Selbstregulierung durch einen Verhaltenskodex.

Begrenztes Risiko

KI-Systeme mit begrenztem Risiko sollten minimale Transparenzanforderungen erfüllen. Die Verwender des Systems sollten sich bewusst sein, dass sie mit einer KI interagieren, und können auf Basis dessen ihre Entscheidung treffen, ob sie fortfahren oder zurücktreten wollen.  

Die EU-Kommission veröffentlichte ihren Vorschlag zum AI Act im April 2021. Der EU-Rat hat sich im Dezember 2022 auf seine Version des AI Act (die allgemeine Ausrichtung) festgelegt. Die Mitglieder des EU-Parlaments verständigten sich im Juni 2023 auf eine gemeinsame Position zum AI Act. Mit ihren jeweils eigenen Positionen sind die drei Institutionen in die finale Verhandlungsphase eingetreten. Allerdings ist aufgrund des Streites bezüglich der generativen AI schwierig absehbar, welche konkreten Regeln die EU den Entwicklern und Anwendern von Künstlicher Intelligenz auferlegen werden.