Die künstliche Intelligenz und ihre Regulierung sind spätestens seit der Veröffentlichung von ChatGPT zum Dauerthema geworden. Die potentiellen Fähigkeiten der KI wurden noch nicht ausreichend erforscht. Jedoch stellt sich bereits jetzt eine zunehmende Sorge vor den erheblichen Risiken der Technologie ein. Wie kann die Europäische Union den Einsatz von KI regulieren, ohne dabei ihre digitale Souveränität weiter zu gefährden?
Im Frühjahr hat die EU-Kommission die Verordnung zur Festlegung harmonisierter Vorschriften für Künstliche Intelligenz (EU AI Act) entworfen, die den Einsatz von Künstlicher Intelligenz im europäischen Raum reguliert. Die Verordnung soll einen rechtlichen Rahmen für die Entwicklung, den Einsatz und die Nutzung von AI-Systemen in der EU schaffen, um auch eine vertrauenswürdige Nutzung und innovationsfreundliche Forschung zu fördern. Die KI-Verordnung der EU gilt als Vorreiter für die Regulierung von künstlicher Intelligenz auf der ganzen Welt. Die geplante Verordnung sieht vor, dass die KI-Systeme nach bestimmten Kriterien in Risikoklassen eingestuft werden. Die jeweiligen Anbieter müssen je nach Risikoklasse des KI-Systems unterschiedliche Verpflichtungen erfüllen.
KI-Systeme stellen ein inakzeptables Risiko dar, wenn sie als Bedrohung für Menschen gelten. Diese KI-Systeme sind grundsätzlich verboten. Sie umfassen:
KI-Systeme, die ein hohes Risiko für die Gesundheit und Sicherheit oder für die Grundrechte natürlicher Personen darstellen, gelten als hochriskant und werden in zwei Hauptkategorien eingeteilt.
1. KI-Systeme, die in Produkten verwendet werden, die unter die Produktsicherheitsvorschriften der EU fallen. Dazu gehören Spielzeug, Luftfahrt, Fahrzeuge, medizinische Geräte und Aufzüge.
2. KI-Systeme, die in acht spezifische Bereiche fallen, und die in einer EU-Datenbank registriert werden müssen:
Alle KI-Systeme mit hohem Risiko werden vor dem Inverkehrbringen während ihrer Anwendung regelmäßig neu bewertet.
Generative KI-Modelle und Basismodelle mit vielfältigen Einsatzmöglichkeiten wurden in dem ursprünglich eingereichten Entwurf für den AI-Act nicht berücksichtigt. Nach der Veröffentlichung von ChatGPT wurde kontrovers diskutiert, wie solche Systeme bewertet werden müssen. Insbesondere Deutschland, Frankreich und Italien hatten im Laufe der Verhandlungen - wohl im Interesse der heimischen KI-Unternehmen - gefordert, dass für die Generative KI keine zusätzlichen Regeln gelten sollten. Stattdessen befürworten sie eine Selbstregulierung durch einen Verhaltenskodex.
KI-Systeme mit begrenztem Risiko sollten minimale Transparenzanforderungen erfüllen. Die Verwender des Systems sollten sich bewusst sein, dass sie mit einer KI interagieren, und können auf Basis dessen ihre Entscheidung treffen, ob sie fortfahren oder zurücktreten wollen.
Die EU-Kommission veröffentlichte ihren Vorschlag zum AI Act im April 2021. Der EU-Rat hat sich im Dezember 2022 auf seine Version des AI Act (die allgemeine Ausrichtung) festgelegt. Die Mitglieder des EU-Parlaments verständigten sich im Juni 2023 auf eine gemeinsame Position zum AI Act. Mit ihren jeweils eigenen Positionen sind die drei Institutionen in die finale Verhandlungsphase eingetreten. Allerdings ist aufgrund des Streites bezüglich der generativen AI schwierig absehbar, welche konkreten Regeln die EU den Entwicklern und Anwendern von Künstlicher Intelligenz auferlegen werden.