Der Einsatz autonomer, unbemannter Waffensysteme wird als die dritte große Revolution der Kriegsführung nach der Erfindung des Schießpulvers und der Atomwaffen bezeichnet.1 Während Kriegsführung und Waffenentwicklung auf europäischer Ebene lange Zeit eher unliebsame Themen waren, sind sie seit Beginn des Krieges in der Ukraine vermehrt in den Mittelpunkt des öffentlichen Diskurses gelangt. Damit einhergehend wird die Frage der Vereinbarkeit von Kriegsführung und Verteidigung mit Menschenrechten und ethischen Werten diskutiert.
Obschon der Krieg die öffentliche Meinung im Hinblick auf Waffenlieferung und Verteidigungsbudgets deutlich gewandelt hat, wird bewaffneten Drohnensystemen und dem Einsatz künstlicher Intelligenz skeptisch begegnet. Während Forschung und Entwicklung letzterer noch in den Kinderschuhen stecken, werden bewaffnete Drohnen bereits seit Anfang der 2000er für Kriegshandlungen eingesetzt. In Deutschland bereitet die Bundeswehr aktuell Probeflüge der aus Israel geleasten Heron TP Drohne über Norddeutschland vor. Gemeinsam mit Frankreich und Spanien wird an der Entwicklung des neuen Luftkampfsystems Future Combat Air System gearbeitet, welches Drohnen, Jets und andere Luftkampfsysteme verbinden soll.2
Anhand einer Darstellung des wesentlichen aktuellen Einsatzes und des künftigen technischen Potenzials von Drohnen und autonomen Waffensystemen sowie verschiedener Ansätze zur Bewertung deren Vereinbarkeit mit ethischen und rechtlichen Grundsätzen soll ein Überblick über die aktuelle Debatte verschafft werden.
Zunächst ist zwischen bewaffneten Drohnen und AWS zu unterscheiden. Eine Drohne an sich ist noch keine Waffe. Erst durch die Ausstattung mit Munition und dazugehöriger Technik wird sie zu einem Waffensystem. Ab wann ein Waffensystem als autonom gilt, ist noch nicht allgemeingültig definiert. In der Convention on Certain Conventional Weapons (CCW) wurde festgelegt, dass ein Waffensystem jedenfalls dann als autonom gilt, wenn der vollständige Entscheidungszyklus zum Angriff durch das System ausgeführt wird. Dieser setzt sich aus dem Finden des Ziels, dessen Verfolgung, dem direkten Angriff und der darauffolgenden Überprüfung der Wirkung zusammen.3 Das internationale rote Kreuz bezeichnet Waffensysteme gleichlaufend dann als autonom, wenn das Anvisieren und Angreifen des Ziels ohne menschlichen Einfluss ausgeführt werden können.4 Selbst vollständig autonom arbeitende Waffensysteme müssen dabei nicht mit KI ausgestattet sein. Ausreichend ist eine entsprechende Software, die regelmäßig aktualisiert wird.
Offiziell agiert heutzutage keines der eingesetzten Drohnensysteme weltweit vollständig autonom. Sowohl die chinesische CH-4 Drohne, die israelische Heron TP als auch die amerikanische Reaper führen lediglich Teile der Angriffshandlung selbstständig aus. Größtenteils handelt es sich dabei um Start- und Landevorgänge. Die Entscheidung über den Angriff und dessen Durchführung liegt weiterhin in der Hand realer Pilot:innen.5
Weltweit geben mittlerweile geben über 80 Staaten an, militärische Drohnen zu besitzen. Etwa die Hälfte hiervon erklärt diese auch bewaffnet zu haben.6 Derweil soll das ukrainische Militär in der Ukraine in den USA produzierte teilautonome Switchblade Drohnen genutzt haben und die russische Seite Angriffe mit teilautonomen Kamikazedrohen vom Typ KUB-BLA geflogen haben.7 Verlässliche Daten über Drohnenangriffe, die aus technischen Mängeln oder autonom gesammelten Fehlinformationen der Überwachungsinstrumente zu zivilen Schäden führten, gibt es nicht. Lediglich über chinesische Drohnen existieren Daten, wobei hier nicht festzustellen ist, ob die Schäden auf eine mangelhafte Zielgenauigkeit oder eine eingeschränkte generelle Flugfähigkeit zurückzuführen sind. Verbreitet wird davon ausgegangen, dass das Ausmaß der Kollateralschäden vielmehr von den durch die Politik festgelegten Rahmenbedingungen abhängt als von der Drohnentechnik. Dies zeigt sich auch daran, dass die Kollateralschäden bei streng regulierten britischen Drohnenangriffen deutlich geringer ausfallen als bei denen der USA.8
Deutschland ist neben dem FCAS-Programm auch an dem MALE (Moyenne Altitude Longue Edu- rance) – Programm, finanziert durch den europäischen Verteidigungsfonds, beteiligt. Ziel ist die Entwicklung der Eurodrohne zur Überwachung und Luftnahunterstützung.9 Insgesamt werden Drohnensysteme derzeit auch für Angriffe genutzt, Hauptaufgabe scheint aber weiterhin das Sammeln von Überwachungs- und Bildmaterial zu sein.
KI-basierte Waffensysteme werden den offiziellen Berichten nach mangels Marktreife noch nicht eingesetzt. Militärs aller Staaten setzen ihre Hoffnungen zur Nutzung künstlicher Intelligenz vor allem auf die Entwicklung von Schwarmangriffen. Sobald bewaffnete Drohnen mit künstlicher Intelligenz arbeiten, wären vollkommen abgestimmte, unbemannte Angriffe durch Drohnenschwärme möglich. Deren Synchronität und Schnelligkeit wäre durch von Menschen direkt gesteuerte Waffensysteme nicht möglich und können von diesen auch kaum verteidigt werden.10
Das Recht zum Krieg ius ad bellum und das Recht im Krieg ius in bello bilden den internationalen rechtlichen Rahmen für den Einsatz von Kampfdrohnen und AWS. Ersteres wird vor allem durch das völkerrechtliche Gewaltverbot aus Artikel 2 Ziffer 4 der UN-Charta geprägt. Letzteres meint hauptsächlich das humanitäre Völkerrecht. Auf europäischer Ebene wird der Einsatz zusätzlich durch die gemeinsame Sicherheits- und Verteidigungspolitik reguliert.
Das völkerrechtliche Gewaltverbot sieht vor, dass Staaten auf fremden Staatsgebieten keine Gewalt anwenden dürfen. Hierunter fallen vor allem militärische und bewaffnete Gewalt.11 Mehrheitlich besteht Einigkeit darüber, dass beispielsweise die signiture strikes der USA hiergegen verstoßen. Bei diesen Einsätzen werden gezielte Tötungen durch Drohnenangriffe in Ländern ausgeführt, mit denen sich die USA nicht im Krieg befindet. Die Bewertungsgrundlage für solche Angriffe besteht lediglich aus der Auswertung von Bewegung- und Verhaltensmustern, ohne weitere Informationen über die Zielperson.12
Ein Verstoß gegen das humanitäre Völkerrecht liegt vor, wenn Angriffe unterschiedslos ausgeführt werden oder durch den Angriff auf ein legitimes Ziel unverhältnismäßige Schäden in der Zivilbevölkerung in Kauf genommen werden. Zu unterscheiden ist zwischen Kombattanten und Nichtkombattanten, sprich militärischen und nichtmilitärischen Personen und Objekten. Nur erstere dürfen in einem Konflikt angegriffen werden. Soweit absehbar ist, dass bei einem Angriff auf Kombattanten auch Nichtkombattanten getroffen werden, darf der Kollateralschaden im Vergleich zu dem erwarteten militärischen Vorteil nicht außer Verhältnis stehen. Immer wieder wird betont, dass diese Bewertung fundiertes Wissen und jahrelange Erfahrung benötigt wird.13 Bei der Frage, inwieweit AWS und Waffensysteme mit KI weiter reguliert werden müssen, scheiden sich die Geister. Einige bezweifeln, dass diese Systeme überhaupt sinnvoll weitergehend reguliert werden können. Andere sehen das bestehende Recht als ausreichend an, da sich mit den neuen Waffen keine neuen Fragen im Vergleich zu bereits genutzten Waffen ergeben würden. Letztendlich ginge es hauptsächlich immer um die Beantwortung der Frage, wann letale Entscheidungen mit dem Recht vereinbar sind und wann nicht. Der rechtliche Rahmen hierfür sei bereits gegeben. Die EU plant den Erlass einer Richtlinie zur Regulierung Künstlicher Intelligenz. Grundvorstellung ist hier, dass KI menschliche Entscheidungsfindung nie wird ersetzen können und ein internationales Verbot von AWS angestrebt werden soll.14
Für Deutschland gilt weiterhin der im Streitkräfteurteil von 1994 durch das Bundesverfassungsgericht festgelegte Parlamentsvorbehalt für Kriegshandlungen. In Bezug auf Drohnen muss also das Parlament dem Einsatz generell zustimmen. Die einzelnen Kampfhandlungen obliegen dann jedoch dem jeweiligen Befehlshaber der Bundeswehr.
Ein festgeschriebenes Recht auf Frieden gibt es im internationalen Kontext nicht. In einer Abstimmung der VN-Generalversammlung 2016 über die Festlegung eines solchen Rechts wurde dies abgelehnt. Auch Deutschland und die EU stimmten dagegen. Die EU folgte der Begründung vieler Staaten, dass man nicht für dieses Recht stimmen könne, solange es keine Definition des Inhalts und der Bedeutung gebe. So sei nicht klar, ob ein Recht auf Frieden auch ein Recht auf Nichteinmischung beinhalte, was menschenrechtliche Interventionen nahezu unmöglich machen könnte.15
Zwar ist die Menschenwürde rechtlich grundsätzlich anerkannt, jedoch stellt sich auch hier im internationalen Zusammenhang das Problem der genauen Definition. Was genau zu einem „würdigen“ Leben gehört wird weltweit unterschiedlich gesehen. In jedem Falle beschreibt sie, dass jeder Mensch einen Wert aus sich selbst heraus hat, der von anderen Menschen zu respektieren ist. Das Töten von Menschen in einem Krieg verstößt laut Internationalem Gerichtshof aber nicht gegen das Recht auf Leben, Art. 6 IPBPR, Art. 2 EMRK. Im Krieg ist das humanitäre Völkerrecht vorrangig und hier ist kein solches Recht festgeschrieben. Auch das Bundesverfassungsgericht hat 1987 das Grundrecht auf Leben im Falle der Landesverteidigung verneint.16 Dennoch kann aus der Menschenwürde insoweit ein Recht auf Frieden abgeleitet werden, als dass sie in Friedenszeiten erfahrungsgemäß besser geschützt ist und ein Leben unter dem konstanten Stress eines Krieges die Menschenwürde auf Dauer beeinträchtigen muss.
Artikel 36 des Zusatzprotokolls zu den Genfer Abkommen I ist die Verbindung von humanitärem Völkerrecht und technischer Entwicklung:
„Jede Hohe Vertragspartei ist verpflichtet, bei der Prüfung, Entwicklung, Beschaffung oder Einführung neuer Waffen oder neuer Mittel oder Methoden der Kriegsführung festzustellen, ob ihre Verwendung stets oder unter bestimmten Umständen durch dieses Protokoll oder durch eine andere auf die Hohe Vertragspartei anwendbare Regel des Völkerrechts verboten wäre.“
Diese Vorschrift bindet die Staaten, bei der Entwicklung von Waffensystemen die Menschenwürde und grundlegende Werte des Völkerrechts zu beachten.
Inwiefern die modernen Waffensysteme mit der Menschenwürde und einem daraus ableitbaren Recht auf Frieden vereinbar ist, lässt sich schon aufgrund der nicht klar zu umreißenden Begrifflichkeiten schwerlich mit Ja oder Nein beantworten. Aufgezeigt werden sollen hier verschiedene Ansätze unter der Annahme, dass der Schutz der körperlichen und mentalen Unversehrtheit auch einem Schutz der Menschenwürde zuträglich ist.
Der Roboteringenieur R.C. Arkin meint, dass Kollateralschäden auf beiden Seiten des Konflikts verringert werden könnten. Bereits durch bewaffnete Drohnen könnten die Soldat:innen besonnener agieren, da sie während der Entscheidung nicht selbst in Lebensgefahr sind. Werden die Waffensysteme autonom oder durch eine KI gesteuert entfallen auch noch emotionale Regungen wie Wut, Angst und Frust. Dadurch würden vorschnelle Entscheidungen und falsche Anreize zum Angriff ausgeschlossen. Ein besserer Schutz des Lebens und der Würde sei damit gewährleistet.17 Dem Schutz zuträglich könnte auch ein Rückgang an Rechtsverstößen und damit auch an Verstößen gegen Würde und Frieden sein. Die aktuelle Lage der Welt zeigt, dass sich Menschen bzw. Staaten wiederholt nicht an vereinbarte Rechtsgrundlagen halten und schlimmstenfalls Kriegs- verbrechen verüben. Würden nun Waffensysteme mit autonomer Software oder KI so programmiert, dass die getroffenen Rechtsvorgaben zwingend eingehalten werden müssen, könnten Rechtsverstöße und Verletzungen der Menschenwürde deutlich reduziert werden.18
Aufklärungs- und Angriffsmissionen können mit Drohnen ausgeführt werden, ohne das Leben eigener Soldat:innen direkt zu gefährden. Geschützt wird so deren eigenes Leben und ihre Würde.19 Gerade von militärischer Seite wird oft bemängelt, dass diese und die Grundrechte der Soldat:innen in der ethischen Debatte nicht genügend berücksichtigt werden.20
Ein besserer Schutz ihrer mentalen Gesundheit ist jedoch nicht zu erwarten. Dieser wurde zunächst durch die oftmals befürchtete Playstation-Mentalität von Drohnenpilot:innen erwartet. Empirisch lässt sich dieser Effekt jedoch nicht nachweisen. Man nahm an, dass sich die Pilot:innen durch den räumlichen Abstand innerlich so weit vom Kriegsgeschehen entfernen, dass sie die Ziele nicht mehr als Menschen wahrnehmen, sondern als Datenpunkte bzw. ihnen das Geschehen wie ein Playstation-Spiel vorkommt und die psychische Belastung für sie maßgeblich reduziert wird. Allerdings berichten viele Drohnenpilot:innen sich dem Geschehen nach dem Angriff viel näher zu fühlen als nach einem Einsatz im Kampfjet. Mit einem Flugzeug entfernen sie sich sofort vom Angriffsort, während eine Drohne auch danach noch über dem Geschehen fliegt und Bilder der Auswirkungen liefert. Mehrere Studien zeigen zudem, dass Drohnenpiloten durch den Abstand zum Angriff psychisch nicht etwa besser geschützt sind. Genau wie Jetpiloten werden bei ihnen post- traumatische Belastungsstörungen festgestellt.21
Der Einsatz von Drohnen und autonomer Technik zur Überwachung und Erforschung von Kriegs- gebieten wird heute kaum noch kritisch gesehen. Problematisch wird es erst dann, wenn es um Angriffs- und Tötungshandlungen geht.
Gegner der Fortentwicklung von AWS und KI befürchten ein neues Wettrüsten und eine neue Dimension an Gewaltspiralen. AWS könnten den Eindruck erwecken, dass militärische Operationen fast risikolos für eigene Streitkräfte durchgeführt werden können, wodurch kleine Konflikte leichter eskalieren könnten. Fehlentscheidungen könnten deutlich schlimmere Auswirkungen haben, wenn Handlungen mit erhöhtem Tempo und weniger Überwachung ausgeführt werden.
Das bereits angebrachte Argument, die anvisierten Menschen würden durch die Systeme zu reinen Datenpunkten, ihnen damit der menschliche Wert abgesprochen und ihre Menschenwürde verletzt werden, ist das wohl am häufigsten genannte.22 Befürchtet wird, dass hierdurch eine weitere Entmenschlichung des Krieges und die Zunahme der Grausamkeit der Kriegsführung je abstrakter der Krieg mit Übertragung der Entscheidungsgewalt auf Maschinen befördert wird.
Inwieweit diese Bedenken durch menschliche Kontrolle, eine Festlegung der Verantwortlichkeit und Rüstungskontrolle ausgeräumt werden können, soll nun im abschließenden Teil bearbeitet werden.
Die NGO Article 36 hat den Begriff meaningful human control geprägt. Damit lassen sich sowohl AWS als auch KI basierte Systeme rechtfertigen, solange die letzte letale Entscheidung in Menschenhand verbleibt und sich die Maschinen dieser Kontrolle nicht entziehen können.23
In rechtlicher Hinsicht wird zur Begründung eines Humanvorbehalts zum einen auf die Martens’sche Klausel und zum anderen auf die Menschenwürde verwiesen. Die Martens’sche Klausel ist Teil des humanitären Völkerrechts und nimmt in Fällen, die von völkerrechtlichen Verträgen nicht erfasst sind, auf einen Schutz der Zivilpersonen und Kombattanten nach Grundsätzen des Völkerrechts Bezug, die sich aus feststehenden Gebräuchen, aus den Grundsätzen der Menschlichkeit und aus den Forderungen des öffentlichen Gewissens ergeben.24
Vertreten wird, dass AWS für das Treffen einer letalen Entscheidung, die nicht gegen die Menschenwürde verstößt, drei wichtige Fähigkeiten fehlen. Zunächst wären Sensoren und Sichtsysteme nicht dazu fähig, verlässlich zwischen Kombattanten und Nichtkombattanten zu unterscheiden. Insbesondere wenn es um Verwundete geht oder um Soldaten, die sich ergeben. Dann gibt es immer noch keine allgemeingültige Definition für Zivilisten, nach der die AWS programmiert werden könnten. Letztlich fehlt den AWS das Bewusstsein für das menschliche und situative Umfeld. Beispielsweise können Soldaten zwischen Kindern, die zum Kampf gezwungen wurden und echten Soldaten unterscheiden. Ansätze wie dies verlässlich für AWS oder durch KI programmiert werden kann, sind (noch) nicht bekannt.25 Obliegt die letzte Entscheidung nun weiterhin dem Menschen würden moderne Waffensysteme dem jetzigen Kriegs- und Waffenrecht unterliegen. Zudem bestehe zu anderen, bereits seit Jahren genutzten Waffensysteme kaum ein Unterschied, bei der Nutzung von Raketen ist der Entscheidende beispielsweise ebenfalls kilometerweit von dem Angriffsort entfernt. Generell würden sich mit menschlicher Kontrolle kaum neue Problematiken ergeben.
Für die Staatenverantwortlichkeit ist kein Verschulden, sondern lediglich ein zurechenbares rechtswidriges Verhalten der Organe und Hoheitsträger notwendig. Ein Kriegsverbrechen liegt aber erst vor, wenn der Verstoß mit positivem Wissen oder fahrlässigem Nichtwissen des Befehlshabers verübt wird.26 Bei dem Einsatz bewaffneter Drohnen kann der Befehls- und Verantwortungskette noch leicht gefolgt werden. Geht es hingegen um AWS oder AWS die mit KI ausgestattet sind, ist eine Festschreibung der Verantwortlichkeit notwendig. Derzeit wäre unklar, ob der Befehlshaber für den Gesamteinsatz, der Staat oder gar der Hersteller haften müsste. Ohne einen Haftenden kann existierendes Recht nicht effektiv durchgesetzt werden und die rechtlich festgeschriebene Menschenwürde nicht schützen.
Für Entscheidungen in Dilemma-Situationen scheint es unmöglich, AWS oder einer KI etwas ähnliches zu einem menschlichen Gewissen, Empathie und einem Bauchgefühl zu programmieren.27 Die Einschätzung der Verhältnismäßigkeit von Kollateralschäden erfordert aber umfassende Erfahrung und Wissen.
Vermehrt wird deshalb auch bei dem Bestehen von letzter menschlicher Kontrolle bezweifelt, ob dies rechtlich und ethisch vertretbar ist. Menschen tendieren dazu, Maschinen und deren Informationen zu sehr zu trauen. Sollten nun AWS eingesetzt werden, beschleunigen sich die Kriegshandlungen enorm, wahrscheinlich bis auf eine kaum von Menschen tatsächlich überschaubare Geschwindigkeit. Inwieweit die Entscheidung des Menschen über den letzten Angriff die gewünschte Kontrollfunktion dann noch hat und unabhängig von der Maschine ist, ist stark zu bezweifeln.28 Grundlegend lässt sich in jedem Falle festhalten, dass eine Übertragung der letalen Entscheidung auf Maschinen nicht mit der Menschenwürde vereinbaren lässt.
Rüstungskontrolle ist eines der wichtigsten Werkzeuge, um die internationale Stabilität und Sicherheitslage zu gewährleisten und die Einhaltung der rechtlichen Vereinbarung zu sichern. Die Drei Hauptziele der Rüstungskontrolle sind Kriegsverhütung, Schadensbegrenzung im Kriegsfall und Kostendämpfung des Wiederaufbaus.29
Wiederholt wurde aufgrund der aufgeführten Bedenken versucht, AWS mittels der UN-Waffenkonvention zu verbieten. Gescheitert ist das Vorhaben u.a. an den Vetos Russlands und der USA, Länder des globalen Südens stimmten hingegen überwiegend für ein Verbot.30 Sollte kein Verbot zustande kommen ist man sich in der Forschung zum überwiegenden Teil einig, dass für die Inbetriebnahme KI-basierter AWS zumindest ein Not-Aus-Knopf Voraussetzung sein muss, sollte die 9
Lage vollkommen außer Kontrolle geraten. Dieser wurde beispielsweise im hochfrequenziellen automatisierten Börsenhandel nach dem Blitzabsturz der New Yorker Böse 2010 eingeführt.31
Wie fragil die durch Rüstungskontrolle und Recht geschaffene Stabilität jedoch ist, zeigt nicht zuletzt der Ukraine-Krieg. Es erscheint somit zweifelhaft, ob ein rechtliches Verbot der Übertragung letaler Entscheidungen an Maschinen tatsächlich befolgt wird, blick man auf die enormen militärischen Vorteile, die hierdurch erwartet werden.
Die Vereinbarkeit von bewaffneten Drohnen, AWS und KI mit der Menschenwürde und Frieden ist nicht abschließend zu beantworten. Schon der Ausgangspunkt der Frage, was genau die Menschenwürde ist bzw. was sie umfasst, ist weitestgehend Definitionssache. Berücksichtigt man, dass dogmatische Rechtsfragen und letale Entscheidungen nur von Menschen gesellschaftsverträglich getroffen werden können, kann der Einsatz von AWS und KI nie bis zum vollständig autonomen Einsatz führen. Zwar haben die modernen Waffentechniken zahlreiche militärische Vorteile, allerdings gehen diese nicht nur zulasten der Gesundheit und Menschenwürde eigener Soldat:innen, sondern auch der der Zivilbevölkerung. Bewaffnete Drohnen, die aktuell bereits eingesetzt werden, haben bezüglich ihrer Vereinbarkeit mit der Menschenwürde keinen Sonderstatus im Vergleich zu anderen Waffensystemen inne, da sie genauso unter menschlicher Kontrolle stehen. Problematisch ist hier, genau wie bei anderen Systemen, der Verlass auf autonom gesammelte Informationen.
Wird durch einen Staat oder sämtliche Staaten nun die Entscheidung getroffen AWS und KI nur in begrenztem Maße einzusetzen, bleibt fraglich, ob sich dauerhaft an diese Entscheidung gehalten werden kann. Abschließend lässt sich feststellen, dass AWS wohl die dritte große Revolution der Kriegsführung sind, damit allerdings auch eine neuartige Bedrohung für die Menschenwürde darstellen.
1 J. Altmann: Technik und Krieg - Verantwortung für den Frieden, Technik und Verantwortung im Zeitalter der Digitalisierung, S. 71 ff.
2 Die Drohne German Heron TP erhält die deutsche Musterzulassung (12.09.2022). https://www.bundes- wehr.de/de/organisation/luftwaffe/aktuelles/die-drohne-german-heron-tp-erhaelt-die-deutsche-musterzulas- sung-5538042; FCAS – Future Combat Air System. https://www.bundeswehr.de/de/organisation/luftwaffe/ak- tuelles/fcas-future-combat-air-system.
3 E. Rosert; F. Sauer: How (not) to stop the killer robots: A comparative analysis of humanitarian disarmament campaign strategies, Contemporary Security Policy, Vol. 21, S. 4 ff., 2021.
4 N. Davison: A legal perspective: Autonomous weapon systems under international humanitarian law, UNODA Occasional Papers, No. 30, S. 5 ff.
5 U. Franke; S. Scheidt: Zur aktuellen Drohnendebatte – Überblick und Einschätzung bewaffneter Drohnen für Deutschland, GIDSstatement 4/2020.
6 vgl. J. Altmann.
7 Kleine Anfrage zur Ächtung autonomer Waffensysteme, Bundestags-Drucksache 20/3147. 8 vgl. U. Franke; S. Scheidt.
9 European MALE RPAS, https://www.bmvg.de/de/themen/sicherheitspolitik/gsvp-sicherheits-verteidigung- spolitik-eu/european-male-rpas-pesco-projekt-264012.
10 vgl. J. Altmann.
11 D. Wiefelspütz: Das Gewaltverbot und seine Durchbrechungen. Zeitschrift für Politik, 2006, S. 144 ff. 12 vgl. U. Franke; S. Scheidt
13 vgl. J. Altmann.
14 Richtlinien für zivile und militärische Nutzung von künstlicher Intelligenz, https://www.europarl.eu- ropa.eu/news/de/press-room/20210114IPR95627/richtlinien-fur-zivile-und-militarische-nutzung-von-kunstli- cher-intelligenz.
15 Zum Recht auf Frieden. Wissenschaftlicher Dienst des Bundestages, WD 2 – 3000 – 003/19, 2019.
16 Einsatz von Kampfdrohnen aus völkerrechtlicher Sicht. Wissenschaftlicher Dienst des Bundestages, WD2- 3000-118/1212, 2012.
17 N. Kunkel: Autoregulative Waffensysteme, ethikundgesellschaft, S. 1, 2/2021.
18 D. Amoroso, G. Tamburrini: Autonomous Weapons Systems and Meaningful Human Control: Ethical and Le- gal Issues. Current Robotics Reports, 2020, Vol. 1, S. 187 ff.
19 A. Sharkey: Autonomous Weapons systems, killer robots and human dignity, Ethics and Information Technol- ogy, 2019, Vol. 21, S. 75 ff.
20 Bericht des Bundesministeriums der Verteidigung an den Deutschen Bundestag zur Debatte über eine mögli- che Beschaffung bewaffneter Drohnen für die Bundeswehr, 2020.
21 vgl. U. Franke; S. Scheidt. 22 vgl. N. Kunkel.
23 vgl. D. Amoroso, G. Tamburrini. 24 vgl. A. Sharkey.
25 ebd.
26 A. v. Ungern-Sternber: Völker- und europarechtliche Implikationen autonomen Fahrens, Handbuch Autonomes Fahren, 2. Auflage, München 2019.
27 E. Rosert; F. Sauer: Prohibiting Autonomous Weapons: Put Human Dignity First, Global Policy Volume 10, S. 370, 2019.
28 vgl. D. Amoroso, G. Tamburrini.
29 vgl. J. Altmann.
30 Kleine Anfrage zur Ächtung autonomer Waffensysteme, Bundestags-Drucksache 20/3147.
31 vgl. J. Altmann.