1. Startseite
  2. Meinung
  3. Gastbeiträge
  4. Gastkommentar: Autonomie in Waffensystemen – Wie selbstständig dürfen sie sein?

GastkommentarAutonomie in Waffensystemen – Wie selbstständig dürfen sie sein?

Künftige Waffensysteme enthalten immer mehr autonome Funktionen. Dabei müssen ethische und rechtliche Fragen geklärt werden. Deutschland hat hier Nachholbedarf, mahnt Vanessa Vohs. 12.09.2025 - 04:12 Uhr Artikel anhören
Vanessa Vohs ist Doktorandin an der Universität der Bundeswehr und berät EU-Verteidigungsprojekte im Umgang mit KI. Foto: privat, Reuters

Der ukrainische Verteidigungskrieg gegen Russland und Israels Kriegsführung im Nahen Osten zeigen, dass der zunehmende Grad an Autonomie in Waffensystemen (AWS)  immer wichtiger wird.

Anders als ferngesteuerte Drohnen wählen autonome Waffen ohne menschliches Zutun Ziele aus und bekämpfen diese. Ein Beispiel dafür ist „Loitering Munition“ („herumlungernde Munition“) wie die israelische Harpy. Nach dem Start kreist sie über dem Zielgebiet, erkennt eigenständig Ziele und greift diese anschließend im Sturzflug an.

Autonomie wird künftig in nahezu allen Waffensystemen eine Rolle spielen, egal ob auf See, an Land, in der Luft oder im Weltraum. Damit stellt sich jedoch eine heikle Frage: Unter welchen Bedingungen dürfen solche Systeme eingesetzt werden, ohne rechtliche und ethische Grenzen zu überschreiten und menschliches Leben auf bloße Datenpunkte zu reduzieren, über deren Tod eine Maschine entscheidet?

Während die Ampelkoalition noch auf eine internationale Ächtung von AWS hinwirkte (und damit scheiterte), markiert der neue Koalitionsvertrag eine Kehrtwende: „Wir fördern verstärkt Zukunftstechnologien für die Bundeswehr und führen diese in die Streitkräfte ein“, heißt es darin.

Dieser Ansatz ist richtig, denn die internationalen Gespräche zur Regulierung von AWS bei den Vereinten Nationen stagnieren seit Jahren. Es ist äußerst unwahrscheinlich, dass es in absehbarer Zeit eine internationale Regulierung geben wird.

Daher muss Deutschland eine eigene nationale Position entwickeln. Ziel dabei muss ein differenzierter Ansatz sein, der Autonomie in Waffensystemen unter bedeutsame menschliche Kontrolle stellt und je nach Kontext einen höheren oder niedrigeren Grad an Autonomie erlaubt.

Die zentrale Frage ist, wann rote Linien überschritten werden. Dies kann unmöglich auf defensive Systeme wie das US-Flugabwehrsystem Patriot zutreffen, welches autonom mittels Radarsignaturen annähernde Flugkörper abwehren kann und unter anderem für die Ukraine von zentraler Bedeutung ist.

KI hat kein Verständnis für den Kontext

Eine klare Definition, welche autonomen Waffensysteme verboten werden sollen, ist aufgrund der unterschiedlichen operativen Kontexte weder präzise möglich noch sinnvoll.

Während die autonome Abwehr feindlicher Flugkörper auf hoher See nur ein geringes Risiko birgt, Zivilisten zu gefährden, wird der RAM-Werfer auf Fregatten der Deutschen Marine in küstennahen Gewässern nicht in den autonomen Modus gestellt, um zu vermeiden, zivile Ziele versehentlich zu treffen.

Im Häuserkampf etwa könnte die autonome Zielauswahl besonders fehleranfällig sein. Soldaten könnten KI austricksen, indem sie sich mit Masken als Zivilisten ausgeben. Genauso könnten Zivilisten versehentlich als militärische Ziele identifiziert werden, wenn ihre Kleidung derjenigen der Soldaten besonders ähnelt.

Künstliche Intelligenz reduziert ihr Wissen auf Datenpunkte und besitzt kein Kontextverständnis. Deshalb muss der Mensch immer die Kontrolle bewahren und entscheiden, wie übersichtlich die Situation ist und wie bedenkenlos er den Grad an Autonomie in Waffensystemen erhöhen kann.

Daher folgt Deutschland mit Frankreich und einigen weiteren Staaten bei den Vereinten Nationen dem Vorschlag des Internationalen Komitees vom Roten Kreuz mit einem zweigleisigen Ansatz: einem Verbot solcher Systeme, die nicht mit dem humanitären Völkerrecht vereinbar sind, und einem Gebot zur menschlichen Kontrolle aller weiteren Systeme.

Per Definition verboten wären folglich Systeme, die nicht ausreichend zwischen militärischen und zivilen Zielen unterscheiden können und unterschiedslos wirken, wie beispielsweise Minen, die bei Übertritt jedes Fahrzeugs auslösen und einen Panzer nicht von einem Schulbus unterscheiden können.

Allerdings droht die bedeutsame menschliche Kontrolle ein umstrittenes Konzept zu werden, das verschiedene Staaten und Industrien ganz unterschiedlich interpretieren, solange es keinen gesteckten Rahmen hierfür gibt.

Jeder Soldat muss die Werte Deutschlands verteidigen

Um das zu verhindern, liegt es an Deutschland und seinen Verbündeten, an nationalen und regionalen Leitlinien zu arbeiten.

Die USA haben bereits seit 2012 ein politisches Dokument zum Umgang mit AWS, welches bereits zum dritten Mal überarbeitet wurde. Auch die Briten und die Niederländer haben eine nationale Position veröffentlicht.

In Frankreich beschäftigt sich das Ethik-Komitee des Verteidigungsministeriums dezidiert mit AWS. Luxemburg arbeitet an seiner nationalen Positionierung. Deutschland hat hier Nachholbedarf.

Dabei existiert mit dem Konzept der Inneren Führung bereits ein hervorragender Startpunkt in der Bundeswehr zum verantwortungsvollen Umgang mit AWS.

Demnach ist jeder Soldat gefordert, die Werte der Bundesrepublik Deutschland zu verteidigen – auch im Umgang mit neuen Technologien. Diese Verantwortung jedes einzelnen Soldaten darf weder auf Kameraden noch auf Maschinen abgewälzt werden und verlangt somit menschliche Kontrolle.

Verwandte Themen
Deutschland
Bundeswehr
Frankreich
Europäische Union
Künstliche Intelligenz
Software

Das bedeutet, dass ein Operateur die Handlungen im Umgang mit AWS vorhersehen und einen autonomen Modus jederzeit auf manuell umschalten kann. Die Bundesregierung darf bei den Regeln für AWS nicht länger zögern.

Die Autorin: Vanessa Vohs ist Doktorandin an der Universität der Bundeswehr und berät EU-Verteidigungsprojekte im Umgang mit KI.

Mehr zum Thema
Unsere Partner
Anzeige
remind.me
Jetziges Strom-/Gaspreistief nutzen, bevor die Preise wieder steigen
Anzeige
Homeday
Immobilienbewertung von Homeday - kostenlos, unverbindlich & schnell
Anzeige
IT Boltwise
Fachmagazin in Deutschland mit Fokus auf Künstliche Intelligenz und Robotik
Anzeige
Presseportal
Direkt hier lesen!
Anzeige
STELLENMARKT
Mit unserem Karriere-Portal den Traumjob finden
Anzeige
Expertentesten.de
Produktvergleich - schnell zum besten Produkt