<iframe src="https://www.googletagmanager.com/ns.html?id=GTM-WBPR4W&gtm_auth=3wMU78FaVR9TNKtaXLbV8Q&gtm_preview=env-23&gtm_cookies_win=x" height="0" width="0" style="display:none;visibility:hidden"></iframe>
Nato-Pläne zu autonomen Waffen

Angriff der Killerdrohnen

Von Constanze Kurz
 - 14:17

Mit einem freundlichen Augenaufschlag blickt sie auf das Publikum der „Münchner Sicherheitskonferenz“, das sich schon einen Tag vor dem offiziellen Beginn eingefunden hat. Wolfgang Ischinger, der wie jedes Jahr zur privaten Konferenz von und für Politiker und Militärs geladen hat, lässt den Roboter „Sophia“ auf die Bühne stellen und führt ein kurzes verbales Geplänkel mit ihr auf. Der einer Frau nachempfundene Roboter, der sich allerdings nicht selbständig fortbewegen kann, sagt ein paar Sätze auf, klimpert mit den Wimpern und dreht dabei den Kopf.

Als Ischinger jedoch das Thema der Veranstaltung nennt, blickt man auf „Sophia“ mit anderen Augen. Denn die weibliche Stimme des Roboters leitet eine Diskussion darüber ein, welche Bedrohungen vor allem militärischer Art von tödlichen autonomen Waffensystemen und Künstlicher Intelligenz ausgehen. Unwillkürlich erinnert das Gesicht von „Sophia“ an den Killer-Roboter „T-X“ aus dem Film „Terminator 3“. Das mag auch daran liegen, dass sich die Veranstalter zu einem makabren Scherz haben hinreißen lassen: Als auf dem Podium die Menschenrechtsaktivistin Mary Wareham von Human Rights Watch Platz nimmt, die sich seit Jahren für ein Verbot tödlicher autonomer Waffensysteme engagiert, erhebt „Sophia“ ihre Stimme und versichert, sie sei wirklich kein Killer-Roboter.

Die Hardware als „Wirkmittel“

Viel zu lachen gibt es ansonsten nicht. Vor allem nicht, als der ehemalige Nato-Generalsekretär Anders Fogh Rasmussen das Wort ergreift und zur Überraschung einiger Zuhörer ein deutliches Statement für ein Verbot der Entwicklung und des Einsatzes von tödlichen autonomen Waffensystemen abgibt. Er stellt sich auf die Seite von Mary Wareham, die sich zusammen mit vielen Organisationen seit 2013 dafür einsetzt, solch ein Verbot über den Weg einer UN-Waffenkonvention in die Wege zu leiten. Man müsse über ein völkerrechtliches Abkommen klare Regeln schaffen, um noch zu verhindern, dass Künstliche Intelligenz im Militäreinsatz autonom über Leben und Tod entscheide.

Prototypen von solchen autonomen Killer-Systemen sind längst gebaut. Auf der Sicherheitskonferenz wird aber nicht über Terminator-Roboter, sondern vor allem über fliegende Kampfdrohnen geredet, die in Schwärmen angreifen und deren Hardware das „Wirkmittel“ ist. Sprich: Sie explodieren, wenn sie selbständig ihr Ziel erreicht haben.

Video starten

Transatlantische Beziehungen
„Alleine schaffen wir es nicht“

Obwohl es sehr verschiedene tödliche autonome Waffensysteme gibt, die auch nicht alle fliegen, werden die Drohnen immer wieder als Beispiel herangezogen. Grund dürfte auch der Krieg in Syrien sein. Denn hinter den Kulissen macht ein aufsehenerregender Vorfall kürzlich auf einem syrischen Flugplatz die Runde. Dort soll – vermutlich mit iranischer Hilfe – ein Drohnenangriff gegen russische Einheiten geschehen sein. Da trotz der politischen Spannungen die Sicherheitskonferenz traditionell auch ein Ort des klandestinen Informationsaustauschs zwischen Militärs aller Lager ist, liegt es nahe, dass die Russen wohl einige furchterregende Details über diese Drohnenattacke fallengelassen haben.

Auch wenn wenig Offizielles zu dem Angriff verlautbart wurde, so ist die technologische Richtung eindeutig: Durch die schnellen Fortschritte bei immer billiger werdenden Präzisionssensoren zur Kurs- und Lagebestimmung und bei den Möglichkeiten der Bilderkennung in Echtzeit dürften sich die Militärs kaum mehr Illusionen darüber machen, wie lange der schon heute nur lückenhaft wirksame Schutz gegen solche Drohnen noch helfen wird. Bisher greift man auf das sogenannte Jamming von GPS und Fernsteuersignalen zurück. Man nimmt damit den fliegenden Angreifern die Möglichkeit der Steuerung, Orientierung und Navigation und reduziert zugleich ihre Kampfkraft – bis hin zum Absturz. Lösen sich die Drohnen oder gleich ganze Kampfschwärme von ihrer bisherigen Abhängigkeit von Funktechnologien und finden sie ihre Ziele automatisch allein auf der Basis von Bilderkennung und Kompassnavigation, sieht es düster aus.

Die Industrie hat einen Vorsprung

Als der Ex-Nato-Chef Rasmussen auf dem Podium gefragt wird, ob das Militärbündnis auf Angriffe mit tödlichen autonomen Waffensystemen vorbereitet ist, verneint er ohne Umschweife. Man werde in Zukunft vor allem nicht mehr den Luxus haben, sich Wochen oder Monate Zeit für Entscheidungen zu nehmen. Denn „Schwärme angreifender Roboter“ stünden unmittelbar bevor. Das sei eine große Herausforderung und würde kommende Gefechte drastisch beschleunigen. Denn Drohnen könne man einfach ausschwärmen lassen, ohne dass lange Vorbereitungen nötig seien.

Die deutlichen Worte von Rasmussen auf der Sicherheitskonferenz mögen das Publikum verstört haben, die betroffene Industrie bereitet sich allerdings schon länger auf die intelligenten Drohnenschwärme vor. Die von den Waffenbauern vorgeschlagene Lösung ist naheliegend: ihrerseits autonom agierende Anti-Drohnen-Systeme. Die Angst vor autonomen Waffen, die schneller sind, als ein Mensch reagieren kann, erzwingt in der Logik der Militärs den Bau autonomer Waffensysteme. Das klingt noch nach Science-Fiction – aber nicht mehr lange.

Dem von Rasmussen mehrfach geforderten Verbot der Entwicklung und des Einsatzes tödlicher autonomer Waffensysteme widerspräche solch ein Abwehrsystem übrigens nicht; auch wenn eine allgemein akzeptierte Definition dazu, was genau denn damit verboten würde, noch nicht gefunden ist. Allen Definitionen ist eines gemein: Es geht um das autonome Töten von Menschen, nicht um das Zielen auf herannahende Drohnenschwärme. Laserwaffen, die anfliegende Drohnen automatisch erfassen und eliminieren, könnten die Militärs noch immer entwickeln und kaufen, sollte einst tatsächlich ein Verbot tödlicher autonomer Waffensysteme Wirklichkeit werden.

Aus Sicht von uns Menschen ist es allemal besser, wenn das Geld zukünftig in solche Abwehrsysteme gesteckt würde. Denn die Alternative wären Drohnenschwärme, deren Software mit Gesichtserkennung darauf trainiert würde, auf menschliche Köpfe zu zielen. Roboter wie „Sophia“ sollten dann besser kein Gesicht haben.

Quelle: F.A.Z.
  Zur Startseite
Ähnliche ThemenNatoAnders Fogh RasmussenWolfgang IschingerTerminatorMünchner SicherheitskonferenzKünstliche IntelligenzHuman Rights Watch