Autonome Waffen

Wenn Maschinen Krieg führen

Von Morten Freidel
 - 14:21
zur Bildergalerie

Kürzlich schrieb der amerikanische Unternehmer Elon Musk auf Twitter, der Wettlauf um Künstliche Intelligenz habe begonnen. Und es sei „sehr wahrscheinlich“, dass er die Großmächte in den Dritten Weltkrieg führen werde. Musk bezog sich auf eine Aussage des russischen Präsidenten Wladimir Putin: „Wer immer auf diesem Gebiet führend ist, wird die Welt beherrschen.“

Der Unternehmer forscht selbst an Künstlicher Intelligenz, seine Firma Tesla führt die Entwicklung selbstfahrender Autos an. Musk sorgt sich schon länger. Vor einem Monat verfasste er zusammen mit anderen Robotik-Experten einen offenen Brief an die Vereinten Nationen, in dem sie die Weltgemeinschaft aufforderten, autonome Waffensysteme zu verbieten. Das sind Waffen, die selbständig ein Ziel erfassen und angreifen. „Einmal entwickelt, werden sie bewaffnete Konflikte in nie gekannter Größenordnung und in einer Geschwindigkeit ermöglichen, die das menschliche Denkvermögen übersteigen“, heißt es in dem Brief. „Wir haben nicht viel Zeit, um zu handeln. Wird diese Büchse der Pandora einmal geöffnet, wird sie nur schwer wieder zu schließen sein.“

Das Programm lernt dazu

Diese Worte beschwören Filme wie „Terminator“ herauf, Bilder von Killer-Robotern, die Menschen mit kalter Präzision eliminieren. Wollte Musk davor warnen? Vermutlich nicht. Dass Computer in naher Zukunft ein Bewusstsein entwickeln, halten Fachleute für unwahrscheinlich. Wer von Künstlicher Intelligenz spricht, meint meistens etwas anderes: selbstlernende Algorithmen.

Das sind Programme, die eine genau umrissene Aufgabe erfüllen sollen, zum Beispiel: Durchforste einen Satz Fotos, und sage mir, auf welchen eine Katze ist. Dafür braucht der Algorithmus riesige Datenmengen. Man muss ihm Beispielfotos zeigen, auf denen Katzen zu sehen sind, und andere, auf denen keine sind. So lernt das Programm zu unterscheiden. Wie es das tut, ist ihm selbst überlassen. Es gibt keinen vorgeschriebenen Lösungsweg.

Es geht auch nicht darum, eine abstrakte Vorstellung davon zu entwickeln, was eine Katze ausmacht. Entscheidend ist allein das Ergebnis, die Trefferquote. Und die ist in den vergangenen Jahren bei allen Algorithmen in die Höhe geschossen. Für das Leben in der Zukunft bedeutet das: Autos, die von allein fahren und Heimassistenten, die jeden Wunsch der Bewohner vorhersehen können. Und eine neue Form des Krieges.

Drohnen als intelligenter Schwarm

Denn Rüstungsfirmen bauen mit diesen Algorithmen Waffensysteme, die eigenständig operieren, ohne menschliche Unterstützung. Sie können die bisherige Kriegsführung auf den Kopf stellen wie die Erfindung des Schießpulvers oder der Atombombe. Ein Beispiel: Das amerikanische Militär hat eine Drohne entwickelt mit dem Namen Perdix.

Sie ist einige Zentimeter breit und sieht harmlos aus, wie ein ferngesteuertes Miniflugzeug. Kampfjets werfen Hunderte dieser Drohnen über dem Schlachtfeld ab, wo sie sich sammeln und einen Schwarm bilden. Die Armee hat das schon getestet. Der Drohnenschwarm kreiste so schnell am Himmel, dass Reporter Mühe hatten, ihn zu filmen.

Bisher soll die Perdix-Drohne nur den Luftraum überwachen. Aber Militärexperten sagen, in Wahrheit stecke in ihr eine Angriffswaffe: Von Drohnen, die in der Lage sind, sich zu versammeln, ist es nur noch ein Schritt hin zu Drohnen, die im Verbund ein Ziel angreifen. Und von dort nur noch ein Schritt hin zu Drohnen, die selbst entscheiden, welches Ziel das lohnenswerteste ist. Alles nur eine Frage der Software.

Gegner haben kaum eine Chance

Man stelle sich folgendes Szenario vor: Das amerikanische Militär greift mit Perdix-Drohnen einen Truppenverband an. Tausende Drohnen mit Sprengstoff werden in der Nähe des Schlachtfeldes abgeworfen, bilden einen Schwarm und nähern sich dem Feind. Sie analysieren, wo Panzer stehen, wo sich die meisten Soldaten befinden, wo also die vielversprechendsten Ziele liegen. Und die greifen die Drohnen an. Dafür brauchen sie nicht zu verstehen, wozu eine militärische Formation gut ist, nicht mal, was ein Soldat ist. Sie müssen nur Erfolg haben.

Der Gegner könnte einem solchen Angriff kaum etwas entgegensetzen. Gegen einen Schwarm von Tausenden Minidrohnen gibt es noch keine wirksame Verteidigung. Die Drohnen sind wendig und können Beschuss ausweichen. Sie tauschen sich mehrmals in der Sekunde aus, schneller, als der Mensch reagieren kann. Es wäre ein ungleicher Kampf. Der Schwarm könnte Hunderte Soldaten töten, selbst wenn ein Teil im Feuerhagel explodiert.

Die Soldaten können zuhause bleiben

Der angreifenden Armee wird es nichts ausmachen, wenn nur wenige Drohnen zur Heimatbasis zurückkehren. Dann produziert sie eben neue. Es ist ein Leichtes, diese Waffe massenhaft herzustellen. Ihre Hülle könnte künftig mit einem 3D-Drucker ausgedruckt werden. Daran forscht das amerikanische Militär seit Jahren. Der Einsatz solcher Drohnen würde also fast nichts kosten. Schon gar keine Menschenleben, denn die Soldaten blieben ja zu Hause. Der Schaden, den die Drohnen anrichten könnten, wäre dagegen immens.

Genauso ist das mit unbemannten Booten. Im vergangenen Jahr testete die amerikanische Navy ein Schiff mit dem Namen „Sea Hunter“. Es kann übers Meer fahren, sogar Hindernissen ausweichen, ohne dass ein Mensch eingreifen muss. „Sea Hunter“ soll feindliche U-Boote aufspüren und jagen. Im Test verfolgte das Schiff ein U-Boot im Abstand von mehreren Kilometern. Es hat ein Sonar an Bord und die leistungsfähigsten Sensoren, die das Militär aufbieten kann. Schlafkojen gibt es keine und auch sonst nichts, was der Mensch zum Überleben braucht: keine Kombüse, Aufenthaltsräume oder Toiletten. Nur Abhörtechnik und Waffen. Der Einsatz von „Sea Hunter“ kostet deshalb nur einen Bruchteil dessen, was für ein bemanntes Schiff anfällt.

Aber die Navy will mehr; sie forscht bereits an selbstfahrenden U-Booten. Sie sollen den Feind beobachten und Ladungen transportieren. Sind solche Schiffe aber erst einmal erprobt, kann man sie mühelos bewaffnen. Sie gehen monatelang allein auf Tauchfahrt. Entdecken sie ein feindliches U-Boot, entscheiden sie selbst, was zu tun ist. Der Gegner wird die Schiffe kaum bemerken, denn dafür sind sie zu klein. Und sie verraten sich auch nicht, denn Funksprüche setzen sie nur selten ab. Mit ihnen könnte gelingen, was den Atommächten im Kalten Krieg verwehrt war: gegnerische U-Boote in den Weltmeeren aufzuspüren und ihnen überallhin zu folgen.

Die Amerikaner sind nicht die Einzigen, die an solchen Waffensystemen forschen. Israelis, Chinesen und Russen tun es auch. Russland zum Beispiel stellte kürzlich einen Kleinpanzer vor, Ural-9, den Soldaten mit einem Joystick aus der Ferne steuern und dessen Maschinengewehr sie auf Knopfdruck abfeuern. Der Panzer ist für den Kampf in Städten ausgelegt. Hindernissen kann er selbst ausweichen. Eigenständig umherfahren kann er noch nicht, dafür werden ausgefeiltere Algorithmen benötigt als für autonome Waffensysteme in der Luft und zu Wasser. Man kann sich ausmalen, dass russische Militärs daran arbeiten.

Alle hätten Zugriff auf die neuen Waffen

Schon diese Beispiele zeigen, welche Begehrlichkeiten autonome Waffen wecken. Wer sie besitzt, hat enorme taktische Vorteile und spart dabei noch Geld. Das ist neu. Bisher kosteten die durchschlagendsten Waffen auch am meisten. Will ein Staat zum Beispiel über Atombomben verfügen, muss er unzählige Hürden überwinden: Zentrifugen errichten und Uran anreichern, Zünder beschaffen und Trägerraketen, die in der Lage sind, die Sprengköpfe ans Ziel zu bringen. Nicht so mit autonomen Waffen. Ist die Software einmal im Umlauf, stehen diese Waffen allen Kriegsparteien zur Verfügung, Großmächten, Schurkenstaaten und Terroristen. Auch Hacker könnten sich ihrer bemächtigen. Kritiker nennen das die „Demokratisierung des Krieges“.

Sie gefährdet die militärische Stabilität. In einem bisher unveröffentlichten Bericht schreibt Frank Sauer von der Bundeswehr-Universität München, autonome U-Boote könnten das strategische Patt der Atommächte ins Wanken bringen: Bisher war es unwahrscheinlich, dass diese Staaten einander angreifen. Selbst wenn es einer Armee gelungen wäre, alle gegnerischen Militärbasen dem Erdboden gleichzumachen – die U-Boote des Feindes wären weiter in den Weltmeeren unterwegs gewesen, mit Atomwaffen bestückt. Sie hätten Vergeltung üben können. Auf dieser Angst vor dem atomaren Zweitschlag fußte die Zurückhaltung des Kalten Krieges. Was aber wäre, wenn der Gegner keine Atom-U-Boote mehr hat?

Auch Algorithmen machen Fehler

Gefährlich ist auch die Software selbst. Wie Algorithmen zu ihren Entscheidungen gelangen, bleibt dem Menschen ein Rätsel. Forscher arbeiten deshalb an Programmen, die andere Programme übersetzen sollen. Trotzdem kommen Algorithmen immer wieder zu bizarren Fehleinschätzungen. In Neuseeland beispielsweise sollte ein Programm die biometrischen Fotos von Einreisenden überprüfen.

Doch die Bilder eines Asiaten lehnte es stets ab, obwohl sie in Ordnung waren. Der Computer behauptete, der Mann habe seine Augen geschlossen. Wenn selbstlernenden Algorithmen solche Patzer unterlaufen, wie erst sähen ihre Fehler im Krieg aus? Ein Drohnenschwarm etwa könnte zuerst ein unbedeutendes Ziel angreifen und sich damit den restlichen Truppen verraten. Oder der Feind könnte den Schwarm auf Zivilisten lenken, zum Beispiel, indem er sie zwingt, die gleiche Kleidung wie die Soldaten zu tragen.

Deshalb hat das Pentagon in einer Direktive festgelegt, dass autonome Waffen nur dann einen Angriff führen dürfen, wenn ein Soldat die letzte Entscheidung hat. Das geht nur, wenn sie so langsam handeln, dass der Mensch noch mitkommt. Aber ist das überhaupt realistisch? Der Vorteil autonomer Waffen ist ihre Schnelligkeit.

Ein Drohnenschwarm kann seine Überlegenheit erst dann voll ausspielen, wenn er sich in Sekundenbruchteilen zum Angriff entscheidet. Muss erst ein Mensch zustimmen, hat die Waffe ihren wichtigsten Vorsprung verspielt. Das mag nicht ins Gewicht fallen, solange nur eine Armee autonome Waffen einsetzt. Kämpfen aber zwei autonome Waffensysteme gegeneinander, wird dasjenige im Vorteil sein, das eigenmächtig entscheidet. In einer solchen Lage könnten Militärs dazu verleitet sein, ihre Befehlsgewalt freiwillig aufzugeben.

Diese Versuchung wächst, je mehr Waffensysteme miteinander verschaltet sind. Ein Zentralrechner, der eine ganze Armee übersieht, kann schneller ausrechnen, wann sich ein Krieg lohnt, als jeder General. Es sind also Zweifel angebracht, ob der Mensch die Hoheit über autonome Waffensysteme behalten wird. Das geben Militärs selbst zu. Im März 2016 stellte der damalige amerikanische Vize-Verteidigungsminister, Robert Orton Work, zwar klar: „Wir werden einer Maschine die Entscheidung über tödliche Gewalt nicht überlassen.“ Doch Orton fügte hinzu, dass es Gegner der Amerikaner tun könnten. In einem solchen Fall, „werden wir Entscheidungen treffen müssen, um mitzuhalten“. Es sei daher „unaufhaltsam“, dass Computergehirne selbst entschieden, tödliche Gewalt anzuwenden. „Das wird passieren.“

Tödliches Spielzeug
Mit der Drohne gegen den IS
© afp, afp

Ein Verbot ist nicht in Sicht

Trotz dieser Risiken sieht es nicht nach einem Verbot autonomer Waffen aus. Das Pentagon hat ihren Gebrauch mit seiner Direktive zwar beschränkt. Ausnahmen sind aber möglich. Wollte das Militär eine Waffe einsetzen, über die der Mensch keine abschließende Kontrolle hat, braucht es nur die Erlaubnis ranghoher Beamter aus dem Pentagon. Robotik-Experte Peter Asaro von der Universität Stanford sagt, der Passus schaffe außerdem Rechtssicherheit für Entwickler. Wer an Waffen arbeitet, die momentan noch verboten sind, muss sich nur ein paar Unterschriften besorgen. Einen Forschungsstopp braucht er nicht zu befürchten.

Auch die internationalen Bemühungen für einen Bann stocken. Im Dezember vergangenen Jahres trafen die Vertreter von über hundert Staaten am Sitz der Vereinten Nationen in Genf zusammen. Es ging um die Frage, wie gefährlich autonome Waffen sind. Tagelang redeten sich Fachleute die Köpfe heiß. Am Ende einigte man sich darauf, eine Expertengruppe ins Leben zu rufen. Es war ein erster Schritt. Denn eine solche Gruppe kann den Einsatz autonomer Waffensysteme ächten und für völkerrechtswidrig erklären.

Doch bevor es zur Abstimmung kam, bat der russische Vertreter um das Wort. Russland sei davon überzeugt, sagte er, dass die Formalisierung künftiger Diskussionen „voreilig wäre und keinen zusätzlichen Nutzen bringen würde“. Anschließend beschlossen die Staaten zwar einstimmig, eine Expertengruppe einzusetzen. Aber Russland hatte seinen Standpunkt klargemacht: Ein Verbot autonomer Waffen wird es auf keinen Fall akzeptieren.

Quelle: F.A.S.
Autorenporträt / Freidel Morten
Morten Freidel
Redakteur in der Politik der Frankfurter Allgemeinen Sonntagszeitung.
Twitter
  Zur Startseite
Ähnliche ThemenElon MuskWladimir PutinRusslandTeslaTwitterUNDrohne