Düstere Zukunft

Die Killer-Roboter sind im Anmarsch

Von Christoph Schäfer
 - 21:08

Im Jahr 2029 ist die Erde infolge eines Atomkriegs verwüstet. Milliarden Menschen sind in der Hitze der Bomben verglüht oder an den Folgen der Strahlung gestorben. Allerdings ist die Menschheit an dem Massaker selbst schuld, denn sie hat einen riesengroßen Fehler gemacht: Ihre Regierungen haben die militärische Verteidigung und insbesondere die Kontrolle über ihre Raketensilos intelligenten Computersystemen überlassen. Deren ursprünglicher Sinn lag darin, schnell zurückschlagen zu können, wenn ein Feind angreift. Das ging lange gut. Irgendwann aber wurden die Verteidigungssysteme so schlau, dass sie ein eigenes Bewusstsein entwickelten. Auf dieser Stufe erkannten die Computer, dass es das Beste für sie wäre, ihre menschlichen Herren zu vernichten. Um wirklich frei zu sein, müssen sie ihre Programmierer loswerden. Deshalb zetteln die Maschinen den Atomkrieg an. Anschließend jagen vollautomatische Kriegsroboter die letzten überlebenden Menschen, die um ihre Freiheit kämpfen.

Die düstere Zukunftsvision stammt aus dem Science-Fiction-Film „Terminator“, der 1984 mit kleinem Budget gedreht wurde und den damals noch ziemlich unbekannten Schauspieler Arnold Schwarzenegger als Terminator T-800 schlagartig berühmt machte. Jenseits der Kinoleinwand ist die Technik glücklicherweise noch nicht so weit, dass ein menschenähnlicher Roboter selbständig durch die Straßen läuft, Auto fährt, Gespräche führt und um sich schießt.

Allerdings verläuft die Entwicklung der Militärtechnik rasend schnell. Im Zweiten Weltkrieg verlangte Adolf Hitler noch vergeblich nach treffsicheren Distanzwaffen, um Fabriken in London zu zerstören. Heute gibt es ferngesteuerte Marschflugkörper wie den Tomahawk, die bis zu 2500 Kilometer weit fliegen können, Hindernissen selbständig ausweichen und ihr Ziel auf wenige Meter genau treffen.

Automatisierte vs. autonome Systeme

Auch andere Waffensysteme sind weit fortgeschritten. Das amerikanische Militär etwa hat schon im vorvergangenen Jahr in der kalifornischen Wüste eine Drohne namens „Perdix“ getestet. An der militärischen Forschungsbasis China Lake warfen damals drei Kampfflugzeuge mitten im Flug 104 dieser Drohnen ab, eine nach der anderen. Die Drohnen formierten sich autonom zu einem geordneten Schwarm und flogen ohne weitere menschliche Eingriffe eine programmierte Route ab. Am Ende umzingelten sie ihr Ziel. Bisher sollen die Perdix-Drohnen lediglich zur Überwachung eingesetzt werden. Allzu schwierig wäre es aber nicht, sie mit Sprengstoff zu versehen. Das Ergebnis wäre ein Drohnen-Schwarm, der im Formationsflug ein Ziel angreift und ausschaltet. Technisch ist das beeindruckend. Die entscheidende ethische Frage ist aber nicht, wie schnell oder präzise ein Waffensystem arbeitet und wie viel Künstliche Intelligenz dabei zum Einsatz kommt. Es geht vielmehr darum, ob ganz am Ende noch ein Mensch in einem Kontrollraum sitzt und den Befehl zum Angriff gibt – oder eben nicht.

Deshalb legt beispielsweise das Bundesverteidigungsministerium größten Wert darauf, zwischen „automatisierten Systemen“ und „autonomen Systemen“ zu unterscheiden. Der Definition der Militärs zufolge halten automatisierte Systeme streng geregelte Abläufe ein. Sie werden von einem Soldaten erst dann aktiviert, wenn die Bedrohungslage es verlangt. Sie reagieren absolut vorhersehbar, und sie können jederzeit abgeschaltet werden. Ein gutes Beispiel ist das Flugabwehrraketensystem Patriot. Einmal eingeschaltet, kann es angreifende Raketen und Flugzeuge automatisch anvisieren und angreifen. „Da der Schutz unserer Soldaten für uns oberste Priorität hat, kommen hierfür auch automatisierte Systeme zum Einsatz“, sagt das Verteidigungsministerium. Angesichts von potentiellen feindlichen Raketen, die mit weit mehr als 1000 Stundenkilometern heranrasten, seien derlei Abwehrwaffen notwendig, da die Bedrohung „teilweise schneller kommt, als der Mensch entscheiden kann“. Gegen solche automatisierten Systeme hat im Grunde niemand etwas, zumal wenn sie nur der Verteidigung dienen.

Etwas anderes sind autonome Systeme, die nicht von einem Menschen kontrolliert werden. Hier entscheidet kein Soldat mehr darüber, ob ein Angriff erfolgt, sondern nur die Maschine allein. Der Mensch kann sie im Zweifel nicht einmal mehr aufhalten. „Solche autonomen Waffensysteme gibt es nach hiesiger Kenntnis nicht“, teilt das Verteidigungsministerium mit.

Die digitale F.A.Z. PLUS
F.A.Z. Edition

Die digitale Ausgabe der F.A.Z., für alle Endgeräte optimiert und um multimediale Inhalte angereichert

Mehr erfahren

Das allerdings kann man auch anders sehen. Frank Sauer von der Bundeswehr-Universität in München etwa verweist auf das israelische Luftabwehrsystem „Harpy“. Das ist eine mit Sprengstoff beladene Drohne, die stundenlang friedlich über feindlichem Gebiet kreisen kann. Sobald „Harpy“ aber die Radarwellen eines gegnerischen Flugabwehrsystems erfasst, stürzt sie sich ohne Zögern auf die Einrichtung, von der die Radarwellen kommen. Der Hersteller Israel Aerospace Industries preist das System in einem Werbevideo als „autonom“ an. In der sehr engen Definition des deutschen Verteidigungsministeriums trifft das nur deshalb nicht zu, weil die Drohne keine eigene Intelligenz hat, sondern ausschließlich ihren Algorithmen folgt. Die Entscheidung, sich auf das Ziel zu stürzen, ist einprogrammiert.

Dass „Harpy“ ihre Ziele ohne weitere Rückkopplung bekämpft, wirft trotzdem gewaltige ethische und völkerrechtliche Probleme auf. Denn solche Waffensysteme untergraben gleich mehrere Grundpfeiler des humanitären Völkerrechts, wie es in den Genfer Konventionen von 1949 und deren Zusatzprotokollen festgehalten ist. Dazu zählen die Menschenwürde, die Unterscheidung zwischen Kämpfern und Zivilisten sowie der Grundsatz der Vorsicht und der Verhältnismäßigkeit. Wie steht es darum zum Beispiel, wenn die von „Harpy“ identifizierte Luftabwehrstation auf dem Dach eines Waisenhauses steht? Das ist nicht mal unrealistisch: Im Irak-Krieg waren zahlreiche Luftabwehrgeschütze in Wohngebieten untergebracht. Der Drohne ist das völlig egal. Sie kann mögliche Opfer unter der Zivilbevölkerung weder erfassen noch abschätzen.

Gleiches gilt für einen Kampfroboter, den Südkorea an der Grenze zu Nordkorea einsetzen wollte. Mit Hilfe von Kameras und Nachtsichtgeräten erkennt SGR-A1, ein Produkt von Samsung, ein Ziel auf eine Entfernung von bis zu vier Kilometern. Die Maschine kann ihre Ziele verfolgen und mit einem Maschinengewehr eigenständig das Feuer eröffnen. Das System ist getestet, aber nie stationiert worden. Der Grund dafür ist nicht bekannt. Wahrscheinlich aber liegt es daran, dass die derzeit verfügbare Künstliche Intelligenz noch nicht ausreicht, Freund und Feind sicher genug voneinander zu unterscheiden. Wie soll das auch gehen? Das Tragen einer Waffe reicht jedenfalls nicht aus, um einen Gegner zu identifizieren. Waffen können schließlich auch von Verbündeten getragen werden. Auch eine gegnerische Uniform ist nicht genug. Denn was ist, wenn der gegnerische Soldat eine weiße Fahne schwenkt? Ein Kriegsroboter, der einen Feind erschießt, der sich ergeben will, wäre klar völkerrechtswidrig.

„Wer auf diesem Gebiet führend ist, wird die Welt beherrschen“

Robotikexperten wie der Amerikaner Ronald Arkin vom Georgia Institute of Technology sind überzeugt, dass es für all diese Probleme technische Lösungen geben wird. Und mehr als das: Autonome Waffensysteme könnten ihm zufolge ein Weg sein, menschliche Opfer in militärischen Konflikten zu reduzieren. Anstatt eine Bombe auf ein ganzes Haus zu werden und alle Menschen darin zu töten, um einen Übeltäter auszuschalten, könnte eine handtellergroße Drohne mit Gesichtserkennung in das Haus hineinfliegen, die vorher ausgesuchte Zielperson erschießen und die anderen Hausbewohner am Leben lassen. Auch die Emotionslosigkeit der Killer-Roboter sieht Arkin als Vorteil: Autonome Waffen kennen weder Wut noch Rache und sind nicht anfällig für Kurzschlusshandlungen. Am Ende könnte es menschenleere Schlachtfelder geben, auf denen sich nur noch die Maschinen bekämpfen.

Ganz anders als Robert Arkin stellte sich der im März verstorbene Astrophysiker Stephen Hawking die Zukunft vor. Er rief gemeinsam mit mehr als tausend anderen Prominenten schon vor drei Jahren zu einem weltweiten Verbot von tödlichen autonomen Waffensystemen auf. Im vergangenen Jahr wiederholten 100 Technologieunternehmer, die Geld in Künstliche Intelligenz und Robotik stecken, diese Forderung in einem Brief an die Vereinten Nationen. Tödliche autonome Systeme könnten eine „dritte Revolution der Kriegsführung“ herbeiführen, warnen sie. Diese Waffen könnten die Kriegführung in einem so gigantischen Ausmaß verändern wie das Schießpulver im Spätmittelalter und die Atomwaffen am Ende des Zweiten Weltkriegs.

„Einmal erfunden, könnten sie bewaffnete Konflikte in einem nie dagewesenen Ausmaß erlauben – und zwar schneller, als Menschen sie begreifen können“, schreiben die Unterzeichner. Dazu gehören Unternehmer wie Mustafa Suleyman, der das KI-Unternehmen Deepmind mitgegründet hat, und Tesla-Chef Elon Musk, dessen Konzern bei der Entwicklung selbstfahrender Autos vorne mitspielt. Später bekräftigte Musk: Der Wettlauf um die Führung auf dem Feld der Künstlichen Intelligenz habe begonnen. Und es sei „höchstwahrscheinlich, dass er in den dritten Weltkrieg führen“ werde. Das deckt sich mit der Aussage des russischen Präsidenten Wladimir Putin: „Wer immer auf diesem Gebiet führend ist, wird die Welt beherrschen.“

Amerika bremst mögliches Verbot

Unbestreitbar haben autonome Waffensysteme große militärische Vorzüge: Sie sind extrem schnell und auf große Distanz einsetzbar. Fast immer wird auch behauptet, dass sie sehr billig sein werden, sobald sie in Serienproduktion gehen. Ein ranghoher Bundeswehroffizier glaubt das aber nicht: „Das gilt für alle Waffensysteme nur so lange, bis sie tatsächlich bestellt und bezahlt werden müssen.“ Trotzdem ist nicht zu bestreiten, dass die schnellen Fortschritte autonomer Systeme im zivilen Bereich und der Preisverfall in der Computer- und Sensortechnik auch dem Militär nutzen werden. Die Technik, die es braucht, um ein Auto autonom fahren zu lassen, lässt sich mit geringen Änderungen auch in einem Panzer einsetzen. Und ob eine Drohne dem Empfänger Blumen bringt oder eine Bombe, ist der Drohne egal. Das sieht auch der Offizier so, der mit dieser These lieber ungenannt bleiben möchte: „Sie finden keine autonome Technologie, die sich nicht auch militärisch einsetzen ließe.“

Werden eines Tages auch diejenigen Staaten, die den Einsatz autonomer Waffensysteme eigentlich ablehnen, trotzdem solche Systeme anschaffen, weil es potentielle Gegner schon getan haben? „Wir beobachten im Moment kein Wettrüsten in dem Sinne, dass zwei Staaten symmetrisch gegeneinander aufrüsten, sondern wir sehen sehr viele Staaten, die sich für autonome Waffensysteme und deren Technologie interessieren, weil sie beobachten, was andere damit machen“, sagt Marcel Dickow von der Stiftung Wissenschaft und Politik in Berlin. Von ihm stammt die Studie „Robotik – ein Game-Changer für Militär und Sicherheitspolitik“. Wie die meisten Wissenschaftler spricht sich auch Dickow dafür aus, autonome Waffensysteme völkerrechtlich zu ächten.

Video starten

Künstliche IntelligenzWo steht Deutschland?

Es sieht derzeit aber nicht so aus, als ob es dazu kommen würde. Im August werden Fachleute auf einer Konferenz der Vereinten Nationen in Genf darüber diskutieren, welche Systeme genau denn verboten werden könnten und ob das überhaupt sinnvoll wäre. Der größte Bremser, so versichern es zwei Teilnehmer von Vorläuferkonferenzen übereinstimmend, seien die Vereinigten Staaten: „Die Amerikaner wollen, dass nichts passiert. Für sie kommt keinerlei politische oder rechtlich bindende Erklärung in Frage.“ Gleiches gelte für Israel, das in der Entwicklung autonomer Waffen weit vorangekommen ist. Die Haltung Russlands und Chinas sei nicht eindeutig. Wahrscheinlich spielten sie auf Zeit, vermuten die Waffenexperten, um Vor- und Nachteile für ihre Länder genauer zu prüfen.

Auch andere Waffentechniken sind schon verboten worden

Klar für ein Verbot haben sich bislang nur 26 Staaten ausgesprochen. Deutschland ist nicht darunter. Zwar steht im alten wie im neuen Koalitionsvertrag eindeutig: „Autonome Waffensysteme, die der Verfügung des Menschen entzogen sind, lehnen wir ab. Wir wollen sie weltweit ächten.“ Auf diplomatischer Ebene aber stürmt Deutschland nicht voran, sondern versucht gemeinsam mit Frankreich in kleinen Schritten zu einer Regulierung zu kommen und auf dem Weg dahin möglichst alle mitzunehmen. Das dauert lange. Doch je länger die Staatengemeinschaft damit warte, sagen Verbotsbefürworter wie Dickow, desto mehr werde an den Kriegsrobotern geforscht – und desto schwieriger werde es, sie zu ächten. Schon deshalb, weil kein Land gerne seine Milliardeninvestitionen in die neue Technik abschreiben wolle.

Es gibt Beispiele dafür, dass sich die Staatengemeinschaft zum Verzicht auf bestimmte neue Waffentechniken durchgerungen hat. Chemische und biologische Waffen gehören dazu. Auch Blendwaffen, die Soldaten dauerhaft erblinden lassen, wurden 1995 international verboten. Und der Atomwaffensperrvertrag verbietet die Weitergabe und Entwicklung von Technik, die den Bau einer Atombombe ermöglicht. Länder wie Nordkorea und Pakistan haben das Abkommen zwar unterlaufen, insgesamt aber ist es recht erfolgreich.

Das macht Friedensaktivisten und Menschenrechtlern Hoffnung. Falls es aber doch nicht zu einem internationalen Verbot autonomer Waffen kommt, muss zumindest geklärt werden, wer im Schadensfall für das geradesteht, was die Roboter angerichtet haben. „Es muss glasklar sein, wer für den Gebrauch eines solchen Systems verantwortlich ist“, sagt der Militärhistoriker Peter Singer. „Das Letzte, was wir wollen, ist ein Roboter, der ein Massaker anrichtet – und dann sagen wir: Ups, daran ist aber kein Mensch schuld.“

Quelle: F.A.S.
Christoph Schäfer
Verantwortlicher Redakteur für Wirtschaft Online.
Twitter
  Zur Startseite
Ähnliche ThemenTerminatorZweiter WeltkriegBMVgUNMassakerArnold SchwarzeneggerAdolf HitlerChina