Drohnen als Waffensysteme

Tod durch Roboter

Von Adrian Lobe
 - 19:57

Stuart Russell, Professor für Informatik an der University of California und einer der führenden Forscher zur Künstlichen Intelligenz (KI), zeigte kürzlich einen Science-Fiction-Clip: Darin präsentiert der CEO einer Firma im Stile von Steve Jobs eine handgroße Drohne, die, ausgestattet mit drei Gramm Sprengstoff und Gesichtserkennungssystem, ihre Zielperson ansteuert und sie vollautomatisch eliminiert. Tausende solcher Minidrohnen (Slaughterbots) könnten ausschwärmen und eine halbe Stadt auslöschen. „Die böse Hälfte“, wie der Firmenchef in dem Clip sagt. „Atomwaffen sind obsolet. Erledigen Sie den gesamten Gegner. Virtuell risikofrei. Charakterisiere ihn, lass den Schwarm los, und bleib locker!“

Was wirkt wie eine krude Mischung aus Hollywood und Silicon-Valley-Fortschrittsoptimismus, eine Roboterarmee, die per Knopfdruck autonom den Feind tötet, ist kein Science-Fiction-Szenario, sondern Realität. Erst kürzlich beriet man auf einer Konferenz der Vereinten Nationen über autonome Waffensysteme, die einen Menschen orten, identifizieren und töten können. Dort wurde auch der Kurzfilm gezeigt.

Russell ist neben dem Tesla-Chef Elon Musk einer von 116 KI-Experten, die in einem offenen Brief ein Verbot autonomer Waffensysteme fordern. Die Unterzeichner warnen, dass Killerroboter die „dritte Revolution der Kriegsführung“ nach Schießpulver und Atomwaffen einläuteten. Zudem könnten die Waffensysteme in die Hände von Terroristen und Diktatoren fallen. „Wenn diese Büchse der Pandora einmal geöffnet ist, wird es schwierig, sie wieder zu schließen“, schreiben die Verfasser. Sie sind nicht die Ersten, die sich gegen die neuartigen Waffen wenden. Bereits 2015 hatten mehr als tausend Wissenschaftler und IT-Unternehmer, unter ihnen Stephen Hawking, Steve Wozniak und Noam Chomsky, ein Verbot autonomer Waffen gefordert. Die Forscher warnten vor einer Zukunft, in der diese Waffensysteme so allgegenwärtig sein könnten wie Kalaschnikow-Sturmgewehre – weil sie billiger und einfacher herzustellen sein könnten.

Kampf- und Polizeiroboter kommen längst zum Einsatz. In der „demilitarisierten“ Zone zwischen Nord- und Südkorea patrouilliert Tag und Nacht eine Flotte halbautonomer Kampfroboter. Der Typ SGR-A1, eine Entwicklung der Samsung-Tochter Techwin, ist mit einem Maschinengewehr ausgerüstet und soll in der Lage sein, mittels Bewegungssensoren und Wärmebildkamera den Feind über vier Kilometer aufzuspüren und automatisch zu feuern. Kampfroboter haben gegenüber Soldaten aus Fleisch und Blut entscheidende Vorteile: Sie werden nicht müde, sind billiger und desertieren nicht. Menschliche Sicherheitskräfte müssen sich nicht mehr in Gefahrensituationen begeben, wenn an der Front ein Roboter steht.

Moral lässt sich nicht einprogrammieren

Das Hauptargument für ein Verbot ist moralischer Natur: Eine Maschine darf nicht töten. Der Science-Fiction-Autor Isaac Asimov formulierte 1942 seine berühmten drei Robotergesetze. Das erste lautet: Ein Roboter darf kein menschliches Wesen (wissentlich) verletzen oder durch Untätigkeit (wissentlich) zulassen, dass einem menschlichen Wesen Schaden zugefügt wird.

Das Argument der Verfechter der neuen Technologie lautet aber, dass autonome Waffen Kollateralschäden vermieden. Drohnenschläge seien präziser als Bombenangriffe; man könne „chirurgisch“ vorgehen. Der Robotiker Ronald Arkin vom Georgia Institute of Technology bringt vor, autonome Waffen seien sogar moralischer als menschliche Soldaten, weil sie keine Wut oder Rachegelüste verspürten und ihnen somit die „Unmenschlichkeit des Menschen“ fehle. Autonome Waffensysteme könnten, so zynisch es klinge, den Krieg „humaner“ machen, weil weniger Menschenleben geopfert würden. Diese Argumente lassen die Gegner autonomer Waffensysteme nicht gelten. Sie wenden ein, dass der Einsatz von Kampfrobotern die Hemmschwelle für den Kriegseintritt senken und einem Bellizismus Vorschub leisten würde. Das könnte zu einer Dehumanisierung von Konflikten führen und Kriege noch unmenschlicher machen.

Der französische Informatiker Jean-Paul Delahaye hält das Argument „sauberer“ Kriegsführung für falsch, weil es unterstelle, dass man einem Killerroboter Regeln wie „Ziele nicht auf Zivilisten“ oder „Greife nur den Feind an“ einprogrammieren könne. Das sei in der Praxis nicht möglich. Selbst wenn es gelänge, einer Maschine Moral einzuprogrammieren, könne diese jederzeit deinstalliert werden. Studien der amerikanischen Psychologen Gresham M. Sykes und David Matza, die das Verhalten von Kriminellen untersucht haben, zeigen zudem, dass der Mensch gerade deshalb zu Verbrechen in der Lage ist, weil er sein eigenes Gewissen ausschalten kann und Opfer entmenschlicht. Ein Mensch im Blutrausch operiert ähnlich wie ein Roboter. Allein, wo mit autonomen Waffensystemen Milliardengeschäfte locken, besteht die Gefahr, dass moralische Bedenken hintanstehen werden.

Quelle: F.A.Z.
  Zur Startseite
Ähnliche ThemenElon MuskSteve JobsTeslaUNUniversity of CaliforniaAtomwaffeDrohneRoboter