Künstliche Intelligenz

Wer wagt es, Killer-Roboter zu verbieten?

Von Alexander Armbruster
 - 12:50

Großbritannien wird kein Verbot von tödlichen autonomen Waffen – umgangssprachlich „Killer-Robotern“ – unterstützen. Das teilte das britische Verteidigungsministerium mit. Das Vereinigte Königreich beabsichtige nicht, voll autonome Waffensysteme zu entwickeln oder zu kaufen, sagte ein Ministeriums-Sprecher dem Finanzdienst Bloomberg. Das Land sei allerdings auch gegen einen präventives Verbot solcher Waffen. „Es ist richtig, dass unsere Waffen von realen Personen gesteuert werden, die in der Lage sind, komplexe Entscheidungen zu treffen, und obwohl sie zunehmend High-Tech werden, werden sie immer unter menschlicher Kontrolle sein.“

Das Ministerium reagiert damit auf einen im Internet veröffentlichten Brief, den mehr als einhundert Technologie-Unternehmer an die Vereinten Nationen geschrieben haben, die Geld in Künstliche Intelligenz und Robotik stecken. Auch wenn sie sich darin nicht dezidiert für ein generelles Verbot aussprechen, warnen sie doch sehr eindringlich davor, diese Technologie zu missbrauchen. Killer-Roboter könnten ihrer Ansicht nach eine „dritte Revolution der Kriegsführung“ herbeiführen. „Einmal erfunden, könnten sie bewaffnete Konflikte erlauben in einem nie dagewesenen Ausmaß, und schneller, als Menschen sie begreifen können“, schreiben die Fachleute.

„Die Versuchung wird sehr groß sein“

Zu den Unterzeichnern zählen Mustafa Suleyman, der das mittlerweile zum amerikanischen Technologieunternehmen Alphabet (Google) gehörende KI-Unternehmen Deepmind mitgründete und leitet, und Tesla-Gründer Elon Musk. Darunter sind auch führende KI-Forscher wie Yoshua Bengio, ein Pionier der gerade angesagten KI-Methoden (neuronale Netze, Deep Learning), der Informatik-Professor Stuart Russell und der deutsche KI-Experte Jürgen Schmidhuber. „Wenn die Menschen nicht neue Massenvernichtungswaffen sehen wollen – in der Form großer Schwärme tödlicher Mikrodrohnen – (...) ist es unabdingbar (...) einen Vertrag gegen tödliche autonomen Waffen auf den Weg zu bringen“, sagte Russell. Er und seine beiden Kollegen Schmidhuber und Bengio gehören gewöhnlich nicht zu denjenigen, die apokalyptische Warnungen aussprechen, sie weisen stets nüchtern vielmehr auf die großen Chancen der Künstlichen Intelligenz hin.

In ihrem Brief an die Vereinten Nationen nennen die Tech-Unternehmer auch Beispiele für den möglichen Einsatz solcher Waffen. „Das können Waffen des Terrors sein, Waffen, die Despoten und Terroristen gegen unschuldige Bevölkerung einsetzen, und Waffen, die gehackt werden könnten, um sich in einer unerwünschten Art und Weise zu verhalten.“ Die Weltgemeinschaft hat ihrer Ansicht nach nicht viel Zeit, um nun zu handeln. „Wenn diese Büchse der Pandora geöffnet ist, wird es sehr schwer werden, sie wieder zu schließen.“

Unmöglich ist ein Waffenverbot nicht. Mehr als 190 Staaten haben sich beispielsweise darauf geeinigt, keine chemischen Waffen in der Kriegsführung einzusetzen. Auch gegen die Verbreitung von Atomwaffen gehen sie vor. Allerdings haben beide Arrangements bislang nicht hundertprozentig funktioniert.

Die neue digitale Zeitung F.A.Z. PLUS
Die neue digitale Zeitung F.A.Z. PLUS

Die ganze F.A.Z. jetzt auch im Web, mit zusätzlichen Bildern, Videos, Grafiken. Hier geht’s zum Test.

Mehr erfahren

Die Möglichkeiten, mittels Künstlicher Intelligenz die eigene militärische Schlagkraft deutlich zu steigern, scheinen gleichwohl groß – und verlockend. Zu diesem Ergebnis kommt etwa eine unlängst veröffentlichte Untersuchung im Auftrag der amerikanischen Geheimdienste. „Man wird kaum ein komplettes Verbot autonomer Waffensysteme erreichen. Die Versuchung, sie zu benutzen, wird sehr stark sein“, sagte Greg Allen, einer der beiden Autoren und Mitarbeiter der in Washington ansässigen unparteiischen Denkfabrik „Center for New American Security“, gegenüber dem Internetdienst „Wired“. Als Beispiele für schon existierende und wenigstens teilweise autonome Waffensysteme werden etwa das Raketenabwehrsystem Aegis genannt, dass die amerikanische Marine verwendet und eine von der israelischen Luftwaffe eingesetzte Drone namens Harpy.

Der britische KI-Fachmann und Informatiker Noel Sharkey kommentierte die Stellungnahme des Verteidigungsministeriums seines Landes mit der Frage: „Wenn Sie sie (autonome Waffen, a. d. Red.) nicht einsetzen, warum würden Sie dann andere Leute dies tun lassen?“

Quelle: FAZ.NET
Autorenporträt / Armbruster, Alexander (ala.)
Alexander Armbruster
Redakteur in der Wirtschaft.
Twitter
  Zur Startseite
Ähnliche ThemenBritannienBloombergBMVgUNKünstliche IntelligenzVerbot