<iframe title="GTM" src="https://www.googletagmanager.com/ns.html?id=GTM-WBPR4W&gtm_auth=3wMU78FaVR9TNKtaXLbV8Q&gtm_preview=env-23&gtm_cookies_win=x" height="0" width="0" style="display:none;visibility:hidden"></iframe>
FAZ plus ArtikelUmgang mit KI

Wollen wir Sicherheit oder Wettbewerb?

Von Erny Gillen
 - 17:03
Wer programmiert wen? Und wie soll man einer Technologie vertrauen, die ohne Gewissen Entscheidungen trifft?

Wie und wozu werden Fallen gebaut? Wer baut sie? Wer setzt sie aus? Diese und viele weitere Fragen stellen sich dem Leser des über die Feiertage still und leise zur öffentlichen Konsultation ins Netz gestellten Entwurfs von „Ethischen Richtlinien für vertrauenswürdige Künstliche Intelligenz (KI)“. Der Entwurf ist Teil eines Verfahrens, das „Die Europäische Gruppe für Ethik der Naturwissenschaften und der neuen Technologien“ im März 2018 mit angeregt hatte. Das unabhängige Gremium forderte die „Einleitung eines Prozesses (...), der den Weg für die Entwicklung eines gemeinsamen, international anerkannten ethischen und rechtlichen Rahmens für die Konstruktion, Produktion, Verwendung und Steuerung von Künstlicher Intelligenz, Robotik und ,autonomen‘ Systemen bereiten würde“. Um hierfür einen Rahmen zu erstellen, hat die Europäische Kommission die High-Level Expert Group on Artificial Intelligence Mitte 2018 ins Leben gerufen. Bis März 2019 soll und will diese dann ihre ethischen Richtlinien liefern.

Eile und List sind angesagt. Die KI soll lebendig eingefangen werden, erwartet man sich von ihr doch die größten Gewinne für die Zukunft. Durch Überreglementierung kaltgestellt, nutzt sie niemandem. Auf sie wird gesetzt, um den Wohlstand und die Wirtschaft Europas voranzutreiben. Eine Ethik-Falle muss im Dienste der Wettbewerbsfähigkeit stehen. Sie muss so gebaut sein, dass sie erst auffällt, wenn sie zugeschnappt hat. Um sich nicht als Ethik-Fallensteller zu verraten, heißt es im Expertenentwurf: „Die Richtlinien zielen nicht darauf ab, noch eine weitere Liste von Kernwerten und -prinzipien für KI vorzulegen, sondern bieten eine Anleitung für deren konkrete Umsetzung und Operationalisierung in KI- Systemen.“ Es gibt, so wird argumentiert, in den bestehenden Texten bei der EU und anderen Organisationen schon genug Rechte, Prinzipien und Werte. Das klingt auf den ersten Blick überzeugend. Doch wie steht es um deren Gewichtung, um die Konkurrenz zwischen Rechten, Prinzipien und Werten? Welcher Wert überwiegt? Welchem Recht gilt die Priorität? Die Falle wäre keine Ethik-Falle, wenn diese Fragen offen ausgesprochen und die ethischen Güterabwägungen transparent diskutiert und vorgenommen würden.

Testen Sie unsere Angebote.
Jetzt weiterlesen

Testen Sie unsere Angebote.
F.A.Z. PLUS:

FAZ.NET komplett

: Neu

F.A.Z. Digital

F.A.Z. Digital – Jubiläumsangebot!

Diesen und viele weitere Artikel lesen Sie exklusiv mit F+

Erny Gillen war Professor für theologische Ethik in Luxemburg und Präsident der Caritas Europa. Er führt die Beratungsfirma „Moral Factory“ und steht auf der Reserveliste der EU-Beratungsgruppe.

Quelle: F.A.Z.
  Zur Startseite
Ähnliche ThemenEuropäische KommissionKünstliche IntelligenzEuropäische UnionEuropa