KI-Technologien

Vorsicht vor der Autonomie der Systeme

Von Günter Hack
07.12.2021
, 21:47
Mit solchen Hochleistungscomputern werden neuronale Netzwerke berechnet.
Die entscheidenden Fragen betreffen die Machtstrukturen der Gesellschaft: Stefan Buijsmann liefert eine verständliche Zusammenfassung wichtiger Technologien aus dem Bereich der Künstlichen Intelligenz.
ANZEIGE

Software ist das am weitesten entwickelte Produktionsmittel unserer Gesellschaft. Unternehmen wie Google, Facebook oder Microsoft schöpfen aus der Programmierkunst ihres Personals enorme Macht. Wer diese Macht abseits der üblichen Hypes realistisch einschätzen möchte, sollte sich darum bemühen, die Prinzipien zu verstehen, die Googles Suche, Facebooks Auswahl von Beiträgen oder den Assistenzsystemen Siri und Alexa zugrunde liegen.

ANZEIGE

Der niederländische Mathematiker und Philosoph Stefan Buijsman will seinen Lesern dabei helfen, und es gelingt ihm. Er hat mit „Ada und die Algorithmen“ eine knappe und für Laien verständliche Zusammenfassung wesentlicher Technologien aus dem Bereich der Künstlichen Intelligenz vorgelegt, die auch gesellschaftliche und politische Dimensionen dieses Themenkomplexes nicht vernachlässigt.

Es ist nicht einfach, Emotionen zu entziffern

Buijsman entzaubert die gängigen Fachbegriffe. Er erklärt mit einfachen Worten, was ein Algorithmus ist und was Programmiererinnen und Informatiker zu verschiedenen Zeitpunkten der IT-Geschichte unter Künstlicher Intelligenz verstanden haben. Zudem zeigt er Schritt für Schritt, wie Ingenieure mithilfe neuronaler Netze den menschlichen Gesichtssinn nachzubilden versuchen.

Stefan Buijsman: „Ada und die Algorithmen“. Wahre Geschichten aus der Welt der Künstlichen Intelligenz.
Stefan Buijsman: „Ada und die Algorithmen“. Wahre Geschichten aus der Welt der Künstlichen Intelligenz. Bild: C.H. Beck Verlag

Einen eigenen Abschnitt widmet Buijs­man den Schwachstellen neuronaler Netze. Im Grunde liefert er die wesentlichen Argumente für die Existenz von Organisationen wie Algorithm Watch, die automatisierte Entscheidungsfindungssysteme möglichst transparent machen wollen. Die Frage, wer die neuronalen Netze mit welchem Material und zu welchen Zwecken trainiert und einsetzt, hat längst den rein akademischen Bereich verlassen.

ANZEIGE

Algorithmen als Blitzableiter

Buijsman schildert den Feldversuch eines Lügendetektors namens „Silent Talker“, der falsche Aussagen von Probanden durch die Analyse von Stimme und Gesichtsausdruck erkennen sollte. „Silent Talker (. . .), das im Sommer 2019 an europäischen Grenzübergängen getestet wurde, lag bei einer Gruppe von 32 Personen in 75 Prozent der Fälle richtig“, schreibt er. 75 Prozent, das klingt nach einem Erfolg, aber eine umfangreiche Übersichtsstudie habe keine Belege dafür gefunden, dass man die Gefühle einer Person am Gesichtsausdruck erkennen kann. Ein Stirnrunzeln etwa könne, müsse aber nicht bedeuten, dass jemand verärgert ist. „Emotionen tatsächlich zu entziffern gestaltet sich überaus schwierig: dazu genügt es nicht, einem neuronalen Netz eine Reihe von Bildern oder Videos vorzulegen und zu hoffen, dass diese in die richtige Schublade gesteckt werden.“

Für große Organisationen, in denen es oft darum geht, die Verantwortung für heikle Entscheidungen wie eine heiße Kartoffel weiterzureichen, ist der Einsatz solcher nach vermeintlich objektiven Kriterien gestalteten Assistenzsysteme freilich mehr als verführerisch: „Wir hätten ihnen gern geholfen, aber der Computer sagt nein, da können wir leider nichts mehr tun.“ Die Algorithmen erfüllen dann eine ähnliche Blitzableiterfunktion wie der Einsatz von Unternehmensberatern vor ohnehin geplanten Sparmaßnahmen, nur dass Zwecke und Methoden dort noch durchschaubar sind.

ANZEIGE

Lasst die intelligenten Systeme mal machen

Das Spiel der Kräfte in einem neuronalen Netzwerk hingegen ist auch für Profis nicht immer nachvollziehbar. Buijsman hebt hervor, dass neuronale Netze Entscheidungen auf intransparente Weise treffen: „Angenommen, ein Algorithmus macht etwas Merkwürdiges, wie findet man dann heraus, was dahintersteckt? Wen kann man haftbar machen, wenn niemand weiß, worauf eine Entscheidung genau beruht?“ In genau dieser Unschärfe, die an der Oberfläche als eine Art Autonomie des Systems erscheint, liegt aber ihre Attraktivität für Zeitgenossen, die als Entscheidungsträger bezeichnet und bezahlt werden. Die Verführung, die „intelligenten“ Systeme als eine Art Entscheidungswaschmaschinen zu verwenden, um Verantwortung auf sie abzuwälzen, ist groß.

Eine weitere wichtige Lektion Buijs­mans beruht auf dem alten Datenarbeitermotto „Garbage in – Garbage out“ (GIGO). Wenn ein neuronales Netz mit unzureichenden und/oder falschen Daten gefüttert wurde, wird es keine hilfreichen Ergebnisse präsentieren können. Dies wiederum sei die Ursache für die unstillbare Datengier einiger Institutionen: „Genau diese Limitierungen der Netze führen auch dazu, dass Unternehmen und Behörden immer mehr Daten von uns haben wollen.“

Bei aller solide untermauerten Skepsis ist Buijsman davon überzeugt, dass die unter dem Begriff der Künstlichen Intelligenz zusammengefassten Technologien in vielen Berufen und Lebenssituationen überwiegend hilfreich sind. Die Software werde die Menschen auf absehbare Zeit nicht ersetzen, sondern bei der Arbeit unterstützen. Aus Buijsmans Beispielen wird aber auch deutlich: Die entscheidenden Fragen sind letztlich weniger technischer oder mathematischer Natur, sondern betreffen die Machtstrukturen der Gesellschaft.

Stefan Buijsman: „Ada und die Algorithmen“. Wahre Geschichten aus der Welt der Künstlichen Intelligenz. Aus dem Niederländischen von Bärbel Jänicke. C.H. Beck Verlag, München 2021. 236 S., Abb., geb., 20,– €.

Quelle: F.A.Z.
  Zur Startseite
Verlagsangebot
Verlagsangebot
ANZEIGE