<iframe title="GTM" src="https://www.googletagmanager.com/ns.html?id=GTM-WBPR4W&gtm_auth=3wMU78FaVR9TNKtaXLbV8Q&gtm_preview=env-23&gtm_cookies_win=x" height="0" width="0" style="display:none;visibility:hidden"></iframe>
Künstliche Intelligenz

Wollt Ihr mit Zahlen die Menschen verstehen?

Von Regina Ammicht Quinn
 - 19:11
Die Emanzipation der Maschinen - wie weit wird sie uns tragen?

Das Wort „Revolution“ scheint heute vom politischen Kontext in den Kontext der Technologie gewandert zu sein. Wie jede Revolution verändern auch die technologischen Revolutionen die Landschaft. Für die Menschen, die in der Ethik forschen, gibt es hier ein Stück weit neue Arbeitsbedingungen: Vor nicht allzu langer Zeit waren sie ständig dabei, den Fuß in zuschlagende Türen zu schieben, mit resultierenden blauen Flecken; nun sind die Türen weit offen. Zumindest die Türen zu den Vorzimmern. Manchmal auch zu den Besenkammern.

Heute rufen alle nach Ethik. Unternehmen geben sich Ethikleitlinien, der Regelungsbedarf wird in der Politik ernstgenommen, und auf Kunden- und Verbraucherseite wird der Wunsch nach „Ethik“ konstatiert. Ein Grund dafür ist, dass sich in dem, was als Künstliche Intelligenz (KI) bezeichnet wird, die oft ungelösten Strukturfragen der Digitalisierung zuspitzen.

Wie in einem Brennglas werden die Ängste im Umgang mit Digitalisierung sichtbar. Dies reicht von der Befürchtung, dass KI Jobs vernichtet bis hin zur Befürchtung, dass KI den Menschen überflügelt und, nach Kopernikus, Darwin und Freud, als gefährliche neue Kränkung der Menschheit manifest wird.

Der Ruf nach Ethik ist allerdings ambivalent. Erstens ist bei diesen Rufen nicht so ganz klar, was Ethik ist (außer irgendwas Gutes); zweitens kann das Bemühen um ethische Leitlinien auch als Möglichkeit gesehen werden, sich gut im Wettbewerb zu plazieren und vielleicht auch rechtliche Regelungen zu umgehen; und drittens gibt es neben und unter dem Ruf nach Ethik ein gehöriges Misstrauen: Ethik befördere eine (typisch deutsche?) Kultur des Bedenkens, die dann letztlich dazu führt, dass es schwieriger wird, Daten zu generieren oder zu akquirieren oder ein System mit gebotener Geschwindigkeit auf den Markt zu bringen. Ethik also, wie Ulrich Beck einst sagte, als Fahrradbremse am Interkontinentalflugzeug.

Ulrich Beck mag mit dem Hinweis auf die Vergeblichkeit ethischer Bemühungen (manchmal) recht behalten – nicht aber mit der „Bremse“. Langsamkeit per se ist noch kein Wert. Was also tut Ethik, wenn sie sich mit Künstlicher Intelligenz befasst?

Ethik fragt danach, wie Prinzipien, die für eine demokratische Gesellschaft wichtig sind, übersetzt werden können in eine digitale demokratische Gesellschaft. Sie fragt danach, welche neuen oder erneuerten Prozesse und Strukturen dann nötig werden für ein gutes individuelles und gesellschaftliches Leben. Und sie fragt danach, welche neuen Machtverhältnisse durch den Einsatz von KI-Systemen entstehen – wem die Technologie nutzt, wer gegen ihre Nutzung oder ihre Entscheidungen Widerspruch einlegen kann und wovon Menschen und Gesellschaften sich in neuer Weise abhängig machen.

Diese Fragen nach gutem Regelbedarf sind wichtig. Damit verbunden sind Fragen nach dem guten Leben. Dies sind immer wieder Fragen nach Quantifizierung.

Die Quantifizierung hinterfragen

Der Berliner Soziologe Steffen Mau hat darauf aufmerksam gemacht, dass „vermessen“ dreierlei bedeuten kann: etwas messen, etwas falsch messen und vermessen sein. Alle drei Bedeutungen spielen eine Rolle, wenn es um KI geht.

Je weiter KI-Systeme das Leben durchdringen werden, desto stärker rücken die quantifizierbaren Anteile des Lebens in den Vordergrund. Im Gesundheitsbereich beispielsweise werden die Erfolge von KI besonders deutlich – in zunehmend guten Diagnosen, in der Behandlung seltener Erkrankungen oder auch bei der Erforschung von Epidemien. Im Erkennen von Mustern und in der Vorhersage von Krankheitsentstehungen und -entwicklungen übersetzen KI-Systeme Gesundheitsrelevantes in die Sprache der Zahlen. Und das Messen verhilft zu immer besseren Standards für Gesundheit. Systeme machen allerdings auch Fehler, genau wie Menschen. Nur andere Fehler. Es gibt zum Beispiel Systeme, die bestimmte Krankheiten bei bestimmten Menschen systematisch schlechter diagnostizieren, etwa Herzinfarkte oder Melanome, weil die vorhandenen Datensätze verzerrt sind und zu wenige Daten von Frauen oder von Menschen mit dunkler Haut enthalten. Und es gibt Fälle, in denen ein KI-System die soziale Ungleichheit in Gesundheitsfragen verstärkt, etwa indem sie eine Organtransplantation oder auch die Weiterbehandlung eines Menschen nicht empfiehlt. Dies geschieht, wenn zum Beispiel die vergangenen Ergebnisse bei Menschen mit vergleichbarem sozialem Status nicht gut genug waren. Hier müssen kontinuierlich diskriminierende Fehler erkannt und bearbeitet werden.

Wir haben Wünsche, Zahlen nicht

Dazu aber gibt es eine Form der Vermessenheit, wenn wir denken, allein aufgrund von Daten den Menschen verstehen zu können. Viele Ärztinnen und Ärzte haben ein feines Ohr und einen feinen Blick dafür, dass Gesundheit und Krankheit auch subjektive und soziale Phänomene sind, dass es nicht eine Gesundheit, sondern viele Gesundheiten gibt. Und dass es verschiedene Arten des Wissens gibt: das numerische Wissen, das eine KI unter Umständen besser anwenden wird als ein Mensch; aber es gibt auch Erfahrungswissen, intuitives Wissen, taktiles Wissen und emotionales Wissen. Menschen sind nicht ihr Blutdruck, so wichtig er auch sein mag. Menschen haben Wünsche, Hoffnungen, Ängste, Vorstellungen von einem guten Leben, einen traditionellen oder nicht-traditionellen Glauben, Menschen, die sie lieben oder nicht ausstehen können. All das lässt sich nicht in die Sprache der Zahlen übersetzen, ist aber oft entscheidend dafür, wie Menschen leben und was für sie Gesundheit bedeutet.

In der Ethikforschung steht die hohe Bedeutung des Messens außer Frage. Wie aber messen wir den Wert des Messens? Dort, wo sich KI-Systeme aufgrund vertrauter Vorurteile ver-messen, muss kontinuierlich geprüft und korrigiert werden. Vermessen allerdings wäre es zu denken, dass alles messbar ist.

Geisteswissenschaften beteiligen

Wir brauchen ein Bewusstsein dafür, dass auch die nichtquantifizierbaren Bereiche menschlichen Lebens wichtig sind. Eine weitgehende Quantifizierung des Sozialen und des individuell Menschlichen muss auf seine Effekte hin untersucht werden. Nichtquantifizierbare Eigenschaften, Emotionen, Überzeugungen, Wünsche und Ziele dürfen nicht aus dem Blick geraten.

Wir brauchen ein Bewusstsein dafür, dass KI zu einem genuin interdisziplinären Feld werden kann und muss, das auch die Geistes- und Gesellschaftswissenschaften miteinbezieht. Die Entwicklung von Technologien, die innerhalb von komplexen sozialen Realitäten agieren sollen, erfordert ein kritisches Verständnis sozialer, rechtlicher und ethischer Kontexte und deren Interdependenz. Mit eng begrenzten Mitteln und befristeten Stellen sind die Geistes- und Gesellschaftswissenschaften momentan nicht in der Lage, auf Augenhöhe zu forschen.

Wir brauchen ein Bewusstsein dafür, dass gute Regulierung kein Hindernis für Forschung und Wirtschaft ist, sondern dass gerade dadurch Vertrauen in KI-Systeme geschaffen werden kann.

Und: Wir brauchen ein Bewusstsein dafür, dass KI-Systeme nicht ohne Strukturen und Ressourcen entwickelt, produziert, aufrechterhalten und entsorgt werden können. Dies beinhaltet den Rohstoff- und Energieverbrauch, die unsichtbare Arbeit derer, die Server reinigen, die Click-Arbeit machen, um Trainingsdatensätze zur Verfügung zu stellen, die „Cleaners“, die die sozialen Medien von gewaltsamen Bildern „reinigen“, bis hin zu dem elektronischen Müll, der in Länder des Südens transportiert wird. All diese Ressourcen und die „unsichtbare“ Arbeit müssen in einem verantwortungsbewussten Umgang mit KI sichtbar gemacht werden. Und dies alles bedeutet: Wir müssen eine neue Kultur des Bedenkens entwickeln – nicht als Fahrradbremse, sondern als kluges Be-Denken, in welcher Gesellschaft wir leben wollen. Wir Ethikerinnen und Ethiker sind genau in diesem Sinne Bedenkenträger. KI-Forscherinnen und -forscher sollten es ebenso sein.

Die Autorin

Regina Ammicht Quinn hat diesen Text nach einem Vortrag an der Universität Stuttgart gehalten, einem der Austragungsorte für die Veranstaltungsreihe „Die Zukunft des Gehirns“, die von der Gemeinnützigen Hertie-Stiftung und dieser Zeitung veranstaltet wird. Professor Ammicht Quinn arbeitet am Internationalen Zentrum für Ethik in den Wissenschaften der Universität Tübingen.

Quelle: F.A.Z.
  Zur Startseite
Ähnliche ThemenKünstliche Intelligenz

Diese Webseite verwendet u.a. Cookies zur Analyse und Verbesserung der Webseite, zum Ausspielen personalisierter Anzeigen und zum Teilen von Artikeln in sozialen Netzwerken. Unter Datenschutz erhalten Sie weitere Informationen und Möglichkeiten, diese Cookies auszuschalten.