<iframe title="GTM" src="https://www.googletagmanager.com/ns.html?id=GTM-WBPR4W&gtm_auth=3wMU78FaVR9TNKtaXLbV8Q&gtm_preview=env-23&gtm_cookies_win=x" height="0" width="0" style="display:none;visibility:hidden"></iframe>
FAZ plus ArtikelDiskriminierende Algorithmen

Der Rassismus im System

Von Lennardt Loss
Aktualisiert am 03.07.2020
 - 10:20
Im Raster der Künstlichen Intelligenz: Gesichtserkennungssoftware erkennt schwarze Menschen oft schlechter als weiße.
Künstliche Intelligenzen sollten die Ungerechtigkeit der analogen Welt beenden und eine neue digitale Objektivität errichten. In Wahrheit aber ist diese Objektivität sehr exklusiv, sie gilt für weiße Menschen. Für schwarze Menschen kann das gefährliche Folgen haben.

Warum sie sich erst eine weiße Plastikmaske aufsetzen musste, damit eine Webcam in ihr einen Menschen erkannte, erzählt die Computerwissenschaftlerin Joy Buolamwini in einem Ted-Talk von 2016. Damals, Buolamwini stand kurz vor ihrem Abschluss am Massachusetts Institute of Technology, baute sie für ein Seminarprojekt einen Spiegel mit integrierter Webcam, der aus seinen Betrachterinnen Löwen machen sollte. So ähnlich wie heute der Hundefilter auf Snapchat. Doch als Buolamwini sich vor den Spiegel stellte, geschah nichts. Die Gesichtserkennungssoftware der Webcam sah keinen Menschen vor sich. Bei ihren Mitstudenten funktionierte die Software dagegen ohne Probleme. Buolamwinis Mitstudentinnen waren weiß. Sie selbst ist Schwarz.

Ein Algorithmus in einer Gesichtserkennungssoftware erzeugt auf Grundlage eines Inputs einen Output. Er verarbeitet ein Bild und entscheidet, ob auf dem Bild ein menschliches Gesicht zu sehen ist oder nicht. Das sind die einzigen beiden Entscheidungen, die er am Ende treffen kann: 0 oder 1, ja oder nein, menschliches Gesicht oder kein menschliches Gesicht. Um zu lernen, wie ein Gesicht überhaupt aussieht, wird der Algorithmus vorher mit Beispielbildern trainiert. Irgendwann erkennt er in den Bildern wiederkehrenden Muster, Merkmale und Strukturen. Genau hier liegt das Problem. Wenn das Set an Trainingsbildern nicht divers sei, sagt Buolamwini, dann seien die Gesichter, die zu stark von der erstellten Norm abweichen, für den Algorithmus schwieriger zu erkennen. Eine Gesichtserkennungssoftware, die nur mit Bildern von weißen Menschen trainiert wird, sieht nichtweiße Menschen nicht. In der Informatik gibt es dafür einen eigenen Begriff: „Garbage in, Garbage out“. Müll rein, Müll raus.

Testen Sie unsere Angebote.
Jetzt weiterlesen

Testen Sie unsere Angebote.
F.A.Z. PLUS:

  FAZ.NET komplett

F.A.Z. PLUS:

  im F.A.Z. Digitalpaket

: Aktion

Diesen und viele weitere Artikel lesen Sie exklusiv mit F+

Quelle: F.A.S.
  Zur Startseite
Verlagsangebot
Verlagsangebot

Diese Webseite verwendet u.a. Cookies zur Analyse und Verbesserung der Webseite, zum Ausspielen personalisierter Anzeigen und zum Teilen von Artikeln in sozialen Netzwerken. Unter Datenschutz erhalten Sie weitere Informationen und Möglichkeiten, diese Cookies auszuschalten.