„Angriff der Algorithmen“

Mitgefangen, mitgehangen

Von Manuela Lenzen
 - 14:29
zur Bildergalerie

Dieses Buch sollte man trotz seines alarmistischen Titels in die Hand nehmen. Denn die Mathematikerin Cathy O’Neil erklärt darin, was geschieht, wenn in immer mehr Lebensbereichen die Ergebnisse algorithmischer Berechnungen die Entscheidungen bestimmen. Entscheidungen darüber, wer einen Job bekommt, wer wie viel für seine Autoversicherung zahlt, ob jemand eine Haft- oder eine Bewährungsstrafe bekommt oder wie lange man in der Hotline warten muss.

Diese Algorithmen greifen niemanden an. Wie sollten sie, es sind besser oder schlechter gemachte Programme. Das Problem ist, dass sie immer mehr Menschen finden, die ihnen blind vertrauen und die entweder nicht bemerken oder hinnehmen, dass sie dabei Verheerungen anrichten, die sich am besten mit dem Matthäus-Prinzip umschreiben lassen: Wer hat, dem wird gegeben, wer wenig hat, dem wird auch das noch genommen.

Die digitale F.A.Z. PLUS
F.A.Z. Edition

Die digitale Ausgabe der F.A.Z., für alle Endgeräte optimiert und um multimediale Inhalte angereichert

Mehr erfahren

Weapons of Math Destruction, WMDs, nennt die Autorin Algorithmen mit solchen schädlichen Auswirkungen, und so heißt das Buch auch im Original: „Mathezerstörungswaffen“. Wobei die Algorithmen nicht die Mathematik zerstören, sondern sie benutzen. Sie durchforsten große Datenmengen nach Mustern, auf die sie Vorhersagen gründen: darüber, ob eine Person einen Kredit zurückzahlen wird, für einen Job geeignet ist oder wie Personal am effizientesten eingesetzt werden kann.

Dazu sortieren die Algorithmen Menschen in Gruppen, die sich vermutlich ähnlich verhalten werden. Wer aus welchen Gründen auch immer in einer schlecht bewerteten Gruppe landet, hat es schwer, dort wieder herauszukommen.

Denn, so O’Neil, es werde so gut wie nie erklärt, wie solche Klassifikationen zustande kommen. Viele diese Algorithmen werden mit den besten Absichten eingesetzt, erklärt O’Neil. Sie sollen etwa dazu beitragen, die Gesundheit der Mitarbeiter zu erhalten oder in Bewerbungsverfahren an die Stelle vorurteilsbeladener menschlicher Entscheidungen treten. Doch Algorithmen sind nicht die objektiven Alleskönner, für die sie bisweilen gehalten werden. Zum einen spiegeln sie die Strukturen der Daten, mit denen sie trainiert werden. Haben sie zu wenig Daten, sind die Ergebnisse einfach Unfug. Manchmal suggerieren sie kausale Zusammenhänge, wo gar keine sind, oder beruhen auf fehlerhaften Annahmen.

Algorithmen werden oft gezielt missbraucht

Diese Unzulänglichkeiten haben Auswirkungen, denen O’Neil in unterschiedlichen Bereichen nachspürt: Da ist etwa Sarah Wysocki, eine Lehrerin, deren Punktezahl in einem algorithmischen Bewertungsverfahren, das die Stadt Washington eingeführt hatte, um die Schulen zu verbessern, nicht hoch genug war. Obwohl Schüler, Eltern und Kollegen sich einig waren, sie sei eine gute Lehrerin, wurde sie entlassen. An einer Privatschule, die der algorithmischen Bewertung nicht unterlag, fand sie eine neue Stelle. So verlor eine Schule in einem ärmeren Bezirk eine gute Lehrerin, eine Schule in einem besseren Viertel gewann sie hinzu, konstatiert O’Neil. Negative Feedbackschleife nennt sie dieses Phänomen.

Neben den gut gemeinten, aber schlecht gemachten WMDs gibt es die fiesen: Sie trimmen etwa entsprechend ihrer Programmierung Arbeitsprozesse auf Effizienz. Dabei heraus kommen Dienstpläne, die den Mitarbeitern keine Chance lassen, einen zweiten Job anzunehmen, zur Abendschule zu gehen oder sich regelmäßig um ihre Kinder zu kümmern. Clopening heißt das Phänomen, dass derselbe Mitarbeiter abends ab- und morgens wieder aufschließt. Fairness, so die Autorin, ist kein Geschäftsmodell.

Besonders deutlich wird das Matthäus-Prinzip, wenn die Bonität als zentrales Kriterium für die Bewertung von Menschen herangezogen wird. Dann bekommt nicht nur, wer Geld hat, günstigere Kredite, sondern zahlt auch weniger für seine Autoversicherung. Eine Versicherung lässt ausrechnen, wie wahrscheinlich ein potentieller Kunde sich nach Vergleichsangeboten umschauen wird. Ist die Wahrscheinlichkeit gering, bekommt er höhere Beiträge angezeigt. Private Hochschulen lassen Algorithmen in sozialen Medien nach ärmeren Menschen in Krisensituationen suchen, um ihnen teure Kurse aufzuschwatzen, politische Mikrotargeting-Anbieter suchen nach unentschiedenen Wählern, um sie gezielt zu beeinflussen.

Man sollte eine gesunde Skepsis an den Tag legen

Doch Algorithmen, daran erinnert das Buch immer wieder, sind keine moralischen Akteure, es geht darum, wie sie verwendet werden. O’Neil berichtet von den Bemühungen des Xerox-Konzerns, herauszufinden, welche Bewerber wahrscheinlich lange im Unternehmen bleiben würden. Die Algorithmen fanden, dass Menschen mit einem langen Anfahrtsweg ihre Stelle eher aufgeben. Sie fanden aber auch, dass diese Menschen oft aus ärmeren Wohngegenden kommen.

Statt sie auszuschließen, verzichtete der Konzern darauf, diese Korrelation zu berücksichtigen. Er opferte ein wenig Effizienz für mehr Gerechtigkeit, so die Autorin. Algorithmen, die, mit Augenmaß eingesetzt, die Welt besser machen können, seien durchaus möglich. Als Beispiel verweist O’Neil auf einen „Sklaverei-Detektor“, der Hinweise gibt, wo es in einer Produktionskette nicht mit rechten Dingen zugehen kann.

Digitalisierung
Der Mann, der Maschinen das Lernen beibringt
© picture-alliance/dpa/P. Steffen, Deutsche Welle

Prädiktive Modelle, Programme, die alles Mögliche vorhersagen wollen, werden in Zukunft wie Pilze aus dem Boden schießen, warnt die Autorin. Sie ruft dazu auf, eine gesunde Skepsis gegenüber ihren Versprechungen an den Tag zu legen. Zudem gelte es, Normen aufzustellen, denen Algorithmen, die über Menschen urteilen, genügen müssen, und eine Art hippokratischen Eid zu verlangen für die, die sie programmieren. Und es gelte, die Menschen in den Blick zu nehmen, die vom Einsatz von Algorithmen betroffen sind, um abzuwägen, welche Nachteile man ihnen zumuten will.

Die Entwicklung hin zu algorithmenbasierten Entscheidungen in immer mehr Lebensbereichen ist in den Vereinigten Staaten weiter fortgeschritten als hierzulande. Viel von dem, was O’Neil beschreibt, trifft vor allem auf amerikanische Verhältnisse zu. Wir sind noch in der glücklichen Lage, ihr Buch als Warnung zu lesen, eine ähnliche Entwicklung zu vermeiden.

Cathy O’Neil: „Angriff der Algorithmen“. Wie sie Wahlen manipulieren, Berufschancen zerstören und unsere Gesundheit gefährden. Hanser Verlag, München 2017. 346 S., geb., 24 Euro.

Quelle: F.A.Z.
  Zur Startseite