Transparenz gefordert

Algorithmen fallen nicht vom Himmel

Von Michael Spehr
 - 10:28

Nur 100 Jahre zurückgesprungen in der Zeit: Der Großvater, am Anfang des 20. Jahrhunderts geboren, ein Knabe während des Ersten Weltkriegs, hat sich vermutlich zu keinem Zeitpunkt seines Lebens mit Algorithmen beschäftigt, wenngleich er sie, in welchem Beruf auch immer, tagtäglich verwendete. Algorithmen sind Mechanismen, die zu Resultaten führen. Wenn der Maurer seinen Mörtel mischt oder der Schuhmacher ein Stück Leder bearbeitet, dann tut er das aufgrund seines Wissens und seiner Erfahrungen, er verwendet Algorithmen. Indes erschloss sich besagter Großvater seine Welt weitestgehend selbst. Wie er die Welt sah, das war seine Sache und die seiner Umgebung, in der er agierte und von der er lernte.

Heute leben wir in einer Welt, die von Algorithmen geprägt ist. Wir werden von ihnen beeinflusst und sind von ihnen abhängig: Beginnend bei der Strom-, Wasser- und Wärmeversorgung, sei es im Kraftwerk oder der Heizung im Keller, über die Ampelsteuerung an der Straße bis hin zum Thermostat der Dusche. Simple mechanische und elektronische Geräte werden ersetzt durch Apparate mit programmierter Intelligenz.

Während das Auto des besagten Großvaters rein mechanisch fuhr, sind alle heutigen Fahrzeuge durch und durch digital. Sie haben mehr als 100 Steuergeräte und Sensoren, und die jüngsten Prototypen selbstfahrender Autos nutzen zum Beispiel einen wassergekühlten Supercomputer von Nvidia mit der Rechenleistung von 150 Macbook Pro, erforderlich nicht nur fürs autonome Fahren, sondern auch für weitere Zukunftsprojekte der künstlichen Intelligenz.

Blitzschnell werden Hunderttausende von Daten ausgewertet

Algorithmen im Auto enthalten faszinierende Abfolgen physikalischen Wissens, das in Sekundenbruchteilen dafür sorgt, dass Fahrer und Fahrzeug auf glatter Straße nicht im Graben landen: wenn zum Beispiel die eingebauten Sensoren für den Lenkwinkel, die Gierrate und die Querbeschleunigung im Zusammenspiel mit der Software des ESP-Steuergeräts ermitteln, dass das Fahrzeug schleudert – und es umgehend über gezieltes Bremsen einzelner Räder auf Spur gebracht wird. Das geschieht quasi von allein, dank der Algorithmen. Das Wissen der Ingenieure und die Fahrversuche auf der Teststrecke fließen in Erkenntnisse ein, die von Programmierern in Regeln, Abfolgen, Kommandos überführt werden. Blitzschnell werden Hunderttausende von Daten ausgewertet, in Steuersignale umgesetzt und mit jeder Bewegung des Fahrzeugs wieder aufs Neue angepasst. Hier sind Algorithmen so etwas wie fest verdrahtete Handlungsanweisungen, die das Wissen von Physikern und Ingenieuren widerspiegeln.

Algorithmen sind jedoch weitaus mehr als nur dezente Diener und beste Freunde im Hintergrund. Sie wirken aktiv in unseren Alltag hinein, sie bestimmen unsere Weltsicht. Denn Algorithmen können jenseits naturwissenschaftlicher Regeln und Prinzipien eine ungeheure Wirkungsmacht enthalten, wo sie nicht den strengen Pfaden eindeutiger Erkenntnisse folgen, sondern subjektiv oder schlimmstenfalls manipulativ sind.

Rund 7000 verschiedene Verhaltensmuster analysiert Facebook

Welche Geschichten uns Facebook zeigt, welche Trefferlisten eine Google-Suche hervorbringt und was Spotify als Musikempfehlung ausgibt, das alles ist von Algorithmen erzeugt und auf ein Individuum zugeschnitten, wie es die jeweilige Plattform zu kennen glaubt. Algorithmen der Bank entscheiden, ob ein Kredit vergeben wird oder nicht, und die Verwaltungen arbeiten mit Vorschriften, also mit Algorithmen, selbst wenn letztlich Menschen eine Entscheidung fällen. Rund 70 Prozent aller Stellenbewerber in Großbritannien und den Vereinigten Staaten werden zuerst von algorithmischen Verfahren bewertet, bevor ein Mensch ihre Unterlagen sieht. Rund 7000 verschiedene Verhaltensmuster analysiert Facebook von jedem einzelnen Nutzer und erstellt aus diesen Puzzleteilen ein „algorithmisches Imperium“, sagt Vladan Joler, Leiter des Share Lab und Professor an der Universität Novi Sad.

Welche Wirkungsmacht Algorithmen entfalten, zeigt sich in ihrem Einsatz auf den Finanzmärkten der Welt. Im Algo Trading, im algorithmischen Handel entscheiden Computer über die Ausführung und die Parameter des Auftrags automatisch. Rund 70 Prozent des Umsatzes an den amerikanischen Börsen gehen auf Aktionen von Algorithmen zurück. In Europa soll es rund die Hälfte sein. Jene Systeme, die Informationen am schnellsten verarbeiten und in Aufträge umsetzen können, machen am meisten Gewinn.

„Menschliches Verhalten auf vorbestimmte Bahnen lenken“

Doch nicht nur, dass die Algorithmen besser, schneller, effizienter und billiger als Menschen arbeiten, sie sind auch klüger, wenn sie beispielsweise Daten vergleichen und Muster entdecken, die Menschen nicht sehen können. Mit Analyse-Software will die Polizei Verbrechen und Straftaten vorhersagen, das Stichwort lautet Predictive Policing. In vielen amerikanischen Bundesstaaten nutzen Gerichte eine Software, um die Rückfallwahrscheinlichkeit von Straftätern zu berechnen. Jeder Einzelne ist schon heute von algorithmisch gesteuerten automatisierten Entscheidungsprozessen betroffen; die amerikanische Diskussion läuft unter dem Begriff Automated Decision Making, ADM. Nun startet die Debatte auch in Deutschland: Justizminister Heiko Maas betont die Gefahr, dass Algorithmen „menschliches Verhalten auf vorbestimmte Bahnen lenken“ und damit „Selbstbestimmung und Handlungsfreiheit des Einzelnen“ einschränken.

Seit Jahren ist die Frage aufgeworfen, wie objektiv und neutral Algorithmen arbeiten. Machine bias: Das meint Voreingenommenheit im Code. Wenn es um Soziales, Kommunikation und Medien geht, sind Algorithmen nicht unbedingt neutrale Verfahrensanweisungen. Die Brisanz entsteht nicht nur angesichts möglicher Diskriminierung und ihrer Wirkungsmacht, sondern insbesondere dort, wo Algorithmen monopolartige Strukturen aufbauen, zum Beispiel mit Facebook und Google als Quasimonopolisten auf dem Feld der Vernetzung und der Suche. Die Google-Suche ist nicht eine von vielen, sondern setzt ihre eigene Evidenz.

Die Mechanismen sind stets dieselben

Google-Knowing heißt im Amerikanischen das Halbwissen, bei dem Informationen nicht mehr geprüft, sondern Suchmaschinentreffer als wahr gelten. Die Mechanismen sind stets dieselben: Die Werkzeuge der Informationsgewinnung, etwa eine Web-Suche, folgen algorithmischen Regeln. Die Kriterien, nach denen die Algorithmen bestimmte Seiten oder Inhalte nach oben stellen, sind nicht die einer hohen Qualität, sondern sie verstärken, was in der Vergangenheit besonders häufig geklickt wurde. Solche Ergebnisse werden dann vom Nutzer fälschlich als Qualitätsauswahl wahrgenommen. Es stand ja bei Google an erster Stelle.

Algorithmen der Suchmaschine ersetzen also Wahrheit, vieles andere wird ausgeblendet, und vor allem ist es nicht möglich, Einblick in die Algorithmen zu erhalten, um die Wege zum Wissen zu erhellen. Indem der Öffentlichkeit ein kritisches Hinterfragen der Mechanismen verwehrt wird, falle man in die Zeit vor der Aufklärung zurück, lautet die Sorge vieler Fachleute: Wissen werde nicht demokratisiert, sondern in einem Arkanbereich als Datenaggregat von Servern abgerufen, wo es wenige Hohepriester der Macht verwalten.

Bots torpedieren mit Masse und Effizienz

Dass die kollektive Meinungsbildung durch automatisierte Prozesse beeinträchtigt oder gar manipuliert wird, ist in Zeiten des Wahlkampfs ebenfalls zu hören. Donald Trump sei entgegen allen demoskopischen Erwartungen amerikanischer Präsident geworden, weil seine Anhänger Hunderttausende von Bots in den sozialen Netzwerken eingesetzt hätten. Meinungs-Roboter seien aggressiv als Agenda-Setter auf Twitter und Facebook aufgetreten. Dafür spricht die Tatsache, dass nachweisbar rund 20 Prozent des Twitter-Traffics während der amerikanischen Fernsehduelle von Automaten stammte. Bots torpedieren mit Masse und Effizienz den Gedanken einer gleichberechtigten Demokratie, in der jeder nur eine Stimme hat. Sie manipulieren und sie erzeugen neue Ebenen der Meinung und Relevanz; mit effektiver Programmierung ersetzen Algorithmen Argumente, lautet eine Kritik, die oft ins Verschwörungstheoretische abgleitet. Aber die hohe gesellschaftliche Relevanz algorithmischer Prozesse ist unbestreitbar.

Die Internetkonzerne wie Google und Facebook wiederum glauben an die Macht der Maschinen. Man müsse nur genug Daten und Fakten sammeln, dann ergäbe sich schon von allein so etwas wie Wahrheit. Algorithmen erzeugten quasi automatisch Objektivität. Man stelle nur dar, was die Menschen suchten, heißt es. Facebook sei eine neutrale Plattform, sagt ihr Gründer Mark Zuckerberg.

Die Tücke liegt im Detail

Die Algorithmen der großen Internetplattformen müssten transparenter werden, forderte indes Bundeskanzlerin Merkel während der Medientage in München. Merkel warnte, dass die Menschen nur noch das läsen, was ihre eigenen Auffassungen bestätige oder ihnen von Gleichgesinnten empfohlen werde. Die großen Plattformen entwickelten sich mit ihren Algorithmen „zum Nadelöhr für die Vielfalt der Anbieter,“ sagte die Bundeskanzlerin, ohne Facebook oder Google beim Namen zu nennen.

Algorithmen offenlegen, sie transparent machen und demokratischer Kontrolle zu unterwerfen, lautet immer öfter die Maxime, zuletzt vorgetragen von Heiko Maas mit der Forderung nach behördlicher Kontrolle von Algorithmen. Sodann ist die Rede von einer Publikationspflicht für Algorithmen, man müsse ihre Überprüfbarkeit ermöglichen, unsachgemäßen Einsatz verhindern und Wechselwirkungen beachten. Das alles hört sich sinnvoll an, aber die Tücke liegt im Detail. Ausnahmsweise nicht im juristischen, denn im Unterschied zum Computerprogramm als urheberrechtlich geschütztem Werk gelten reine Rechenregeln nicht als schutzfähig.

Datenauswahl und Datenbasis von Algorithmen sind zu diskutieren

Eine Offenlegung von Algorithmen würde im Falle von Google und Facebook jedoch nur dazu führen, dass jeder mit den gleichen Tricks auf die besten Plätze größter Sichtbarkeit strebte. Damit wäre man keinen Schritt weiter. Statt von einer Offenlegung der Algorithmen wird man eher über ihre Spielregeln und Grenzen reden müssen. Unternehmen werden belegen müssen, dass ein System so funktioniert wie behauptet. Datenauswahl und Datenbasis von Algorithmen sind zu diskutieren, und man wird auch über eine Zweckbindung von Daten nachdenken.

Algorithmen sind nicht in der Lage, autonom Entscheidungen zu treffen, sie haben keine Handlungsfreiheit, und sie übernehmen keine Verantwortung. Letztlich bleibt es der lenkende Mensch, der beim Design und der Implementierung von Algorithmen in jedem einzelnen Schritt gestaltet und kontrolliert. Hier muss die Verantwortung richtig zugeordnet werden, denn Algorithmen fallen nicht vom Himmel, wie einem die amerikanischen Netzgiganten gern weismachen wollen.

Quelle: F.A.Z.
Autorenporträt / Spehr, Michael (misp.)
Michael Spehr
Redakteur im Ressort „Technik und Motor“.
FacebookTwitterGoogle+
  Zur Startseite
Ähnliche ThemenFacebookTransparenzHeiko MaasErster WeltkriegNvidiaSpotify