Lernende Programme

Wenn die App dir sagt: Umarme deinen Partner

Von Marc Felix Serrao
 - 11:35

Ein Paar sitzt am Esstisch. Es ist spät am Abend. Er hat Überstunden gemacht. Sie hat, wie verabredet, pünktlich das Büro verlassen, um gemeinsam mit ihm essen zu können. „Schön, dass du es noch geschafft hast“, sagt sie spitz. „Nächstes Mal schlafe ich im Büro“, blafft er zurück. Ein Wort gibt das andere, dann stürmt die Frau aus dem Zimmer. Der Mann macht sich ein Bier auf. Doch bevor er den ersten Schluck trinken kann, erhält er eine Nachricht aufs Handy: „Das war jetzt unnötig, oder? Versetz dich doch mal in ihrer Lage. Sie hat stundenlang gewartet. Und das schon zum fünften Mal in diesem Monat. Atme tief durch, dann geh zu ihr, und nimm sie in den Arm.“

Die Frau, die im Wohnzimmer sitzt, erhält auch eine Nachricht: „Es ist normal, in so einer Situation wütend zu sein. Aber meinst du, dass dein Kommentar hilfreich war? Atme tief durch, dann geh zu ihm, und nimm ihn in den Arm.“ Kurz darauf stehen die zwei im Flur und müssen lächeln. Dann umarmen sie sich.

Die Textnachrichten, die an diesem Abend den Hausfrieden retten, stammen nicht von einem therapeutisch motivierten Nachbarn, der das Paar belauscht hat, sondern von einer App, die beide nach dem letzten großen Streit auf den Handys installiert haben. Das Programm, nennen wir es „Betterlove“, hat schon den ganzen Tag über jedes gesprochene Wort und jede Nachricht analysiert.

Es hat auch den Puls ausgewertet, der von den Fitnessbändchen gemessen wird, die beide tragen. Wenn der Herzschlag, der Tonfall und die häufige Verwendung bestimmter Wörter (etwa des Personalpronomens „du“ in Verbindung mit den Partikeln „immer“ oder „nie“) eine Konfrontation signalisieren, dann schaltet sich die App ins Geschehen ein.

Lernende Algorithmen sind heute überall präsent

Was wie eine Mischung aus Science-Fiction und Groschenroman klingt, könnte bald im App-Store stehen. „Using Multimodal Wearable Technology to Detect Conflict among Couples“ heißt eine amerikanische Studie, die gerade vorgestellt wurde. Auf Deutsch: Wie tragbare Technologie Konflikte zwischen Paaren aufspürt.

Lernende Algorithmen – also Handlungsanweisungen für Computer – sind heute überall präsent. Streaming-Dienste analysieren, welche Lieder und Filme wir konsumieren, und stellen Empfehlungen zusammen, die mit der Zeit und der zur Verfügung stehenden Datenmenge immer besser werden. Versicherungen bieten Fitness-Apps an, um ihre Kosten zu senken; wer trainiert, sammelt Rabatte, wer träge ist, wird daran erinnert, wie gut Bewegung tut.

Algorithmen helfen Trainern von Spitzenvereinen, Nachwuchskräfte auszuwählen, und Aktienanalysten, die Märkte zu verstehen. In Amerika gibt es eine Kinderwunsch-App für Paare. Sie verrät nicht nur, wann die Empfängniswahrscheinlichkeit am höchsten ist, sondern ermuntert die Nutzer ein paar Stunden vorher mit Textnachrichten dazu, Liebe zu machen. Die Frau erhält dann den Tipp, schicke Wäsche anzuziehen, dem Mann wird empfohlen, mal wieder Blumen zu kaufen.

Die elektronischen Dienstleister sind in vielen Lebenslagen unverzichtbar geworden. Die Frage ist nur, ob sie nicht längst mehr sind als das: Helfer? Ist der gewöhnliche Nutzer wirklich noch Herr der Programme, die er benutzt, wenn er sich von ihnen immer weitere Teile seines Erfahrungshorizonts ausrechnen lässt?

Hör dir das Lied an.

Geh heute noch joggen.

Und bald: Umarme deinen Partner.

Die Technologie steht noch ganz am Anfang

Die erwähnte Studie aus Kalifornien ist die erste großangelegte experimentelle Analyse des Kommunikationsverhaltens von Paaren außerhalb einer Laborsituation. Ein sechsköpfiges Team von Psychologen und Softwareingenieuren der University of Southern California (USC) hat Dutzende Liebende einen Tag lang per Handy und elektronischem Armbändchen überwacht.

Die Teilnehmer mussten ihre Emotionen regelmäßig protokollieren. Später überprüften die Forscher, wie treffsicher der Algorithmus war. Ergebnis: Auch ohne die Protokolle der Paare gelang es dem Programm, vier von fünf Konflikten richtig zu identifizieren.

Die Technologie steht noch ganz am Anfang, das geben die Forscher zu. Der Algorithmus geht derzeit davon aus, dass Streitende laut werden und häufig „du“ in Verbindung mit „immer“ oder „nie“ sagen. Die Realität ist natürlich komplexer. Doch das Team hofft, wie bei jeder lernenden Software, mit einer wachsenden Menge an Daten immer präzisere und individuellere Ergebnisse erzielen zu können. Das Bestreben ist es, einen Algorithmus zu entwickeln, der Konflikte nicht nur erkennt, sondern vorhersagt. Ein Paar soll schon dann eine Warnung erhalten, wenn es selbst noch gar nicht weiß, dass sich gerade ein Streit anbahnt.

„Wir wollen in Echtzeit eingreifen“, sagt die Psychologin Adela Timmons. Die 30-jährige Doktorandin und ihre Kollegen arbeiten aktuell daran, weitere Faktoren in die Analyse aufzunehmen, die Einfluss auf die Stimmung haben können. Wie lange war ein Nutzer online? Wie viel Schlaf hat er in der vergangenen Nacht gehabt? Hat er sich ausgewogen ernährt? Wie viel Sonnenlicht hat er abbekommen?

Wenn die Summe aller verbalen und nonverbalen Daten dann auf einen Konflikt hindeutet, sollen die Nutzer Tipps zur Deeskalation erhalten, etwa die Empfehlung, auf Distanz zu gehen oder eine Runde zu meditieren. „Das ist die Macht von Big Data“, sagt Timmons. „Wir können Faktoren berücksichtigen, die niemandem bewusst sind.“

Nicht der Mensch sagt der Maschine, was sie tun soll

Wer bis hier gelesen hat, findet das womöglich putzig. Meditieren gegen den Ehekrach, na toll. Aber der Grundgedanke ist radikal: Nicht der Mensch sagt der Maschine, was sie tun soll; das geschieht nur beim Programmieren des Codes. Die Maschine sagt dem Menschen, was zu tun ist. Sie kann unendlich viel mehr Informationen verarbeiten und auf dieser Basis bessere Entscheidungen treffen. Sie handelt nicht auf meinen Befehl („Siri, wo ist die nächste Pizzeria?“), sondern proaktiv. Das Kräfteverhältnis verschiebt sich. Der Algorithmus war ein Instrument. Nun wird er zur Autorität, die immer nur mein Bestes will.

Der intellektuelle Überbau zu diesem Wandel ist seit kurzem auf dem Markt und hat zu Recht Wirbel ausgelöst. In „Homo Deus“ läutet der 41-jährige israelische Historiker Yuval Noah Harari das Ende des heutigen Menschen ein. Dieser werde schon bald nicht mehr gebraucht, also ökonomisch. Die künstliche Intelligenz stehe kurz davor, ihn auf jedem Feld abzuhängen, auch in Beziehungsfragen.

Die Übernahme realer Macht sei nur noch eine Frage der Zeit, meint Harari. Der Algorithmus müsse den Menschen gar nicht vollständig durchleuchten können. Er müsse ihn nur besser kennen als der sich selbst und weniger Fehler begehen. „Dann nämlich wird es tatsächlich sinnvoll sein, diesem Algorithmus immer mehr meiner Lebensentscheidungen zu übertragen.“ Harari nimmt an, dass Algorithmen, genau wie Nationen oder Konzerne, bald als juristische Personen anerkannt werden. Dann seien sie auch in der Lage, eigenständig Vermögen anzuhäufen. Am Ende könnte eine „algorithmische Oberschicht entstehen, die den Großteil unseres Planeten besitzt“.

Neuauflage des „Liberalen Paternalismus“

Man muss Harari, der ein begnadeter Erzähler ist, nicht in die Tiefen seiner negativen Utopie folgen. Beim Thema technischer Fortschritt hat sich ein bedrohlicher Ton auf dem Buchmarkt bewährt. Doch selbst wenn die globale Machtübernahme der Algorithmen noch auf sich warten lässt, trifft der Historiker mit seiner Analyse des menschlichen Autonomie- und Autoritätsverlusts ins Schwarze. Wie die Algorithmen funktionieren, denen wir die Organisation unseres Lebens in immer größerem Maße anvertrauen, verstehen die Wenigsten. Wie wir funktionieren, verstehen die Algorithmen immer besser.

Wenn man will, dann sind die Programme, die heute in Kalifornien geschrieben werden, eine Neuauflage des „Liberalen Paternalismus“ unter verschärften Bedingungen. Vor 14 Jahren erklärten der Verhaltensökonom Richard Thaler und der Jurist Cass Sunstein, warum es aus ihrer Sicht legitim ist, das Mängelwesen Mensch hier und dort in die richtige Richtung zu schubsen. Nicht durch Zwang, sondern durch vorformulierte Wahlmöglichkeiten. „Nudging“ heißt dieses Vorgehen. Es geht ungefähr so: Rational gesehen, weiß ich, dass Rauchen schadet. Doch die spontane Nikotinlust gewinnt stets die Oberhand. Ein Totenkopf auf der Zigarettenpackung soll mich zum rechten Tun anleiten.

Aus liberaler Sicht ist schon diese Form des Paternalismus problematisch. Wer soll denn, bitte schön, festlegen, was für den Einzelnen das „richtige“ Verhalten ist? Der Staat? Der will im Zweifelsfall nur eines: ruhige Untertanen, die wenig kosten und viel Steuern zahlen. Der Bürger, dessen Verhalten nur bei Gesetzesverstößen zu sanktionieren ist und den man ansonsten in Ruhe zu lassen hat, wird im liberalen Paternalismus wieder zum Untertanen. Einziger Trost: Hier sind es noch Menschen, die sich anmaßen, andere Menschen an die Hand zu nehmen.

Paternalismus will den Nutzer vor störenden Erfahrungen bewahren

Der Paternalismus der Algorithmen droht, ein größeres Monstrum zu werden. Er schubst den Nutzer nicht mehr nur in einer konkreten Frage in eine angeblich wünschenswerte Richtung. Er hat das Ziel, ihn vor allen vermeintlich störenden Erfahrungen zu bewahren. Kein Stau mehr. Kein Bewegungsmangel. Genug Schlaf. Perfekte Unterhaltung. Gesundes Essen. Kein Streit. Und falls doch: ab auf die Meditationsmatte.

Jeder muss seine Erfahrungen selbst machen, wissen Eltern. Dazu gehört es, Fehler zu machen und daraus zu lernen. Dass dies einen eigenen Wert hat, dass es den Charakter reifen lässt, das versteht eine bewusstlose Intelligenz nicht. Muss sie auch nicht. Der Algorithmus ist nicht das Problem. Es ist die Verführung, sich ihm bei jeder Gelegenheit zu unterwerfen. Am Ende könnten wir in einem konfliktfreien und sehr gesunden, aber auch öden und erfahrungsarmen Alltag aufwachen.

Quelle: F.A.S.
  Zur Startseite
Ähnliche Themen