Gesundheit
Erkennen von Suizidgefährdeten

Facebook und sein trojanisches Pferd

Von Sebastian Eder
© AFP, F.A.Z.

Es ist noch nicht lange her, dass Videos zweier dramatischer Ereignisse auf Facebook erschienen. Im Dezember filmte ein zwölf Jahre altes Mädchen aus dem amerikanischen Bundesstaat Georgia ihren Suizid. Das Video lief in Echtzeit auf Live.me, Mitschnitte wurden auf Facebook veröffentlicht. Im Januar folgte eine Vierzehnjährige aus Miami dem furchtbaren Vorbild. Auch sie konnte nicht gerettet werden, obwohl ihr Suizid live auf Facebook zu sehen gewesen sein soll und angeblich sogar die Mutter des Mädchens unter den Zuschauern war.

Facebook musste sich danach Fragen gefallen lassen: Warum war das Video so lange online, ohne dass Mitarbeiter der Plattform eingeschritten waren? Eine Sprecherin sagte: „Unsere Teams arbeiten rund um die Uhr, um Inhalte zu überprüfen, die von Benutzern gemeldet werden, und wir haben Systeme, um sicherzustellen, dass zeitkritische Inhalte schnell bearbeitet werden.“

Werden die Nutzer gläsern?

Schon vor diesen dramatischen Fällen suchte das Unternehmen nach neuen Wegen, um kritische Inhalte in Live-Videos schneller identifizieren zu können. Anfang März wurden die Pläne in einer Pressemitteilung vorgestellt. Erstens sollen suizidgefährdete Nutzer in Zukunft auf der ganzen Welt über Facebooks Livestreaming-Dienst gemeldet werden können. Kommen Facebook-Mitarbeiter dann zu dem Schluss, dass jemand wirklich gefährdet ist, erscheint auf dessen Bildschirm eine Nachricht: „Jemand denkt, du brauchst Hilfe.“

Aus diesem Fenster heraus kann der Nutzer sich direkt mit Helfern verbinden lassen, Tipps lesen oder einem Freund schreiben. Gleichzeitig bekommt derjenige, der das Video gemeldet hat, erklärt, wie er seinem Freund helfen kann. Fachleute hatten laut Facebook gesagt, dieses Vorgehen sei sinnvoller, als die Übertragung eines Videos zu stoppen.

Die Initiative wird allgemein begrüßt. Ein anderer Teil des Plans ruft allerdings Aufregung hervor. Facebook testet in den Vereinigten Staaten nämlich auch, ob suizidgefährdete Nutzer mit Hilfe künstlicher Intelligenz identifiziert werden können. Ein entsprechender Algorithmus orientiert sich an Beiträgen von Menschen mit Suizidabsichten, die in der Vergangenheit gemeldet wurden. Wachsam werden soll das System außerdem, wenn Freunde in Kommentaren Fragen stellen wie: „Ist alles okay bei dir?“ Oder: „Ich mache mir Sorgen um dich.“

Gina Alexis weint um ihre 14 Jahre alte Tochter, die bei einer Pflegefamilie lebte und im Januar ihren Suizid in Florida auf Facebook Live übertragen hatte. Später kam heraus, dass die Mutter selbst die Suizid-Ankündigung verfolgt hatte und nicht eingeschritten war – wie Hunderte weitere auch.
© AP, F.A.Z.

Wenn der Test erfolgreich ist, wird das System Teil des Programms zur Prävention von Selbsttötungen, das es auf Facebook schon seit Jahren gibt. Bisher wurden vor allem gemeldete Beiträge analysiert – jetzt sollen die Tipps auch von dem Programm kommen. Erkennen dann auch die Facebook-Mitarbeiter Suizidabsichten, greift das oben erläuterte System. Die künstliche Intelligenz soll erst mal nur öffentliche Kommentare und Posts analysieren. Aber auch viele der Posts sind eigentlich nur für „Freunde“ gedacht, eine entsprechende Einstellung verspricht, dass sie sonst niemand sehen kann.

Grundsätzlich klingt es trotzdem erst mal logisch: Wer möchte kranken Menschen nicht helfen? Aber was bedeutet das alles eigentlich? Werden in Zukunft auch Smart-TV unsere Gespräche zu Hause analysieren, um zu prüfen, ob wir psychische Probleme haben? Warum haben das die Telefongesellschaften bisher nicht bei Gesprächen mit Freunden gemacht, in denen man über seine Probleme sprach? Und was wird aus den Daten, die über die psychische Gesundheit der Nutzer gesammelt werden?

Besonders sensible Gesundheitsdaten

Andrea Voßhoff (CDU), Bundesbeauftragte für Datenschutz, sieht die Initiative kritisch: „Der Einsatz einer derartigen Technik birgt zweifelsfrei die Gefahr, die Nutzer eines sozialen Netzwerks zum gläsernen Menschen zu machen.“ Schon mittels kleiner Abweichungen könne der genutzte Algorithmus nicht mehr nach suizidalen Tendenzen suchen, sondern beispielsweise Personen ausfiltern, denen eine potentiell kriminelle Neigung oder bestimmte politische oder religiöse Einstellungen unterstellt wird.

Außerdem bestehe das Risiko, dass Nutzer stigmatisiert würden, wenn Facebook sie fälschlicherweise als suizidgefährdet einstufe. „Jede Form einer automatisierten Auswertung der Kommunikation mit dem Ziel der Erstellung eines Persönlichkeitsprofils bringt erhebliche datenschutzrechtliche Risiken mit sich“, sagt Voßhoff. Nicht zuletzt sei die wichtige Frage der rechtlichen Grundlage für das Verfahren zu klären. „Schließlich handelt es sich bei den Daten um besonders sensible Gesundheitsdaten, deren Verarbeitung nur sehr restriktiv in wenigen gesetzlich festgelegten Ausnahmesituationen gestattet ist.“

So sieht es aus, wenn einem Nutzer auf Facebook Live Hilfe angeboten wird.
© Facebook, F.A.Z.

Auch Psychiater sind skeptisch. Jan Kalbitzer von der Charité in Berlin sagt: „Grundsätzlich ist zunächst einmal jeder Versuch positiv, Menschen davor zu schützen, sich aufgrund psychischer Beschwerden das Leben zu nehmen.“ Gerade in den sozialen Medien bestehe auch das Risiko zu Nachahmungen durch andere Nutzer. Die von Facebook geplante Analyse aller Beiträge könne aber Kranke sogar abschrecken, die sich sonst vielleicht in einer Krisensituation in den sozialen Medien geöffnet und schneller Hilfe bekommen hätten.

„Wenn diese Menschen aus Angst, in ein Raster der digitalen Überwachung zu fallen, dann aufgrund solcher Algorithmen nicht mehr offen über ihre Sorgen sprechen, können die Nachteile ganz schnell die Vorteile einer solchen Technik überwiegen“, sagt Kalbitzer. Und auch er macht sich Gedanken darüber, ob das Programm nicht eine Art trojanisches Pferd sein könnte: „Das große Problem sehe ich darin, dass gerade solche Anlässe – bei denen moralisch zunächst einmal eigentlich niemand etwas einwenden kann – als Anlass für mehr Überwachung genutzt werden.“

Facebook-Gründer Mark Zuckerberg macht tatsächlich kein Geheimnis daraus, dass der aktuelle Test nur der Anfang sein soll. Mitte Februar veröffentlichte er seine Vision für die Zukunft seiner „globalen Gemeinschaft“ und schrieb: „Eine unserer größten Möglichkeiten, um für die Sicherheit der Menschen zu sorgen, ist es, künstliche Intelligenz aufzubauen, die schnell und genau versteht, was in unserer Gemeinschaft passiert.“ Mentale Probleme, Krankheiten, Verbrechen und terroristische Propaganda könne man so in Zukunft hoffentlich identifizieren und eingreifen, bevor etwas Schlimmes passiere.

Unheimlich wird es spätestens, wenn man sich vorstellt, ein Diktator bekäme Zugriff auf ein solches Programm und könnte politische Gegner automatisch identifizieren. Fragwürdig ist es aber auch so schon, weil Facebook ein Unternehmen bleibt, das mit möglichst genau auf Zielgruppen ausgerichteter Werbung Geld verdient – auch wenn Zuckerberg gerne pathetisch davon redet, wie er mit der Plattform die Welt verbessern will.

Facebooks trojanisches Pferd

Und das Unternehmen hat laut einem juristischen Branchendienst gerade erst eingeräumt, in der Vergangenheit private Nachrichten nicht nur ausgewertet zu haben, um Viren und Kinderpornographie zu identifizieren, sondern auch für Werbezwecke. Es gab deswegen eine Sammelklage im Gerichtsbezirk Nord-Kalifornien. Man einigte sich auf einen Vergleich.

Die neue digitale Zeitung F.A.Z. PLUS
Die neue digitale Zeitung F.A.Z. PLUS

Die ganze F.A.Z. jetzt auch im Web, mit zusätzlichen Bildern, Videos, Grafiken. Hier geht’s zum Test.

Mehr erfahren

Vielleicht muss man sich deswegen also einfach in Realismus üben. Jakob Henschel ist im Vorstand der Deutschen Gesellschaft für Suizidprävention und leitet das Internet-Beratungsangebot [U25] für suizidgefährdete Jugendliche. Er sagt: „Wenn Facebook die Posts der Nutzer ohnehin für Werbe- und Marktforschungszwecke analysiert, ist es nicht verkehrt, die Daten dann wenigstens auch für Hilfe in Krisen zu nutzen.“ Generell findet aber auch Henschel den Umgang von Facebook mit persönlichen Daten „bedenklich“.

Und eigentlich hat das Unternehmen vor Gericht ja gerade gelernt, dass man gute Gründe braucht, um Eingriffe in die Privatsphäre der Nutzer zu rechtfertigen. Das Retten von Menschenleben wäre so ein Grund. Steht das trojanische Pferd erst mal im Hof, kann man die nächsten Schritte planen.

Hilfe bei Suizidgedanken

Wenn Sie daran denken, sich das Leben zu nehmen, versuchen Sie, mit anderen Menschen darüber zu sprechen. Es gibt eine Vielzahl von Hilfsangeboten, bei denen Sie – auch anonym – mit anderen Menschen über Ihre Gedanken sprechen können. Das geht telefonisch, im Chat, per Mail oder persönlich. Die Telefonseelsorge ist anonym, kostenlos und rund um die Uhr erreichbar. Die Telefonnummern sind 0 800 / 111 0 111 und 0 800 / 111 0 222. Der Anruf bei der Telefonseelsorge ist nicht nur kostenfrei, er taucht auch nicht auf der Telefonrechnung auf, ebenso nicht im Einzelverbindungsnachweis. Ebenfalls von der Telefonseelsorge kommt das Angebot eines Hilfe-Chats. Die Anmeldung erfolgt auf der Webseite der Telefonseelsorge. Den Chatraum kann man auch ohne vereinbarten Termin betreten, mit etwas Glück ist ein Berater frei. In jedem Fall klappt es mit einem gebuchten Termin. Das dritte Angebot der Telefonseelsorge ist die Möglichkeit der E-Mail-Beratung. Auf der Seite der Telefonseelsorge melden Sie sich an und können Ihre Nachrichten schreiben und Antworten der Berater lesen. So taucht der E-Mail-Verkehr nicht in Ihren normalen Postfächern auf.

Quelle: F.A.Z.
  Zur Startseite

Themen zu diesem Beitrag:
Jan Kalbitzer | Facebook | Künstliche Intelligenz | Selbstmord