Suizidprävention

Automatische Ferndiagnose

Von Piotr Heller
 - 07:15

Facebook hat jüngst eine Funktion angekündigt, die vor allem zeigt, wie gut es inzwischen darin ist, sich einen Reim auf die Informationen seiner rund zwei Milliarden Nutzer zu machen. Das Unternehmen hat angekündigt, weltweit (außer in der Europäischen Union) Videos und Beiträge automatisch nach Suizidabsichten zu durchforsten. Auffälligkeiten werden an Moderatoren gemeldet, die dann Hilfe organisieren können. Das ist eine Technologie, die zumindest Unbehagen hervorruft. Suizidgedanken sind zwar oft Ausdruck einer Krankheit. Wie alle Gedanken sind sie aber auch etwas Intimes. Ist es in Ordnung, dass ein Unternehmen diese Gedanken erkennt und darauf reagiert – und sei es in der Absicht, zu helfen?

Das geschieht bereits heute. Alleine im letzten Monat, so Facebook, habe der Algorithmus in den Vereinigten Staaten über einhundert Fälle erkannt, die so dramatisch waren, dass die Moderatoren sogenannte „first responder“ (Ersthelfer) einschalteten. Dabei handele es sich um Polizisten, Notärzte oder Feuerwehrleute, die sich mit dem betroffenen Nutzer in Verbindung gesetzt haben. Um was für Fälle es sich genau gehandelt hat, verrät Facebook allerdings nicht.

Der Konzern hat auch ein Eigeninteresse

Dramatische Ereignisse auf dem sozialen Netzwerk gab es aber viele. Immer wieder kommt es vor, dass Menschen sich bei „Facebook Live“, also bei einer direkten Video-Übertragung, vor den Augen Hunderter anderer Nutzer umbringen. Facebook hat ein großes Interesse daran, solche Fälle zu verhindern.

Für seine Suizid-Erkennung kann das Unternehmen auf Daten zurückgreifen, die es seit Jahren sammelt. Entdeckt jemand Bilder, Videos oder Beiträge, auf denen ein Nutzer Suizidgedanken äußert, kann er das mit nur drei Klicks an Facebook melden. Dadurch besitzt das soziale Netzwerk heute ein Archiv mit Unmengen an Inhalten, die Nutzer irgendwann mal als bedenklich markiert haben. Mit diesen Daten konnte es nun einem Computersystem beibringen, solche Inhalte selbst zu erkennen. Wird das System in den Videos oder Beiträgen eines Nutzers fündig, informiert es einen Moderator, der das Material daraufhin sichtet. Erkennt er ebenfalls Suizidabsichten, kann er dem Nutzer den Hinweis einblenden, sich an Freunde oder eine Hilfsorganisation wie die Telefonseelsorge zu wenden. Wenn jedoch Gefahr im Verzug ist, alarmiert der Moderator die Ersthelfer.

Die Experten sind nicht grundsätzlich dagegen

Wolfgang Maier, Leiter der Psychiatrie und Psychotherapie des Universitätsklinikums in Bonn, hält dieses Vorgehen zumindest prinzipiell für angemessen. „Wenn jemand den Entschluss fasst, sich umzubringen, dann gibt es eine Phase des Rückzugs“, erklärt er. Wenn man es schaffe, in dieser Phase Kontakt zu dem Betroffenen aufzunehmen, könne man noch korrigierend eingreifen. Es komme allerdings stark darauf an, wie gut das System funktioniert. Falls es wenig effektiv sei und Menschen als suizidal erachte, die es gar nicht sind, würde es an Akzeptanz verlieren. „Das Ganze wird dann zu einer Art makabrem Gesellschaftsspiel ausarten, bei dem Nutzer das System täuschen wollen“, sagt Maier. Wie oft Facebook fälschlicherweise Alarm schlägt, verrät das Unternehmen nicht. Auch Facebooks Reaktion auf Extremfälle sieht Maier kritisch. Menschen begingen Suizid, wenn sie kein Vertrauen mehr in das soziale Umfeld hätten, genau da müsse Hilfe ansetzen, sagt er. „Wenn aber die Polizei kommt, dann wird das bei den wenigsten Vertrauen wiederherstellen.“ Sinnvoller sei es, Helfer wie die von der Telefonseelsorge einzusetzen. Doch hier muss man einwenden, dass solche Organisationen im Gegensatz zur Polizei gar nicht die Möglichkeit haben, den Betroffenen ausfindig zu machen.

David Ebert vom Lehrstuhl für Klinische Psychologie und Psychotherapie der Universität Erlangen kann zumindest dem Versuch, Betroffene über soziale Medien auf Hilfsangebote hinzuweisen, Positives abgewinnen. In einer Studie hat er Studenten untersucht, die sich mit Suizidgedanken trugen oder bereits versucht hatten, sich umzubringen. „Mehr als die Hälfte davon hatte nie mit jemandem über diese Gedanken gesprochen“, sagt Ebert. Man bräuchte also neue Wege, um an diese Menschen heranzukommen. „Das maschinelle Lernen mit Daten aus sozialen Medien kann da hilfreich sein, aber die Frage ist: Was macht man mit denen, die Suizidabsichten haben?“

Erkennen ist das eine. Helfen etwas ganz anderes.

Denn es sei nicht damit getan, auf eine Hilfsorganisation hinzuweisen. Die meisten wissen ohnehin, dass sie sich Hilfe suchen können. Sie wollen es aber nicht. „Das Kernproblem ist, dass Menschen mit Suizidabsichten den Tod als einzigen Ausweg sehen, weil sie hoffnungslos sind“, sagt Ebert. Man wisse derzeit überhaupt nicht, wie man diese Menschen motivieren kann, Hilfe in Anspruch zu nehmen. Ebert erforscht diese Frage gerade in dem internationalen Projekt „Studicare“. Dabei befragen er und seine Kollegen Studenten verschiedener Universitäten über Jahre hinweg immer wieder mit standardisierten Fragebögen über das Internet. Ein Algorithmus wertet die Antworten aus und sucht nach Hinweisen auf psychische Erkrankungen. Stellt er etwas fest, gibt er der Person eine Rückmeldung. Das kann ein individueller Hinweis auf die Telefonseelsorge oder das Gesundheitssystem sein oder auch ein direktes Hilfsangebot. „Wir sagen dann: ,Hier hast du die Möglichkeit, sofort, kostenfrei und anonym eine Behandlung in Anspruch zu nehmen‘“, erläutert Ebert. So will er den richtigen Weg finden, Menschen mit psychischen Problemen zu erreichen. Facebook verweist darauf, dass man mit Psychologen zusammenarbeite, um die richte Ansprache zu finden.

Eine große offene Frage bleibt aber, wie gut der Algorithmus den Moderatoren überhaupt zuarbeitet. Kann eine Maschine Suizidabsichten erkennen? Zumindest was Anzeichen für Depressionen in Texten angeht, gibt es heute Algorithmen, die einigermaßen gute Ergebnisse liefern, sagt der Computerlinguist Roland Ramthun vom Leibniz-Zentrum für Psychologische Information und Dokumentation in Trier. Dabei gibt es zwei Dinge, auf die man achten kann. Zum einen verändern depressive Menschen ihre Themenschwerpunkte, schreiben zum Beispiel öfter von Suiziden. Zum anderen wandelt sich auch ihre Art, zu schreiben. Sie nutzen dann beispielsweise mehr negative Adjektive. Auf dieser Grundlage lassen sich Algorithmen entwickeln, die Texte nach Hinweisen durchsuchen. „Vor zwei Jahren gab es eine Studie, in der Forscher die Beiträge in einem Internetforum auf diese Weise überprüft haben“, erinnert sich Ramthun. Der Algorithmus kam in 80 Prozent der Fälle zum gleichen Ergebnis wie Psychologen, die sich die Texte angeschaut hatten. Für ein Forschungsprojekt ein guter Wert.

Doch auch wenn der Facebook-Algorithmus gut funktioniert und die Moderatoren gewissenhaft entscheiden, hat Ramthun Bedenken, was die Konsequenzen einer solchen Technologie angeht: „Wenn jemand Suizidgedanken hat und weiß, dass eine solche Überwachung stattfindet, dann zieht er sich vielleicht aus dem Medium zurück oder spricht gar nicht mehr über seine Gedanken“, sagt er. So eine Person wäre dann zumindest über soziale Medien gar nicht mehr für Hilfsangebote erreichbar.

Eine andere Konsequenz der automatischen Überwachung sei, dass sie den Nutzern ein Stück Selbstbestimmtheit nimmt, gibt der Psychotherapeut Tim Klucken von der Universität Siegen zu bedenken. „Der Einzelne kann von der Funktion vielleicht profitieren, aber dafür wertet Facebook Daten seiner Nutzer nach psychischen Auffälligkeiten aus, ohne sie vorher zu fragen“, sagt er. Tatsächlich gibt es gar keine Möglichkeit, die Funktion abzustellen, und Facebook durchsucht neben öffentlichen Beiträgen auch solche, die Nutzer nur für einen bestimmten Freundeskreis zugänglich machen. Das Unternehmen will nicht darüber reden, warum es die automatische Suizid-Erkennung derzeit in der EU nicht einsetzt. Wahrscheinlich ist, dass die Datenschutzrichtlinien in Europa es schwermachen, Nutzerdaten massenhaft nach psychischen Auffälligkeiten zu durchleuchten. Damit würde das hiesige Recht eine solche Funktion verhindern, egal wie gut sie gemeint sein mag.


Hilfe bei Suizidgedanken

Wenn Sie daran denken, sich das Leben zu nehmen, versuchen Sie, mit anderen Menschen darüber zu sprechen. Es gibt eine Vielzahl von Hilfsangeboten, bei denen Sie – auch anonym – mit anderen Menschen über Ihre Gedanken sprechen können.

Das geht telefonisch, im Chat, per Mail oder persönlich.

Die Telefonseelsorge ist anonym, kostenlos und rund um die Uhr erreichbar. Die Telefonnummern sind 0 800 / 111 0 111 und 0 800 / 111 0 222.
Der Anruf bei der Telefonseelsorge ist nicht nur kostenfrei, er taucht auch nicht auf der Telefonrechnung auf, ebenso nicht im Einzelverbindungsnachweis.

Ebenfalls von der Telefonseelsorge kommt das Angebot eines Hilfe-Chats. Die Anmeldung erfolgt auf der Webseite der Telefonseelsorge. Den Chatraum kann man auch ohne vereinbarten Termin betreten, mit etwas Glück ist ein Berater frei. In jedem Fall klappt es mit einem gebuchten Termin.

Das dritte Angebot der Telefonseelsorge ist die Möglichkeit der E-Mail-Beratung. Auf der Seite der Telefonseelsorge melden Sie sich an und können Ihre Nachrichten schreiben und Antworten der Berater lesen. So taucht der E-Mail-Verkehr nicht in Ihren normalen Postfächern auf.

Quelle: F.A.S.
  Zur Startseite
Ähnliche ThemenFacebookSelbstmordWolfgang MaierPolizeiEuropäische Union