Animation: Carsten Feig

Im Raster

Von LAURA MESCHEDE

14.02.2018 · Wir werden überwacht, das ist klar. Aber: Was passiert eigentlich mit all den Informationen über uns, nachdem sie eingesammelt wurden? Wer überwacht uns – und wie? Eine Suche.

1983 wollte die deutsche Regierung eine Volkszählung organisieren: Wie viele Menschen leben in Deutschland? Was arbeiten sie? Fahren sie mit der Bahn oder mit dem Auto zur Arbeit?

Aber die Deutschen wollten sich nicht zählen lassen. Es gab Proteste, Boykottaufrufe, „Meine Daten gehören mir“. Zwei Wochen vor der Zählung dann ein historisches Urteil des Bundesverfassungsgerichts, die Zählung wurde gestoppt, fand schließlich vier Jahre später statt. „Das Recht auf informationelle Selbstbestimmung“ stammt aus diesem Urteil. Es besagt, dass jeder Mensch das Recht habe, selbst entscheiden zu dürfen, wer Daten von ihm erhebt, speichert, verwendet und weitergibt. „Informationelle Selbstbestimmung“: Ein sperriger Begriff. Ich kann ihn mir nie merken; deswegen weiß jetzt auch Google, dass ich mich für „Urteil Bundesverfassungsgericht Volkszählung“ interessiere.

Daten:
Je nach Phrasenkiste das Gold oder Öl unserer Zeit. Unter den zehn wertvollsten Konzernen der Welt waren Ende 2017 drei, die ihr Geld fast ausschließlich mit dem Handel und der Verarbeitung von Daten machen: Alphabet – also Google –, Facebook und der chinesische Internetriese Tencent.

Die zehn wertvollsten Unternehmen der Welt

Dass Konzerne Daten sammeln, dass Geheimdienste Daten sammeln, dass der Staat Daten sammelt: All das ist schon lange bekannt. Auch mir. Und trotzdem habe ich jedes Mal, wenn ich darüber nachdenke, das Gefühl, vor einem undurchdringlichen Netz zu stehen. Inhaltlich bin ich aus dem Thema schon lange ausgestiegen. Was bleibt, ist der Eindruck, dass mein Smartphone Berge von Informationen über mich einsaugt, sie verarbeitet und am Ende Online-Artikel zum Thema „Überwachungsstaat“ wieder ausspuckt. Aber: Was steht zwischen meinem Handy und der Überwachungsgesellschaft? Was passiert mit all dem Wissen, nachdem es eingesammelt wurde? Wer überwacht mich – und wie?

Yvonne Hofstetter Foto: Jan Roeder

Das frage ich Yvonne Hofstetter. Hofstetter ist Geschäftsführerin eines kleinen Technologie-Unternehmens. Früher haben sie und ihr Team für den Rüstungsbereich gearbeitet, heute entwickeln sie Überwachungsalgorithmen für die Bahninfrastruktur mit. In den letzten Jahren hat sie zwei Bücher über Big Data geschrieben: „Sie wissen alles“ und „Das Ende der Demokratie“.
„Womit wir es zu tun haben“, sagt Hofstetter, „sind Ideen, die eigentlich aus dem Militär kommen.“

Inwiefern?
Hofstetter sagt: „In Pakistan hat die NSA die halbe Bevölkerung überwacht und ihre Profile mit denen von Terroristen verglichen. Und das Programm, Skynet, hat dann ausgespuckt: Der, der und der ist Terrorist. Weil er sein Handy ähnlich verwendet hat wie vor ihm die Terroristen. Dann kam noch eine Unterschrift drunter und die Drohne wurde losgeschickt.“

Ähnlichkeiten:
Letzten Endes sind sie das Prinzip, auf dem die Verarbeitung von Big Data basiert. Peter verhält sich ähnlich wie vor ihm die Terroristen A und B? Dann schlägt das System an – Peter könnte auch ein Terrorist sein.

2015 hat die amerikanische Zeitung „The Intercept“ eine Powerpoint-Präsentation der NSA veröffentlicht. Sie enthüllt: Dass es auch in der NSA Menschen gibt, die glauben, PowerPoint-Präsentationen würden schöner, wenn man möglichst viele Farben in ihnen unterbringt. Und: Die Existenz von „Skynet“.

Ausschnitt aus einer Powerpoint-Präsentation der NSA zum Skynet-Programm Quelle: The Intercept

„Skynet“ funktioniert so: Die Metadaten der Telefone von identifizierten Terror-„Kurieren“ werden mit den Daten der überwachten Pakistaner verglichen. Reist jemand ähnliche Strecken? Nimmt ebenfalls fast nur Anrufe entgegen und wechselt häufig seine SIM-Karte? Ist permanent in Bewegung? Trifft sich mit bekannten Terrorgruppen-Mitgliedern? Zusammengefasst: „Wir suchen nach unterschiedlichen Menschen, die ihr Telefon auf ähnliche Art verwenden.“

Diese Suche funktioniert, weil 55 Millionen Pakistaner überwacht wurden. Und nicht nur 150. „Man braucht den Heuhaufen, um die Nadel darin zu finden“, hat NSA-Chef Keith Alexander einmal gesagt. Jetzt verstehe ich, was er gemeint hat.

Auf meinem Smartphone habe ich vier Apps, die meinen Standort abrufen dürfen: Google Maps, WhatsApp, Chrome und „Fotos“, meine Fotogalerie. Sechs Apps dürfen die Kontakte in meinem Telefonbuch einsehen. Zwei Apps können erkennen, ob ich gerade telefoniere und wenn ja, mit wem. Und fünf Apps können meine „Wlan-Verbindungen“ abrufen und damit immer, wenn mein Wlan eingeschaltet ist, erkennen, wo ich mich befinde – und mit wem. Man muss nicht die NSA sein, um die Bewegungs- und Telefonprofile vieler Menschen vergleichen zu können.

Quelle: Johns Hopkins University

Dass die Verdächtigen, die von Skynet identifiziert wurden, tatsächlich auch direkt auf der Drohnen-Abschussliste landen, ist übrigens nicht bewiesen. Als Hauptverdächtigen des Super-Programms nennt die Präsentation einen Mann namens Ahmed Zaidan, der der Folie zufolge das Kunststück verbracht haben soll, Mitglied in Al-Qaida und der Muslimbruderschaft gleichzeitig zu sein. Zaidan lebt immer noch. Ein Glück, denn er schreibt äußerst spannende Reportagen aus der Region – das Programm hatte die Recherchereisen des Journalisten offenbar mit Kuriertätigkeiten verwechselt.

Yvonne Hofstetter sagt, das Problem mit der Verhaltens-Analyse durch Big Data sei, dass das System nie zu hundert Prozent richtig liegen könne. Weil es nur Wahrscheinlichkeiten berechnet.

Wahrscheinlichkeiten:
Die Wahrscheinlichkeit, dass ich einen Kredit zurückzahlen werde, ist höher, wenn ich auf meinen Facebook-Fotos einen Anzug trage und nicht betrunken bin. Wenn ich viele Freunde habe, die Geld haben. Und wenn ich häufig in die Oper gehe.

Was ist Social Scoring? Interview mit Michael Maifarth

Beim „Social Scoring“ werden Menschen anhand ihrer Social-Media-Profile auf ihre Kreditwürdigkeit überprüft. Ein Gespräch mit Michael Maifarth von PwC Deutschland über die Algorithmen hinter den Scoring-Ergebnissen und den Einfluss von zahlungsfähigen Facebook-Freunden.

Mehr Lesen
„Social Scoring“ – was ist das eigentlich?
Social Scoring bedeutet letztendlich nur: Die Berechnung der Kreditwürdigkeit einer Person mit den Daten, die im Internet verfügbar sind. Scoring-Verfahren gibt es ja schon lange. Auch Auskunfteien wie die Schufa berechnen die Bonität von Kreditnehmern mit den Informationen, die sie über sie haben. Neu ist eigentlich nur, dass durch das Internet jetzt andere Daten hinzugekommen sind, die man auswerten kann.

Wie kommen Banken und andere Kreditgeber an diese Daten?
Zum Beispiel über die Social Media-Profile der Kreditnehmer: Facebook, Xing, Twitter. Alles, was in diesen Profilen auf „öffentlich“ gestellt ist, darf jedermann einsehen und verwenden.
Und dann gibt es noch die sogenannten Opt-In-Verfahren: Bei denen geben die Kreditnehmer der Bank die Erlaubnis, auch die nicht-öffentlichen Teile ihres Social Media-Profils einzusehen.

Das heißt, die Kunden geben ihr Passwort heraus?
Üblicher ist, dass sie Facebook oder Xing die Erlaubnis geben, der Bank eine Zusammenstellung der Daten aus ihrem Profil zu Verfügung zu stellen.

Warum sollte jemand diese Erlaubnis herausgeben?
Beim Social Scoring geht es meistens um Mikrokredite. Die beantragen dann vor allem Menschen, die bei keiner Auskunftei gelistet sind – die also sonst gar keinen Kredit bekommen würden. Durch das Social Scoring bekommen so Tausende Menschen, die sonst keinen Zugang zu Krediten gehabt hätten, die Chance, sich Geld zu leihen.

Gibt es Social Scoring auch in Deutschland?
Aktuell nicht. Social Scoring gibt es vor allem in Ländern, in denen wenig über die Kreditwürdigkeit der Menschen bekannt ist. Da würden die Leute anders einfach gar keinen Kredit bekommen. In Deutschland haben wir dagegen ja bereits sehr gute Auskunfteien, da wäre das eher eine Zusatzfunktion. Die Schufa hat auch mal versucht, das hier einzuführen, aber ist dann schnell wieder zurückgerudert, weil sie zu viel Gegenwind gespürt hat. Ich kann mir aber vorstellen, dass das in der Zukunft auch in Deutschland kommt.

Und wie berechnet die Bank jetzt aus meinem Social Media-Profil, wie kreditwürdig ich bin?
Das ist von Institut zu Institut unterschiedlich. Generell kann man sagen, dass über 1000 Parameter für das Social Scoring herangezogen werden. Beispielsweise: Wie viele Freunde hat jemand, die bereits einmal zahlungsunfähig waren? Man kann auch die Fotos analysieren oder nachvollziehen, welche Veranstaltungen die Person besucht. Wichtig ist hier: Der einzelne Parameter fällt aufgrund der hohen Anzahl unterschiedlicher Kriterien am Ende des Tages nicht so stark ins Gewicht – allein die aus Sicht der Bank „falschen“ Veranstaltungen besucht zu haben, mindert also nicht unmittelbar die Kreditwürdigkeit.

Werden all diese Faktoren gleich stark gewertet oder gibt es bestimmte Dinge, die besonders stark ins Gewicht fallen?
Kein Algorithmus ist wie der andere, die Banken verfolgen hier durchaus unterschiedliche Ansätze. Man kann aber sagen, dass die Frage, mit welchen Leuten man befreundet ist, fast immer eine große Rolle spielt.

Trifft das denn die Realität? Ich zum Beispiel habe ein öffentliches Facebook-Profil und nehme oft einfach Freundschaftsanfragen von Leuten an, die ich überhaupt nicht kenne.
Auch das ist erst einmal nicht schlimm. Die bloße Anzahl der Freunde ist ja nur ein Kriterium. Ob Sie sich dabei wirklich für die Leute interessieren, kann die Bank zum Beispiel daran erkennen, ob Sie ihre Posts liken oder mit ihnen gemeinsam auf Veranstaltungen gehen. Diese Freunde zählen dann natürlich stärker als Menschen, mit denen Sie nicht in Kontakt treten.

Und wie stellt die Bank fest, ob es für oder gegen meine Kreditwürdigkeit spricht, wenn ich gerne in die Oper gehe?
Dafür werden historische Daten ausgewertet, also früher gesammelte Daten. Man muss etwa fünf Jahre Daten sammeln, um solche Zusammenhänge klar einschätzen und Scheinkorrelationen ausschließen zu können.

Das heißt, die Bank filtert aus historischen Daten heraus, ob Menschen, die in die Oper gehen, eher häufiger oder seltener ihren Kredit zurückgezahlt haben als der Durchschnitt?
Zum einen das, ja. Zum anderen werden auch eigene Hypothesen darüber aufgestellt, welcher Parameter wofür sprechen könnte - und das wird dann anhand der Daten überprüft.

„Social Scoring“ wird das genannt: Wenn die Frage, ob man einen Kredit bekommt, nicht mehr nur anhand des Wohnorts und früherer Zahlungsausfälle entschieden wird – so wie bei der Schufa – sondern anhand des eigenen Facebook-Profils und anderer Informationen aus dem Internet.

In Deutschland gibt es noch keine Bank, die Social Scoring anbietet – aber das könnte sich bald ändern. Das erklärt mir Michael Maifarth von der Unternehmensberatung PwC. Maifarth berät Unternehmen, die die Kreditwürdigkeit von Menschen bewerten. Offline, bislang. Aber weil das so nicht bleiben muss, interessiert sich Maifarth auch für die Algorithmen hinter der Online-Bewertung. Er will wissen, was eher dafür und was eher dagegen spricht, dass Menschen das Geld auch zurückzahlen, das sie sich geliehen haben.

Die Informationen dafür stammen aus „historischen Daten“, aus jahrelang angesammelten Informationen. Fünf Jahre lang, so sagt das Maifarth, müsse man für eine halbwegs präzise Analyse Daten sammeln.

Aus diesen Daten filtern die Banken die Wahrscheinlichkeiten: Wenn in der Vergangenheit die Mehrheit der Personen, die häufig Katzenbilder teilen, ihren Kredit nicht zurückgezahlt haben, dann schließen sie daraus, dass Katzenbilder-Teiler eher nicht so kreditwürdig sind.

Es ist ein ähnliches Prinzip wie bei Skynet. Nur, dass beim Social Scoring nicht nach Terrorkurieren gesucht wird. Sondern nach Kreditwürdigen.

Yvonne Hofstetter sagt, man könne dieses Prinzip heute nahezu überall finden.

In Kalifornien werden Menschen mit den Daten aus ihren Social-Media-Profilen danach gescort, wie wahrscheinlich sie in nächster Zeit ein Verbrechen begehen werden. Die Firma Aspire Health scort Kranke darauf, wie wahrscheinlich sie in den nächsten Monaten sterben werden, um ihnen im Zweifel günstige Sterbebegleitung statt teuren Behandlungen zukommen zu lassen. Und die Hotelzimmer, die ich mir im Internet ansehe, sind deswegen häufiger ermäßigt, als wenn mein Freund das macht, weil die Buchungs-Website meiner Wahl offenbar Ähnlichkeiten zwischen meinem Online-Verhalten und dem von „Schnäppchenjägern“ erkennt.

Was ist „Predictive Policing“? Interview mit Günter Okon vom LKA Bayern

In den Vereinigten Staaten ist „Predictive Policing“, vorhersagende Polizeiarbeit, ein großes Thema. Aber auch in Deutschland wird Analysesoftware eingesetzt, die Verbrechen vorhersagen soll, bevor sie begangen werden. Ein Gespräch mit Günter Okon, dem Leiter des Sachgebietes Analyse beim Bayerischen Landeskriminalamt, über Algorithmen, Einbrecherbanden und die Polizeiarbeit der Zukunft.

Mehr Lesen
In Chicago sammelt die Polizei öffentlich zugängliche Daten über die Menschen und erstellt damit einen Gefährlichkeitswert; einen Wert, der aussagen soll, wie hoch die Wahrscheinlichkeit ist, dass der Betroffene in naher Zukunft in ein Verbrechen verwickelt sein wird. Ist das die Polizeiarbeit der Zukunft?
Ich hoffe nicht! Ich finde es nicht gut, was sie in Chicago machen und ich würde auch auf keinen Fall wollen, dass das hier etabliert wird. Ich meine, man muss sich das einmal vorstellen: Als die in Chicago angefangen haben, ihre Liste von den computerberechnet gefährlichsten Leuten zu erstellen, da standen da 350 Leute drauf. Und jetzt sind es schon 4000… Und es gibt keine Möglichkeiten für die Leute, von so einer Liste wieder herunterzukommen. Das ist eine echte Gefahr!

Aber „Predictive Policing“, wie man diese Form der vorhersagenden Polizeiarbeit nennt, gehört doch auch zu Ihrem Job beim LKA Bayern.
Das ist etwas anderes: In den USA werden personenbezogene Daten gesammelt und ausgewertet. Und wie genau der Algorithmus auf sein Ergebnis kommt, weiß man da auch nicht. Das ist ein großer Unterschied zu unserem Programm…

…der Analysesoftware PreCobs…

…bei der es letzten Endes nur darum geht, mit mathematischen Formeln zu berechnen, an welchem Ort und zu welchem Zeitpunkt wahrscheinlich der nächste Einbruch stattfinden wird. Informationen über Personen speichern wir dabei nicht.

Wie kann ich mir die Funktionsweise von PreCobs vorstellen?
Stellen Sie sich vor, Sie haben ein paar Straßenzüge, in denen in der Vergangenheit immer wieder Einbrüche passiert sind. Dann kann man – das wissen wir aus Erfahrung – bei Einbrecherbanden davon ausgehen, dass sie irgendwo in der Nähe wieder zuschlagen werden. PreCobs sagt uns, wann.

Woher weiß PreCobs das?
Jeden Tag laden die Kollegen bei uns die Daten von aktuellen Einbruchsfällen in das System hinein. Aus diesen Informationen berechnet das System dann, welche Gebiete sich in die „New Repeat“-Richtung bewegen. Also: In welchen Gebieten wieder ein Einbruch zu erwarten ist. Wichtig für die Berechnung ist dabei beispielsweise, ob die Täter wie Serientäter vorgegangen sind – nur dann sind weitere Einbrüche zu erwarten.

Was spricht denn für Serientäter?
Nun, wir arbeiten mit vielen verschiedenen Kriterien. Wenn beispielsweise ein Fenster eingeschmissen wurde, dann spricht das gegen Einbrecherbanden: Die gehen professioneller vor. Wurde das Fenster dagegen aufgehebelt, erhöht das die Wahrscheinlichkeit, dass wir es mit Banden zu tun haben, die bald wieder zuschlagen werden.

Und Precobs sagt dann: Hier ist offenbar eine Einbrecherbande unterwegs, deswegen gibt es demnächst bei Hausnummer 17a einen Einbruch?
Nicht ganz. PreCobs gibt uns die Wahrscheinlichkeit, dass in einem bestimmten Gebiet in naher Zukunft ein weiterer Einbruch passieren wird. Wenn die Wahrscheinlichkeit, die uns das System angibt, höher als 75 Prozent ist, fahren wir hin. Meistens sind die Kollegen dann etwa eine Woche lang in der Gegend unterwegs und fahren Streife.

Und das funktioniert?
Die Einbruchsquoten in Bayern sind in den Gebieten, in denen PreCobs eingesetzt wird, zwischen 9 und 20 Prozent niedriger als in den nicht-überwachten Gebieten. Ob das alles an PreCobs hängt, wissen wir freilich nicht. Aber es spricht schon für einen gewissen Erfolg. Letzten Endes macht PreCobs ja das Gleiche, das auch wir Analysten gemacht haben: Ganz klassische Polizeiarbeit. Nur, dass heute die Arbeit, die früher 25 Leute gemacht haben, von einem System mit einem einzigen Bediener erledigt werden kann.

Wenn das mit dem Predictive Policing so gut läuft – ist dann nicht zu erwarten, dass das bald auch auf andere Bereiche ausgeweitet wird?
Natürlich entwickelt sich das weiter, und sicher wird das Prinzip in der Zukunft auch auf andere Bereiche als Wohnungseinbrüche angewendet werden. Aber insgesamt ist bei der Digitalisierung der Polizeiarbeit in den letzten zwei oder drei Jahren eher ein Umdenkungsprozess in die andere Richtung zu beobachten.

Inwiefern?
Als das aufgekommen ist mit den digitalen Ermittlungstechniken, da sind gleich Dutzende Firmen gekommen, die alles automatisieren wollten, was wir so haben. Aber, sagen wir es so: Es hat sich dann herausgestellt, dass diese Programme dummerweise keinen „Täter-Button“ haben. Das heißt nicht, dass solche Programme nicht sinnvoll sind: Die Daten, die wir haben, werden immer mehr, deswegen braucht es natürlich Software, um die zu verarbeiten. Aber auch die Analysen werden jetzt wieder wichtiger. Weil wir begriffen haben: Ohne menschliche Intelligenz bringt so ein System nicht viel.

In welchen Bereichen könnte PreCobs denn noch eingesetzt werden?
In allen Bereichen, in denen sich Muster erkennen lassen: bei Graffiti vielleicht oder bei Trickdiebstahl. Aber auch, wenn das System sich in vielen Bereichen einsetzen lässt: Wir werden in keinem darum herumkommen, dass da noch wer davor sitzt und entscheidet: Hat diese Information Hand und Fuß? Das habe ich in den letzten Jahren in der Arbeit mit PreCobs gelernt: Es ist wichtig, kritisch zu bleiben – auch den Algorithmen gegenüber.

Das also wollen all die Konzerne mit meinen Daten: Es geht ihnen nicht darum, zu erfahren, dass ich das letzte Wochenende bei meiner Oma verbracht habe. Sondern darum, herauszufinden, ob Menschen, die das Wochenende häufig bei ihrer Oma verbringen, tendenziell öfter auf Familienauto-Werbebanner klicken. Ihre Rechnungen zuverlässiger zahlen. Oder seltener nach Medikamenten gegen Grippe googlen.

„Menschen, die ‚inspirierende‘ Zitate bei Facebook posten, sind laut einer neuen Studie tatsächlich dumm“. Das hat das Magazin Vice vor zwei Jahren geschrieben. Es gibt Dutzende solcher Studien. Wer häufig Status-Updates über seinen Partner postet, hat ein geringes Selbstwertgefühl. Wer Fotos aus dem Fitnessstudio oder persönliche Erfolge postet, ist narzisstisch veranlagt. Und wer ein Profilbild in schwarz-weiß hat, ist labil und sensibel. Sagen diese Studien.

Als ich damals von der Studie mit den dummen Menschen und den inspirierenden Zitaten gelesen habe, habe ich gelacht. Jetzt denke ich: Auf der Liste irgendeines Konzerns haben meine Freunde mit den peinlichen Zitate-Bildern seither vermutlich den Vermerk: unterdurchschnittlich intelligent. Und ich? Kürzlich habe ich einen Preis gewonnen und das gleich bei Facebook geteilt. Bin ich nun irgendwo als Narzisstin gelistet?

Den Menschen berechnen:
Eine Fähigkeit, die jeder gerne hätte. Polizei, Geheimdienste, Konzerne. Und Versicherungen.

In Deutschland bietet die Firma Generali Vitality eine Versicherung an, im Zuge derer man sein Sport- und Essverhalten überwachen lassen kann. Treibt man viel Sport oder kauft gesunde Lebensmittel, kriegt man Punkte. Je mehr Punkte man hat, desto günstiger wird die Versicherung. Zudem bekommt man „Prämien“, wenn man fleißig an sich arbeitet: Amazon-Gutscheine, beispielsweise.

Die Vitality-Versicherung ist freiwillig. Aber sie ist auch günstiger. Genauso, wie man bei der Allianz und anderen Anbietern eine günstigere Autoversicherung bekommt, wenn man mittels „Telematik“ seinen Fahrstil überwachen lässt und sorgsam fährt. Genauso, wie die Kredite beim Social Scoring günstiger werden, wenn man viele Daten zur Verfügung stellt. Und genauso, wie die Rabattkarten, mit denen Supermärkte das Einkaufsverhalten ihrer Kunden scoren, den Einkauf günstiger machen.

Die Sicherheit, sich den Scoring-Mechanismen auf Dauer entziehen zu können, muss man sich leisten können.


„Beim Scoring geht es um Kontrolle. Um den Versuch, die Zukunft zu kontrollieren.“
YVONNE HOFSTETTER

Kontrolle:
Sie funktioniert umso besser, je mehr Daten man zur Verfügung hat.

Quelle: CNBC

In China soll ab 2020 für alle Bürger verpflichtend ein Social Credit-System eingeführt werden. Das heißt: Jeder Mensch wird gescort. Wer einen hohen Score hat, wird belohnt – wer zu wenig Punkte hat, bestraft.

Aktuell gibt es bereits mehrere Dienste in China, die Social Scoring auf freiwilliger Basis anbieten. Das bekannteste davon ist „Sesame Credit“. „Sesame Credit“ gehört dem Konzern Alibaba, einem chinesischen Onlinehändler mit zahlreichen Tochterkonzernen. Aus den Daten, die Alibaba über die Nutzer von Sesame Credit hat, berechnet der Konzern einen Punktestand: Zwischen 350 und 950 Punkten kann man bekommen. In die Berechnung fließen unter anderem ein, welche Websites man besucht, welche Produkte man kauft, ob man seine Rechnungen zahlt, was für Freunde man hat – und wie man sich verhält. „Jemand, der zehn Stunden am Tag Computer spielt, würde von uns wohl als faul klassifiziert werden“, zitiert das Magazin Wired die Technologie-Direktorin von Sesame Credit, Li Yingyun.

In dem System, das die chinesische Regierung ab 2020 einführen möchte, soll der eigene Punktestand jederzeit für jeden einsehbar sein.

Wie genau er berechnet werden soll, ist nicht bekannt. Es wird gemutmaßt, dass regierungskritische Kommentare und Pornokonsum Punktabzug bringen könnten, sorgsames Autofahren und gesunde Einkäufe dagegen Pluspunkte. Sicher ist, dass der eigene Kontostand und die Steuererklärung eine Rolle spielen werden.

„Die Steuerbehörde soll interne und Social-Credit-Belohnungs- und Bestrafungsmechanismen etablieren und verbessern, mit denen ehrliche Steuerzahler motiviert und belohnt werden können“, schreibt die zentrale chinesische Steuerbehörde auf ihrer Homepage. „Unehrliche Steuerzahler können gewarnt und bestraft werden.“

„Je mehr Möglichkeiten zur Überwachung es gibt, desto mehr wird auch überwacht werden”, sagt Yvonne Hofstetter. „Der Staat wird repressiver werden – überall.”

In Deutschland gibt es beim Datensammeln zwei Unterschiede zwischen Konzernen und dem Staat. Der erste Unterschied ist, dass der Staat nicht so viele Daten sammeln darf wie die Konzerne. Er kann nicht einfach Datenbanken anlegen und alles, was seine Behörden an Informationen zusammengesucht haben, darin auflisten und durchsuchbar machen. Das würde gegen das Gesetz verstoßen. Zumindest in den meisten Fällen.

In den letzten drei Jahren sind in Deutschland verschiedene Gesetze verabschiedet worden, die das Anlegen von Datenbanken und den Zugriff auf sie für die Behörden erleichtern.

Das „Datenaustauschverbesserungsgesetz“ vom Februar 2016 ermöglicht es dem BKA, automatisiert auf die Daten aller in Deutschland lebenden Ausländer zuzugreifen. Das „Fluggastdatengesetz“, das im Juni 2017 verabschiedet wurde, sieht vor, dass fortan alle erhebbaren Daten von Fluggästen – inklusive Reiseverlauf, Namen von Mitreisenden und Gepäckangaben – in einer zentralen Datei gespeichert und durchsuchbar gemacht werden. Damit soll, so steht es in dem Gesetz, die Suche nach „Mustern“ in den Daten ermöglicht werden. Und mit dem „Gesetz zur Förderung des elektronischen Identitätsnachweises“ dürfen Geheimdienste und Polizeibehörden seit dem Juli 2017 automatisiert die Passbilder aller Bundesbürger durchsuchen und abrufen.

Der zweite Unterschied zwischen den Konzernen und dem Staat ist, dass der Staat die Informationen, die die Konzerne gesammelt haben, einsehen kann, wenn seine Behörden gegen eine Person ermitteln.


Durchschnittlich fünf Telefonanschluss-Überwachungen pro Stunde schaltete die Deutsche Telekom im Jahr 2016.
Quelle: Transparenzbericht der Deutschen Telekom

Viele Konzerne veröffentlichen seit einigen Jahren „Transparenzberichte“. Darin legen sie offen, wie oft sie ihre gesammelten Daten zu einer Person an die Polizei, den Verfassungsschutz oder andere Behörden weitergegeben haben.

Behördliche Auskunftsersuche an Google und Facebook

In Bayern hat die Landesregierung Ende Januar einen Gesetzesentwurf vorgelegt, nach dem „öffentliche und nichtöffentliche Stellen“ – also auch Konzerne wie Google und Facebook – verpflichtet werden können, der Polizei ihre Informationen über ganze Gruppen von Personen zur Rasterfahndung bereitzustellen. Zudem soll die Polizei mit dem Entwurf die Erlaubnis bekommen, auch friedliche Demonstrationen zu filmen und dabei „Systeme zur automatischen Erkennung und Auswertung von Mustern, bezogen auf Gegenstände und das Verhalten von Personen“ einzusetzen. Und: Die Polizei soll die Daten von Menschen online einsehen – und eigenständig verändern dürfen. Anfang Februar wurde der Gesetzesentwurf das erste Mal im Landtag diskutiert. Dass er abgelehnt wird, ist unwahrscheinlich.

Intelligente Videoüberwachung, mehr Befugnisse für den Verfassungsschutz, internationale Vernetzung von Datenbanken: Was plant die große Koalition im Bereich der „Sicherheitsarchitektur“ für die nächste Legislaturperiode?

Mehr Lesen
...

Sicherheitsarchitektur / Operative Fähigkeiten

Wir wollen keine Zonen unterschiedlicher Sicherheit in Deutschland. Dazu gehört die Erarbeitung eines gemeinsamen Musterpolizeigesetzes (gemäß Innenministerkonferenz-Beschluss).

Wir werden uns dafür einsetzen, dass die Bundespolizei bundesweit im Rahmen der bestehenden Zuständigkeiten und Aufgaben eingesetzt wird, so auch zur Bekämpfung von Straftaten an Kriminalitätsschwerpunkten wie z. B. Bahnhöfen, insbesondere von Alltagskriminalität. Die Bereitschaftspolizeien der Länder sowie des Bundes sind eine tragende Säule der inneren Sicherheit und sehen sich einer erhöhten Einsatzbelastung flächendeckend ausgesetzt. Die erforderliche Verbesserung der Ausstattung wird intensiviert.

Die Menschen sollen sich auf unseren Straßen und Plätzen sicher bewegen können. Deshalb wollen wir die Videoüberwachung an Brennpunkten einsetzen, sie verhältnismäßig und mit Augenmaß effektiv ausbauen und dabei auch technisch verbes sern. Intelligente Videoüberwachung kann dabei eine Weiterentwicklung sein. Deswegen werden wir den laufenden Modellversuch abwarten, prüfen und bewerten.

Private Sicherheitsbetriebe leisten einen wichtigen Beitrag zur Sicherheit. Durch die Neuordnung der Regelungen für das private Sicherheitsgewerbe in einem eigenständigen Gesetz werden wir die Sicherheitsstandards in diesem Gewerbezweig verbessern und so für noch mehr Sicherheit und Verlässlichkeit sorgen.

Bei der Bekämpfung des Terrorismus wollen wir im Rahmen eines zeitgemäßen und effektiven Rechts gemeinsame Standards, verbindlichen Umgang, einheitliche Praxis und klare Zuständigkeitsregelungen. Die Standorte der Bundessicherheitsbehörden sollen bestehen bleiben. Das Gemeinsame Terrorismusabwehrzentrum (GTAZ) werden wir gemeinsam mit den Ländern als Kooperations- und Kommunikationsplattform so weiterentwickeln, dass dort Informationen reibungsloser ausgetauscht und verbindliche Absprachen auch zur Bearbeitung des Einzelfalls getroffen werden.

Zur Verbesserung der Sicherheit in unserem Land wird das Bundesamt für Verfassungsschutz (BfV) im Bereich der zentralen Auswertung und Analyse in Angelegen heiten des islamistischen Terrorismus sowie bei länderübergreifenden extremistischen Phänomenen von bundesweiter Bedeutung seine Steuerungsfunktion ver stärkt wahrnehmen, auch bei solchen, die zunächst keinen unmittelbaren Gewaltbezug aufweisen. Aufgrund des ständigen technischen Fortschrittes und des damit einhergehenden personellen und finanziellen Ressourceneinsatzes soll das BfV als zentrale Servicedienststelle für den Einsatz operativer Technik im Verbund gestärkt werden. Zudem wollen wir die Befugnisse des Verfassungsschutzes des Bundes und der Länder vereinheitlichen, insbesondere bei der Datenerhebung und Datenspeicherung. Zu diesem Zwecke werden wir das Bundesverfassungsschutzgesetz auf Grundlage eines einheitlichen Rechtsrahmens der Innenministerkonferenz novellieren. Wir sind uns bewusst, dass auch maßvolle und sachgerechte Kompetenzerweiterungen des BfV eine gleichzeitige und entsprechende Ausweitung der parlamentarischen Kontrolle erfordern.

Wir haben in der vergangenen Wahlperiode die gesetzliche Grundlage für eine effektivere Kontrolle der Nachrichtendienste geschaffen. Die Bundesregierung wird diese Kontrolle durch eine umfassende Wahrnehmung der Unterrichtungs- und Vorlagepflichten gegenüber den gesetzlich vorgesehenen Kontrollorganen unterstützen.

Wir werden die europäische Sicherheitskooperation unter Einbeziehung und Stärkung internationaler und europäischer Organisationen (Europol, Interpol, Europäische Staatsanwaltschaft) verbessern und vertiefen. Ziel muss es sein, durch strukturelle Maßnahmen und mit einer leistungsfähigen IT-Struktur sicherzustellen, dass Straftäterinnen und Straftäter sowie Gefährderinnen und Gefährder überall in Europa identifiziert und relevante Erkenntnisse ausgetauscht werden können. Zu diesem Zwecke werden wir auf eine effektive Vernetzung und Verbesserung der für die Sicherheitsbehörden relevanten Datenbanken hinwirken. Den Informationsaustausch und die Koordinierung von präventiven und operativen Maßnahmen zwischen den EU-Mitgliedstaaten bei Europol im Rahmen des „European Counter Terrorism Center“ und auch die internationale Zusammenarbeit, u. a. im Rahmen von Interpol, wollen wir intensivieren und verbessern. Wir wollen dabei in Absprache mit den Ländern auch die europäische und internationale Zusammenarbeit bei der Bekämpfung der organisierten Kriminalität intensivieren und ebenso die Bekämpfung der Organisierten Kriminalität beim Bundeskriminalamt stärken, um etwa organisierten Einbrecherbanden noch besser zu begegnen.

Wir bekennen uns zum deutschen Engagement in internationalen Polizeimissionen. Wir werden Möglichkeiten finden, dies auszubauen, etwa durch Einrichtung eines Stellenpools für Auslandsverwendungen und Polizeimissionen.

Befugnisse

Die Sicherheitsbehörden brauchen gleichwertige Befugnisse im Umgang mit dem Internet wie außerhalb des Internets. Das bedeutet im Einzelnen: Es darf für die Befugnisse der Polizei zu Eingriffen in das Fernmeldegeheimnis zum Schutz der Bevölkerung keinen Unterschied machen, ob die Nutzer sich zur Kommunikation der klassischen Telefonie oder klassischer SMS bedienen oder ob sie auf internetbasierte Messenger-Dienste ausweichen. Die Zusammenarbeit von Bund und Ländern bei der Cyberabwehr soll ausgebaut, verbessert und strukturell neu geordnet werden. Die Rolle des Bundesamts für Sicherheit in der Informationstechnik (BSI) wird gestärkt.

Wo Strafbarkeitslücken bestehen, werden wir eine Strafbarkeit für das Betreiben krimineller Infrastrukturen einführen, um speziell im Internet eine Ahndung von Delikten wie z. B. das Betreiben eines Darknet-Handelsplatzes für kriminelle Waren und Dienstleistungen einzuführen.

Wir wollen Angriffe aus dem Cyberraum gegen unsere kritischen Infrastrukturen abwehren und verhindern.

Wir wollen die Sicherheitsbehörden bei der Verfolgung und Prävention von Cyberkriminalität durch die Schaffung notwendiger rechtlicher, organisatorischer sowie technischer Rahmenbedingungen stärken.

Wir wollen, dass die Sicherheitsbehörden ihre bestehenden Befugnisse auch in der digitalen Welt anwenden und tatsächlich durchsetzen können.

Wir werden einen neuen Verlusttatbestand in das Staatsangehörigkeitsgesetz einfügen, wonach Deutsche, die eine weitere Staatsangehörigkeit besitzen, die deutsche Staatsangehörigkeit verlieren können, wenn ihnen die konkrete Beteiligung an Kampfhandlungen einer Terrormiliz im Ausland nachgewiesen werden kann.

...

Quelle: Koalitionsvertrag zwischen CDU, CSU und SPD (7. Februar 2018)

Transparenz:
Wenn es um Daten geht, ein schwieriges Thema.

Auf einer Skala von eins bis neun: Wie risikofreudig bin ich? Sieben, findet mein Freund. Sieben, findet Precire. Und wie verträglich, also höflich und meinungskonform? Drei, sagt mein Freund. Drei, sagt Precire.

Kontaktfreude: Sieben. Statusorientierung: Vier. Mein Charakter, wie ihn Precire sieht. Quelle: Precire

Mein Freund kennt mich seit acht Jahren. Precire kennt nur meine Stimme.

Precire ist ein Programm zur Stimmanalyse. Eine künstliche Intelligenz. Fünfzehn Minuten haben wir miteinander telefoniert, Precire und ich. Precire hat mir Fragen gestellt, nach meinem letzten Wochenende, nach meinem typischen Sonntag und ich habe geantwortet. Dann hat Precire meine Stimme genommen, sie in ihre Bestandteile zerlegt und eine halbe Million Parameter identifiziert: meine Sprechgeschwindigkeit, meine Quote an positiv konnotierten Wörtern, die Länge meiner Sprechpausen.

Aus diesen Parametern hat Precire meine Persönlichkeit berechnet. Wie neugierig ich bin (9), wie organisiert (4) und wie stark ich zur Überarbeitung neige (8). Zur Überprüfung bitte ich meinen Freund, mir in den gleichen Kategorien Punkte zu geben. Mehr als zwei Punkte Unterschied zwischen seiner und Precires Einschätzung gibt es kein einziges Mal.

In der Wirtschaft kommt Precire bei Personalgesprächen zum Einsatz. Statt mit dem zukünftigen Chef sprechen Bewerber bei den Firmen, die das Programm nutzen, mit der künstlichen Intelligenz. Und die entscheidet: Passt die Persönlichkeit des Bewerbers zu der ausgeschriebenen Stelle?

Was hat meine Sprechgeschwindigkeit mit meiner Risikobereitschaft zu tun?

Sogar die eigene Verausgabungs­bereitschaft will Precire aus der Stimme ablesen können. Quelle: Precire

Dr. Dirk Gratzel, Gründer und Geschäftsführer von Precire Technologies, kann mir das so genau auch nicht sagen. Aber er kann mir erklären, wie Precire zu seiner Einschätzung über meinen Charakter gekommen ist: Er und seine Kollegen haben das System mit Tausenden Stimmen von Menschen gefüttert, deren Persönlichkeit sie zuvor untersucht hatten. In diesen Angaben hat Precire nach Mustern gesucht: Gibt es einen Zusammenhang zwischen einer Risikobereitschaft von 9 und einer bestimmten Art zu sprechen? „Wenn man über Hunderttausende von Merkmalen betrachtet, unterscheidet sich die Sprache von Menschen, die risikobereit sind, fast gar nicht von der jener, die es nicht sind“, sagt Gratzel. „Aber eben nur fast.“

Nach diesen kleinen Unterschieden, den „Clustern“, die nur risikobereite Menschen in ihrer Stimme haben, sucht Precire. Eigenständig. „Unüberwachtes Lernen“ wird das genannt: Wenn eine künstliche Intelligenz selbstständig Muster in Datenmengen findet und neue Informationen – wie meine Stimme – dann anhand dieser selbst gefundenen Muster einsortiert. Das heißt: Nur Precire weiß, welcher Teil meiner Stimme dazu geführt hat, dass ich für das System als risikobereit gelte.

Was ist Künstliche Intelligenz? Interview mit Andreas Dengel

Künstliche Intelligenz spielt in der Datenverarbeitung eine immer größere Rolle. Aber was genau ist Künstliche Intelligenz eigentlich? Ein Gespräch mit Professor Andreas Dengel vom Deutschen Forschungszentrum für Künstliche Intelligenz über lernende Maschinen und die Fähigkeit, einen süßen von einem bedrohlichen Hund zu unterscheiden.

Mehr Lesen
Herr Dengel, in den letzten Wochen bin ich in meiner Recherche immer wieder auf Systeme zur Datenverarbeitung gestoßen, die mit Künstlicher Intelligenz funktionieren. Teilweise haben die sehr unterschiedlich funktioniert. Was ist denn nun eigentlich gemeint, wenn von „Künstlicher Intelligenz“ gesprochen wird?
Das ist keine ganz einfache Frage. Um sie klar beantworten zu können, müsste man erst einmal damit anfangen, zu definieren, was eigentlich Intelligenz ist. Aber schon davon gibt es keine einheitliche Definition.
Auf jeden Fall ist Intelligenz mehr als eine algorithmische Vorschrift, die Rechenschritte in einer bestimmten Reihenfolge durchführt. Menschen handeln meist rational, entscheiden aber nicht selten auch auf Grundlage von Bauchgefühl. Gerade letzteres lässt sich nicht auf einen Computer übertragen, die berechenbaren Aspekte der Intelligenz dagegen schon.

Das heißt, was der Künstlichen Intelligenz fehlt, ist das Bauchgefühl?
Gewissermaßen. Gefühle oder Meinungen lassen sich lediglich simulieren. Eine KI empfindet subjektive Eindrücke natürlich nicht. Aber sie kann lernen, danach zu handeln. Sie kann erlernen, welche Eindrücke beim Menschen subjektive Empfindungen bzw. Emotionen auslösen. Beispielsweise, was einen süßen Hund von einem bedrohlichen Hund unterscheidet.

Das heißt, wenn Systeme die Daten, die über mich gesammelt wurden, verarbeiten und damit zu Schlüssen über meine Persönlichkeit kommen, dann ist das Künstliche Intelligenz?
Teilweise. Man muss da immer differenzieren – jedes Unternehmen hat seine eigene Art der Datenverarbeitung. Zum Teil wird auch mit klassischen Algorithmen gearbeitet, also reinen Verarbeitungsvorschriften, die wie ein Kochrezept gestrickt sind: Nimm das ..., dann mache die folgenden Schritte. Aber ja, es bewegt sich sehr viel in der KI, besonders im Bereich des sogenannten Maschinellen Lernens.

Was ist denn Maschinelles Lernen?
Es gibt verschiedene Varianten von Maschinellem Lernen: Zwei typische sind überwachtes und unüberwachtes Lernen. Überwachtes Lernen funktioniert wie in einem Lehrer-Schüler-Verhältnis: Die Zielstellung, was das System lernen soll, ist vorgegeben. Man kann sich beispielsweise vorstellen, dass das System lernen soll, eigenständig Katzen zu erkennen. Man zeigt ihm dann immer wieder Bilder und das System sagt: „Ist eine Katze“ oder: „Ist keine Katze“. Wenn es falsch liegt, korrigiert man es. Dadurch lernt es dazu. Die Gesichtserkennung in Videos ist also eine Form von überwachtem Lernen.

Auf diese Art kann das System dann also lernen herauszufinden, ob es eher einen süßen oder einen bedrohlichen Hund vor sich hat?
Ganz genau. Und das, obwohl es dieses spezifische Bild von einem Hund noch nie vorher gesehen hat.

Und was ist dann unüberwachtes Lernen?
Beim unüberwachten Lernen ist die Zielstellung nicht vorgegeben. Man gibt dem System einfach eine große Menge an Daten – und es sucht dann selbstständig darin nach Auffälligkeiten. So kann ein System beispielsweise Menschen auf Grundlage von Daten über das Kaufverhalten eigenständig in verschiedene Käufergruppen einteilen.

Weil es eigenständig erkennt, dass eine bestimmte Automarke hauptsächlich von Männern zwischen 30 und 40 gekauft wird?
Zum Beispiel. Aber es gibt auch noch andere Formen, die in der Forschung immer mehr Beachtung finden. Beim sogenannten bestärkenden Lernen lernt das System eigenständig eine Strategie, ausschließlich, indem man ihm sagt, dass es etwas richtig oder falsch gemacht hat. Das wird besipielsweise im Gaming-Bereich viel gemacht: Am Anfang verliert das System immer wieder. Und jedes Mal, wenn es verloren hat, entwickelt es eine neue Strategie und probiert diese aus, bis es die ideale Strategie gefunden hat.

Ist es das, was beispielsweise Facebook macht, wenn es aus meinen Likes ausrechnet, welche Werbung in meiner Timeline angezeigt werden soll?
Unter anderem. Facebook verwendet beides: sowohl klassische algorithmische Verfahren als auch verschiedene Varianten des maschinellen Lernens. Bei Facebook sind diese beiden Varianten miteinander verknüpft. Das sind sehr komplexe Systeme, die Modelle mit hochdimensionalen Datenräumen verknüpfen. Wenn Facebook in einem solchen Zusammenhang behauptet, der Algorithmus sei schuld an diesem oder jenem Ergebnis, sie könnten da nichts dafür, dann sollte jeder wissen, dass Algorithmen von Menschen programmiert sind. Das heißt, es sind auch Menschen dafür verantwortlich, wie der Algorithmus arbeitet und was für ein Ergebnis er am Ende ausspuckt.

Ein anderer Begriff, von dem man immer wieder liest, ist „Deep Learning“. Was ist das denn nun wieder?
Deep Learning ist ein maschineller Lernansatz. Der befasst sich mit der Simulation neuronaler Strukturen und ihrer Form der Informationsverarbeitung auf einem Computer. Man kann sich das so vorstellen: Wir Menschen haben beispielsweise Sehzellen. Mit denen erfassen wir visuelle Eindrücke, etwa im Urlaub, und geben sie an unser Gehirn weiter. Dort werden sie interpretiert und gespeichert. Später, bei einem bestimmten Impuls von außen, wenn uns jemand fragt „Wie war’s im Urlaub?“, kann unser Gehirn die Bilder wieder abrufen und sich erinnern. Tief bedeutet in diesem Zusammenhang, dass man viele Schichten neuronaler Strukturen verknüpft, um sehr viele Informationen zu speichern.

Und diesen Vorgang kann man künstlich simulieren?
Genau. Dazu konstruiert man ein sogenanntes „künstliches neuronales Netzwerk“ auf dem Computer. Das System bekommt beispielsweise Bilder mit vielen Gesichtern und Namen dazu gezeigt. Es lernt eigenständig, was die typischen Merkmale jeder Person sind und kann sich dann an diese erinnern, wenn es wieder ein anderes Bild einer bereits bekannten Person sieht.

Ganz schön kompliziert…
Ja, KI ist vielfältig. Sie beeinflusst immer mehr unsere Arbeits- und Lebenswelten und ist längst vom revolutionären Ansatz zu einer Form der evolutionären Mensch-Maschine-Symbiose übergegangen.

Yvonne Hofstetter sagt, das Problem sei, dass man sich gegen Kategorisierungen, über die eine künstliche Intelligenz entschieden habe, nicht wehren könne. Wie soll man beweisen, dass das System falsch liegt, wenn man nicht einmal weiß, wie es zu seinen Ideen kommt?

„Komplett falsch liegt Precire nie“, sagt Dirk Gratzel. „Wenn das System sagt, Sie seien sehr risikobereit, dann sind Sie es vielleicht situativ ein bisschen weniger oder ein bisschen mehr – aber nicht gar nicht.“

Sprachanalyse wird nicht nur für Bewerbungsgespräche genutzt. In der Medizin, erzählt Gratzel, wird aktuell daran geforscht, Demenz, Alzheimer und Parkinson anhand der Stimme von Patienten zu erkennen. Durch medizinisch fundierte Stimm- und Sprachanalyse, sagt Gratzel, könne Parkinson bereits erkannt werden, noch bevor sich erste Veränderungen im Gehirn gebildet haben. Unter Umständen Jahre, bevor ein Arzt die Krankheit mittels MRT diagnostizieren könnte. Und weil die Stimme eines Menschen unverwechselbar ist, zumindest für ein System wie Precire, interessieren sich auch Geheimdienste für Sprachanalyseprogramme.

Ich wüsste gerne, was Precire seit unserem Gespräch noch alles über mich weiß. Ich glaube nicht, dass ich es jemals herausfinden werde.

„Informationelle Selbstbestimmung“:
Ein juristischer Begriff. Zwei Monate habe ich versucht herauszufinden, wer welche Daten über mich verwendet, speichert und weitergibt. Genau weiß ich es immer noch nicht.

Daten versprechen Kontrolle. Für den, der mehr weiß, als alle anderen. Gewissermaßen ist der Kampf um die Informationen ein Wettrüsten.

Am Ende meiner Recherche sieht mein Computer anders aus als früher. Ich habe startpage.com statt Google als Startseite eingestellt, Cookies von Drittanbietern blockiert, Tor heruntergeladen. Ich habe aufgerüstet.

Ob das reicht?

Online-Selbstschutz

Cookies
Fast jede Homepage nutzt Cookies. Cookies sind kleine Textdateien, die Homepages auf den Computern ihrer User ablegen. Wird die Seite erneut aufgerufen, übermittelt der Computer die Textdatei an die Homepage zurück, die den Benutzer dadurch erkennt.
Die sog. „Session Cookies“ dienen dabei dazu, Nutzer innerhalb einer Online-Session wiederzuerkennen, sodass man sich nicht jedes Mal neu einloggen muss.

Es gibt jedoch auch „Tracking Cookies“: Ist auf einer Homepage ein Werbebanner eingebunden, legt dieses Banner einen solchen Cookie auf dem Computer ab. Diese Tracking-Cookies werden genutzt, um dem User durchs Netz zu folgen, sein Surfverhalten zu analysieren und seine Interessen auszuforschen. So trackt zum Beispiel Google bereits mehr als 60% aller Seitenaufrufe:

Unternehmen, die den Internetverkehr tracken, nach Reichweite ihres Trackings
Basierend auf dem Surfverhalten von 200.000 deutschen Firefox-Nutzern
Grafik: F.A.Z. / Quelle: Statista, Cliqz


Unter den „Sicherheit und Datenschutz“-Einstellungen lassen sich Cookies auf den meisten Browsern blockieren oder löschen. Hat man Cookies vollständig blockiert, können allerdings Fehler auftreten. Deswegen sind folgende Einstellungen empfehlenswert:

  1. 1. Standardmäßig wird die Annahme von Cookies verweigert.
  2. 2. Für vertrauenswürdige Websites, die die Nutzung von Cookies zur vollen Funktion benötigen, werden Ausnahmen zugelassen.
  3. 3. Alle gespeicherten Cookies werden beim Schließen des Browsers automatisch gelöscht.
Für Firefox-Nutzer empfiehlt sich das Add-On „Cookie Controller“.


EverCookies
Immer mehr Menschen blockieren die Nutzung von Cookies. Tracking-Dienste versuchen, mit erweiterten Markierungen, die als EverCookies bezeichnet werden, dagegen vorzugehen. EverCookies werden zusätzlich zum Tracking-Cookie im Browser gespeichert und können gelöschte TrackingCookies wieder herstellen.

Um EverCookies zu entgehen, empfiehlt sich das Browsen im „Privaten“ oder „Incognito-Modus“. Weil EverCookies mit Hilfe eines Scripts gespeichetr werden, emphielt sich die Nutzung eines Plug-Ins wie „No Script“ (Firefox) oder „Script Safe“ (Google Chrome). Mit ihnen kann man die Ausführung von Javascript kontrollieren.

Auch hier empfiehlt sich, eine Liste mit vertrauenswürdigen Websites anzulegen, denen die Benutzung von Javascript erlaubt wird – und es für alle anderen Homepages zu blockieren.

Suchmaschinen
Suchmaschinen wie Google und Yahoo merken sich die Daten ihrer Nutzer, um ihnen personalisierte Ergebnisse anzuzeigen. Es gibt jedoch auch Suchmaschinen, die versuchen, die Privatsphäre ihrer Nutzer stärker in den Vordergrund zu stellen.

Suchmaschinen mit eigenem Index
Duckduckgo.com
Qwant.com

Meta-Suchmaschinen (leiten die Suchanfragen anonymisiert an große Suchmaschinen weiter. Startpage beispielsweise bietet einen privacy-freundlichen Zugriff auf Google).
startpage.com
Unbubble.eu

Tor
Der Anonymisierungsdienst Tor verwischt Spuren, die Nutzer beim Surfen im Netz hinterlassen und anonymisiert den Datenverkehr. Inzwischen gibt es Tor auch für das Handy.

Berichten von NDR und WDR zufolge hält die US-Regierung alle Nutzer von Tor für „Extremisten“ und speichert sie in einer speziellen Datenbank. Besonders in Staaten mit starker Internetzensur spielt der Tor-Browser eine wichtige Rolle für Journalisten, Aktivisten und Regierungskritiker.
Tor-Browser-Paket

Weitere Selbstschutz-Tools
Die Seite prism-break.org sammelt hilfreiche Tools und Programme, um der Überwachung im Internet zu entgehen.

Text und Recherche: Laura Meschede
Layout und Infografik: Jens Giesel
Animation: Carsten Feig

Quelle: FAZ.NET