Regeln für die digitale Welt

Holt euch die Macht zurück!

Von Constanze Kurz und Frank Rieger
 - 22:32

Geheimdienstauswerter kennen drei grobe Kategorien von Material: „Data“, „Information“ und „Intelligence“. „Data“ sind die Rohdaten, etwa Metadaten und Telefonprotokolle aus Abhörsystemen, Suchbegriffe der Internetnutzung, Webseitenbesuche, Lokationsdaten der Mobilfunknetze, Kreditkartenabrechnungen und Kontodaten, Datenbanken der Grenzübertritte, Flugbuchungen und all die digitalen Spuren, die wir nebenbei hinterlassen, während wir unserem Alltag nachgehen.

Aus diesen Rohdaten, den Trillionen Bits der Überwachungssysteme, wird die zweite Kategorie „Information“ destilliert, etwa, dass sich jemand zu einer bestimmten Zeit an einem bestimmten Ort aufhält oder sich für ein bestimmtes Thema interessiert. Für sich genommen ist diese Information meist wenig wert. Wird sie jedoch in einen Kontext gesetzt, etwa mit Archivbeständen und Informationen über andere Menschen und Ereignisse, wird daraus die dritte Kategorie „Intelligence“. Sie ist definiert als Informationen, die „actionable“ sind, aus denen sich also Handlungen und Anhaltspunkte für Einflussnahmen ableiten lassen, etwa Erpressung oder Infiltration.

Diese Betrachtungs- und Arbeitsweise findet sich so oder ähnlich fast überall, wo Daten verarbeitet werden. Egal, ob in den Datenkatakomben eines Geheimdienstes oder in den Algorithmen, die einem Smartphone-Nutzer möglichst zielgerichtete Werbung zustellen wollen: Immer gibt es die Destillationskette, mit der aus den digitalen Lebensspuren, die wir überall hinterlassen, Sinn, Bedeutung, Handlungen werden.

Haftungsregeln, Transparenz, Verantwortung

Aus Syntax soll Semantik werden - zunehmend mit Hilfe von Algorithmen mit „künstlicher Intelligenz“. Hier liegt das Problem des derzeitigen Datenschutzansatzes. Natürlich ist es richtig, zuerst zu versuchen, die Speicherung und Nutzung der Rohdaten zu begrenzen, schon allein um durch den dadurch entstehenden „Sand im Getriebe“-Effekt mehr Zeit zum Nachdenken und Entwickeln neuer Umgangswege mit der digitalen Allgegenwärtigkeit zu gewinnen. Was sich zeigt, ist aber: Es wäre fatal und kurzsichtig, hier stehenzubleiben. Wir müssen den nächsten Schritt gehen und die Datendestillationskette in die Betrachtung einbeziehen. Doch wie ist hier regulierend einzugreifen?

Aus der Geschichte können wir lernen, dass es erfolgversprechend ist, bestimmte Technikanwendungen und ihre Auswirkungen dadurch zu regulieren und zu beschränken, dass Haftungsregeln eingeführt werden, für Transparenz dessen gesorgt wird, was technisch geschieht oder unterbleibt, und die klare Benennbarkeit von Verantwortlichen erzwungen werden kann. Damit lässt sich Trends entgegenwirken, die zur Bildung von Monopolen oder Oligopolen führen und wodurch bereits bestehende daran gehindert werden, sich weiter zu etablieren.

Auch negative Szenarien müssen bedacht werden

Spezifische Technologien rein technisch zu regulieren gelingt nur selten, etwa wenn sie auf schwer herzustellende Materialien angewiesen sind oder nur Nischenmärkte betreffen - etwa im Bereich von Atomwaffen. Wenn es an die Folgen von Technik für die Gesellschaft, das Zusammenleben, die Märkte und die Struktur der Wirtschaft geht, hat der Gesetzgeber kaum eine andere Chance, als sich den Folgen bestimmter Anwendungen zum Zeitpunkt kurz nach ihrer Entstehung zu widmen. So ist es etwa wenig sinnvoll, Gen-Analysen prinzipiell zu verbieten, also unabhängig davon, welche Anwendungen entstehen werden. Sinnvoll ist hingegen, die Verwendung der Informationen daraus eng zu regulieren. Ein ähnlicher Ansatz ist wohl der einzige langfristig erfolgversprechende Weg, mit den Herausforderungen von Big Data, Künstlicher Intelligenz und Artverwandtem umzugehen.

Wichtig ist nicht nur, welche Daten gesammelt und verwendet werden oder wie genau die Strukturen der Verarbeitung aussehen. Wichtig ist vor allem, was dabei für oder gegen den Betroffenen geschieht oder geplant ist. Es ist unabdingbar, auch die Möglichkeitsräume, die sich aus Datenbeständen und heutigen und zukünftigen Technologien ergeben, in regulatorische Überlegungen einzubeziehen. Sich einreden zu lassen, es wäre unmodern und per se fortschrittsfeindlich, auch über negative Szenarien nachzudenken, ist nicht nur unverantwortlich, sondern vor allem kurzsichtig.

Im Ernstfall sind die Institutionen fragil

Unverantwortlich ist es auch, sich auf die derzeit gern ausprobierte Denkart im NSA-Stil einzulassen, die salopp formuliert lautet: „Wir zapfen zwar alle Daten an, aber wir schauen nur selektiv hinein, deswegen ist das nicht schlimm.“ Denn sind die Daten einmal gehortet, die Infrastrukturen installiert, die zur digitalen Gewaltausübung notwendigen Mechanismen etabliert, ist die Machtbalance unwiderruflich verschoben.

Gern wird dabei das staatliche Gewaltmonopol angeführt, das in den europäischen Demokratien nur selten missbraucht würde. Der gravierende Unterschied in der virtuellen Welt ist, dass digitalen Technologien inhärent ist, dass ihr Missbrauch nur wenig Personal erfordert, dessen Gewissen ruhiggestellt werden muss. Eine Armee ihr Volk niederknüppeln zu lassen ist ungleich schwerer, als eine Handvoll Techniker dazu zu bewegen, ein paar Zeilen in der Konfiguration eines Überwachungs- oder Zensursystems zu ändern.

Seit Orbáns neuem Ungarn wissen wir, dass heute ein faktischer Systemwechsel auch im sicher geglaubten Europa schnell geschehen kann und wie fragil die Institutionen der Demokratie im Ernstfall sind. Je mehr Werkzeuge installiert sind, die demokratische Machtkontrolle, Transparenz und Widerstand gegen totalitäre Veränderungen verhindern können, desto größer wird die Fallhöhe. Und es geht nicht nur um staatliche Institutionen.

In obskuren technischen Gremien

Die kommerziellen Auseinandersetzungen im Technologiebereich finden zunehmend auf der Basis von Strategien statt, die die Einbindung in sogenannte „Ökosysteme“ zum Ziel haben. Die sichtbarsten Konflikte toben derzeit im Mobilbereich: Apple vs. Google. Die Gräben sind mittlerweile so tief, dass Apple etwa keine Apps für seine iOS-Geräte in seinem Monopol-Appstore akzeptiert, wenn sich darin auch nur der Hinweis darauf findet, dass es auch noch eine Version für Googles Android-Universum gibt. Der Nutzer soll sich für eines der Fürstentümer entscheiden, ihm möglichst alle seine Daten anvertrauen und sein Geld nur diesem Fürsten geben. Dafür wird ihm problemloses Funktionieren und Schutz vor der Unbill der digitalen Welt versprochen.

Die europäischen Monopol- und Kartellgesetze sind offenkundig nicht gemacht für diese neue Welt. Und doch brauchen wir Regeln, die den Einzelnen schützen, ohne ihn unnötig zu bevormunden. Wenn man ein wenig vorausblickt in die derzeit vielbeschworene Welt des „Internet of Things“, in der jeder Alltagsgegenstand vernetzt ist und Daten ohne Unterlass in die Cloud sprudeln, wird schnell klar, dass der Markt allein es nicht richten wird.

Viele der Auseinandersetzungen um die neu abzusteckenden Terrains finden in obskuren technischen Gremien statt, in denen europäische Firmen oft nur kleine Spieler sind. Dort bilden sich Koalitionen von Unternehmen, die sich um verschiedene Standards scharen - etwa wie Gesundheitsdaten einheitlich gespeichert und verwertbar gemacht werden - in der Hoffnung, genügend kritische Masse zusammenzubringen, um ein eigenes Digital-Fürstentum zu gründen. Die Regeln und Optimierungskriterien, die in diesen Reichen gelten, werden erhebliche Relevanz für den Alltag bekommen. Sie allein dem Gutdünken der beteiligten Unternehmen zu überlassen, ist kaum weniger verantwortungslos als der reflexhafte Versuch, über staatliche Regulierung Abhörhintertüren in möglichst alle Produkte und technischen Standards zu bekommen.

Unabhängig von Behörden und Unternehmen

Nicht nur mit diesem Verhalten haben die Staaten und die europäischen Institutionen das Vertrauen in ihre digitalen Regulierungskompetenzen unterminiert. Überall in Europa hat sich die Politik durch ihre Nichtreaktion auf den NSA-Skandal und die Tolerierung des unverhohlenen „diese Möglichkeiten wollen wir auch!“-Gehabes der Geheimdienste als ungeeignet für das Management des Übergangs zur Digitalgesellschaft geoutet. Der Zeitpunkt könnte kaum ungünstiger sein, denn es geht regulatorisch sowohl um die Zukunft als auch um die schnöde Gegenwart.

Nach dem Vertrauenverlust kann die Aufgabe der EU und der Nationalstaaten daher nur sein, den Raum und die Finanzierung für neue, demokratisch kontrollierte Institutionen zu schaffen, die sich um die kritischen Detailaspekte des Digitalzeitalters kümmern. Dazu gehört zum Beispiel die Verwaltung der Schlüssel, mit denen zukünftig kontrolliert wird, welches Betriebssystem wir auf unseren Computern und Tablets nutzen können. Ganz offensichtlich will man diese Macht weder in den Händen von staatlich kontrollierten Behörden noch von Unternehmen wissen. Eine von beiden unabhängige Institution, die die Nutzerinteressen vertritt, muss her.

Nötiges Mittel des Machtausgleichs

Ein weiteres Feld, das einzelne Staaten und die EU nur anschieben und indirekt finanzieren, aber keinesfalls kontrollieren sollte, ist die Entwicklung von sicherer Software, die Quellcode-offen und generell offenen Standards verpflichtet ist. Unsere digitale Welt beruht - wie die NSA-Skandale und Hunderte Sicherheitsprobleme dieses Jahr gezeigt haben - auf allzu wackligen Fundamenten, die es zu stabilisieren und neu zu errichten gilt.

Die Privatsphäre als Schutzmittel des Einzelnen gegen übermächtige Entitäten - egal ob Staaten oder Unternehmen - muss ein inhärenter Bestandteil der digitalen Zukunft werden. Genauso gehört der Anspruch der Bürger auf wirksame Transparentmachung von mächtigen Organisationen - wiederum sowohl Firmen als auch nationale und europäische Behörden - als Mittel des Machtausgleichs tief in die neuen Systeme verankert.

Auch hier geht es immer um Macht

Nach einigen Jahren des Dilettierens und Probierens ist mittlerweile klar, dass das, was früher „Netzpolitik“ hieß, nur eine kleine Untermenge eines neuen Politikbereichs ist, der besser „Digitalpolitik“ heißen sollte und auch die althergebrachte Technologiepolitik umfasst. Es ist längst klar, dass die Digitalisierung und Vernetzung aller Bereiche des Lebens, Arbeitens, Wirtschaftens und Regierens dazu führt, dass Technologieaspekte in jedem Feld der Politik auftauchen.

Am Ende geht es auch in der Digitalpolitik immer um Macht. Wer darf die technischen, politischen und kommerziellen Regeln bestimmen, die Kriterien definieren, nach denen optimiert wird, und damit die Tendenzen und Ziele der Algorithmen vorgeben? Es sind nicht die Programmierer, es sind diejenigen, die sie beauftragen. Die Detailprobleme von technischen Standards, Urheberrecht, Netzneutralität oder Überwachung sind nur die Schlachtfelder, auf denen um die Herrschaft in der digitalen Welt von morgen gerungen wird. Eine europäische demokratische Digitalpolitik muss diese Machtfragen mit den Betroffenen transparent aushandeln.

Quelle: F.A.S.
  Zur Startseite
Ähnliche ThemenAppleGeheimdienst