Fehlende Datensicherheit

Angriff mit dem Roboter

Von Constanze Kurz
 - 15:37

Ob es autonome Fahrzeuge sind, humanoid wirkende Assistenten, herumlaufende Spielzeuge oder Lieferdrohnen: 2017 wird das Jahr der Roboter. Die International Federation of Robotics (IFR) beziffert den Markt für Roboter aller Arten auf knapp fünfzig Milliarden Euro. Im Jahr 2016 wuchs er allein für industrielle Roboter um vierzehn Prozent, mit 290.000 neu installierten Systemen im letzten Jahr. Für die nächsten drei Jahre prognostiziert die IFR ein weiteres Wachstum von jeweils mindestens dreizehn Prozent.

Die Roboter werden mit uns kommunizieren, uns unterhalten, für und mit uns arbeiten, vielleicht werden sie uns in Zukunft sogar aus misslichen Lagen retten. Sie werden uns aber auch vor Probleme und ethische Dilemmata stellen. Ob wir wollen oder nicht: Wir werden uns mit Robotern mehr und mehr anfreunden müssen und sie in unsere Leben integrieren. Keine schlechte Idee also, dass auch IT-Sicherheitsexperten einmal ein Auge auf diese Systeme werfen.

Der Roboter als Killer

Denn anders als bei den sonstigen Computersystemen, die uns überall umgeben und deren Sicherheitsmacken viele als eine Art Naturgesetz hinnehmen, kann ein sabotierter oder böswillig übernommener mobiler Roboter physischen Schaden verursachen: Er besitzt Fortbewegungsmethoden, zuweilen Arme und Beine, aber auch Sensoren und bewegt sich außerhalb der virtuellen Welt. Ein autonom fahrendes Shuttle beispielsweise oder ein Lieferroboter, dessen Software manipuliert wird, könnte absichtlich auf Menschen zusteuern statt ihnen auszuweichen.

Erfolgreiche Tests in Dubai
Mit dem Drohnen-Taxi durch die Luft
© afp, afp

Wir kennen es aus jedem zweiten Science-Fiction-Film, in dem Roboter eine Rolle spielen: Bösewichter übernehmen die Kontrolle und programmieren die Maschinen in ihrem Sinne um. Selbst der menschlichste aller androiden Roboter - „Data“ aus Star Trek - wurde gleich mehrfach „umgedreht“ und beinahe als Killermaschine missbraucht.

Wandelnde Überwachungsmaschinen

Zieht man die altehrwürdigen Regeln von Isaac Asimov aus dem Jahr 1942 heran, verstößt der umprogrammierte „Data“ gegen das erste Prinzip, dass nämlich der Roboter kein menschliches Wesen verletzen soll. Auch mit Asimovs zweiter Regel, der zufolge einem Befehl unbedingt Folge zu leisten ist, sofern er nicht mit der ersten Maßgabe kollidiert, steht „Data“ in Konflikt. Aber Asimov hatte es auch noch nicht mit Hackern zu tun.

Neben den physischen Gefahren, die in Filmen gern aus dramaturgischen Gründen aufgegriffen werden, können Roboter auch zu praktischen Datendieben umfunktioniert werden: Mit all ihren Sensoren und Speichern und wegen ihrer Interaktion mit Menschen eignen sie sich gut als wandelnde Überwachungsmaschinen - zumindest in den Händen Böswilliger. Man kann auch ihre Aufträge sabotieren oder manipulieren und ihnen als fiesen Schabernack noch schlechte Manieren beibringen.

Simple Fehler

Für den kommerziellen Markt von Robotern sind das keine guten Aussichten. Die Firma Piaggio stellte soeben den Gepäckroboter „Gita“ vor, der geneigten Kunden selbsttätig folgen und ihnen etwa ihren Einkauf hinterhertragen soll. Dubai kündigte grade an, im Juli dieses Jahres die ersten Testroboter für den Lufttransport von Passagieren einsetzen zu wollen. Da kommt eine Diskussion um die IT-Sicherheit von Robotern ungelegen, denn mit Hacking oder Sabotage wollen die Anbieter sicher nicht in Verbindung gebracht werden.

Piaggio Gita
Der Einkaufsroller
© F.A.Z., Piaggio, F.A.Z., Piaggio

Zumal es oft nur simple Fehler sind: Wie der großflächige Ausfall der von Amazon betriebenen „Cloud“ in der letzten Woche deutlich macht, sollten Nutzer von Werkzeugen des „Internet of Things“ gar nicht erst anfangen, sich auf ihre nur vernetzt funktionierenden Alltagshelfer zu verlassen. Schon der schlichte Tippfehler eines Administrators kann die teuren Lebensgefährten in störenden, buchstäblich „hirnlosen“ Elektroschrott verwandeln.

Dutzende Schwachstellen

Jedes computergestützte System muss mit Fehlern und IT-Sicherheitsrisiken umgehen. Sie potenzieren sich immer dann, wenn viele solcher Systeme vernetzt sind und damit automatisch verwundbarer werden. Angenommen, ein Drittel der Menschen einer Großstadt haben nicht nur die Amazon-„Cloud“ in der Hosentasche, sondern besitzen vernetzte Gepäckroboter, die ihnen folgen oder den Hund Gassi führen. Wenn in ihnen ein Fehler oder eine Sicherheitslücke schlummert, die sie gleichzeitig lahmlegen würde, wäre der Ärger zwar groß, aber noch kein Desaster. Wenn jedoch plötzlich ein Roboter-Botnetz durch die Großstadt rollen würde, wären die Folgen wohl gravierender.

Daher wurden verschiedene der heutigen Roboter von IT-Fachleuten der Firma IOActive einem prüfenden Blick unterzogen. Sie brachten ohne viel Mühe fünfzig Schwachstellen zutage, die in einem jetzt veröffentlichten Bericht zusammengestellt sind. Betroffen sind vor allem die Kommunikationssysteme der Roboter, die Sicherheitslücken aufweisen, und die insgesamt in vieler Hinsicht fehlerhafte Verwendung von Verschlüsselungsmaßnahmen. Es handelt sich um Fehlerklassen, die auch in allen anderen informationstechnischen Systemen typisch sind.

Funktion vor Sicherheit

Die Ursachen sehen die IOActive-Forscher darin, dass in den Roboterlaboren Software und bestimmte Vorgehensweisen verbreitet sind, die wenig mit Sicherheit, sondern in erster Linie mit der Funktionalität der dort entwickelten Prototypen zu tun haben. Werden diese Prototypen dann zu marktfähigen Produkten, ähneln sie der Laborversion insofern, als dass IT-Sicherheit eben nicht von Beginn an im Fokus des Interesses stand. Daher sind hier häufig auch solche Sicherheitslücken zu finden, die in anderen IT-Industrien vor der Ausrottung stehen.

Wie es sich für gutwillige Hacker gehört, finden sich in dem IOActive-Bericht nur wenige technisch genaue Details zu den gefundenen Sicherheitslücken. Die IT-Experten zogen es offensichtlich vor, den betroffenen Herstellern zunächst Gelegenheit zu geben, ihre Löcher zu stopfen. Eine gutgemeinte Drohung konnten sie sich freilich trotzdem nicht verkneifen: „In einigen Monaten“ werden sie ihre Ergebnisse, inklusive der technischen Details, öffentlich machen. Es läuft gewissermaßen eine Gnadenfrist für die Roboter. Ist die aber um, muss man wohl darüber nachdenken, sie und ihre Akkus getrennt schlafen zu legen.

Quelle: F.A.Z.
  Zur Startseite
Ähnliche ThemenRoboter