<iframe title="GTM" src="https://www.googletagmanager.com/ns.html?id=GTM-WBPR4W&gtm_auth=3wMU78FaVR9TNKtaXLbV8Q&gtm_preview=env-23&gtm_cookies_win=x" height="0" width="0" style="display:none;visibility:hidden"></iframe>
Cybersicherheit

Warum wir KI nicht vertrauen sollten

EIN KOMMENTAR Von Sibylle Anderl
 - 14:19
Künstliche Intelligenz bietet vielversprechende Lösungen für Cybersicherheit. Ihr Einsatz birgt aber auch Gefahren.

Vertrauen ist ein leidiges Thema. Sobald wir mit anderen Menschen zu tun haben, können wir nicht ohne: Wenn man andere um Rat fragt oder sobald man auf fremde Hilfe angewiesen ist, muss man vertrauen können. Ganz zu schweigen von der umfassenden Arbeitsteilung, die unserer Gesellschaft zugrunde liegt. Aber, und das ist eine Binsenweisheit, Vertrauen bedeutet immer auch Gefahr. In Bezug auf Menschen lernen wir das schnell.

Im Umgang mit Maschinen sind wir dagegen in der Regel etwas gutgläubiger. Ganz besonders gilt das gegenüber jenen, die vorgeben, intelligent zu sein. Und damit ist gar nicht einmal gemeint, dass wir vertraulich mit Alexa plaudern und uns auf den Rat von Algorithmen verlassen, als folgten sie ausnahmslos und zuverlässig begrüßenswerten Motiven.

Wirklich bedenklich wird der Maschinenglaube, wenn wir der Künstlichen Intelligenz (KI) die Aufsicht über unsere kritische Infrastruktur, über Transportsysteme, Krankenhäuser, Energie- und Wasserversorgung übertragen. Das ist im Dienste der Internetsicherheit immer stärker der Fall – und grundsätzlich aus guten Gründen: Wenn Infrastruktur Cyberangriffen ausgesetzt ist, dann kann KI Selbsttests und Selbstreparatur der Software veranlassen, sie kann Reaktionen auf Angriffe dynamisch beantworten und das attackierte System widerstandsfähiger machen.

Dass wir trotz des Nutzens nicht zu viel Vertrauen in die KI setzen sollten, mahnen nun britische Wissenschaftler in „Nature Maschine Intelligence“. Der Grund: KI muss lernen, und wer lernen muss, kann durch manipulierte Beispiele in die Irre geführt werden. Das nutzen Hacker, indem durch das Einspeisen geringer Mengen fehlerhafter Trainingsdaten das Verhalten der KI manipuliert wird. Das Prinzip wird an einem im vergangenen Jahr veröffentlichten Beispiel deutlich: Eine Bilderkennungs-KI wurde da durch das Anbringen eines unscheinbaren Aufklebers dazu gebracht, Stoppschilder als Geschwindigkeitsbegrenzungsschilder zu interpretieren.

Problematisch ist solches möglicherweise fremd verursachte Fehlverhalten insbesondere, weil es schwer aufzudecken ist, der Intransparenz der KI sei Dank. Die britischen Wissenschaftler rufen daher zur Vorsicht auf. KI-Modelle sollten möglichst betriebsintern entwickelt werden, auf Angriffe hin trainiert und durch Klon-Systeme kontrolliert werden. Denn das, was daraus für uns folgen muss, kennen wir ja schon lange von unseren manipulierbaren und intransparenten Mitmenschen: Vertrauen ist gut, Kontrolle ist besser.

Quelle: F.A.Z.
Autorenbild/ Sybille Anderl
Sibylle Anderl
Redakteurin im Feuilleton.
Twitter
  Zur Startseite
Ähnliche ThemenIT-Sicherheit

Diese Webseite verwendet u.a. Cookies zur Analyse und Verbesserung der Webseite, zum Ausspielen personalisierter Anzeigen und zum Teilen von Artikeln in sozialen Netzwerken. Unter Datenschutz erhalten Sie weitere Informationen und Möglichkeiten, diese Cookies auszuschalten.