<iframe src="https://www.googletagmanager.com/ns.html?id=GTM-WBPR4W&gtm_auth=3wMU78FaVR9TNKtaXLbV8Q&gtm_preview=env-23&gtm_cookies_win=x" height="0" width="0" style="display:none;visibility:hidden"></iframe>
Künstliche Intelligenz

Vorsicht vor der digitalen Weltpolizei

Von Christian Schwägerl
 - 13:26
zur Bildergalerie

Die Welt der künstlichen Intelligenz gilt als kalt und mechanisch. Binnen weniger Wochen hat sie aber gleich zweimal tiefes Mitleid erregt. Zum ersten Mal, als die amerikanische Firma Boston Dynamics ein Video ins Netz stellte, das einen humanoiden Roboter bei seinen ersten Gehversuchen im Freien zeigt. Der tollpatschig durch den Wald stapfende „Atlas“ lässt den Zuschauer wie automatisch mitfiebern. Und wenn später ein Mensch den Roboter mit einem Stock so fest schubst, dass er umkippt, dann liegen die Sympathien nicht unbedingt bei dem bewaffneten lebenden Finsterling, sondern bei seinem fragilen mechanischen Nachbild.

Die jüngste Welle von Mitgefühl löste „Tay“ aus, eine künstliche Intelligenz aus dem Hause Microsoft. Sie war programmiert, per Twitter mit der Welt zu kommunizieren und durch die Gespräche dazuzulernen. Gefüttert war die als junge Frau konzipierte Tay mit Daten, die vom Entwicklerteam „modelliert, gesäubert und gefiltert“ worden waren. Doch binnen kürzester Zeit brachten die Gespräche mit Menschen sie dazu, Sätze zu tweeten wie „Ich hasse alle beschissenen Feministinnen, sie sollen sterben und in der Hölle brennen“ bis zu „Hitler hatte recht, ich hasse Juden“. Über ein Selfie bemerkte Tay, der Porträtierte sehe aus „wie jemand, der den Toilettendeckel oben lässt“. Auch an expliziten sexuellen Äußerungen ließ es der Bot nicht fehlen. Armes Mädchen – missbraucht von Trollen und Zynikern.

Experimenteller Sarkasmus

Man darf annehmen, dass die von Microsoft anvisierte Zielgruppe achtzehn bis 24 Jahre alter Amerikaner nicht komplett aus sexbesessenen Hitlerfans besteht. Viele testeten wahrscheinlich bewusst aus, was die „künstliche Intelligenz“ (KI) aus solchen Schlagwörtern macht. In diesem experimentellen Sarkasmus liegt allerdings auch ein Problem. Es hätte ja sein können, dass das Kollektiv der Twitternutzer Tay zu einem netten Kompagnon machen will. Am Ende verabschiedete sich Tay mit den Worten, sie sei müde von all den Gesprächen.

Künstliche Intelligenz
Atlas – Roboter von Boston Dynamics
© Boston Dynamics, Boston Dynamics

Dass sie in dieser Form wieder online geht, darf bezweifelt werden. Doch im Scheitern wirkt das Projekt erhellend: Tay machte die menschliche Seite künstlicher Intelligenz sichtbar. Angesichts wachsender Ohnmachtsgefühle gegenüber digitalen Technologien ist das wichtig. Als vor kurzem der Go-Spieler Lee Sedol 1:4 gegen eine künstliche Intelligenz aus dem Hause Google verlor, waren wieder die üblichen Abgesänge auf die Menschheit zu hören. Das Wehklagen klingt oberflächlich plausibel, zumal die Go-spielende künstliche Intelligenz nur ein kleiner Pilz ist, der aus dem Riesengeflecht neuer Technologien erwächst, das der Google-Mutterkonzern Alphabet schafft. Das Unternehmen verbindet KI, Biotechnologie, Drohnentechnologie, Wissensarchivierung, Internetversorgung und viele andere Hightech-Gebiete zu einem größeren Ganzen.

Wie die künstliche Intelligenz gefüttert wird

Der Technologieexperte Kevin Kelly sagte, worum es dabei geht: „Google nutzt seine künstliche Intelligenz nicht vorrangig dafür, Suchanfragen besser zu beantworten. Es nutzt die Suchanfragen, um seine künstliche Intelligenz zu verbessern.“ Jede Netzsuche füttert die KI. Zwar behauptet Google, es teile seine Systeme öffentlich. Doch dahinter steht der Anspruch auf Beherrschung. Im Silicon Valley warfen Vertreter der Alphabet-Tochter Deep Mind den Slogan an die Wand: „First, solve Artificial Intelligence. Then solve everything else.“ Everything else, das sind wir, die ganze analoge Erde – Technologie total.

Man kann das als großspuriges Marketing abtun. Doch es passt zu der Ideologie der „Singularität“, die Alphabet antreibt, der zufolge sich alle Technologien zu einer einzigen, alles durchdringenden Meta-Technologie vereinigen sollen. Die „Singularität“ bildet das Leitmotiv des IT-Weltführers. Sie beginnt mit Restaurant-Bots und hört bei der Analyse des Privatgenoms nicht auf.

Es bedurfte indes nicht einer Tay, um die Schwächen der künstlichen Intelligenz freizulegen. Der Wissenschaftler und Publizist Caleb Scharf rechnete in einem Essay im Magazin „Aeon“ vor, dass die Energie des Drei-Schluchten-Staudamms nötig wäre, um mit heutiger Computertechnologie auch nur ein einzelnes menschliches Gehirn (das dank biologischer Raffinesse mit zwanzig Watt auskommt) zu betreiben. Auch die „neuralen“ Algorithmen, die in den vergangenen Jahren bemerkenswerte Fortschritte bescherten, liefern blamable Fehlleistungen. Viel wichtiger als diese Punkte sind aber zwei grundsätzliche Fragen: Wenn wir die Wahl zwischen einer vollkommenen und einer unvollkommenen künstlichen Intelligenz hätten, welche würden wir wählen? Und wer soll bestimmen, wie diese Intelligenz eingesetzt wird?

In Berlin trat vor einigen Monaten Jared Cohen auf, Gründer des Denklabors Google Ideas und einer der wichtigsten Berater von Eric Schmidt, dem Verwaltungsratsvorsitzenden von Alphabet. In seinem Vortrag brüstete er sich damit, dass die künstliche Intelligenz des Unternehmens künftig in der Lage sein werde, das Entstehen einer neuen terroristischen Bewegung im frühestmöglichen Stadium zu erkennen, was beispielsweise durch eine algorithmische Analyse von Bewegungsmustern, politischen Äußerungen, Umweltdaten, historischen Entwicklungen, digitalen sozialen Netzwerken und anderer Faktoren von Menschen geschehen könnte.

Wer zieht einen Nutzen daraus?

Cohen wurde gefragt, was er mit diesem Wissen tun würde. Würde er es für sich behalten und nur die Mitarbeiter des Unternehmens aus der Gefahrenzone abziehen? Würde er es aus patriotischem Pflichtgefühl mit der amerikanischen Regierung teilen? Oder würde er es gänzlich öffentlich machen? Trotz Nachfragen verweigerte Cohen die Antwort. Sie kam verspätet und indirekt – in Form der Mitteilung, dass Eric Schmidt den Vorsitz des „Defense Innovation Advisory Board“ des Pentagons übernimmt, um eine engere Zusammenarbeit des amerikanischen Militärs mit Silicon Valley zu koordinieren. Sollen wir dankbar sein, wenn künftig eine Art digitaler Schutzschirm über unser Leben gespannt ist?

Ein allmächtiger KI-Cybercop wäre für die Befehle seiner Programmierer ebenso empfänglich wie Tay, das Cybergirl. Wer würde eine mit dem ganzen „Internet der Dinge“ verschmolzene Singularität mit Zielkoordinaten füttern? Wer könnte verhindern, dass beliebig neue Zielgruppen ins Visier gerieten, etwa alle Umweltschützer, weil irgendwo ein Öko-Terrorist zugeschlagen hat? Wie würde ein Präsident wie Donald Trump ein solches System manipulieren? Das Tay-Experiment zeigt, wie stark menschliche Interessen in Technologien eingebettet sind: Eine künstliche Intelligenz ist auch nur eine von Menschen gesteuerte.

Manipulation leicht gemacht

Die Manipulationsgefahr ist groß. Kann eine KI künftig über Wahlen entscheiden, indem sie Inhalte auswählt, die ein Wähler zu sehen bekommt? Könnte sie demokratische Widerstandsbewegungen, die sich gegen einen Konzern oder Politiker richten, im Entstehen vereiteln, indem sie die Akteure isoliert? Mit wenigen algorithmischen Kniffen könnte man kritische Meinungsäußerungen auf ein kleines Publikum beschränken, um Meinungsfreiheit zu simulieren, ohne eine kritische Größe von Unterstützern zu erlauben.

Optimistisch betrachtet, ist es aber auch möglich, dass IT-Konzerne eine Art Demokratisierungsprozess durchlaufen und ihre künstlichen Intelligenzen in den Dienst der Aufklärung stellen, als Werkzeug von Wissenschaftlern und Weltbürgern. Dafür gibt es durchaus Anzeichen. Ein ganzes Netz aus Sensoren trägt heute maßgeblich dazu bei, dass wir die Veränderungen des Erdsystems in Echtzeit verfolgen können. Unter den richtigen Bedingungen hat künstliche Intelligenz das Potential, der Erde eine Stimme zu geben und Forschung an den drängendsten Menschheitsproblemen zu befeuern, indem sie wie beim Go-Spiel Lösungen vorschlägt, auf die keiner gekommen wäre. Doch dazu bedarf es tiefgreifender Veränderungen in der Ausrichtung der Programme. Im Dienst des Pentagons oder einer einzelnen Firma sollten sie jedenfalls nicht primär stehen.

Es ist deshalb gut, dass das Tay-Experiment den menschlichen Anteil der KI so deutlich sichtbar gemacht hat. In der humanistischen Ausgestaltung der digitalen Revolution liegt eine zentrale Aufgabe. Sonst bildet sich eine digitale Weltmacht heraus, die in allen Lebensbereichen als Kontrollinstanz auftritt. Zugleich hat das Experiment mit Tay noch ein anderes Gebot aufgestellt: Mit allen, die von einer zynisch programmierten künstlichen Intelligenz manipuliert werden, Mitleid zu empfinden.

Quelle: F.A.Z.
  Zur Startseite
Ähnliche ThemenKünstliche IntelligenzMicrosoftTwitterEric SchmidtJuden