Mensch gegen Maschine

Künstliche Intuition

Von Ulf von Rauchhaupt
Aktualisiert am 13.03.2016
 - 12:19
Zugmöglichkeiten à gogo: Mit bloßer Rechenkraft ist hier nichts zu gewinnen.
Ein Computer schlägt einen der besten menschlichen „Go“-Spieler. Das ist eine bedeutende Leistung der Informatik, aber kein Grund zu philosophischer Panik.

An der künstlichen Intelligenz (KI) scheiden sich die Geister. Die einen erwarten, dass sie uns Erdenklößen dereinst das transhumane Heil bringt. Die anderen warnen vor Maschinen, die irgendwann schlauer würden als wir Zauberlehrlinge. Und eine dritte Fraktion konnte lange über die dann doch recht bescheidenen Fortschritte der KI spotten.

Das ist inzwischen anders. Der Südkoreaner Lee Sedol hat das derzeit laufende Turnier im Brettspiel Go gegen die Software AlphaGo aus dem Hause Google schon nach der dritten Partie vorzeitig verloren. Das sollte die Philosophen noch mehr beschäftigen als die Niederlage des Schachweltmeisters Garry Kasparov gegen eine IBM-Maschine anno 1997.

Hier spielt kein Algorithmus

Denn Lee gilt als der größte lebende Champion in einem Spiel, das Computer bislang vor erheblich größere Schwierigkeiten stellte als Schach. Schon dort ist die Vielfalt möglicher Stellungen und Zugfolgen so groß, dass bloßes Durchrechnen auch Supercomputer überfordert. Deswegen werden Datenbanken über Millionen historischer Partien zu Hilfe genommen, anhand derer ein Rechner die Chancen beurteilt, welche ihm die gerade möglichen Zugfolgen bieten. Beim Go stößt diese Strategie schnell an Grenzen. Zum einen ist die Stellungsvielfalt auf seinem 19-mal-19-Gitter sehr viel höher. Zum anderen ist der Vor- oder Nachteil einer endlich tief vorausberechneten Zugsequenz viel schwieriger abzuschätzen. Erfahrene Go-Spieler berichten, dass sie intuitiv spielen und ihre Züge oft gar nicht begründen können. Wie will man da einen Rechner anweisen, was er in welchem Fall zu tun hat?

Die Antwort der Google-Ingenieure, die sie Ende Januar in Nature“ vorstellten, ist zukunftsweisend: Man programmiert der Maschine eben keine Handlungsanweisungen ein, sondern lässt sie genau das tun, was auch einem Menschen zu seiner Intuition verhilft: Man lässt sie Erfahrungen sammeln. Im Fall von AlphaGo dienten dazu tief gestaffelte Ebenen künstlicher neuronaler Netze, die elementare Vorgänge in natürlichen Nervensystemen digital simulieren. Sie werden mit äußeren Daten trainiert, aber auch, indem die Software gegen sich selbst antritt. AlphaGo ist damit kein bloßer Algorithmus, sondern ein System, das in der Lage ist zu lernen, sich eine eigene kognitive Biographie zu erwerben – und damit so etwas wie eine Persönlichkeit. Tatsächlich berichtete ein europäischer Go-Profi, der im Oktober gegen AlphaGo antrat (und verlor), er habe das Gefühl gehabt, hinter den Zügen seines Gegners stünde eine reale Person.

Keine Intuition ohne Irrtum

Bevor die Transhumanisten nun die Sektkorken knallen lassen, sollten sie aber bedenken, dass die Software nur Go spielen kann. Sie kann keine anderen Erfahrungen machen und weder ihr Wissen noch allgemein ihre Lernfähigkeit auf andere Probleme übertragen. Wie so etwas zu bewerkstelligen wäre, dafür haben nach eigenem Bekunden selbst die Experten von Google nicht die leiseste Idee.

Ein anderer Grund, warum Maschinenrechtler sich so schnell keine Gedanken über Computerwürde machen werden, ist, dass es technisch in absehbarer Zeit nicht machbar sein wird, Systeme wie AlphaGo nennenswert zu minaturisieren. Juristen sollten sich trotzdem für AlphaGo und die Folgen interessieren. Gerade weil das System menschlichem Wissenserwerb nachempfunden ist, können ihm Fehler unterlaufen, die kein Programmierer auch nur indirekt zu verantworten hat. Bevor man ein solches Kunsthirn zum Beispiel ein Auto steuern lässt, sollte man sich ein paar Gedanken über künstliche Verantwortung machen.

Quelle: F.A.S.
Autorenporträt / Rauchhaupt, Ulf von (UvR)
Ulf von Rauchhaupt
Verantwortlich für das Ressort „Wissenschaft“ der Frankfurter Allgemeinen Sonntagszeitung.
  Zur Startseite
Verlagsangebot
Verlagsangebot