Künstliche Intelligenz

„Computer können bald mehr als wir ihnen beibringen“

Von Corinna Budras
 - 13:56

Herr Cohn, wann werden Computer intelligenter als Menschen sein?

Ich habe lange darüber nachgedacht, was es eigentlich heißt, intelligent zu sein. Wenn man mal anfängt, darüber nachzudenken, was ein Intelligenzquotient eigentlich ist, merkt man schnell, wie unpräzise es ist, von jemandem zu behaupten, er sei klüger als ein anderer. Genauso, wie wir inzwischen zu dem Ergebnis gekommen sind, dass es unterschiedliche Arten von Intelligenz gibt, müssen wir uns auch die Intelligenz der Maschinen anschauen. Sie gleichen sich nicht, selbst die Maschinen untereinander. Schon jetzt sind Maschinen in einigen Aspekten wesentlich besser als Menschen, etwa darin, Muster herauszuarbeiten. Aber es wird eine ganz andere Art der Intelligenz sein. Computer werden ähnlich mental wachsen, wie wir es auch tun. Sie werden Dinge lernen, die wir ihnen nicht beigebracht haben. Aber es wird immer ein symbiotisches Verhältnis zwischen Mensch und Maschine geben. Wir müssen nur noch herausfinden, wie wir diesen Dialog gestalten wollen. Im Nachhinein wird wahrscheinlich dieser Zeitraum jetzt als derjenige in die Geschichte eingehen, an dem alles begann.

Aber hat man das nicht schon immer gedacht?

Der Ansatz hat sich in den vergangenen vierzig Jahren sehr gewandelt. In den siebziger Jahren studierte ich am Massachusetts Institute of Technology in Boston. Es war damals schon eines der wichtigsten Zentren für künstliche Intelligenz in der Welt. Dort lehrte ein Marvin Lee Minsky, einer der genialsten Denker in diesem Bereich. Mit dessen Sohn habe ich mir an der Universität eine Wohnung geteilt. Damals habe ich viel Zeit damit verbracht, ihm zuzuhören, wie er über neuronale Netzwerke sprach, also wie man einen Computer dazu bringt, wie ein biologisches System zu handeln. Das war sehr interessant damals. Aber man konnte die Technik nicht dazu bringen, große Probleme zu lösen.

Was war das Problem?

Die Computer waren zu langsam und schwerfällig. Die vergangenen vierzig Jahre habe ich damit verbracht, Computerchips zu verbessern. Sie sind so viel schneller und kleiner geworden. Vor einigen Jahren haben wir einen Wendepunkt erreicht, Silicium ist schnell und billig und verbraucht wenig Strom. Das sieht man schon an den Smartphones. Auch die Kommunikation zwischen den Computern hat sich so verbessert, dass diese Visionen aus den siebziger Jahren auf einmal Realität werden können.

Es war nur die Technik?

Auch der Ansatz hat sich radikal verändert. Seit den siebziger Jahren haben wir uns allein auf ein regelbasiertes System gestützt. Viele Prozesse werden von sehr klaren Regeln beherrscht. Wie die Bremsen im Auto funktionieren, wie das Elektrizitätssystem funktioniert. Das ist sehr simpel: Man programmiert einen Computer nach dem Prinzip, wenn dies und jenes passiert, tu dies und das. Das funktioniert auch heute noch. Und es funktioniert gut. Aber es hilft nicht bei komplexen Problemen. Zum Beispiel gibt es hier im 27. Stock dieses IBM-Watson-Forschungszentrums etwa rund 1000 Datenpunkte: Temperatur, Luftfeuchtigkeit, die Geschwindigkeit von Ventilatoren. Es ist nahezu unmöglich, ein Programm zu schreiben, das alle möglichen Konstellationen berücksichtigt. Wir haben es versucht, es wird aber sehr kompliziert. Im schlimmsten Fall hat man es automatisiert und es macht überhaupt nicht, was man gerne hätte.

Wie geht man da vor?

In den Teenagerjahren dieser Technik haben Menschen versucht, Intelligenz zu simulieren. Das ging über unendlich viele Regeln. Wir haben versucht, diese Regeln aufzuweichen und zu Vorschlägen zu kommen: Wenn dies passiert, probiere doch mal jenes. Es hat vieles flexibler gemacht. Das Problem ist nur: Entweder baut man so viele Varianten ein, dass die sich irgendwann durchkreuzen und einander ins Gehege kommen, oder man bekommt einen Haufen von Regeln, die nicht alles abdecken. Diese regelbasierte künstliche Intelligenz war bis vor kurzem noch sehr populär. Sie wird auch immer noch genutzt, weil man nicht alles umschreiben muss, sondern immer noch hinzufügen kann. Aber sie ist nicht besonders robust. Sie kann einfach nicht mit neuen Situationen umgehen.

Wann kam der große Durchbruch?

Mit dem maschinellen Lernen. Das ist keine Zauberei, sondern es geht um das Erkennen von Mustern: Computer können jetzt eigenständig lernen, Gesichter und Geräusche zu erkennen. Gib ihm ein Beispiel davon wie etwas normalerweise aussieht, und zeige ihm, wie der Gegenstand in unterschiedlichen Situationen aussieht. Dann beginnt es, selbst zu unterscheiden. Am Anfang muss man ihm noch immer sagen: „Ja, das stimmt“ oder ,Nein, das stimmt nicht“. Es wird von Mal zu Mal besser, darum geht es beim maschinellen Lernen. Diese Technik ist sehr gut, wenn es darum geht, ein Auto autonom fahren zu lassen oder ein Flugzeug zu fliegen. Ich bin seit 40 Jahren in diesem Geschäft, und ich habe nichts gesehen, was auch nur annähernd so weitreichend anwendbar ist.

Steuert dieses System bald unsere Autos?

Es gibt viele Fahrerassistenzsysteme, die beim Einparken helfen oder dafür sorgen, dass der Wagen auf der Spur bleibt. Das sind typischerweise solche regelbasierten Systeme. Inzwischen wird aber auch die Methode des maschinellen Lernens in diesem Bereich angewandt, beim Bremsen und beim Beschleunigen und Lenken. Die Aufgabe des Testfahrers ist es, in solchen Situationen einzugreifen, wenn der Wagen eine falsche Entscheidung getroffen hat. Innerhalb von drei Tagen kann ein solches System ziemlich gut fahren. Dazu sind nicht Tausende von Befehlen nötig, sondern es reicht, die Daten auszuwerten und zu selektieren. Am Anfang hat der Computer noch fürchterliche Entscheidungen getroffen, aber der Fahrer musste nur sagen: nein. Er musste ihm noch nicht mal sagen, warum. Genauso lernt auch der menschliche Muskel. Das ist doch ein unglaublich machtvolles Ereignis. Jedem System kann man sich auf diese Weise nähern. Es ist natürlich technisch nicht ganz so einfach, man muss diese Modelle erst einmal so hinbekommen. Aber es ist keine Zauberei, und es ist fast überall einsetzbar.

Wo ist der Haken?

Es gibt natürlich materielle Kosten. Das Ganze ist teuer herzustellen, und man braucht eine besondere Infrastruktur. Wenn das System ein Flugzeug, ein Auto oder einen Roboter lenken soll, können die Daten nicht um die halbe Welt gehen. Sie brauchen sie ganz nah dran. Autos müssen also kleine Supercomputer werden. Gleichzeitig brauchen sie einen schnellen Zugang zum Server in der Cloud, damit nicht nur ein Roboter lernt – sondern alle. Das ist eine ganz andere Form der Komplexität.

Sind diese Systeme beherrschbar?

Die Herausforderung ist: Es ist nicht transparent. Bisher habe ich einen Code programmiert und konnte dabei zusehen, was dieser Code tut. Jedes Mal, wenn sich ein Problem ergibt, können wir ganz genau nachvollziehen, woran es liegt. Das funktioniert nicht mehr. Jetzt wissen sie nicht mehr, warum Maschinen gewisse Dinge tun. Das ist übrigens bei uns Menschen nicht anders. Wenn ich Ihnen sage: Denken Sie an den Keller Ihrer Großmutter, tun Sie es einfach. Sie erinnern sich sogar an den Geruch, ohne dass Sie sagen könnten, warum.

Das ist ziemlich beängstigend.

Es bedeutet, dass wir sehr vorsichtig sein müssen. Man muss wissen, warum eine Maschine etwas tut, um sie wieder auf Vordermann zu bringen oder auch um zu klären, wer die Verantwortung trägt. Deshalb müssen wir ganz genau entscheiden, wann der Computer übernehmen darf.

Aber es klingt nach einer unaufhaltsamen Entwicklung.

Wir müssen sehr vorsichtig bei der Frage sein, welche Aufgaben wir den Computern übertragen. Da ist IBM sehr hinterher, wir achten sehr darauf, dass der Mensch im Mittelpunkt steht. Das bedeutet mehrere Dinge: Ein Mensch muss immer die Kontrolle behalten und wissen, worum es geht. Schwierige Entscheidungen müssen immer vom Menschen getroffen werden.

Ist das nicht ein fließender Übergang?

In der Tat. Das sehen Sie schon beim Fliegen. Die Menschen reden viel über automatisiertes Fahren, aber beim Fliegen sind wir schon viel weiter. Jeder Flug läuft schon weitgehend automatisiert ab, und oft ist dabei maschinelles Lernen im Spiel. Ein befreundeter Pilot hat mir mal erzählt, dass er bei einem großen Airbus, den er von New York City bis London steuert, nur rechtlich verpflichtet ist, 45 Sekunden lang selbst zu fliegen, und zwar während eines kurzen Moments beim Abheben. Alles andere darf schon die Maschine übernehmen. Es ist eine große Aufgabe zu entscheiden, wie viel Spielraum man einer Maschine dabei überlässt, kritische Situationen zu übernehmen.

Quelle: F.A.Z.
Corinna Budras - Portraitaufnahme für das Blaue Buch "Die Redaktion stellt sich vor" der Frankfurter Allgemeinen Zeitung
Corinna Budras
Redakteurin in der Wirtschaft.
TwitterGoogle+
  Zur Startseite
Ähnliche ThemenMITComputerKünstliche Intelligenz