Künstliche Intelligenz

Googles Maschine lernt ihre eigene Sprache

Von Jonas Jansen
02.12.2016
, 15:37
Intelligentes Leben: Die klügsten Hirne arbeiten an künstlicher Intelligenz.
Der Internetkonzern Google forscht gleich in mehreren Abteilungen an Künstlicher Intelligenz und lernenden Maschinen. Dabei überraschen die Computer nun sogar ihre Erschaffer.
ANZEIGE

Google verdient sein Geld vor allem mit den Anzeigen im Suchmaschinengeschäft, der Internetkonzern finanziert damit sogar viele andere Experimente seiner Muttergesellschaft Alphabet. So forscht das Unternehmen Deep Mind, das Alphabet vor zwei Jahren gekauft hat, zu Künstlicher Intelligenz und dazu, wie durch technischen Fortschritt Maschinen komplexe Probleme eigenhändig lösen können.

Doch selbst unter dem eigenen Dach haben sich bei Google inzwischen mehrere Forschungsgruppen entwickelt, die in eine ähnliche Richtung gehen. Das „Brain Team“ sucht sich selbst aus, woran es interessiert ist. Gerade erst haben Forscher analysiert, wie Maschinen dabei helfen können, Diabetische Retinopathie frühzeitig zu erkennen. Die Augenkrankheit führt zu Erblinden und wird durch die Zuckerkrankheit Diabetes hervorgerufen.

ANZEIGE

„Aufregende Ergebnisse“

Nach Angaben der Forscher Lily Peng und Varun Gulshan ist es die am schnellsten wachsende Augenerkrankung. In einem nun vorgestellten wissenschaftlichen Artikel zeigen die Forscher, wie selbst lernende Maschinen ihren eigenen Algorithmus programmieren - um in diesem Fall anhand von Fotos Merkmale der Netzhauterkrankung festzustellen.

Von 9963 untersuchten Bildern erkannte die Maschine Anzeichen der Diabetischen Retinopathie in 98,1 Prozent der Fälle. Peng und Vulshan beschreiben in einem Blogbeitrag, dass sie noch ganz am Anfang stünden. „Das sind aufregende Ergebnisse, aber es ist noch einiges an Arbeit zu tun.“

ANZEIGE

Trotzdem zeigt das jüngste Forschungsprojekt, welche Fortschritte sich gerade die Medizin von selbstlernenden Maschinen verspricht. Auch Deep Mind arbeitet stark im Gesundheitssektor. Gut möglich, dass die verschiedenen Ansätze der Forschungsgruppen in einem so stark vernetzten Unternehmen wie Google und der Muttergesellschaft Alphabet die Entwicklung beschleunigen.

Eine Art Software-Bibliothek bündelt die Forschung

Mit gut 1000 Entwicklern von 34.000, die sich um Machine Learning kümmern, steht auch das Unternehmen noch am Anfang - aber bündelt inzwischen die ganze Forschung in einer Art Software-Bibliothek namens Tensorflow. Damit nicht jeder Unternehmensbereich vor sich wurschtelt und an drei Stellen das gleiche entwickelt wird.

ANZEIGE

Ursprünglich ebenfalls vom „Brain Team“ entwickelt, hat Google die Bibliothek inzwischen sogar als Open-Source-Projekt ins Netz gestellt. Das bedeutet, das auch andere Unternehmen auf der Plattform aufbauen können, außerdem ist der Code hinter der Plattform so überprüfbar. Darauf basieren Google-Produkte wie die Foto-App, die mit maschinellem Lernen erkennt, wenn man im Suchfeld „Flugzeug“ eingibt oder alle Bilder mit „Hunden“ zeigt, wenn man danach sucht. Genauso nutzen die Foto-App Snapchat, die Verteidigungssparte von Airbus oder der Chiphersteller ARM Tensorflow.

In einem Blogbeitrag schreibt Google-Chef Sundar Pichai persönlich: „Wir haben gesehen, was Tensorflow kann und wir glauben, dass es außerhalb Googles noch einen größeren Effekt haben kann.“ So würde sich die Forschung nach maschinellem Lernen beschleunigen und am Ende allen nutzen.

Gleichwohl sind die Forscher immer wieder selbst überrascht, wozu die von ihnen programmierten Maschinen schon fähig sind. Deep Mind hat einen Computer gebaut, der (kleine) Probleme lösen kann, ohne sie vorher zu kennen. Der „differentiable neural computer“ (DNC) könne beispielsweise eigenständig die schnellste Route zwischen zwei Stationen der Londoner U-Bahn bestimmen. Und das kann er gleich auf die französische Metro anwenden.

ANZEIGE

Auch das Übersetzungsprogramm hat nun einen lernenden Algorithmus

Auch Google Translate, das Übersetzungsprogramm, das nach zehn Jahren inzwischen 103 Sprachen übersetzt, hat seit September ein eingebautes neuronales Netzwerk, also einen lernenden Algorithmus. Die Google Neural Machine Translation (GNMT, nicht zu verwechseln mit Heidi Klums Modelnachwuchs-Suche GNTM) hat seinen Erschaffern nun bewiesen, dass sie sogenannte Zero-Shot-Übersetzungen möglich macht. Das sind Übersetzungen zwischen zwei Sprachpaaren, die es vorher nicht gab. Ein Beispiel: Google trainiert seine Maschine darin, von Englisch in Koreanisch zu übersetzen und umgekehrt. Gleiches gilt für Englisch und Japanisch. Doch GNMT kann jetzt auch von Japanisch nach Koreanisch übersetzen - ohne dass der Maschine das erklärt wurde.

Die Entwickler folgern in einem Blogbeitrag daher, dass das neuronale Netz deshalb eine eigene Sprache entwickelt hat, eine Interlingua. Denn die Algorithmen ordnen die übersetzten Sätze nach ihrer Bedeutung in Gruppen ein und erkennen damit semantische Zusammenhänge. Und nicht nur bloße Wörter.

Maschine ersetzt Mensch

Freilich setzt Google nicht alleine auf eigene Forschung. So hat der Risikokapitalarm des Unternehmens mehr als 40 Millionen Dollar in Duolingo investiert, eine Sprachlern-App von Luis von Ahn. Von Ahn hat das Captcha erfunden, das Internetnutzer daher kennen, dass sie sich mit dem Code als Mensch identifizieren, um Spam und Missbrauch zu verhindern.

ANZEIGE

Schon früher arbeitete von Ahn mit Google zusammen und hat dem Unternehmen geholfen bei Übersetzungen und Spracherkennung. Inzwischen arbeiten seine 80 Mitarbeiter verstärkt an künstlicher Intelligenz, um Übersetzungen und Sprachlernen zu vereinfachen. Anders ausgedrückt: Google hat ein Ziel und sucht an vielen Ausgrabungsstätten nach einer Lösung.

Gleichwohl steht die Entwicklung dieser Technologie noch am Anfang. Auch darauf weisen alle immer wieder hin, die dazu forschen. Das kann als Beruhigung derjenigen verstanden werden, die sich davor fürchten, dass ihre Berufe von Maschinen übernommen werden. Oder wie es Sundar Pichai schreibt: „Maschinelles Lernen steckt noch in den Kinderschuhen - Computer können heute noch nicht das, was ein 4-Jähriger ohne Probleme beherrscht: Verstehen, wie ein Dinosaurier heißt, nachdem er ein paar Beispielbilder gesehen hat.“ Doch zeigen die zumeist unerwarteten Fortschritte der Maschinen, dass es mit Prognosen in der künstlichen Intelligenz besonders schwierig wird. Manchmal geht es auch schneller als gedacht.

Quelle: FAZ.NET
Autorenporträt / Jansen Jonas
Jonas Jansen
Wirtschaftskorrespondent in Düsseldorf.
FacebookTwitter
  Zur Startseite
Verlagsangebot
Verlagsangebot
Kapitalanalge
Pflegeimmobilien als Kapitalanlage der Zukunft
Sprachkurse
Lernen Sie Englisch
Immobilienbewertung
Verkaufen Sie zum Höchstpreis
Zertifikate
Ihre Weiterbildung im Projektmanagement
SUV
Premium-SUVs zum Gebrauchtwagenpreis
Baufinanzierung
Erhalten Sie Ihren Bauzins in 3 Minuten
ANZEIGE