Künstliche Intelligenz

Denn wir wissen nicht, wie sie’s tun

Von Sibylle Anderl
 - 15:50

An der Künstlichen Intelligenz scheiden sich die Geister. Für die einen, prominent vertreten durch den Technologieunternehmer Elon Musk, stellen sie mindestens eine weitere, wenn nicht gar die entscheidende Bedrohung der Menschheit dar. Für die anderen, unter ihnen Facebook-Gründer Mark Zuckerberg, werden es im Gegenteil die lernenden Maschinen sein, die in Zukunft unser Leben auf vielen verschiedenen Ebenen besser und sicherer machen werden. Auf welche Seite man sich in diesem Grundsatzstreit zwischen Technikoptimisten und -pessimisten auch schlagen mag – unbestreitbar ist, dass lernenden Algorithmen in vielen Bereichen immer größere Verantwortung übertragen wird, sei es in der Medizin, beim autonomen Fahren oder wenn es um die automatische Auswertung gigantischer, von wissenschaftlichen Experimenten erzeugten Datenmengen geht.

Der Grund dafür ist simpel: Wir Menschen sind heute zunehmend überfordert. Zu viele Informationen, zu viele Daten, zu viele Medien, zu wenig Zeit. Computer versprechen hier Hilfe, maschinelles Lernen ist das Zauberwort, das uns heute die Lösung vielfältiger Probleme liefert, ob es die Durchsuchung der Bilddatenbank anhand von Suchbegriffen geht, um Übersetzungsprogramme oder Spracherkennung. Aufgaben, an denen sich Generationen von Programmierern die Zähne ausgebissen haben, werden heute handhabbar. Der Grund dafür: Während man lange überwiegend erfolgreich versuchte, den Computern die richtigen Programme aufzudrücken, lässt man sie heute die Algorithmen selbst anhand von Trainingsdaten entwickeln. Der Versuch, ein Übersetzungsprogramm explizit aufzuschreiben, scheitert an den Subtilitäten der Sprache. Wenn man aber einen Computer mit genügend Übersetzungsbeispielen füttert, kann er zugrundeliegende Muster erkennen und kontextuelle Informationen so einbeziehen, dass ein erfolgreicher Algorithmus generiert wird. Der Mensch funktioniert ganz ähnlich: Wir machen Erfahrungen, leiten Muster ab, und sobald Erwartungen an den Gegebenheiten scheitern, passen wir sie entsprechend an.

Lernen ohne menschliche Hilfe

Dass maschinelles Lernen eng mit dem Konzept der Künstlichen Intelligenz verbunden ist, scheint damit intuitiv klar. Intelligenz beruht auf Lernfähigkeit und darauf, sich an sich ändernde Bedingungen selbständig anpassen zu können. Besonders erfolgreich sind dabei künstliche tiefe neuronale Netzwerke. Sie bestehen nach biologischem Vorbild aus mehreren Schichten miteinander verbundener künstlicher Neuronen. Der Grad des Einflusses der künstlichen Neuronen aufeinander ist für jede Verknüpfung veränderlich und kann hemmend oder erregend sein. Ein künstliches Neuron wird aktiviert, wenn ein bestimmter Schwellenwert unter dem Einfluss der mit ihm vernetzten Neuronen überschritten ist. Dann feuert es gemäß dem Grad seiner Aktivierung. Künstliche Neuronen einer Schicht empfangen Signale aus ihrer jeweilig vorgelagerten Schicht.

Oft werden diese Netzwerke für Klassifikationsprobleme genutzt, bei denen die unterste Ebene Inputdaten empfängt, beispielsweise Bildpixel, die von Ebene zu Ebene mit Hilfe zunehmend abstrakterer Konzepte verarbeitet werden. In einer Bildanalyse könnten so zunächst verschieden ausgerichtete Striche und Kanten erkannt werden, die dann auf höheren Ebenen zu längeren Linien, Bögen und Ecken kombiniert werden, bevor sie schließlich abstrakten Formen zugeordnet werden.

Trainiert werden diese Netzwerke anhand von Trainingsdaten, bei denen der Output des Netzwerks mit bekanntem Output verglichen werden kann: Wenn beispielsweise Tiere auf Bildern erkannt werden sollen, kann anhand der Trainingsdaten geprüft werden, welche Erfolgsquote der Algorithmus tatsächlich besitzt, Pferdebilder in dieselbe Outputklasse „Pferd“ einzuordnen. Falls nicht, passt der Algorithmus sich entsprechend an, um seine Performance zu verbessern. Die entscheidende Idee beim „Deep Learning“ ist nun, den Einfluss des Menschen im Lernprozess möglichst gering zu halten: Im Rahmen des Vielebenen-Aufbaus bestimmt der Computer selbst, wie die Inputdaten in immer abstrakteren Konzepten am besten repräsentiert werden können. Der Lernalgorithmus entdeckt alle Strukturen, die notwendig sind, um die Daten zu klassifizieren, ohne menschliche Hilfe eigenständig auf der Grundlage von Big Data – oder sollte dies zumindest. In den vergangenen Jahren ist das Bewusstsein gewachsen, dass es tatsächlich doch auch gut ist, den tiefen neuronalen Netzwerken über die Trainingschecks hinaus etwas genauer in ihr verborgenes Handwerk zu blicken. Während das Netzwerktraining lediglich sicherstellt, dass der intelligente Algorithmus Inputdaten richtig zuordnet, kann es nämlich durchaus wichtig sein, herauszufinden, wie und warum das Netzwerk tut, was es tut. Eine solche Erklärung algorithmischer Entscheidungen fragt also gezielt danach, was für den Computer die Kriterien dafür waren, einen Input einem bestimmten Output zuzuordnen: Was war der Grund, dieses Bild als ein Pferdebild zu klassifizieren?

Trotz ähnlicher Performance sehr unterschiedlich abgeschnitten

Um derartige Fragen beantworten zu können, mussten Wissenschaftler neue mathematische Verfahren entwickeln, da die nichtlinearen Transformationen, die von den künstlichen neuronalen Netzwerken angestellt werden, wenig transparent und schwer zu interpretieren sind. Das Problem der „Black Boxes“, der undurchsichtigen Computeralgorithmen, beschäftigt die Forscher intensiv. Mittlerweile existieren verschiedene Methoden, um diejenigen Eigenschaften der Inputdaten hervorheben zu können, die für die Entscheidung des Algorithmus jeweils ausschlaggebend waren. Derartige Analysen fördern interessante Ergebnisse zutage. So untersuchten beispielsweise Wissenschaftler des Fraunhofer Instituts, der Universität Singapur und der TU Berlin um Sebastian Lapuschkin die Ergebnisse zweier verschiedener Algorithmen zur Bildklassifikation, die beide trotz verschiedener zugrundeliegender Methoden in Bezug auf die Richtigkeit ihrer Bildsortierung eine ähnliche Genauigkeit erreichten: Der erste Algorithmus beruhte auf einem tiefen neuronalen Netzwerk, während der zweite eine andere Methode des Maschinenlernens nutzte.

Künstliche Intelligenz
Ein Algorithmus komponiert Musik
© reuters, reuters

Erst als die Forscher sich die Hintergründe der Klassifikation genauer ansahen, kam heraus, dass beide Algorithmen sehr verschiedene Strategien entwickelt hatten. Während der Netzwerk-Algorithmus sich tatsächlich an Konturen im Bild orientierte, um Pferdebilder zu identifizieren, orientierte der andere sich an einer kleinen Schrift, die ausschließlich in Pferdebildern auftauchte und dort das Copyright der Bilder angab. Der zweite Algorithmus hatte zwar richtig erkannt, dass sich im Testsample Pferdebilder durch dieses Copyright-Zeichen auszeichneten. Dass diese Eigenschaft der Bilder aber nichts mit Pferden zu tun hatte, konnte der Algorithmus nicht bemerken. Bei einer Anwendung auf beliebige Pferdebilder hätten beide Algorithmen daher trotz ähnlicher Performance im Test sehr unterschiedlich abgeschnitten.

Eine ähnliche Studie wurde im vergangenen Jahr von Forschern des Fraunhofer Instituts, der TU Berlin und der Universität Seoul um Leila Arras durchgeführt. Diesmal wurden Algorithmen untersucht, die Texte in Hinsicht auf deren Inhalt, Stil oder zugrunde liegender Meinung einordnen sollten. Auch in diesem Fall erzielten beide Algorithmen eine ähnliche Testgenauigkeit, obwohl die von ihnen entwickelten Beurteilungsmechanismen sehr verschieden waren: Der Netzwerkalgorithmus basierte seine Einordnungen auf wenige besondere Signalwörter, während der alternative Algorithmus basierend auf Regularitäten bei der Anzahl verwendeter Wörter urteilte.

Die KI im Auge behalten

Die Untersuchungen zeigen, wie gefährlich es gegebenenfalls sein kann, wenn man sich auf die Lernerfolge von Algorithmen verlässt, die man gleichzeitig als Black Box behandelt. Ein Aspekt des Problems beruht darauf, dass durch die Analyse von Daten Korrelationen zutage gefördert werden können, die nicht auf Notwendigkeiten verweisen müssen. Im Beispiel der Pferdebilder waren im Testsample Pferde und Copyright zwar korreliert und traten immer zusammen auf, die Verbindung beider war aber zufällig. Thomas Wiegand vom Fraunhofer Heinrich Hertz Institut präsentierte in diesem Sommer bei einer Big-Data-Tagung in Berlin ein besonders illustratives Beispiel eines solchen Versagens. Ein selbstlernendes System sollte vorhersagen, ob eine erkrankte Person als Risikopatient bei einer Lungenentzündung sofort behandelt werden muss. Nach der Trainingsphase, die auf der Grundlage von über 14.000 echten Patientendatensätzen erfolgte, kam das System zu dem Ergebnis, dass Personen mit Asthma, Brustschmerzen und Herzproblemen nicht als Risikopatienten einzuordnen sind – ein Resultat, das offenbar jeder Intuition zuwiderläuft.

Countdown – der politische Newsletter der F.A.Z.
Countdown – der politische Newsletter der F.A.Z.

Starten Sie den Morgen mit diesem Überblick über die wichtigsten Themen des Tages. Eingeordnet und kommentiert von unseren Autoren.

Mehr erfahren

Der Grund für die Fehleinschätzung war, dass diese Menschen mit Vorerkrankung von vornherein regelmäßig zum Arzt gehen und daher im Vergleich zu einem gesunden Menschen einem geringeren Risiko unterliegen, an einer Lungenentzündung zu sterben. Sofern diese Tatsache aber dazu führen würde, dass die entsprechenden Patienten im Krankenhaus bevorzugt abgewiesen würden, wäre dies offenbar fatal. Bei allen beeindruckenden Erfolgen lernender Algorithmen, die wir bereits vorzuweisen haben und noch erwarten dürfen, scheint also zu gelten: Blindes Vertrauen kann gefährlich sein, auch intelligente Algorithmen sollten wir kritisch im Auge behalten – zumal, wenn sie mehr und mehr unseren Alltag bestimmen. Zumindest in diesem Sinne ist Elon Musk in seinem Ruf nach einer Kontrolle Künstlicher Intelligenz eindeutig zuzustimmen.

Quelle: F.A.Z.
Autorenbild/ Sybille Anderl
Sibylle Anderl
Redakteurin im Feuilleton.
Twitter
  Zur Startseite
Ähnliche ThemenElon MuskMark Zuckerberg