Didaktiker über KI

„Das Verständnis für Geräte fehlt“

Von Ursula Kals
30.11.2021
, 13:05
Ist das Kunst oder ist das künstlich? Annotierte Fotografien in der Ausstellung „Künstliche INtelligenz“ im Deutschen Hygiene-Museum
Keine Angst vor KI, sagt der Aachener Psychologe, Didaktiker und Privatdozent Malte Persike. Vorausgesetzt, man behält drei Dinge im Blick. Ein Interview.
ANZEIGE

Herr Persike, Sie sind wissenschaftlicher Leiter des Center für Lehr- und Lernservices an der RWTH-Aachen. Auch dort gibt es Studenten, die sich mit KI schwertun. Was bieten Sie denen an?

Wir haben zwei große Projekte: data. RWTH, da geht es um Data Literacy, also um die Fähigkeit, mit Daten kritisch umgehen zu lernen. Außerdem gibt es bridgingAI, ein offenes Lehrangebot rund um KI für alle Fächer, auch für Medizin und Geisteswissenschaften. Viele Disziplinen entdecken gerade die KI für sich und sollen das Studienprogramm nutzen, um notwendiges Wissen zu bekommen. In immer mehr Berufsfeldern finden sich Anforderungen, die KI erfordern.

ANZEIGE

Allein das Wort klingt für Menschen, die sich mit Mathe schwertun, fremd.

Dabei sind wir alle im Alltag damit konfrontiert, durch Smartphone, Smartwatch, Social Media bis hin zum Parkassistenten und Staubsaugerroboter. Überall dort stecken KI-Algorithmen dahinter, die unser Leben lenken. Auch, wenn wir es nicht merken.

Zum Beispiel die weiteren Produktempfehlungen beim Online-Kauf?

Ja, das ist ganz typisch. Seit kurzem hat auch Microsoft-Teams eine neue Funktion, analysiert Nachrichten, die von Kollegen kommen und schlägt Antworten vor, die teils so stimmig sind, dass man sie nutzt. Oder auch Fotoapps, die alle Fotos von Freund Karl oder dem Hund anzeigen. Erstaunlich, wie gut Google & Co da sind.

Und für Laien vielleicht auch erschreckend, wie KI in der Medizin genutzt wird.

An der Uni Mainz gibt es zum Beispiel ein Projekt der psychotherapeutischen Arbeit, wo KI-basierte Diagnose-Software eingesetzt wird, um zu verstehen, an welchen Erkrankungen jemand leidet. Wer die App einsetzt, sollte in der Lage sein zu verstehen, was die KI tut und kritisch reflektieren, dass KI auch Fehler machen und Verzerrungen unterliegen kann.

Malte Persike
Malte Persike Bild: RWTH Aachen

Um das zu begreifen, wie gut muss man denn in Mathe sein?

Das Ausmaß an Mathe, das man können muss, ist sehr begrenzt. Daran scheitert es auf keinen Fall. Das viel Entscheidendere ist, dass eine bestimmte Art und Weise zu denken vermittelt wird, eine analytische Denkweise. Ich zerlege Probleme in ihre Bestandteile, entwickle dann Lösungen für diese einzelnen Bestandteile, verknüpfe anschließend die Lösungen zu einer Gesamtlösung. Dieser Ansatz ist für viele neu.

ANZEIGE

Was ist denn noch so unbekannt?

Das zweite, das für viele neu ist, obwohl es das Grundprinzip von Forschung ist, dass man jede Idee zuerst einmal nur als Vermutung hat. Ein Ergebnis, eine Feststellung, die eine KI trifft, ist immer nur eine Behauptung und keine Wahrheit. Wir als Menschen sind dafür da, einzuschätzen, ob der Schluss daraus richtig ist, was die KI da gemacht hat.

Und damit tun wir uns schwer?

Wir lernen es nur begrenzt in Schule und Studium. Wenn alle Kinder im Physikunterricht ständig nachfragen, „Stimmt das wirklich?“ – das geht nicht. Beim Umgang mit KI aber müssen wir plötzlich verstehen, dass es nur um Wahrscheinlichkeiten geht, dass sich Fehler einschleichen können. Was wir bekommen, müssen wir kritisch reflektieren und fragen: Kann das richtig sein?

ANZEIGE

Und Ihr dritter Punkt beim Umgang mit der KI?

Wir haben immer von Digital Natives, Digital Immigrants gesprochen und wissen heute, dass diese Idee falscher nicht sein könnte. Das Wissen vieler Studierender über den Umgang mit digitalen Geräten ist eingeschränkt. Sie können Apps bedienen, was aber oft fehlt, ist ein Verständnis für die dahinterstehende Hard- und Software: Wie arbeitet das Gerät?

Aber schon Schüler gehen mühelos mit dem iPad um.

Genau daran kann man es sehen. Sie arbeiten zum Teil mit dem iPad, man könnte meinen, das ist super. Wenn Schüler dann aber eine Bilddatei in einen anderen Ordner kopieren und umbenennen sollen, können sie das oft nicht, weil das iPad die Grundlagen so weit vor dem Benutzer abschirmt, dass man nicht mehr versteht, was das Gerät tut, um Bilder überhaupt speichern zu können.

Und wie lernen sie zu verstehen, wie Technik im Kern funktioniert?

Zum Beispiel indem sie programmieren lernen. So lernen Schüler und Studierende, wie man dem PC sagen kann, was er tun soll. Das baut Berührungsängste ab und ist für viele ein Aha-Erlebnis.

Selbst etwas zu programmieren klingt anspruchsvoll.

Zu Unrecht. Man kann auf vielen Schwierigkeitsebenen programmieren. Mit der Vorstellung, nächtelang im dunklen Keller zu hocken, hat das nichts zu tun. Schon Kinder von drei, vier Jahren können einer Spielfigur in einer Programmierlern-App sagen, was sie tun soll, ob sie sich im Kreis drehen oder stehen bleiben soll.

ANZEIGE

So eine Spielfigur steht im Aachener Stadtmuseum Centre Charlemagne in der Ausstellung zum 150jährigen Bestehen der Hochschule unter dem Motto „Lernen. Forschen. Machen“.

Das ist das Serious Game-Codescape. Ein Hund wird durch ein Raumschiff gelenkt, damit er durchs All fliegen kann. Hinter dieser spielerischen Fassade stehen komplexe Programmierungen, die Studierende entwickeln müssen. Wir haben Codescape für die Ausstellung in einen Spielkonsolenkasten eingebaut. Kinder rennen dahin und finden das interessant.

Klassische Frage, lernen die denn noch denken?

Ja, sie lernen algorithmisches Denken. Der Hund steht vor Problemen, die sich algorithmisch lösen lassen. Wie diese Lösung aussieht, darauf kommen sie selbst. Sie erlernen analytische und logische Denkmuster.

In Ihren Videoschulungen äußern Sie sich darüber, dass Studenten wenig kritisch hinterfragen. Zum Beispiel, wenn sie in kurzen Berichten, sogenannten Wikis, ihr Wissen zusammenfassen sollen.

Wikis sind ein kritisches Werkzeug. Das stimmt, schon die Menge von Informationen, die uns aktuell zur Verfügung steht, können wir nicht mehr kritisch hinterfragen – und sie wird immer nur noch größer. Angesichts der Fülle wird kritisches Reflektieren zu schnell aufgegeben. Darum halte ich Studierende dazu an, das, was wir ihnen vorsetzen, nicht immer nur als gegeben zu nehmen.

Dem provokanten Recherche-Satz folgend: Google weiß nichts?

Sie spielen darauf an, in welcher Reihenfolge Informationen in Suchmaschinen erscheinen. Es gibt Unternehmen, die den Google-Algorithmus so gut kennen und ausnutzen können, dass sie für ihre Kunden vordere Plätze in den Suchergebnissen bekommen. Dies gilt nicht nur für die Suchmaschinenoptimierung, sondern auch für ständig wechselnde individuelle Werbung. Der Algorithmus ändert sich ständig, das ist ein Katz- und Maus-Rennen.

ANZEIGE

Erleben Sie Ängste bei Studenten, dass sie die Arbeit mit KI intellektuell nicht packen?

Das erlebe ich. Dies gilt übrigens auch für die Experten, die diese Technologien entwickeln. Es ist selbst für sie manchmal schwierig zu verstehen, warum eine KI komplexe Dinge plötzlich leisten kann.

Bitte ein Beispiel.

Das KI-basierte Sprachmodell „GPT3“ wurde mit Milliarden von Texten gefüttert. Die KI kann damit nicht nur Texte verstehen, sondern auch weiterschreiben. Zum Beispiel können Sie vorgeben: „In Kenia gibt es den Berg Soundso, drei Menschen und eine Ziege besteigen ihn. Erfinde eine Geschichte dazu.“ Die KI ist dazu problemlos in der Lage, so weit war das zu erwarten. Aber als man der Text-KI plötzlich Rechenaufgaben gab, war sie in der Lage, auch die lösen zu können. Ein absolut faszinierender Vorgang, Es ist selbst den verantwortlichen Forschern nicht vollkommen klar, warum die auf Sprache trainierte KI plötzlich auch rechnen kann.

Mit Verlaub, für einen aufgeschlossenen Germanisten klingt das nach Science Fiction.

Es hat Aspekte davon. Daneben gibt es noch einen zweiten Punkt, der bedenklich ist.: die KI-Sicherheit. Angenommen, wir schaffen es, eine echte KI zu entwickeln, wie verhindern wir, dass diese KI nicht die Weltherrschaft übernehmen kann, nicht schädliche Dinge tut. Das klingt absurd, ist aber für die KI-Forschung ein ganz reales Problem. Denn es ist derzeit unklar, wie wir einer KI verlässlich beibringen können, dass man keinem Menschen schadet und keine Tiere quält. Auch das produziert ein ungutes Gefühl, auch das ist ein Unbehagen, das viele Menschen haben, wenn wir über KI sprechen.

Neben der abstrakten Angst gibt es aber auch die Sorge, dass KI künftig noch mehr Kopfarbeiter ersetzt.

Auch diese Sorge ist berechtigt. Bei allen industriellen Revolutionen der Vergangenheit lehrt die Erfahrung: Es entstanden neue, andere Jobs, aber selten weniger. Den Kutschfahrer haben wir heute nicht mehr, aber viele andere Berufszweige sind dafür entstanden. Bei KI und Robotik ist nicht nur unklar, sondern in der Tat weniger wahrscheinlich, dass das wieder so werden wird.

ANZEIGE

Sie hören sich skeptisch an.

Ich bin da pessimistisch. Es ist denkbar, dass wir am Ende auch das Konstruieren von Maschinen wieder Maschinen überlassen, eine Software konstruiert eine Software. Die Wertschöpfung liegt dann in der Hand von nichtmenschlichen Produzenten und für uns bleibt vielleicht nur ein bissen Kreativität und Kontrolle. Wir müssen uns Gedanken machen, wie eine solche Gesellschaft funktionieren kann. Das erfordert Forschung.

Selbstfahrende Busse und LKW, Klageschriften, die nicht Juristen, sondern die KI in weiten Teilen übernimmt – und wer kümmert sich um den Menschen?

Das werden entscheidende Fragen sein. Wenn die Maschine einen Teil meiner Arbeit übernimmt, habe ich mehr Zeit, die ich vielleicht mit Menschen, mit Konsum oder mit Bildung verbringen möchte. Daraus entwickeln sich neue Berufsbilder. Influencertum ist für mich eine solche Entwicklung des digitalen Zeitalters. Auf Basis von Technologien hat sich aber auch in der Wissensvermittlung viel verändert. Es gibt jede Menge Plattformen wie Datacamp, Skillshare oder Brilliant, wo man außerhalb klassischer Bildungswege von privaten Ausbildern neue Dinge lernen kann, beispielsweise kreatives Schreiben oder Filmemachen. Die Demokratisierung von Bildung hat an diesen Stellen bereits dazu geführt, dass sich neue Berufsbilder entwickelt haben.

Quelle: F.A.Z.
Ursula Kals - Portraitaufnahme für das Blaue Buch "Die Redaktion stellt sich vor" der Frankfurter Allgemeinen Zeitung
Ursula Kals
Redakteurin in der Wirtschaft, zuständig für „Jugend schreibt“.
  Zur Startseite
Verlagsangebot
Verlagsangebot
ANZEIGE