DLD-Konferenz

Dürfen Maschinen über Leben und Tod entscheiden?

Von Jonas Jansen
14.01.2017
, 12:37
Roboter könnten demnächst die Pflege von Menschen mit Behinderung übernehmen.
Roboter, die Kranke pflegen und Autos, die selbst fahren. Der zunehmend digitale Lebenswandel erfüllt viele Menschen mit Ohnmacht und wirft zum Auftakt der DLD-Konferenz am Sonntag die Frage auf, ob Maschinen eine Moral haben können und dürfen.
ANZEIGE

Roboter, autonome Maschinen oder lernende Algorithmen lösen die dringendsten Probleme unserer Welt – das versprechen uns zumindest ihre Erschaffer. Wir messen sie daran, Herz und Hirn gefüllt mit der Angst, dass uns Maschinen zu neuen, unlösbaren Problemen führen. Das hat zwei Gründe: unser Unverständnis, wie Dinge genau funktionieren. Und die Ohnmacht, die wir fühlen, wenn sich die Welt in einer Art verändert, die wir nicht mitbestimmen können. Eine gewisse Skepsis ist also angebracht. Doch vielleicht ist es gar nicht so schlimm, wie man meint.

ANZEIGE

Die Fragen jedenfalls stellen sich in vielen Lebensbereichen. Autonome Autos: Machen es jedermann leicht, mobil zu werden; sie sollen den Straßenverkehr sicherer gestalten. Doch vertrauen ihnen noch nur wenige Menschen, viele fürchten sich vor Unfällen. Pflegeroboter: Könnten den Notstand in der Belegschaft in Kranken- und Altenhäusern ausgleichen. Doch was passiert, wenn ein Patient fällt – kann, darf und will der Roboter ihm helfen? Autonom fliegende Drohnen: Können schwer erreichbare Ziele ohne die Gefährdung von Soldaten ausschalten. Nur: Kann ein Kampfroboter differenzieren, ob ein Angriff auch Zivilisten tötet? Sollte er überhaupt selbst über Leben und Tod entscheiden?

Maschinen besitzen keine Empathie oder einen freien Willen

Je rasanter sich Technologie entwickelt, desto lauter wird die Forderung, schnelle Antworten auf die Frage zu finden, was passiert, wenn wir Entscheidungen auf Maschinen übertragen. Juristen und Politiker diskutieren diese Fragen seit einigen Jahren, jeweils bezogen auf ganz konkrete Fälle wie fahrende Autos oder pflegende Roboter. Die Industrie treibt sie an, große Unternehmen wie Google, Tesla und Amazon experimentieren mit selbstlernenden Algorithmen. Selbst die Deutsche Post testet längst autonome Paketdrohnen. Selbstfahrende Autos sind schon auf den Straßen unterwegs. Thomas Klindt, Fachanwalt für Verwaltungsrecht bei der Kanzlei Noerr, sagt: „Für uns Juristen ist es eine spannende Zeit, weil technisch ganz viel erfunden und auf die Straße gebracht wird, obwohl rechtlich noch nicht klar ist, was davon geht.“ Um das zu entscheiden, muss sich aber die Gesellschaft erst mal darüber klar werden, was gehen soll: Es geht um Ethik und Moral.

DHL testet bereits die Auslieferung von Paketen per Drohne.
DHL testet bereits die Auslieferung von Paketen per Drohne. Bild: dpa

Es lohnt sich, einen Schritt zurückzutreten. Natürlich besitzen Maschinen keine Empathie oder einen freien Willen, aber Moralvorstellungen können Maschinen problemlos beigebracht werden. Die Frage, ob Maschinen eine Moral besitzen sollten, fängt aber schon mit einem so simplen Gerät wie einem Staubsaugerroboter an. Ein staubsaugender Roboter hat nur wenige Sensoren, er bewegt sich auf einer Ebene und in einem begrenzten Raum. Wir können ihn so programmieren, dass er in einem Wohnzimmer eine bestimmte Route abfährt. Gleichzeitig ist es möglich zu definieren, welche Hindernisse ein solcher Roboter erkennt und wahrnimmt. Ein Stuhlbein: Natürlich dreht er um. Eine Teppichkante: Die könnte er vielleicht überwinden. Eine Spinne, die über den Teppich krabbelt? Da fängt das Problem an.

ANZEIGE

Für die meisten Menschen wären Fliegen oder Spinnen, die von Robotern aufgesaugt werden, eine zu vernachlässigende Variable. Doch solange das nicht für alle gilt, stellt sich dort theoretisch schon eine ethische Frage. Der Entscheidungsspielraum des Roboters – saugen, umdrehen, ausschalten – kann beliebig erweitert werden. So könnte der Staubsauger kleine Hindernisse erkennen und bewerten, je nachdem, ob es eine Büroklammer oder ein wertvoller Ring ist.

Paketroboter als Stolperfallen

Oliver Bendel hat solch einen Saugroboter entworfen. Der Wirtschaftsinformatiker lehrt an der Fachhochschule Nordwestschweiz zu Informations- und Maschinenethik. Seit vielen Jahren forscht er in dem Bereich, trotzdem sagt er heute noch: „Ich kenne bis heute keine präzise Beschreibung für eine Algorithmenethik.“ Das zeigt, wie kompliziert die Begrifflichkeit einer Algorithmenethik noch ist. Kein Wunder, dass die Diskussion darum von Zukunftsoptimisten wie notorischen Pessimisten gleichermaßen gefühlsbetont geführt wird. Bendel hat selbst ein Lexikon zur Informations- und Maschinenethik entwickelt, das Fachbegriffe sammelt, er hat Dutzende Forschungsarbeiten dazu verfasst. Je länger er sich damit beschäftigt hat, desto enger hat er sein persönliches Feld begrenzt. Bendel fokussiert sich vor allem auf halboffene, also begrenzte Räume wie Privatgelände oder eingezäunte Gärten und dort auf das Tierwohl.

Putzroboter auf der Technikmesse CES in Las Vegas
Putzroboter auf der Technikmesse CES in Las Vegas Bild: dpa

„Ich bin grundsätzlich skeptisch in Bezug auf offene Welten, zumindest wenn Menschen betroffen sind“, sagt Bendel. Schon ein Paketroboter, der durch die Nachbarschaft navigiert, sei zunächst eine rollende Stolperfalle. Er begegnet Tieren und Kindern, Objekten also, deren Handlungen Programmierer ihm nur schwer vorhersagen können. Auch fliegende Paketdrohnen würden trotz weniger Hindernisse im Luftraum ethische Fragen aufwerfen: Würde eine Drohne von Amazon einem Schwarm Schwalben ausweichen? Wie sieht es mit kleineren Vögeln aus? Zudem haben diese Drohnen Kameras, schon stellt Bendel Fragen nach Datenschutz und dem Recht am eigenen Bild. „In dünn besiedelten Gegenden kann das durchaus Sinn ergeben, wenn sich Nachbarn etwas zuschicken wollen. Aber für eine Massenabfertigung in Ballungsgebieten sehe ich das nicht“, sagt der Forscher. Zu viele Hindernisse stünden noch im Weg.

ANZEIGE

Algorithmen können transparent, aber trotzdem unverständlich sein

Thomas Hofmann, Professor für Data Analytics im Fachbereich Informatik der ETH Zürich, sieht da geringere Probleme: „Es ist nicht sonderlich schwierig, Kriterien festzulegen, die überprüfbar sind.“ So wie heute der TÜV Autos oder technische Geräte prüft, müsse man sich nur überlegen, welche Testprotokolle man anwenden möchte. Hofmann warnt vor einem falschen Verständnis von Algorithmen: Zu stark würde versucht, unbedingt Transparenz herzustellen. Doch dass ein Algorithmus offengelegt ist, heißt noch nicht, dass er verständlich ist. Vielleicht ist das auch gar nicht nötig: Medizinforscher wissen recht genau, wie Botenstoffe transportiert werden, wie Organismen wirken.

Trotzdem gibt es elaborierte Protokolle, wenn es darum geht, Medikamente zu erlauben. Niemand würde auf die Idee kommen, Aspirin zu verbieten, solange nicht alle Wirkmechanismen bis ins letzte Detail entschlüsselt sind. Wir akzeptieren den Nachweis, dass es für eine definierte Personengruppe funktioniert. Im Testszenario für selbstfahrende Autos legen die Entwickler ein System fest, das Verkehrsschilder erkennen und Personen ausweichen soll. „Ich glaube, dass es die richtige Lösung ist, Algorithmen stärker wie Personen zu behandeln“, sagt Hofmann. So wie eine Person in einer Fahrschule beweist, dass sie Auto fahren kann, könnten solche Tests auch für Maschinen und Algorithmen gelten. Von einem Menschen erwartet schließlich auch niemand, dass er transparent darlegt, wie er die Fahrprüfung bestanden hat.

ANZEIGE

Maschinen würden nie Menschen demütigen

Derzeit gibt es praktisch keine Gerichtsurteile, die sich mit Haftungsfragen beschäftigen. Anwalt Klindt sagt: „Bis ein regulativer Rahmen existiert und neue Techniken echte eigene Gesetze bekommen, vergeht eine lange Zeit.“ Wichtig sei zudem, dass es dann auch europäisches Recht sei und nicht eigene Regeln für einzelne Länder. Autos, die sich autonom im Straßenverkehr bewegen, sind natürlich ein Risiko – und wir müssen uns darauf einstellen, dass auch Algorithmen nicht fehlerlos sind. Daraus kann man unterschiedliche Schlüsse ziehen: „Ich heiße es nicht gut, wenn Maschinen in offenen Räumen Entscheidungen treffen über Leben und Tod von Menschen“, sagt Bendel.

Ron Arkin, einer der angesehensten amerikanischen Forscher zu künstlicher Intelligenz und Maschinenethik, glaubt hingegen sogar an moralische Kampfroboter. Er glaubt, Menschen würden zu stark idealisiert. Dabei vergewaltigen sie und brandschatzen im Krieg. Eine Maschine würde so etwas nie tun. Sie hat keine Emotionen, keine Gefühle, und sie will niemanden herabwürdigen. Eine Demütigung von Kriegsgefangenen wie in Abu Ghraib würde es mit Robotern nie geben. Thomas Hofmann vom ETH hat manchmal den Eindruck, dass Menschen übersehen, wie schlecht viele menschliche Entscheidungen sind. „Wir setzen viel höhere Maßstäbe an Algorithmen, während wir mit den unperfekten Entscheidungen von Menschen leben.“

Code ist logisch strukturiert – und das ist ein großes Problem

Das Problem solcher Roboter zeigt sich freilich durch ihre Klassifizierung. Wenn ein Auto einen Unfall nicht verhindern kann, muss es sich entscheiden: Unterscheidet es nach Alter, Geschlecht oder Status – oder nach der Menge der potentiellen Opfer? Niemand würde einsehen, getötet zu werden, nur damit zwei andere überleben. Die moralische Frage bemisst sich da nur an der Höhe der Verluste. Das ist für Programmierer und Entwickler ein riesiges Problem: Denn der Code, den sie benutzen, ist frei von Widersprüchen und logisch strukturiert. Trotzdem sollen sie ihm nun Regeln einspeisen, die existentielle ethische Fragen berühren.

Wenn ein menschlicher Fahrer von der Straße abkommt und in ein Geschäft rast, ist das ein Unfall, den der Mensch nicht mehr verhindern kann. Für eine Maschine gibt es keinen Unfall, sondern nur eine Fehlprogrammierung, je nach Bewertung. Denn ihr Vorteil, in Millisekunden Situationen zu berechnen und zu reagieren, wird so zum Nachteil. Es macht aus jeder Maschinenentscheidung eine bewusste Handlung. Doch wäre ein Ansatz auch, das Potential vom autonomen Fahren ausgehend vom Status quo zu bewerten. Schließlich gibt es derzeit noch sehr viele Verkehrstote. Oder wie Hofmann sagt: „Wir müssen nicht davon ausgehen, dass Maschinen perfekt sind. Sondern wie sie abschneiden relativ zur gängigen Praxis.“

ANZEIGE

Es braucht klar definierte Regeln

Im Zusammenspiel von Mensch, Moral und Maschine lernen wir hinzu. So haben die Tesla-Ingenieure zunächst die Kamera des Autos über- und den Radar unterbewertet. Dabei lässt sich eine Kamera genauso wie ein Auge leicht überlisten, ein Radarsensor dagegen blickt auch durch Nebelschwaden. Dass trotzdem ein Tesla-Fahrer bei eingeschaltetem Autopiloten starb, zeigt die noch vorhandenen Schwächen des Systems.

Vielleicht müssen wir uns davon verabschieden, existentielle Fragen in Gänze zu beantworten. Sondern reagieren auf technischen Fortschritt mit dem Rüstzeug, das wir schon haben: Rechtsgrundlagen und klar definierte Regeln in überschaubaren Räumen. So inspirierend Weltumkrempler wie Elon Musk sein mögen, die ausloten, was technisch alles möglich ist – es könnten andere sein, die den Fortschritt bringen. Jene, die sich zuerst auf ihren persönlichen Saugroboter konzentrieren.

Die DLD-Konferenz

DLD (Digital, Life, Design) ist eine dreitägige Konferenz von Hubert Burda Media in München, die sich seit der Gründung 2005 das Ziel gesetzt hat, die wichtigsten Personen und Ideen der „Digitalen Transformation“ zusammenzubringen, um die fundamentalen Veränderungen in unserer Gesellschaft zu begleiten und zu erklären. Der DLD17 blickt unter anderem auf künstliche Intelligenz, Mobility, Big Data, Future of Work, Security & Cyberwar. Steffi Czerny hat 2005 die DLD Conference gegründet und leitet den Bereich heute gemeinsam mit Ko-Geschäftsführer und DLD-Chefredakteur Dominik Wichmann. Das Team organisiert auch Konferenzen in New York, Tel Aviv und Brüssel. DLD-Chairmen sind Yossi Vardi, Burda-CEO Paul-Bernhard Kallen und Dr. Hubert Burda, der mit „Digitale Horizonte“ (erschienen im Petrarca Verlag) seine Strategien für neue Medien in einem neuen Buch zusammenfasst.

Quelle: F.A.Z.
Autorenporträt / Jansen Jonas
Jonas Jansen
Wirtschaftskorrespondent in Düsseldorf.
FacebookTwitter
  Zur Startseite
Verlagsangebot
Verlagsangebot
ANZEIGE