EU-Weißbuch zur KI

Künstliche Intelligenz in Ketten

Von Piotr Heller
Aktualisiert am 21.02.2020
 - 12:03
Wenn wir es auch nicht wirklich wollen, wir müssen uns mit Robotern und Künstlicher Intelligenz arrangieren.
Auch die Europäische Union will lernende Software regulieren. Die Kommission hat dazu jetzt ein entsprechendes Weißbuch vorgelegt. Doch kann man eine Technologie voranbringen, indem man ihr Schranken setzt?

Mitte Januar sickerte die vorläufige Fassung eines Positionspapiers der Europäischen Kommission zu Künstlicher Intelligenz an die Öffentlichkeit. Ausgerechnet ein Seitenaspekt sorgte für Aufregung. Das Magazin „Politico“ hatte den Entwurf in die Hände bekommen und titelte, die EU erwäge ein temporäres Verbot von Gesichtserkennung im öffentlichen Raum. Tatsächlich ist in dem Papier davon die Rede, Gesichtserkennung für drei bis fünf Jahre auszusetzen, um die Folgen und Risiken dieser Technologie abzuwägen. Keine zwei Wochen später meldete „Reuters“, die Kommission habe sich inzwischen von diesem Verbot verabschiedet. Viel wichtiger dürften aber ohnehin andere Aspekte des 31 Seiten langen Weißbuchs der Europäischen Kommission sein, das den Titel „Zur Künstlichen Intelligenz – ein europäisches Konzept für Exzellenz und Vertrauen“ trägt.

Neben den üblichen Verheißungen der KI wie verbesserter Medizin, weniger Verkehrsunfällen und mehr Wirtschaftswachstum widmet sich das Papier den Risiken der Technologie. Dann listet es Optionen auf, sie zu regulieren. KI-Entwicklern könnte man beispielsweise vorschreiben, gewisse Kenngrößen offenzulegen. Außerdem ist von „Designprinzipien“ die Rede, an die sie sich halten müssten, um die Risiken zu mindern. Für die Daten, mit denen selbstlernende Programme trainiert werden, schlägt das Papier verpflichtende Kriterien zu Qualität und Diversität vor. Schließlich erörtert es auch Regeln für die Haftung, falls intelligente Maschinen Schaden anrichten.

Amerika und China haben etwas andere KI-Pläne

Was alles zunächst unverbindlich klang, ist seit dem 19. Februar im Detail in der finalen Fassung des Weißbuchs nachzulesen. Schon der Entwurf bot ein Bild davon, wie ein europäischer Ansatz für die Regulierung Künstlicher Intelligenz aussehen könnte. Die Frage ist, ob neue Vorschriften Europa im Vergleich zu China und Amerika voranbringen oder die Entwicklung der Technologie bremsen. Diese beiden Mächte arbeiten derzeit selbst an Regulierungen für KI. Washington pocht dabei auf einen liberalen Ansatz, während China zwar vorhat, ethische Normen zu formulieren, bisher aber vage bleibt. Dort geltende Regeln zum Datenschutz deuten laut einer Studie des Oxford Internet Institute aber auf eine Strategie hin, die vor allem dem Staat viele Freiheiten einräumt. So sei der Datenschutz in China formal streng geregelt, biete aber zahlreiche Schlupflöcher, wenn es um „Sicherheit“, „Gesundheit“ oder um „signifikantes öffentliches Interesse“ gehe.

In diesem Spannungsfeld sieht Karl-Heinz Streibich, Präsident der Deutschen Akademie der Technikwissenschaften, einen klaren Weg für den alten Kontinent. „Wir Europäer haben die Chance, einen differenziert definierten Umgang mit Daten und Künstlicher Intelligenz zu entwickeln.“ Ein Regelwerk für KI müsste dabei auf europäischen Werten basieren. „Es würde dann auch global attraktiv und beispielgebend werden, denn die Menschen wollen das so“, erklärt Streibich. Der Technikhistoriker David Gugerli von der ETH Zürich hält eine Regulierung von KI für nahezu unausweichlich. „Es gibt keine bedeutenden Technologien, die nie reguliert worden wären“, sagt er. Eisenbahn, Flugverkehr, Elektrizitätsnetze – all das wäre ohne staatliche oder privatwirtschaftliche Regeln undenkbar.

Regulieren, um Akzeptanz zu schaffen

Bei der KI könnte staatliche Regulierung einerseits negative Auswüchse verhindern, wie etwa den Verlust der Privatsphäre durch intelligente Auswertung von Daten oder die ständige Gesichtserkennung im öffentlichen Raum. Auf anderen Feldern könnte Regulierung der KI sogar erst zum Durchbruch verhelfen, indem sie dafür sorgt, dass die Technologie überhaupt akzeptiert wird. Heute etwa nutzen manche Firmen bereits KI, um Kredite oder Arbeitsplätze zu vergeben. „Wenn KI Dinge entscheidet, die Menschen betreffen, muss sie nachvollziehbar und diskriminierungsfrei sein“, fordert Streibich. Das sei eine Frage der Achtung vor dem Menschen, was wiederum europäische Werte widerspiegele. Bei den heutigen Systemen ist das aber nicht immer gegeben. Die Entwickler können mitunter selbst nicht nachvollziehen, auf welcher Grundlage ihre Programme entscheiden. Damit wissen sie wiederum nicht, ob die KI manche Menschen diskriminiert.

Wie so etwas schiefgehen kann, hat „Reuters“ vor zwei Jahren beschrieben. Demnach hatte der Versandhändler Amazon einem Computersystem beigebracht, Job-Kandidaten vorzusortieren. Irgendwann habe man festgestellt, dass der Algorithmus Frauen benachteilige. Das war überraschend, denn das System kannte das Geschlecht der Bewerber gar nicht. Der Grund lag vermutlich darin, dass die Entwickler das System mit Lebensläufen aus den letzten zehn Jahren trainiert hatten. In dieser Zeit hatte der Konzern relativ wenige Frauen eingestellt. Das Programm hat daraus anscheinend gelernt, Hinweise wie die Mitgliedschaft in Frauenvereinen oder Abschlüsse an Mädchenschulen negativ zu bewerten. Mit Regeln für die Zusammensetzung von Trainingsdaten könnte man solche Fälle mitunter verhindern. Gleiches gilt für medizinische Programme, die etwa automatisch Hautkrebs erkennen. Forscher vermuten, dass diese Algorithmen nur bei weißer Haut zuverlässig sind, weil ihre Trainingsdaten meistens aus Aufnahmen westlicher Arztpraxen bestehen.

Die Konkurrenz hat mehr Trainingsmaterial

Das autonome Fahren wiederum könnte von staatlicher Regulierung profitieren, weil sie für Rechtssicherheit sorgen würde. Bisher dürfte kein Hersteller ein selbstfahrendes Auto auf die Straße schicken, selbst wenn er die Technologie dafür hätte. Ohnehin würde ein Unfall mit Auto ohne Fahrer derzeit unkalkulierbare rechtliche Risiken bergen. Staatliche Regeln zur Sicherheit autonomer Autos und zu Haftungsfragen könnten Europa zu einem Forschungsfeld für diese Technik werden lassen.

Zurzeit wirkt der Kontinent in Sachen KI jedoch abgehängt. Die erfolgreichen Firmen sitzen mit Google, Amazon und Facebook in den Vereinigten Staaten. China hat mit Alibaba, Weibo und Tencent eigene KI-Schwergewichte. Ein Vorteil dieser Konzerne ist es, dass sie ihre Dienste direkt dem Endkunden anbieten und im Gegenzug deren Daten sammeln. Mit diesen Informationen trainieren und verbessern sie wiederum ihre lernenden Systeme. Europäische Firmen können mit den Vorteilen dieser Rückkopplungsschleife nicht mithalten. Ihre Stärken liegen in Robotertechnik und industrieller Steuerung. Das könnte sich aber in Zukunft als Vorteil erweisen, wenn Fabriken, Krankenhäuser und Fahrzeuge immer vernetzter werden und ihrerseits Daten produzieren.

Woher all die KI-Experten nehmen?

Jan Peters, der an der TU Darmstadt maschinelles Lernen erforscht, sieht in Europa aber noch ein Problem: „Man hat hier nicht verstanden, dass es bei KI um Köpfe geht“, sagt er. Amerikanische Unternehmen hätten früh darauf gesetzt, die besten Leute einzukaufen, denn die KI-Entwicklung sei arbeitsaufwendig und bedürfe viel höherer Qualifikation als in Europa angenommen. „Man braucht eine riesige Zahl von promovierten Experten, die ständig brandheißes Wissen haben und auf dem neuesten Stand bleiben“, sagt Peters. Das liegt daran, dass sich das Feld sehr rasch entwickelt. Die Anzahl der pro Jahr veröffentlichten Studien hat sich in den letzten zwei Jahrzehnten verzehnfacht, die Zahl der Besucher großer KI-Konferenzen ebenso. Grob geschätzt verdoppelt sich die Leistung von KI-Systemen alle 3,4 Monate. „Heute kann ich nicht mehr verfolgen, was in den über 20.000 Veröffentlichungen zu KI pro Jahr weltweit passiert, und das geht nicht nur mir so“, sagt Peters.

Wie soll man die Technologie angesichts dieser Entwicklung überhaupt regulieren? „Wir können uns die schlimmsten Auswüchse gar nicht vorstellen“, sagt der Historiker Gugerli. Es könnte also sein, dass man mit Regulierung gegen eine Schreckensvision ankämpft, um später zu merken, dass man ein anderes, viel wichtigeres Problem gar nicht hatte kommen sehen. „Oder umgekehrt: Man würgt etwas ab, das eigentlich gut gewesen wäre“, erklärt Gugerli. In dem europäischen Vorstoß sieht er zumindest den Vorteil, dass die Politik dadurch einen Fuß in der Tür hätte, um überhaupt Einfluss auf die KI-Entwicklung nehmen zu können. „Es entstehen Aushandlungszonen, die dann mit der Zeit konkretisiert werden.“

Die Gefahr fehlgeleiteter Regulierung

Für Jan Peters steht in Europa aber die Gefahr einer falschen Regulierung im Vordergrund. „Wir haben viele kleine Firmen, die Nischenprodukte herstellen.“ Anders als große Konzerne täten sie sich schwerer damit, komplexen Regeln zu entsprechen. Überbordende Regulierung würde die europäischen Werte laut Peters nicht schützen, sondern sogar bedrohen. Nämlich dann, wenn sie die Entwicklung von KI hier hemmen und Europa auf lange Sicht dazu zwingen, KI-Systeme in den Vereinigten Staaten oder China einzukaufen. Dann würde man sich die Regeln irgendwann von den dortigen Unternehmen diktieren lassen. Vor allem stört Peters sich an dem Vorstoß zur Regulierung von Designprinzipien, wie sie in dem Entwurf des Weißbuchs erwähnt wird. „Man kann diese Prinzipien nur für die vorhandenen Systeme vorschreiben“, sagt er. Doch jegliche statische Regel dieser Art wäre angesichts der technischen Entwicklung binnen Monaten überholt.

Stattdessen müsse man so wie bei der Entwicklung von KI auch bei ihrer Regulierung auf kluge Köpfe setzen. Peters schlägt dafür staatliche Zertifizierungen vor. Für die Anwender würde das bedeuten, dass sie lernen, welche Schwächen die Systeme haben und wie man damit umgeht. Mediziner etwa müssten erfahren, dass die Zuverlässigkeit einer automatischen Hautkrebsanalyse stark von den Trainingsdaten der Algorithmen abhängt. „Als Konsequenz wäre der Arzt verpflichtet, zunächst seine eigene Diagnose einzugeben, dürfte das Gerät erst danach zur Prüfung der Diagnose verwenden“, schwebt Peters vor. Stimmten Mensch und Maschine nicht überein, müsste eine dritte Meinung her. Erst mit der Zeit würde ein solches Assistenzsystem zu einer Diagnosemaschine reifen, die vielleicht ohne den Menschen funktionieren könnte. Auch die Zulassung von KI-Systemen würde Peters in die Hand staatlich zertifizierter Experten geben, die immer auf dem neuesten Wissensstand sein müssten und die Risiken der Technik einschätzen könnten. Solch eine Lösung würde zwar das Problem statischer Regeln umgehen. Allerdings setzt sie voraus, dass es dafür genug KI-Experten gibt – und die sind heute noch rar.

Wie die KI-Mächte die Technologie regulieren wollen

Die Vereinigten Staaten vertrauen auf die Industrie

Im Februar 2019 unterzeichnete Donald Trump ein Dekret, das Amerikas Führungsanspruch in Sachen Künstliche Intelligenz zu festigen versprach. Darin forderte er auch, die Technologie solle bürgerliche Freiheiten, die Privatsphäre und amerikanische Werte schützen. Anfang dieses Jahres veröffentlichte die Regierung dann Anweisungen zur Umsetzung. Regulierungen sollen demnach Wachstum und Innovation von KI so wenig wie möglich belasten. Von technischen Vorgaben sei abzusehen, und freiwillige Industriestandards seien zu bevorzugen. Gleichzeitig schickte Washington eine Mahnung an Europa: Es solle Abstand von schwerwiegenden, innovationsfeindlichen Regulierungen nehmen.

Die Europäische Union will Werte mit Hilfe von Regeln verteidigen

Die EU Kommission präsentierte 2018 ihre KI-Ethik-Leitlinien. Diese fordern etwa, dass KI stets unter menschlicher Aufsicht läuft, die Privatsphäre schützt, transparent ist und nicht diskriminiert. Einen Vorschlag zur Umsetzung gibt ein Weißbuch, das die Europäische Kommission am 19. Februar 2020 präsentierte. Darin stehen Designparameter zur Diskussion, um die Risiken von KI zu senken, Regeln für Daten, aus denen Systeme lernen können, und eine Informationspflicht beim Einsatz von KI.

China hat den großen Plan

Als Googles Programm AlphaGo 2016 einen der weltbesten Go-Spieler schlug, erlebte China seinen Sputnik-Schock. Ein Jahr später präsentierte die Regierung einen Plan: Bis 2030 soll das Land in KI weltweit führend werden. Regulierungen sollen in Etappen erfolgen. 2020 werden erste ethische Normen entstehen, die 2025 in Gesetze gegossen werden könnten. Die will man laut Plan dann bis 2030 an neue Herausforderungen anpassen. Beobachter vermuten, dass es bei staatlich gewünschten Projekten Ausnahmen geben wird.

Quelle: F.A.S.
  Zur Startseite
Verlagsangebot
Verlagsangebot