<iframe title="GTM" src="https://www.googletagmanager.com/ns.html?id=GTM-WBPR4W&gtm_auth=3wMU78FaVR9TNKtaXLbV8Q&gtm_preview=env-23&gtm_cookies_win=x" height="0" width="0" style="display:none;visibility:hidden"></iframe>
Datenethik

Der Weg der gestaffelten Algorithmen

Von Roya Sangi
 - 22:17

Hat das Handeln eines Menschen an sich einen ethischen Wert, der dem Funktionieren maschineller Systeme vorzuziehen ist? Dies bejaht die Datenethikkommission, die von der Bundesregierung im vergangenen Jahr beauftragt worden war, ethische Maßstäbe und konkrete Handlungsempfehlungen für den Schutz des Einzelnen, die Wahrung des gesellschaftlichen Zusammenlebens und die Sicherung und Förderung des Wohlstands im Informationszeitalter zu entwickeln. Leitfragen zu drei Themenfeldern hat die Bundesregierung dabei formuliert: Algorithmenbasierte Prognose- und Entscheidungsprozesse, Künstliche Intelligenz und Daten.

Die Antwort der Datenethikkommission liegt nun vor. In einem knapp zweihundertdreißig Seiten umfassenden Gutachten formuliert sie nicht weniger als 75 konkrete (überwiegend rechtliche) Handlungsempfehlungen. Im Einklang mit dem Menschenbild des Grundgesetzes ist dem Gutachten die Sinndimension des menschlichen Handelns zugrunde gelegt: Im Handeln verwirkliche und entfalte sich der Mensch gemäß seinen Vorstellungen von einem sinnvollen Leben.

Insofern könnten technische Systeme zwar ein Element menschlichen Handelns sein, aber menschliches Handeln niemals vollständig ersetzen, denn während sie lediglich funktionierten, frage der Mensch nach dem Sinn des Lebens.

75 Empfehlungen

Die Datenethikkommission orientiert sich nicht schematisch an vorgegebenen Fragen. Ihre Ausführungen beziehen sich auf Daten und algorithmische Systeme im Allgemeinen. Ihnen vorangestellt sind die allgemeinen ethischen und rechtlichen Grundsätze, insbesondere die Würde des Menschen, das Recht auf informationelle Selbstbestimmung, die körperliche und emotionale Sicherheit, die Zugangs- und Verteilungsgerechtigkeit sowie – wenngleich sie im Gutachten nur abstrakt zur Sprache kommt – die Nachhaltigkeit.

Hieran orientiert, stellt die Datenethikkommission zunächst Anforderungen an die Nutzung personenbezogener Daten auf. Sie empfiehlt Maßnahmen gegen ethisch nicht vertretbare Datennutzung wie die Totalüberwachung, Profilbildungen, welche die Integrität der Persönlichkeit verletzen, oder die Beeinflussung politischer Wahlen im Widerspruch zum Demokratieprinzip. Aber auch jenseits der personenbezogenen Daten fordert sie, den datenbezogenen Schutz von Unternehmen zu verbessern. Großzügig zeigt sich die Datenethikkommission hingegen in Sachen datenbasierter Forschung, die in dieser Woche mit den Lesungen im Bundestag zum „Digitale-Vorsorge-Gesetz“ von Gesundheitsminister Jens Spahn (CDU) auf die parlamentarische Tagesordnung kommt – und in den sozialen Medien bereits kontrovers diskutiert wird.

Die Datenethikkommission wünscht sich vor allem eine Harmonisierung forschungsspezifischer Regelungen auf nationaler und auf EU-Ebene. Großes Potential sieht sie zudem im innovativen Datenmanagement und in Daten-Treuhandsystemen sowie in Konzepten offener Daten des öffentlichen Sektors. Daten-Sacheigentum oder ein dem geistigen Eigentum nachgebildetes Ausschließlichkeitsrecht an Daten sowie die Bezeichnung von Daten als „Gegenleistungen“ lehnt die Datenethikkommission ganz klar ab. Nicht ganz konsequent erscheint vor diesem Hintergrund ihr Vorschlag, Verbrauchern alternative Bezahlmodelle gegenüber der Freigabe von Daten anzubieten. Denn damit gesteht sie zugleich ein, dass Daten tatsächlich alternative Gegenleistungen darstellen.

Mit einigem Recht moniert die Datenethikkommission das strukturelle Vollzugsdefizit im Bereich des Datenschutzrechts, insbesondere gegenüber marktmächtigen Unternehmen. Neben der überfälligen Verbesserung der Ausstattung der Aufsichtsbehörden regt sie daher an, die Datenschutzaufsicht für den Markt zu zentralisieren, verbunden mit der Konzentration der gerichtlichen Kontrolle bei einem bestimmten Gericht. Lediglich punktuell schlägt sie eine Verschärfung des geltenden Rechtsrahmens vor.

Schadensstufen für Algorithmen

Mit Blick auf Algorithmen, die das Alltagsverhalten beeinflussen, legt die Kommission einen ausdifferenzierten Ansatz zugrunde. Sie rät davon ab, ihnen Rechtspersönlichkeit zuzuerkennen, vielmehr sei das Haftungsrecht anzupassen. Unter dem Gesichtspunkt der Diskriminierung erachtet sie es als besonders kritisch, wenn algorithmische Systeme rechtlich als sensibel anerkannte Kategorien von Daten wie Geschlecht oder Herkunft direkt verwenden oder indirekt kodieren. Hier sei eine Sensibilisierung aller an Entwicklung und Einsatz eines solchen Systems Beteiligten für komplex bedingte diskriminierende Effekte notwendig.

Zu diesem Zweck empfiehlt sie, den Anwendungsbereich des Allgemeinen Gleichbehandlungsgesetzes auf alle automatisierten Entscheidungsverfahren auszudehnen. Offen bleibt allerdings, wie technisch sichergestellt werden soll, dass die den Algorithmen zugrundeliegenden Entscheidungsmuster keine systematische Diskriminierung aufweisen, wenn sich selbst lernende Algorithmen doch autonom jenseits der Zwecksetzung des Entwicklers weiterentwickeln können.

Die Anforderungen an ein algorithmisches System möchte die Datenethikkommission von der „Systemkritikalität“ abhängig machen, welche am Schädigungspotential ansetzt. Hinter der zunächst innovativ anmutenden Terminologie steht indes die altbekannte und bewährte Formel aus dem allgemeinen Gefahrenabwehrrecht: Je höher die Wahrscheinlichkeit eines Schadenseintritts und je schwerer der zu befürchtende Schaden, desto höher die Anforderungen und Eingriffstiefen der regulatorischen Instrumente. Die Bestimmung des Schädigungspotenzials soll der Gesetzgeber anhand eines übergreifenden Modells einheitlich vornehmen. Hierfür gibt sie dem Gesetzgeber fünf Kritikalitätsstufen an die Hand, die von Anwendungen ohne Schädigungspotenzial bis hin zu Anwendungen mit unvertretbarem Schädigungspotential reichen. Je nach Stufe seien Ex-post-Kontrollen, Zulassungsverfahren, verschärfte Kontroll- und Transparenzpflichten oder gar vollständige Verbote erforderlich. Die Kontrolle möchte die Kommission durch ein bundesweites „Kompetenzzentrum algorithmische Systeme“ sichergestellt wissen. Zu empfehlen sei außerdem eine europäische Verordnung für algorithmische Systeme nebst sektoraler Konkretisierung auf nationaler und EU-Ebene. Die Sicherung der digitalen Souveränität Deutschlands und Europas erfordere Stärke, denn wer von anderen, zumal nicht legitimierten, ausländischen Unternehmen abhängig sei, sei kein „rule maker“, sondern „rule taker“.

Die Vorschläge der Datenethikkommission sind zwar überwiegend rechtlicher, nicht aber theoretischer Natur. Wiewohl deren Umsetzung weitergehender technischer Erörterungen bedarf und nicht geringe Herausforderungen mit sich bringen mag, ist sie zum Erhalt der Sinndimension des menschlichen Handelns im Zeitalter selbst lernender Algorithmen nicht nur sinnvoll, sondern essentiell.

Die Autorin

Die Autorin ist Rechtsanwältin für Verfassungs- und Europarecht in Berlin.

Quelle: F.A.Z.
  Zur Startseite
Ähnliche ThemenBundesregierungEuropäische Union