<iframe title="GTM" src="https://www.googletagmanager.com/ns.html?id=GTM-WBPR4W&gtm_auth=3wMU78FaVR9TNKtaXLbV8Q&gtm_preview=env-23&gtm_cookies_win=x" height="0" width="0" style="display:none;visibility:hidden"></iframe>
Algorithmen sprechen Recht

Vom Computer zur Gefahr für die Gesellschaft erklärt

 - 16:00
Algorithmen werden in Amerika zur Feststellung des Strafmaßes genutzt. Sie können das Rückfallrisiko eines Straftäters berechnen.

Sechs Jahre Haft für unerlaubtes Benutzen eines fremden Autos und mangelnde Kooperation mit der Polizei: Diese Strafe hatte Eric Loomis einem Algorithmus zu verdanken. Nachdem der Amerikaner 2013 in einen Überfall mit Waffengewalt verwickelt gewesen war, erstellte ein Computerprogramm der Firma Northpointe für ihn eine Sozialprognose – basierend auf dem Lebenslauf des Angeklagten und 137 Fragen, die er beantworten musste. Heraus kam, dass der mehrfach vorbestrafte Loomis auch künftig eine Gefahr für die Gesellschaft sein werde. Obwohl dem Mann im konkreten Fall wenig nachzuweisen war, schickte ihn der Richter ins Gefängnis.

Christoph Burchard erzählt das, um dem Vortragspublikum im Forschungskolleg Humanwissenschaften der Uni Frankfurt eines klarzumachen: Rechtsprechung mit Hilfe von Künstlicher Intelligenz ist keine Science-Fiction, sie wird längst praktiziert. Noch ist es nicht so weit, dass Elektronengehirne autonom Prozesse führen. Doch Burchard, Strafrechtsprofessor an der Goethe-Universität, empfiehlt dringend, schon jetzt über Leitlinien für den Einsatz lernfähiger Software in Gerichtsverfahren nachzudenken.

In den Vereinigten Staaten sei es mittlerweile vielerorts üblich, das Rückfallrisiko von Angeklagten durch Programme wie jenes von Northpointe zu ermitteln. Dahinter stehe die Erwartung, Gefahren für die Allgemeinheit besser einschätzen zu können, aber auch die Hoffnung auf schnellere und kostengünstigere Verfahren. Die Chinesen versuchen ebenfalls, Künstliche Intelligenz in die Rechtsfindung einzubeziehen. In dem autoritären Staat geschieht das laut Burchard vor allem aus dem Wunsch heraus, unerwünschte Abweichungen im Strafmaß zu unterbinden.

Video starten

Digitale Ethik
Müssen wir vor KI wirklich Angst haben?

„Humanistische, rationale Rechtsanwendung“

Aber auch liberale Forscher können der Idee etwas abgewinnen, Gerichte durch Algorithmen zu unterstützen. Ihnen geht es nach Burchards Worten um „humanistische, rationale Rechtsanwendung“: Sie erhofften sich von der angeblich weniger durch Vorurteile beeinflussten Maschinenlogik mehr Objektivität. Der Professor kann diesen Wunsch verstehen: Nach welchen Kriterien Richter Strafen verhängten, bleibe auch hierzulande oft im Dunkeln, und die Unterschiede beim Sanktionieren gleicher Delikte etwa in Hamburg und Bayern seien „schwer hinnehmbar“.

Trotzdem warnt Burchard vor dem Glauben, eine Künstliche Intelligenz könne nicht befangen sein. „Wenn Sie Vorurteile in Algorithmen hineinfüttern, kommen wieder Vorurteile heraus.“ Schon die Zusammenstellung der Informationen, auf deren Grundlage eine Software Empfehlungen abgebe, könne unausgewogen sein. Dies führe eventuell zu einer ungünstigeren Sozialprognose, wenn der Computer zum Beispiel einen Schwarzen begutachte. Ein Problem sei auch, dass die Hersteller solcher Programme ihre Algorithmen zum Teil aus Gründen des Urheberschutzes nicht offenlegten.

Technischer Fortschritt kaum aufzuhalten

Burchard hält es für möglich, Basisdaten und Software so abzustimmen, dass Vorurteile nicht reproduziert werden. Dann müsse allerdings auf demokratischem Weg darüber entschieden werden, wie „scharf“ ein solches Programm eingestellt werden solle: „Wollen wir ,Richter Gnadenlos‘ oder den Sozialromantiker?“ Wäre die Künstliche Intelligenz als virtueller Gutachter erst einmal etabliert, würde es den Rechtswahrern schwerfallen, ihre Empfehlungen zu ignorieren, glaubt der Wissenschaftler – allen Lobreden auf die richterliche Unabhängigkeit zum Trotz.

Da aber der technische Fortschritt nicht aufzuhalten sei, rät Burchard, sich jetzt mit den Möglichkeiten einer computerunterstützten Urteilsfindung auseinanderzusetzen und rechtzeitig Grenzen zu ziehen. „Wir müssen im Blick behalten, wann aus dem Beratungssystem ein Entscheidungssystem wird“ und eine Maschine über Menschenschicksale befinde. „Das ist die Kampflinie. Überschreiten wir sie, wird sich das Recht signifikant verändern.“

Quelle: F.A.Z.
  Zur Startseite
Ähnliche ThemenKünstliche IntelligenzComputerPolizeiSoftware