FAZ plus ArtikelAllmächtige Algorithmen

Maschinen mit menschlichen Fehlern

Von Christian Kretschmer
 - 08:37

Algorithmen sind keine Wahrsager. Aber sie sollen wenigstens ein Stück weit in die Zukunft blicken. Das machen sie etwa in Fellbach am Rande Stuttgarts, wo Matthias Romberg in einem unscheinbaren Bürogebäude sitzt. Der Laptop vor ihm zeigt eine Karte der Landeshauptstadt. Fast wie ein Mosaik ist sie in rote, gelbe, grüne und blaue Kacheln eingeteilt. Darunter: Zahlen und Stichworte, wie „aufhebeln“ oder „Wohngebiet“. Benutzerfreundlichkeit sieht anders aus, gibt Romberg zu, der hier das Projekt P4-2 leitet. Unter diesem Namen testet das Landeskriminalamt in Stuttgart bereits zum zweiten Mal „Precobs“, eine Software, die Einbrüche vorhersagen soll.

Das Computerprogramm fußt auf der sogenannten Near-Repeat-Theorie. Sie besagt, dass Einbrecher bei einer einträglichen Beute abermals im gleichen Gebiet zuschlagen. Passiert das tatsächlich innerhalb von sieben Tagen im Umkreis von 500 Metern, handelt es sich für das Landeskriminalamt um einen Near Repeat. Erkennt der Algorithmus bei einem kürzlich begangenen Einbruch in einer Near-Repeat-Gegend Hinweise auf „professionelles“ Vorgehen, schlägt er Alarm. Die Kacheln färben sich rot. Der Precobs-Operator, der Beamte am Bildschirm, meldet den Alarm dann an das Polizeirevier vor Ort, das eine Streife losschickt, um nach dem Rechten zu sehen. Zwar sei der Mensch dabei die letzte Instanz, sagt Romberg, trotzdem ist der Algorithmus in die Befehlskette integriert. Auch er entscheidet mit.

Testen Sie unsere Angebote.
Jetzt weiterlesen

Testen Sie unsere Angebote.
F.A.Z. PLUS:

FAZ.NET komplett

: Beta

F.A.Z. Digital

F.A.Z. Premium

Diesen und viele weitere Artikel lesen Sie exklusiv mit F+

Quelle: F.A.S.
  Zur Startseite
Ähnliche ThemenStuttgartLKAUSABertelsmann-StiftungKünstliche Intelligenz