Teilen:

change Magazin – Das Magazin der Bertelsmann Stiftung

Patternizr: Diese Software erwischt Kriminelle in New York

Ein Auto der New Yorker Polizei Benjamin Jopen / Unsplash.com – Unsplash License, unsplash.com/license

Patternizr: Diese Software erwischt Kriminelle in New York

  • Benjamin Jopen / Unsplash.com – Unsplash License, unsplash.com/license
  • 05. Juli 2019

Räuber und Diebe mithilfe einer Computersoftware festnehmen? In New York suchen Algorithmen nach Verbrechensmustern in sämtlichen 77 Revieren. Doch wie ethisch ist es, Algorithmen Kriminelle fangen zu lassen?

Algorithmen sind inzwischen überall: Sie können vorhersehen, wann wir sterben, unterstützen junge Menschen in der Schule und steuern sogar eine ganze Gesellschaft in China. In New York City wird künstliche Intelligenz (KI) in vielen Bereichen eingesetzt, unter anderem wenn die Polizei Täter ermittelt.

Software identifiziert Spritzentäter

Ein frisches Beispiel aus der Millionenstadt: Ein Mann hat in einem Baumarkt versucht, Bohrmaschinen zu stehlen und dabei Angestellte mit einer Spritze bedroht. Die Polizei konnte ihn schnell identifizieren und festnehmen.

Der Täter hatte dasselbe Verbrechen schon ein paar Wochen früher begangen, in einem komplett anderen Polizeirevier. Das New York Police Department (NYPD) konnte ihn mithilfe einer neuen algorithmischen Computersoftware für Mustererkennung finden: Patternizr.

Die Software soll bei Verbrechen wie Diebstahl und Raub Tatmuster und bestenfalls die zugehörigen Täter finden. Früher musste das NYPD bei so einem Fall jede Menge physische Berichte und Akten durchgehen, was sehr mühsam und zeitaufwendig ist. Dank Patternizr ist das jetzt mit ein paar wenigen Knopfdrücken möglich. Außerdem kann man mit der Software Muster in der ganzen Stadt erkennen, weil sie Hunderttausende von Verbrechen in allen 77 Bereichen der Datenbank des NYPD durchsucht.

Der Bryant Park in New York bei Nacht
Passanten am Bryant Park, unweit vom New Yorker Times Square. Der Alltag der Metropole wird stärker von Algorithmen bestimmt, als den meisten Bewohnern klar ist. Dennoch ist New York Vorreiter in den Diskussionen über automatisierte Entscheidungssysteme. (Foto: David Hills)
Der Times Square in New York bei Nacht
Times Square: Bürgerrechtsbewegungen, Tech-Unternehmen und die Politik ringen derzeit darum, die richtige Balance für den Umgang mit Algorithmen im Alltag zu finden. (Foto: David Hills)
Ein Feuerwehrauto in New York
Welche Feuerwehrstation geschlossen werden, wie oft die Müllabfuhr vorbeikommt und wo Straßenarbeiten dringend notwendig sind: Städtische Serviceleistungen werden in New York zunehmend per Algorithmus bestimmt. (Foto: David Hills)
Das Logo der New Yorker Polizeibehörde NYPD
Die New Yorker Polizeibehörde NYPD: Sie setzt auf moderne Technologien, mit denen zukünftige Verbrechen verhindert werden sollen. Transparenz? Fehlanzeige. (Foto: David Hills)
Die Anwältin Young Mi Lee
Die Anwältin Young Mi Lee im Gericht von Brooklyn. Täglich kämpft sie dagegen, dass ihre Klienten durch automatisierte Entscheidungen unfair behandelt werden. Sie will den ganzen Menschen im Blick haben und nicht nur computerbasierte Risiken. (Foto: David Hills)
New York vom Wasser aus gesehen
New York hat mit einem Gesetzesentwurf für „Automatisierte Entscheidungssysteme“ eine Diskussion angestoßen, die im ganzen Land Wellen schlägt. (Foto: David Hills)


Wie ethisch sind die Algorithmen?

Eine Frage, die oft in Zusammenhang mit KI aufgeworfen wird, ist die der Fairness und Verzerrung: Wie ethisch sind die Algorithmen? Die Entwickler von Patternizr haben sensible Attribute wie zum Beispiel Geschlecht und Ethnie aus den Trainingsdaten und dem Musteridentifizierungsprozess entfernt, um Verzerrungen zu vermeiden.

Ein Mann und eine Frau sehen skeptisch in die Kamera.

Warum Algorithmen Nachhilfe in der Gleichberechtigung brauchen


Ob diese Maßnahmen aber die Voreingenommenheit beseitigen, bleibt strittig, weil das Modell auf historischen Ergebnissen basiert. Obwohl die Verzerrungen nicht explizit in den Daten erfasst sind, stehen die Vorhersagen des Modells trotzdem in Wechselbeziehung von beispielsweise Ethnie und Geschlecht. Auf das Tool allein sollten sich die Gesetzeshüter also nicht verlassen.

Über 68.000 Diebstähle und Raubdelikte

Viele fragen sich, ob algorithmische Lösungen wie Patternizr überhaupt eingesetzt werden sollen, da das Risiko für Diskriminierung besteht. Deshalb wird der menschliche Faktor weiterhin eine Rolle spielen. Auf verschiedenen Ebenen sollen Experten überprüfen, ob Patternizr Vorurteile reproduziert. Das hilft nicht nur, die Software cleverer zu machen, sondern ist auch wichtig für das Thema Verantwortung. Sollten Fehler passieren, muss ein Mensch diese übernehmen.

Das Cover des change Magazins 1/2019

New York der Nullen und Einsen

Schulplatzvergabe, Müllabfuhr und Gerichtskautionen – all das wird in New York mithilfe von Algorithmen gesteuert. Mehr dazu im kostenlosen change Magazin 1/2019.

New York hat im letzten Jahr mehr als 68.000 Diebstähle und Raubdelikte verzeichnet. Patternizr macht es einfacher, Muster darin zu erkennen. Damit gelingt es in Zukunft möglicherweise schneller, Täter zu identifizieren und festzunehmen. Solange die menschliche Aufsicht erhalten bleibt und Analytiker unvoreingenommene Entscheidungen treffen, kann das Tool hilfreich sein und die Arbeit der Polizisten beschleunigen. 

Und nicht nur in den USA, auch in Deutschland ist „vorausschauende Polizeiarbeit“ (Predictive Policing) ein heißes Eisen. Die Diskussionen über algorithmische Entscheidungsprozesse fanden lange Zeit in abgeschlossenen Kreisen statt. Mit dem Policy Brief „Vor die Lage kommen“ über Chancen und Risiken datenanalytischer Prognosetechnik wurde im letzten Jahr versucht, das Thema öffentlicher und interdisziplinärer zu gestalten.

Wie kriegt man Ethik in den Code? Damit die Digitalisierung zu denselben Chancen für alle führt, brauchen wir ethische Standards für die Algorithmen. Im Zuge dessen hat die Bertelsmann Stiftung mit Unterstützung des iRights.Lab einen Kriterienkatalog für algorithmische Systeme entwickelt: Algo.Rules.