Amazon verbietet der US-Polizei für ein Jahr die Nutzung seiner Gesichtserkennungssoftware. Das Unternehmen hofft, dass die USA in dieser Zeit einen rechtlichen Rahmen für die umstrittene Anwendung schafft.
Amazon hatte der US-Polizei seine Gesichtserkennungssoftware zur Verfügung gestellt und wurde dafür sowohl von Bürgerrechtlern, Datenschützern und sogar von eigenen Mitarbeitern und Aktionären kritisiert. Jetzt muss der Online-Riese dem Protest, der durch den Tod von George Floyd gesteigert wurde, nachgeben: Amazon stellt die Zusammenarbeit mit der US-Polizei für ein Jahr ein und stellt die Software Rekognition nicht zur Verfügung, wie cnbc berichtet.
Darum stoppt Amazon Recognition für die US-Polizei
„Wir haben uns dafür eingesetzt, dass die Regierungen strengere Vorschriften erlassen, um den ethischen Gebrauch der Gesichtserkennungstechnologie zu regeln, und in den letzten Tagen scheint der Kongress bereit zu sein, sich dieser Herausforderung zu stellen“, sagte Amazon in einer Erklärung. „Wir hoffen, dass dieses einjährige Moratorium dem Kongress genug Zeit geben könnte, um angemessene Regeln umzusetzen, und wir sind bereit, falls gewünscht, zu helfen.“ Amazon arbeitet überdies aber auch an einem möglichen Gesetzesentwurf mit. Jeff Bezos selbst hat auf mögliche Gefahren beim Einsatz der Rekognition-Software hingewiesen, will das System an sich aber weiter vorantreiben. Hilfsorganisationen wie Thorn, das International Center for Missing and Exploited Children und Marinus Analytics, die mit der Software z.B. nach vermissten Kindern suchen, dürfen im Gegensatz zur Polizei die Technologie weiter nutzen.
Auch andere Tech-Firmen ändern unter dem gesellschaftlichen Druck nach dem gewaltsamen Tod von Floyd und der Debatte um Rassismus und Polizeigewalt ihre Strategie: IBM hatte jüngst bekannt gegeben, sich aus dem Geschäft mit Gesichtserkennungssoftware komplett zurückzuziehen.
Fehler bei Gesichtserkennung: Politiker als Kriminelle
Die Gesichtserkennung und die Kooperation mit der US-Polizei stand immer wieder in der Kritik, darüber hinaus zeigte sich das System auch noch sehr fehleranfällig. Forscher haben nachgewiesen, dass die Software rassistische und geschlechtsspezifische Vorurteile anwendet, wie etwa Joy Buolamwini vom Massachusetts Institute of Technology aufzeigte. In früheren Tests von 2018 ordnete Rekognition sogar Politiker fälschlich als Kriminelle ein.
Trotz der Vorbehalte und Kritik planen aber in der Europäischen Union immer mehr Länder die mögliche Einführung von Gesichtserkennung – obwohl die EU auch an einem Gesetz dagegen arbeitet.
Kommentar schreiben