Amazons künstliche Intelligenz (KI) zur Gesichtserkennung „Rekognition“ versagt bei Tests und verwechselt Männer und Frauen. 

 

Die Technologie zur Gesichtserkennung soll künftig vor allem in der Bekämpfung und Prävention von Kriminalität zum Einsatz kommen. Vereinzelt nutzen Polizisten in den USA und das FBI die Software bereits, vor allem Amazon hatte seine Technologie aggressiv vermarktet. Die New York Times hat jetzt gemeinsam mit dem Media Lab des Massachusetts Institute of Technology (MIT) unterschiedliche Systeme von verschiedenen Anbietern getestet, unter anderem von Amazon, IBM und Microsoft. Das Ergebnis: Vor allem Amazons Gesichtserkennung „Rekognition“ schnitt dabei schlecht ab, berichtet die Times.

In einem Fünftel der untersuchten Fälle verwechselte Amazons „Rekognition“ Frauen mit Männern. Bei dunkelhäutigen Frauen war die Quote sogar noch höher – bei rund einem Drittel der Personen lag die künstliche Intelligenz daneben. Hellhäutige Männer hingegen konnte „Rekognition“ besser zuordnen. Aber andere Anbieter lieferten deutlich bessere Ergebnisse: Microsofts Technologie verbuchte zum Beispiel bei der Zuordnung von dunkelhäutigen Frauen nur eine Fehlerquote von 1,5 Prozent. 

Gesichtserkennung machte aus Michelle Obama einen Mann

Vor rund einem Jahr hatte eine ähnliche Studie aus China bereits Empörung hervorgerufen: Damals hatte ein Autor der Studie auf YouTube gezeigt, wie die Gesichtserkennungs-Systeme unter anderem Michelle Obama als Mann deklarierten. Daraufhin sollen einige der Anbieter nachgerüstet haben. Amazon sieht den Fehler eher in der Methodik des Tests. Die Forscher hätten Aspekte der Gesichtsanalyse statt der Gesichtserkennung untersucht – ein wichtiger Unterschied. Bei der Gesichtsanalyse gehe es um Merkmale wie Schnurrbärte oder Ausdrücke wie Lächeln, bei der Gesichtserkennung hingegen um die Zuordnung von Gesichtern in Fotos oder Videos.

„Es ist nicht möglich, eine Schlussfolgerung über die Genauigkeit der Gesichtserkennung für jeden Anwendungsfall – einschließlich der Strafverfolgung – zu ziehen, basierend auf den Ergebnissen der Gesichtsanalyse“, erklärt Matt Wood, General Manager für künstliche Intelligenz bei Amazon Web Services. Außerdem hätten die Forscher bei dem Test nicht die aktuellste Version von „Rekognition“ benutzt. Bei internen Tests hätte es kaum Probleme gegeben bei der Zuordnung des Geschlechts. 

Bürgerrechtler warnen vor Gefahren der Gesichtserkennung

Mit der Gesichtserkennung könnten Behörden in Zukunft unter anderem Menschen in großen Ansammlungen wie Demonstrationen identifizieren oder ihre Emotionen analysieren. Bürgerrechtler haben mehrfach vor möglichen Gefahren für die Meinungsfreiheit gewarnt, sogar Amazon-Aktionäre forderten im vergangenen Jahr einen Verkaufsstopp der Technologie. 

Es ist nicht das erste Mal, dass Amazon mit seinen künstlichen Intelligenzen zu kämpfen hat. Auch ein KI-Projekt in der Bewerberauswahl scheiterte: Weil das System aus der Analyse vergangener Bewerbungen gelernt hatte, dass mehr Männer eingestellt werden, benachteiligte es daraufhin automatisch Frauen bei der Bewerberauswahl.