Algorithmen mit Vorurteilen

Rechenprogramme zur Gesichtserkennung spiegeln unbewusste Stereotype von Entwicklern

Eine Studie des Massachusetts Institute of Technology (MIT) hat nachgewiesen, dass Algorithmen zur Gesichtserkennung nicht bei allen Hauttönen und Geschlechtern gleich gut funktionieren. Männliche hellhäutige Personen werden von Machine-Learning-Systemen am besten erkannt, die höchste Fehlerquote gab es bei dunkelhäutigen Frauen. Es zeigte sich, dass ein Großteil der Referenzbilder, die zum Training für verschiedene Anwendungen bereitgestellt werden, Männer abbildet –  davon wiederum 80 Prozent mit heller Haut.

Mehr Informationen

 

 

Weitere News

Gestärkter Fokus auf das Potenzial von Vielfalt

GILEAD Sciences Deutschland ist neues Mitglied des Charta der Vielfalt e. V.  
Vor einem bunten Hintergrund ist der aktuelle Vorstand zu sehen. Personen v.l.n.r.: Franzi von Kempis, Rafael Cruces, Dr. Eva Voss, Nina Straßner, Frank Rusko, Corina Christen zu sehen.

Mit frischer Führung: Gemeinsam für eine vielfältige Zukunft

Nach einer erfolgreichen und wegweisenden Mitgliederversammlung können wir verkünden: Der Charta der Vielfalt e. V. hat einen neuen…