Facebook entschuldigt sich für die Einstufung schwarzer Männer als Primaten
Dies ist ein authentischer Artikel, geschrieben von BramvdnHeuvel.
Geschätzte Lesedauer: 2 min.
Dies ist ein authentischer Artikel, geschrieben von BramvdnHeuvel.
Geschätzte Lesedauer: 2 min.
Künstliche Intelligenzen können rassistische Vorurteile haben. Kaukasische Gesichter werden 10- bis 100-mal häufiger richtig erkannt und identifiziert als afroamerikanische und asiatische Gesichter, was bereits zu unrechtmäßigen Anschuldigungen, Verhaftungen und sogar Inhaftierungen geführt hat, weil eine künstliche Intelligenz ein nicht-weißes Gesicht nicht richtig zuordnen konnte.
Viele Studenten haben dies während der Pandemie am eigenen Leib erfahren. Viele Unternehmen wie Proctorio haben große Erfolge an Universitäten und Schulen erzielt, wo Lehrer ihre Schüler anweisen, eine Software zu installieren, die überprüft, ob sie einen Test ehrlich machen. Die Software war eher in der Lage, Farbige des Betrugs zu beschuldigen, weil die Software ihre Gesichter nicht erkennen konnte. Es hat sich gezeigt, dass solche Prüfungssoftware die weiße Vorherrschaft, Sexismus, Behindertenfeindlichkeit und Transphobie verstärkt.
Facebooks Entschuldigung bezog sich auf schwarze Männer in Auseinandersetzungen mit weißen Zivilisten und Polizeibeamten, laut The New York Times. Eine Bilderkennungs-KI stufte die Clips als Aufnahmen von Affen oder Primaten ein, obwohl die Videos mit beidem nichts zu tun hatten.
Wie kann das passieren? Eine Verzerrung in einer künstlichen Intelligenz ist in der Regel das Ergebnis einer verzerrten Trainingsmenge. Wie Joy Buolamwini in ihrem TED-Vortrag erläutert, in dem sie erklärt, wie eine Gesichtserkennungssoftware ihr Gesicht nicht erkennen konnte. Genauso kann ein Datensatz, bei dem über 80 Prozent der Gesichter weiß sind, die Erkennung von Menschen mit anderer Hautfarbe erschweren und dazu führen, dass diese Gesichter als menschenähnlich eingestuft werden - wie Affen und andere Primaten.
Ein ähnlicher Skandal wie der jüngste Fehler von Facebook ereignete sich 2015, als Google fälschlicherweise schwarze Menschen in Google Fotos als Gorillas identifizierte. Anstatt jedoch die künstliche Intelligenz zu ändern, hat Google Fotos Wörter wie "Gorilla", "Schimpanse", "Schimpanse" und "Affe" gestrichen. Dies bedeutet zwar, dass Menschen auf Google Fotos nicht mehr als Affen identifiziert werden, deutet aber darauf hin, dass die zugrundeliegenden Probleme mit der KI noch nicht behoben sind.
Obwohl der Fehler der Facebook-KI auf ein grundlegendes Problem zurückzuführen ist, das auf gesellschaftlicher Ebene spielt, ist Facebook für Missbrauch, oft aus rassistischen Gründen, bekannt.
Beispiele wie diese lassen viel Raum, um sich zu fragen, wie ernst Facebook den Primatenfehler nimmt - und sich zu fragen, ob die Entschuldigung nur eine PR-Aktion ist, um weitere Kontroversen zu vermeiden.
Bilderkennung ist ein sehr nützliches Instrument, das uns helfen kann, unser tägliches Leben zu verbessern, aber Innovation darf nicht mit Diskriminierung oder der Verstärkung von Bigotterie einhergehen. Die Einstufung eines Menschen als Affe ist eine derartige Demütigung, und es ist nur allzu offensichtlich, dass Facebook als Unternehmen dafür verantwortlich gemacht werden sollte.
Es ist nur trivial, dass ein einfacher Algorithmus auf einer großen Plattform zu schwerwiegenden Konsequenzen führen kann, und daher sollten Algorithmen auch so behandelt werden. Ein Algorithmus zur Gesichtserkennung sollte nicht einfach auf Millionen von Menschen angewandt werden können, und Tausende von Menschen in die Gorilla-Abteilung einzuordnen, ist ebenso inakzeptabel wie diese Menschen öffentlich als Affen zu bezeichnen.
Eine Entschuldigung reicht nicht aus, vor allem nicht für ein Unternehmen mit einer derartigen Erfolgsbilanz bei rassistischem Missbrauch.