Facebook s'excuse d'avoir classé les hommes noirs comme des primates

Ceci est un article authentique écrit par BramvdnHeuvel.

Temps de lecture estimé : 2 minutes.

Facebook s'excuse d'avoir classé les hommes noirs comme des primates

Les intelligences artificielles peuvent avoir des préjugés raciaux. Les visages caucasiens ont 10 à 100 fois plus de chances d'être correctement reconnus et identifiés que les visages afro-américains et asiatiques, ce qui a déjà conduit à des accusations injustifiées, des arrestations et même des emprisonnements parce qu'une intelligence artificielle ne pouvait pas faire correspondre correctement un visage non blanc.

De nombreux étudiants en ont fait l'expérience directe pendant la pandémie. Des entreprises comme Proctorio ont connu un grand succès dans les universités et les écoles, où les enseignants demandent à leurs élèves d'installer un logiciel qui vérifie s'ils font un test honnêtement. Le logiciel était plus susceptible d'accuser les personnes de couleur de tricher parce que le logiciel ne pouvait pas reconnaître leur visage. De tels logiciels de surveillance ont montré qu'ils renforcent la suprématie blanche, le sexisme, le capacitisme et la transphobie.

L'erreur de Facebook

Les excuses de Facebook concernaient des hommes noirs dans des altercations avec des civils et des policiers blancs, selon le New York Times. Une IA de reconnaissance d'image a classé les clips comme des séquences de singes ou de primates, même si les vidéos n'avaient rien à voir avec l'un ou l'autre.

Comment cela se produit-il ? Un biais dans une intelligence artificielle est généralement le résultat d'un ensemble de formation biaisé. Comme l'explique Joy Buolamwini dans son TED talk, où elle explique comment un logiciel de reconnaissance faciale ne pouvait pas reconnaître son visage. De la même manière, un ensemble de données où plus de 80 % des visages est blanc peut avoir plus de mal à reconnaître les personnes de différentes couleurs de peau et peut se résoudre à classer ce visage comme quelque chose de proche de l'humain - comme les singes et autres primates.

Un scandale similaire à la récente erreur de Facebook a été observé en 2015, lorsque Google a identifié par erreur des personnes noires comme des gorilles dans Google Photos. Cependant, au lieu de modifier l'intelligence artificielle, Google Photos s'est débarrassé de mots comme "gorille", "chimpanzé", "chimpanzé" et "singe". Bien que cela signifie que les humains ne seront plus identifiés comme des singes sur Google Photos, cela suggère que les problèmes sous-jacents de l'IA n'ont pas encore été réglés.

L'inconduite raciale de Facebook

Bien que l'erreur de l'IA de Facebook provienne d'un problème sous-jacent qui joue à un niveau sociétal, Facebook a un historique d'abus, souvent raciaux.

Des exemples comme ceux-ci laissent beaucoup de place pour se demander à quel point Facebook prend sincèrement l'erreur d'appariement des primates - et pour se demander si les excuses sont simplement une action de relations publiques pour éviter toute autre controverse.

Que pouvons-nous faire à ce sujet ?

La reconnaissance d'images est un outil très utile qui peut nous aider à améliorer notre vie quotidienne, mais l'innovation ne doit pas s'accompagner de discrimination ou du renforcement du sectarisme. La classification d'un humain en tant que singe est d'une telle indignité, et il est tout à fait évident que Facebook, en tant qu'entreprise, doit être tenu pour responsable.

Il n'est que trivial qu'un simple algorithme puisse entraîner des conséquences majeures sur une grande plate-forme, et les algorithmes devraient donc être traités de cette manière. Un algorithme de reconnaissance faciale ne devrait pas être quelque chose que l'on peut simplement jeter sur des millions de personnes, et classer des milliers de personnes dans la section des gorilles est aussi inacceptable que de dénoncer publiquement ces personnes comme des singes.

Les excuses ne sont pas suffisantes, surtout pour une entreprise ayant un tel historique d'abus raciaux.