O Facebook pede desculpa por classificar os homens negros como primatas
Este é um artigo autêntico escrito por BramvdnHeuvel.
Tempo estimado de leitura: 2 mins.
Este é um artigo autêntico escrito por BramvdnHeuvel.
Tempo estimado de leitura: 2 mins.
As inteligências artificiais podem ter preconceitos raciais. Rostos caucasianos têm 10 a 100 vezes mais probabilidades de serem correctamente reconhecidos e identificados do que rostos afro-americanos e asiáticos, o que já levou a acusações erradas, detenções e até impressões porque uma inteligência artificial não conseguia corresponder correctamente a um rosto não branco.
Muitos estudantes já experimentaram isto em primeira mão durante a pandemia. Muitas empresas como Proctorio fizeram grandes sucessos em universidades e escolas, onde os professores instruem os seus alunos a instalar software que verifica se estão a fazer um teste de forma honesta. O software tinha mais probabilidades de culpar pessoas de cor de batota porque o software não conseguia reconhecer os seus rostos. Este software de sondagem mostrou a reforce a supremacia branca, o sexismo, a capacidade e a transfobia.
As desculpas do Facebook diziam respeito aos homens negros em altercações com civis brancos e agentes da polícia, de acordo com o The New York Times. Uma IA de reconhecimento de imagem classificou os clips como filmagens de macacos ou primatas, embora os vídeos não tivessem nada a ver com nenhum dos dois.
Como é que isto acontece? Um enviesamento numa inteligência artificial é geralmente o resultado de um conjunto de treino enviesado. Como Joy Buolamwini explica em her TED talk, onde ela explica como o software de reconhecimento facial não conseguia reconhecer o seu rosto. Da mesma forma, um conjunto de dados onde mais de 80 por cento dos rostos são brancos pode ter mais dificuldade em reconhecer pessoas de diferentes cores de pele e pode recorrer à classificação desses rostos como algo próximo de um humano - como macacos e outros primatas.
Um escândalo semelhante ao recente erro do Facebook foi visto em 2015, quando o Google mistakenly identificou os negros como gorilas no Google Photos. Contudo, em vez de mudar a inteligência artificial, Google Photos livrou-se de palavras como "gorila", "chimpanzé", "chimpanzé" e "macaco". Embora isto signifique que os humanos já não serão identificados como macacos no Google Photos, sugere que os problemas subjacentes com a IA ainda não foram resolvidos.
Embora o erro da IA do Facebook venha de uma questão subjacente que toca a nível social, o Facebook tem um historial de abusos, muitas vezes raciais.
Exemplos como estes deixam muito espaço para nos interrogarmos sobre a sinceridade com que o Facebook toma o desajustamento dos primatas - e para nos perguntarmos se a apoligia é simplesmente uma acção de relações públicas para evitar mais controvérsia.
O reconhecimento da imagem é um instrumento muito útil que nos pode ajudar a melhorar a nossa vida diária, mas a inovação não deve vir com a discriminação ou o reforço do fanatismo. A classificação de um humano como macaco é de tal indignidade, e não é mais do que óbvio que o Facebook como empresa deve ser considerado responsável.
É apenas trivial que um algoritmo simples possa levar a grandes consequências numa grande plataforma, e por isso os algoritmos devem ser tratados dessa forma. Um algoritmo de reconhecimento facial não deve ser simplesmente algo que se pode atirar a milhões de pessoas, e categorizar milhares de pessoas na secção gorila é tão inaceitável como denunciar publicamente essas pessoas como macacos.
Não deixe que um pedido de desculpas seja suficiente, especialmente para uma empresa com um tal historial de abuso racial.