Facebook se disculpa por clasificar a los negros como primates
Este es un artículo auténtico escrito por BramvdnHeuvel.
Tiempo estimado de lectura: 2 minutos.
Este es un artículo auténtico escrito por BramvdnHeuvel.
Tiempo estimado de lectura: 2 minutos.
Las inteligencias artificiales pueden tener sesgos raciales. Los rostros caucásicos tienen entre 10 y 100 veces más probabilidades de ser reconocidos e identificados correctamente que los rostros afroamericanos y asiáticos, lo que ya ha dado lugar a acusaciones erróneas, detenciones e incluso encarcelamientos porque una inteligencia artificial no pudo acertar con un rostro no blanco.
Muchos estudiantes lo han vivido en primera persona durante la pandemia. Muchas empresas como Proctorio han cosechado grandes éxitos en universidades y escuelas, donde los profesores instruyen a sus alumnos para que instalen un software que comprueba si están haciendo un examen honestamente. El software era más propenso a culpar a las personas de color de hacer trampas porque el software no podía reconocer sus caras. Se ha demostrado que este tipo de software de verificación refuerza la supremacía blanca, el sexismo, el capacitismo y la transfobia.
La disculpa de Facebook se refería a hombres negros en altercados con civiles blancos y policías, según The New York Times. Una IA de reconocimiento de imágenes clasificó los clips como imágenes de monos o primates, aunque los vídeos no tenían nada que ver con ninguno de ellos.
¿Cómo ocurre esto? Un sesgo en una inteligencia artificial suele ser el resultado de un conjunto de entrenamiento sesgado. Como explica Joy Buolamwini en su charla TED, donde explica cómo el software de reconocimiento facial no pudo reconocer su cara. Del mismo modo, un conjunto de datos en el que más del 80 por ciento de los rostros es blanco puede tener más dificultades para reconocer a personas de diferentes colores de piel y puede recurrir a clasificar esos rostros como algo parecido a un humano, como los monos y otros primates.
Un escándalo similar al reciente error de Facebook se vio en 2015, cuando Google identificó por error a personas de raza negra como gorilas en Google Photos. Sin embargo, en lugar de cambiar la inteligencia artificial, Google Photos se deshizo de palabras como "gorila", "chimpancé", "chimpancé" y "mono". Aunque esto significa que los humanos ya no serán identificados como monos en Google Photos, sugiere que los problemas subyacentes de la IA aún no han sido solucionados.
Aunque el error de la IA de Facebook proviene de un problema subyacente que juega a nivel social, Facebook tiene un historial de abusos, a menudo raciales.
Ejemplos como estos dejan mucho espacio para preguntarse cuán sinceramente se toma Facebook el desajuste de los primates - y para preguntarse si la disculpa es simplemente una acción de relaciones públicas para evitar más controversia.
El reconocimiento de imágenes es una herramienta muy útil que puede ayudarnos a mejorar nuestra vida cotidiana, pero la innovación no debe venir acompañada de la discriminación o el refuerzo del fanatismo. La clasificación de un humano como simio es de tal indignidad, y no es más que obvio que Facebook como empresa debería ser responsable.
Es trivial que un simple algoritmo pueda tener consecuencias importantes en una gran plataforma, y por ello los algoritmos deberían ser tratados de esa manera. Un algoritmo de reconocimiento de rostros no debería ser algo que se pueda lanzar a millones de personas, y clasificar a miles de personas en la sección de gorilas es tan inaceptable como denunciar públicamente a esas personas como monos.
Que no baste con una disculpa, sobre todo para una empresa con semejante historial de abusos raciales.