Facebook si scusa per aver classificato gli uomini neri come primati

Questo è un articolo autentico scritto da BramvdnHeuvel.

Tempo di lettura stimato: 2 minuti.

Facebook si scusa per aver classificato gli uomini neri come primati

Le intelligenze artificiali possono avere pregiudizi razziali. I volti caucasici hanno da 10 a 100 volte più probabilità di essere correttamente riconosciuti e identificati rispetto ai volti afro-americani e asiatici, il che ha già portato a accuse ingiuste, arresti e persino imprigionamenti perché un'intelligenza artificiale non poteva abbinare correttamente un volto non bianco.

Molti studenti l'hanno sperimentato in prima persona durante la pandemia. Molte aziende come Proctorio hanno fatto grandi successi nelle università e nelle scuole, dove gli insegnanti istruiscono i loro studenti ad installare un software che controlla se stanno facendo un test onestamente. Il software aveva maggiori probabilità di accusare le persone di colore di imbrogliare perché il software non poteva riconoscere i loro volti. Tale software di supervisione ha dimostrato di rafforzare la supremazia bianca, il sessismo, l'ableismo e la transfobia.

L'errore di Facebook

Le scuse di Facebook riguardavano uomini neri in alterchi con civili bianchi e agenti di polizia, secondo il New York Times. Un'IA di riconoscimento delle immagini ha classificato le clip come filmati di scimmie o primati, anche se i video non avevano nulla a che fare con entrambi.

Come avviene questo? Una distorsione in un'intelligenza artificiale è di solito il risultato di un set di allenamento distorto. Come spiega Joy Buolamwini in il suo TED talk, dove spiega come il software di riconoscimento facciale non ha potuto riconoscere il suo volto. Allo stesso modo, un set di dati dove oltre l'80 per cento dei volti è bianco può avere più difficoltà a riconoscere persone di diverso colore della pelle e può ricorrere a classificare quei volti come qualcosa di vicino a un umano - come scimmie e altri primati.

Uno scandalo simile al recente errore di Facebook è stato visto nel 2015, quando Google ha erroneamente identificato persone di colore come gorilla in Google Photos. Tuttavia, invece di cambiare l'intelligenza artificiale, Google Photos si è sbarazzato di parole come "gorilla", "scimpanzé", "scimpanzé" e "scimmia". Anche se questo significa che gli umani non saranno più identificati come scimmie su Google Photos, suggerisce che i problemi di fondo con l'IA non sono stati ancora risolti.

La cattiva condotta razziale di Facebook

Anche se l'errore dell'IA di Facebook deriva da un problema di fondo che gioca a livello sociale, Facebook ha un record di abusi, spesso razziali.

Esempi come questi lasciano molto spazio per chiedersi quanto sinceramente Facebook prenda il mismatch del primate -- e per chiedersi se le scuse siano semplicemente un'azione di PR per prevenire ulteriori controversie.

Cosa possiamo fare al riguardo?

Il riconoscimento delle immagini è uno strumento molto utile che può aiutarci a migliorare la nostra vita quotidiana, ma l'innovazione non deve venire con la discriminazione o il rafforzamento del bigottismo. La classificazione di un umano come scimmia è di una tale indegnità, e non è altro che ovvio che Facebook come azienda dovrebbe essere ritenuta responsabile.

È banale che un semplice algoritmo possa portare a conseguenze importanti su una grande piattaforma, e quindi gli algoritmi dovrebbero essere trattati in questo modo. Un algoritmo di riconoscimento facciale non dovrebbe essere semplicemente qualcosa che si può semplicemente gettare su milioni di persone, e categorizzare migliaia di persone nella sezione gorilla è inaccettabile quanto denunciare pubblicamente quelle persone come scimmie.

Non lasciare che le scuse siano sufficienti, specialmente per un'azienda con un tale record di abusi razziali.