Facebook își cere scuze pentru că a clasificat bărbații de culoare drept primate
Acesta este un articol autentic scris de BramvdnHeuvel.
Timp estimat de lectură: 2 minute.
Acesta este un articol autentic scris de BramvdnHeuvel.
Timp estimat de lectură: 2 minute.
Inteligențele artificiale pot avea prejudecăți rasiale. Facele caucaziene au de 10 până la 100 de ori mai multe șanse de a fi recunoscute și identificate corect decât fețele afro-americane și asiatice, ceea ce a dus deja la acuzații greșite, arestări și chiar încarcerări pentru că o inteligență artificială nu a putut potrivi corect o față care nu era albă.
Mulți studenți au experimentat acest lucru pe propria piele în timpul pandemiei. Multe companii precum Proctorio au înregistrat mari succese în universități și școli, unde profesorii își instruiesc studenții să instaleze un software care verifică dacă fac un test în mod onest. Software-ul a fost mai probabil să acuze persoanele de culoare de trișat, deoarece protocolul nu le putea recunoaște fețele. Astfel de software de supraveghere s-a dovedit a reforța supremația albilor, sexismul, ableismul și transfobia.
Scuzele prezentate de Facebook au vizat bărbați de culoare în altercații cu civili albi și polițiști, conform The New York Times. O inteligență artificială de recunoaștere a imaginilor a clasificat clipurile ca fiind imagini cu maimuțe sau primate, chiar dacă videoclipurile nu aveau nicio legătură cu niciuna dintre acestea.
Cum se poate întâmpla acest lucru? O prejudecată într-o inteligență artificială este, de obicei, rezultatul unui set de antrenament părtinitor. După cum explică Joy Buolamwini în vorbirea ei TED, în care explică cum un software de recunoaștere a feței nu i-a putut recunoaște fața. La fel, un set de date în care peste 80 la sută dintre fețe sunt albe ar putea recunoaște mai greu persoanele cu piele de culori diferite și ar putea recurge la clasificarea fețelor respective ca fiind ceva apropiat de un om - cum ar fi maimuțele și alte primate.
Un scandal similar cu recenta greșeală a Facebook a fost văzut în 2015, când Google a identificat în mod eronat persoane de culoare ca fiind gorile în Google Photos. Cu toate acestea, în loc să schimbe inteligența artificială, Google Photos a scăpat de cuvinte precum "gorilă", "cimpanzeu", "cimpanzeu" și "maimuță". Deși acest lucru înseamnă că oamenii nu vor mai fi identificați ca maimuțe pe Google Photos, sugerează că problemele de bază ale inteligenței artificiale nu au fost încă rezolvate..
Deși greșeala AI-ului de la Facebook provine dintr-o problemă de fond care joacă la nivel societal, Facebook are un istoric de abuzuri, adesea rasiale.
Exemple ca acestea lasă loc de multe semne de întrebare cu privire la cât de sincer ia Facebook în considerare nepotrivirea primelor - și să ne întrebăm dacă scuzele sunt doar o acțiune de PR pentru a preveni alte controverse.
Recunoașterea imaginilor este un instrument foarte util care ne poate ajuta să ne îmbunătățim viața de zi cu zi, dar inovația nu trebuie să vină la pachet cu discriminarea sau consolidarea intoleranței. Clasificarea unui om ca fiind o maimuță este de o asemenea indignare și nu este nimic altceva decât evident că Facebook, ca și companie, ar trebui să fie trasă la răspundere.
Este doar banal ca un algoritm simplu să poată duce la consecințe majore pe o platformă mare și, prin urmare, algoritmii ar trebui să fie tratați în acest fel. Un algoritm de recunoaștere a fețelor nu ar trebui să fie pur și simplu ceva ce poți arunca asupra a milioane de oameni, iar clasificarea a mii de oameni în secțiunea gorilelor este la fel de inacceptabilă ca și denunțarea publică a acelor oameni drept maimuțe.
Nu lăsați ca scuzele să fie suficiente, mai ales pentru o companie cu un asemenea istoric de abuzuri rasiale.