Facebook ber om ursäkt för att ha klassificerat svarta män som primater
Detta är en autentisk artikel skriven av BramvdnHeuvel.
Beräknad lästid: 2 minuter.
Detta är en autentisk artikel skriven av BramvdnHeuvel.
Beräknad lästid: 2 minuter.
Artificiell intelligens kan ha rasistiska fördomar. Kaukasiska ansikten har 10 till 100 gånger större sannolikhet att bli korrekt igenkända och identifierade än afroamerikanska ansikten och asiatiska ansikten, vilket redan har lett till felaktiga anklagelser, arresteringar och till och med fängelsestraff på grund av att en artificiell intelligens inte kunde matcha ett icke-vitt ansikte korrekt.
Många elever har upplevt detta på nära håll under pandemin. Många företag som Proctorio har gjort stora framgångar på universitet och skolor, där lärare instruerar sina elever att installera programvara som kontrollerar om de gör ett prov ärligt. Programvaran var mer benägen att anklaga färgade personer för fusk eftersom programvaran inte kunde känna igen deras ansikten. Sådan programvara har visat sig stärka vit överhöghet, sexism, ableism och transfobi.
Facebooks ursäkt gällde svarta män i sammandrabbningar med vita civila och poliser, enligt New York Times. En AI för bildigenkänning klassificerade klippen som filmer av apor eller primater, trots att videorna inte hade något att göra med något av dem.
Hur kan det här hända? En bias i en artificiell intelligens är vanligtvis ett resultat av en partisk träningsuppsättning. Som Joy Buolamwini förklarar i hennes TED-talk, där hon förklarar hur en programvara för ansiktsigenkänning inte kunde känna igen hennes ansikte. På samma sätt kan en datamängd där över 80 procent av ansiktena är vita ha svårare att känna igen människor med olika hudfärg och kanske tillgripa att klassificera dessa ansikten som något som ligger nära en människa - som apor och andra primater.
En liknande skandal som Facebooks senaste misstag inträffade 2015 när Google av misstag identifierade svarta människor som gorillor i Google Photos. Men i stället för att ändra den artificiella intelligensen gjorde Google Photos sig av med ord som "gorilla", "chimpans", "chimpans" och "apa". Även om detta innebär att människor inte längre kommer att identifieras som apor på Google Photos, tyder det på att de underliggande problemen med den intelligenta intelligensen inte har åtgärdats ännu.
Även om Facebooks AI:s misstag kommer från en underliggande fråga som spelar på en samhällelig nivå har Facebook ett register över missbruk, ofta rasistiska.
Exempel som dessa lämnar gott om utrymme för att undra hur uppriktigt Facebook tar primatfelmatchningen - och för att undra om ursäkten helt enkelt är en PR-åtgärd för att förhindra ytterligare kontroverser.
Bildigenkänning är ett mycket användbart verktyg som kan hjälpa oss att förbättra vårt dagliga liv, men innovation får inte åtföljas av diskriminering eller förstärkning av bigotthet. Klassificeringen av en människa som en apa är av en sådan förnedring, och det är inget annat än uppenbart att Facebook som företag bör hållas ansvarigt.
Det är bara trivialt att en enkel algoritm kan leda till stora konsekvenser på en stor plattform, och därför bör algoritmer behandlas på samma sätt. En algoritm för ansiktsigenkänning bör inte helt enkelt vara något man bara kan kasta på miljontals människor, och att kategorisera tusentals människor i gorillaavdelningen är lika oacceptabelt som att offentligt fördöma dessa människor som apor.
Låt inte en ursäkt räcka, särskilt inte för ett företag som har ett sådant track record av rasistiska övergrepp.