Facebook verontschuldigt zich voor het classificeren van zwarte mannen als primaten
Dit is een authentiek artikel geschreven door BramvdnHeuvel.
Geschatte leestijd: 2 minuten.
Dit is een authentiek artikel geschreven door BramvdnHeuvel.
Geschatte leestijd: 2 minuten.
Kunstmatige intelligenties kunnen raciale vooroordelen hebben. Kaukasische gezichten hebben 10 tot 100 keer meer kans om correct herkend en geïdentificeerd te worden dan Afro-Amerikaanse gezichten en Aziatische gezichten, wat al heeft geleid tot onrechtmatige beschuldigingen, arrestaties en zelfs opsluitingen omdat een kunstmatige intelligentie een niet-blank gezicht niet correct kon matchen.
Veel studenten hebben dit tijdens de pandemie aan den lijve ondervonden. Veel bedrijven zoals Proctorio hebben grote successen geboekt op universiteiten en scholen, waar docenten hun studenten instrueren software te installeren die controleert of ze een toets eerlijk maken. De software gaf gekleurde mensen eerder de schuld van spieken omdat de software hun gezichten niet kon herkennen. Dergelijke proctoring software heeft aangetoond blanke suprematie, seksisme, ableisme en transfobie te versterken.
Facebook's verontschuldiging betrof zwarte mannen in woordenwisselingen met witte burgers en politieagenten, volgens The New York Times. Een beeldherkennings AI classificeerde de clips als beelden van apen of primaten, ook al hadden de video's niets te maken met een van beide.
Hoe gebeurt dit? Een vooroordeel in een kunstmatige intelligentie is meestal het gevolg van een bevooroordeelde trainingsset. Zoals Joy Buolamwini uitlegt in haar TED talk, waarin ze uitlegt hoe gezichtsherkenningssoftware haar gezicht niet kon herkennen. Op dezelfde manier kan een dataset waarin meer dan 80 procent van de gezichten blank is het moeilijker hebben om mensen met een andere huidskleur te herkennen en kan die overgaan tot het classificeren van die gezichten als iets dat dicht bij een mens staat - zoals apen en andere primaten.
Een soortgelijk schandaal als Facebook's recente fout was te zien in 2015, toen Google per abuis zwarte mensen identificeerde als gorilla's in Google Photos. Echter, in plaats van de kunstmatige intelligentie te veranderen, schafte Google Photos woorden als "gorilla", "chimpansee" en "aap" af. Hoewel dit betekent dat mensen niet langer zullen worden geïdentificeerd als apen op Google Photos, suggereert het dat de onderliggende problemen met de AI nog niet zijn opgelost.
Hoewel de fout van de Facebook AI voortkomt uit een onderliggende kwestie die speelt op een maatschappelijk niveau, heeft Facebook een record van misbruik, vaak racistisch.
Voorbeelden als deze laten genoeg ruimte om je af te vragen hoe oprecht Facebook de primatenmismatch neemt -- en om je af te vragen of de apoligy niet gewoon een PR-actie is om verdere controverse te voorkomen.
Beeldherkenning is een zeer nuttig instrument dat ons kan helpen ons dagelijks leven te verbeteren, maar innovatie mag niet gepaard gaan met discriminatie of de versterking van onverdraagzaamheid. De classificatie van een mens als een aap is van een dergelijke vernedering, en het is niets anders dan duidelijk dat Facebook als bedrijf verantwoordelijk moet worden gehouden.
Het is alleen triviaal dat een simpel algoritme tot grote gevolgen kan leiden op een groot platform, en dus moeten algoritmes ook zo behandeld worden. Een gezichtsherkenningsalgoritme mag niet zomaar op miljoenen mensen gegooid worden, en duizenden mensen in de gorilla-afdeling indelen is even onaanvaardbaar als die mensen publiekelijk voor aap uit te maken.
Laat een verontschuldiging niet genoeg zijn, zeker niet voor een bedrijf met zo'n staat van dienst op het gebied van racistisch wangedrag.