Facebook undskylder for at klassificere sorte mænd som primater
Dette er en autentisk artikel skrevet af BramvdnHeuvel.
Anslået læsetid: 2 minutter.
Dette er en autentisk artikel skrevet af BramvdnHeuvel.
Anslået læsetid: 2 minutter.
Kunstige intelligenser kan have racemæssige fordomme. Caukasiske ansigter er 10 til 100 gange mere tilbøjelige til at blive genkendt og identificeret korrekt end afroamerikanske ansigter og asiatiske ansigter, hvilket allerede har ført til forkerte anklager, arrestationer og endda fængslinger, fordi en kunstig intelligens ikke kunne matche et ikke-hvidt ansigt korrekt.
Mange studerende har oplevet dette på egen krop under pandemien. Mange virksomheder som Proctorio har gjort store succeser på universiteter og skoler, hvor lærere instruerer deres elever i at installere software, der kontrollerer, om de laver en prøve ærligt. Softwaren var mere tilbøjelig til at beskylde farvede personer for at snyde, fordi softwaren ikke kunne genkende deres ansigter. Det har vist sig, at en sådan software til kontrol af prøverne forstærker hvidt overherredømme, sexisme, handicap og transfobi.
Facebooks undskyldning vedrørte sorte mænd i sammenstød med hvide civile og politibetjente, ifølge New York Times. En AI til billedgenkendelse klassificerede klippene som optagelser af aber eller primater, selv om videoerne ikke havde noget med nogen af delene at gøre.
Hvordan kan dette ske? En skævhed i en kunstig intelligens er normalt et resultat af et skævt træningssæt. Som Joy Buolamwini forklarer i hendes TED-talk, hvor hun forklarer, hvordan ansigtsgenkendelsessoftware ikke kunne genkende hendes ansigt. På samme måde kan et datasæt hvor over 80 procent af ansigterne er hvide have sværere ved at genkende mennesker med forskellige hudfarver og kan ty til at klassificere disse ansigter som noget, der ligger tæt på et menneske - som aber og andre primater.
En lignende skandale som Facebooks nylige fejltagelse blev set i 2015, da Google fejlvis identificerede sorte mennesker som gorillaer i Google Photos. I stedet for at ændre den kunstige intelligens fik Google Photos dog fjernet ord som "gorilla", "chimpanse", "chimpanse" og "abe". Selv om det betyder, at mennesker ikke længere vil blive identificeret som aber på Google Photos, tyder det på, at de underliggende problemer med den kunstige intelligens endnu ikke er blevet løst.
Selv om Facebook AI's fejl kommer fra et underliggende problem, der spiller på et samfundsmæssigt niveau, har Facebook en rekord af misbrug, ofte racistisk.
Eksempler som disse giver masser af plads til at spekulere på, hvor oprigtigt Facebook tager primatfejlmatchen oprigtigt - og til at spekulere på, om undskyldningen blot er en PR-aktion for at forhindre yderligere kontroverser.
Billedgenkendelse er et meget nyttigt værktøj, der kan hjælpe os med at forbedre vores dagligdag, men innovation må ikke ledsages af diskrimination eller forstærkning af fanatisme. Klassificeringen af et menneske som en abe er af en sådan uværdighed, og det er intet andet end indlysende, at Facebook som virksomhed bør holdes ansvarlig.
Det er kun trivielt, at en simpel algoritme kan føre til store konsekvenser på en stor platform, og derfor bør algoritmer behandles på denne måde. En algoritme til ansigtsgenkendelse bør ikke bare være noget man bare kan smide på millioner af mennesker, og at kategorisere tusindvis af mennesker i gorillaafdelingen er lige så uacceptabelt som offentligt at fordømme disse mennesker som aber.
Lad ikke en undskyldning være nok, især ikke for en virksomhed med en sådan track record for racistisk misbrug.