Facebook atsiprašo už juodaodžių priskyrimą primatams
Tai autentiškas straipsnis, kurį parašė BramvdnHeuvel.
Numatoma skaitymo trukmė: 2 min.
Tai autentiškas straipsnis, kurį parašė BramvdnHeuvel.
Numatoma skaitymo trukmė: 2 min.
Dirbtinis intelektas gali turėti rasinių šališkumų. Kaukazietiški veidai nuo 10 iki 100 kartų dažniau teisingai atpažįstami ir identifikuojami nei afroamerikiečių ir azijiečių veidai, dėl to jau pasitaikė neteisingų kaltinimų, areštų ir net įkalinimų, nes dirbtinis intelektas nesugebėjo teisingai atpažinti ne baltojo veido.
Daugelis studentų tai patyrė savo kailiu per pandemiją. Daugelis bendrovių, tokių kaip Proctorio, pasiekė didelių laimėjimų universitetuose ir mokyklose, kur dėstytojai nurodo mokiniams įdiegti programinę įrangą, kuri tikrina, ar jie sąžiningai atlieka testą. Ši programinė įranga dažniau kaltino spalvotus žmones sukčiavimu, nes programinė įranga negalėjo atpažinti jų veidų. Paaiškėjo, kad tokia testus tikrinanti programinė įranga tvirtina baltųjų viršenybę, seksizmą, ableizmą ir transfobiją.
Facebook atsiprašymas buvo susijęs su juodaodžiais vyrais, dalyvavusiais susirėmimuose su baltaisiais civiliais ir policijos pareigūnais, pagal The New York Times. Vaizdų atpažinimo dirbtinis intelektas klipus klasifikavo kaip filmuotą medžiagą, kurioje užfiksuotos beždžionės arba primatai, nors vaizdo įrašai neturėjo nieko bendro nei su vienu, nei su kitu.
Kaip tai vyksta? Dirbtinio intelekto šališkumas paprastai atsiranda dėl šališko mokymo rinkinio. Kaip paaiškina Joy Buolamwini savo TED paskaitoje, kurioje ji aiškina, kaip veido atpažinimo programinė įranga negalėjo atpažinti jos veido. Lygiai taip pat duomenų rinkinyje kur daugiau nei 80 proc. veidų yra baltaodžiai gali būti sunkiau atpažinti skirtingų odos spalvų žmones ir gali tekti griebtis tuos veidus klasifikuoti kaip kažką artimo žmogui - pavyzdžiui, beždžiones ir kitus primatus.
Panašus skandalas į neseniai įvykusią "Facebook" klaidą kilo 2015 m., kai "Google" "Google" nuotraukose per klaidą juodaodžius žmones identifikavo kaip gorilas. Tačiau užuot pakeitusi dirbtinį intelektą, "Google Photos" atsikratė tokių žodžių kaip "gorila", "šimpanzė", "šimpanzė" ir "beždžionė". Nors tai reiškia, kad "Google Photos" nuotraukose žmonės nebebus atpažįstami kaip beždžionės, tai rodo, kad pagrindinės dirbtinio intelekto problemos dar neišspręstos .
Nors "Facebook" dirbtinio intelekto klaida yra susijusi su pagrindine problema, kuri žaidžia visuomeniniu lygmeniu, "Facebook" turi piktnaudžiavimo, dažnai rasinio, atvejų.
Tokie pavyzdžiai palieka daugybę priežasčių svarstyti, kiek nuoširdžiai "Facebook" vertina primato neatitikimą - ir klausti, ar atsiprašymas nėra tiesiog PR akcija, kuria siekiama išvengti tolesnių nesutarimų.
Vaizdų atpažinimas yra labai naudinga priemonė, galinti padėti mums pagerinti kasdienį gyvenimą, tačiau naujovės neturi būti susijusios su diskriminacija ar fanatizmo stiprinimu. Žmogaus priskyrimas beždžionei yra toks nepagarbus, ir ne kas kita, kaip akivaizdu, kad "Facebook", kaip bendrovė, turėtų būti laikoma atsakinga.
Tik trivialu, kad paprastas algoritmas gali sukelti didelių pasekmių didelėje platformoje, todėl algoritmai taip ir turėtų būti traktuojami. Veido atpažinimo algoritmas neturėtų būti tiesiog kažkas, ką galima tiesiog mesti milijonams žmonių, o tūkstančių žmonių priskyrimas gorilų sekcijai yra toks pat nepriimtinas, kaip ir viešas tų žmonių pasmerkimas kaip beždžionių.
Neleiskite, kad atsiprašymo pakaktų, ypač bendrovei, kuri yra padariusi tokį rasistinį nusižengimą.