Facebook vabandab, et klassifitseeris mustanahalisi mehi primaatideks
See on autentne artikkel, mille on kirjutanud BramvdnHeuvel.
Hinnanguline lugemisaeg: 2 min.
See on autentne artikkel, mille on kirjutanud BramvdnHeuvel.
Hinnanguline lugemisaeg: 2 min.
Tehisintellektidel võivad olla rassilised eelarvamused. kaukaaslaste näod on 10 kuni 100 korda tõenäolisemalt õigesti äratuntavad ja tuvastatavad kui afroameeriklaste ja aasialaste näod, mis on juba viinud vale süüdistuste, vahistamiste ja isegi vangistamiste juurde, sest tehisintellekt ei suutnud mittevalget nägu õigesti tuvastada.
Paljud üliõpilased on seda pandeemia ajal omal nahal kogenud. Paljud ettevõtted nagu Proctorio on teinud suuri edusamme ülikoolides ja koolides, kus õpetajad juhendavad oma õpilasi paigaldama tarkvara, mis kontrollib, kas nad teevad testi ausalt. Tarkvara süüdistas pigem värvilisi inimesi petmises, sest tarkvara ei suutnud nende nägusid ära tunda. On ilmnenud, et selline kontrollitarkvara tugevdab valge ülemvõimu, seksismi, võimetekohasust ja transfoobiat.
Facebooki vabandus puudutas mustanahalisi mehi, kes olid kakluses valgete tsiviilisikute ja politseiametnikega, tema New York Times kohaselt. Pildituvastuse tehisintellekt liigitas klipid ahvide või primaatide ülesvõteteks, kuigi videodel polnud midagi pistmist kumbagi.
Kuidas see juhtub? Tehisintellekti kallutatus on tavaliselt kallutatud treeningkogumi tulemus. Nagu Joy Buolamwini selgitab selles TED-ettekandes, kus ta selgitab, kuidas näotuvastustarkvara ei suutnud tema nägu ära tunda. Samamoodi võib andmekogumil , kus üle 80 protsendi nägudest on valged, olla raskem ära tunda eri nahavärviga inimesi ja ta võib pöörduda selle näo klassifitseerimise poole, mis on lähedane inimesele - nagu ahvid ja muud primaadid.
Facebooki hiljutise veaga sarnane skandaal leidis aset 2015. aastal, kui Google tuvastas Google Fotodel ekslikult mustanahalisi inimesi gorilladena. Kuid selle asemel, et muuta tehisintellekti, sai Google Photos lahti sellistest sõnadest nagu "gorilla", "šimpans", "šimpans" ja "ahv". Kuigi see tähendab, et inimesi ei tuvastata Google Photos'is enam ahvidena, viitab see sellele, et tehisintellekti põhiprobleemid ei ole veel kõrvaldatud.
Kuigi Facebooki tehisintellekti viga tuleneb ühiskondlikul tasandil mängivast põhiprobleemist, on Facebooki puhul tegemist kuritarvitustega, mis on sageli rassistlikud.
Sellised näited jätavad rohkesti ruumi imestada, kui siiralt Facebook võtab ürgorgaanilist valesti sobitamist -- ja küsida, kas vabandamine on lihtsalt PR-meede, et vältida edasisi vastuolusid.
Pildituvastus on väga kasulik vahend, mis võib aidata meil oma igapäevaelu parandada, kuid innovatsioon ei tohi kaasneda diskrimineerimisega ega fanatismi tugevdamisega. Inimese klassifitseerimine ahviks on selline alandamine ja on vaid ilmselge, et Facebook kui ettevõte peaks vastutama.
See on ainult triviaalne, et lihtne algoritm võib viia suurel platvormil suurte tagajärgedeni, ja seega tuleks algoritme nii käsitleda. Näotuvastuse algoritm ei tohiks olla lihtsalt midagi, mida võib lihtsalt miljonite inimeste peale visata, ja tuhandete inimeste liigitamine gorillade sektsiooni on sama vastuvõetamatu kui nende inimeste avalik hukkamõistmine ahvidena.
Vabandamisest ei piisa, eriti kui tegemist on ettevõttega, millel on selline rassistlik väärkohtlemine.