Facebook atvainojas par melnādaino vīriešu klasificēšanu par primātiem
Šis ir autentisks BramvdnHeuvel raksts.
Paredzamais lasīšanas laiks: 2 min.
Šis ir autentisks BramvdnHeuvel raksts.
Paredzamais lasīšanas laiks: 2 min.
Mākslīgajam intelektam var būt rasu aizspriedumi. Kaukazas sejas 10 līdz 100 reižu biežāk tiek pareizi atpazītas un identificētas nekā afroamerikāņu vai aziātu sejas, kas jau ir novedis pie nelikumīgām apsūdzībām, arestiem un pat apcietinājumiem, jo mākslīgais intelekts nespēja pareizi atpazīt seju, kas nav balta.
Daudzi studenti to piedzīvoja uz savas ādas pandēmijas laikā. Daudzi uzņēmumi, piemēram, Proctorio, ir guvuši lielus panākumus universitātēs un skolās, kur skolotāji uzdod skolēniem instalēt programmatūru, kas pārbauda, vai viņi godīgi kārto testu. Šī programmatūra biežāk vainoja krāpšanā krāsainus cilvēkus, jo programmatūra nespēja atpazīt viņu sejas. Ir pierādīts, ka šāda proktoru programmatūra pastiprina baltās rases pārākumu, seksismu, spējismu un transfobiju.
Facebook atvainošanās attiecās uz melnādainiem vīriešiem, kas iesaistīti konfliktos ar baltajiem civiliedzīvotājiem un policistiem, paskaidroja The New York Times. Attēlu atpazīšanas mākslīgais intelekts klasificēja klipus kā pērtiķu vai primātu kadrus, lai gan videoklipiem nebija nekāda sakara ne ar vienu, ne ar otru.
Kā tas notiek? Mākslīgā intelekta neobjektivitāte parasti rodas neobjektīvas mācību kopas rezultātā. Kā skaidro Džoija Buolamvini (Joy Buolamwini) savā TED lekcijā, kurā viņa skaidro, kā sejas atpazīšanas programmatūra nespēja atpazīt viņas seju. Tāpat datu kopai kur vairāk nekā 80 procenti seju ir baltādainas, var būt grūtāk atpazīt dažādu ādas krāsu cilvēkus, un tā var ķerties pie šo seju klasificēšanas kā kaut ko tuvu cilvēkam - piemēram, pērtiķus un citus primātus.
Līdzīgs skandāls kā Facebook nesen pieļautā kļūda bija vērojams 2015. gadā, kad Google kļūdaini identificēja melnādainus cilvēkus kā gorillas Google Photos. Tomēr tā vietā, lai mainītu mākslīgo intelektu, Google Photos atbrīvojās no tādiem vārdiem kā "gorilla", "chimp", "chimpanzee" un "monkey". Lai gan tas nozīmē, ka cilvēki Google Photos vairs netiks identificēti kā pērtiķi, tas liecina, ka mākslīgā intelekta pamatproblēmas vēl nav novērstas..
Lai gan Facebook mākslīgā intelekta kļūda ir saistīta ar pamatjautājumu, kas darbojas sabiedrības līmenī, Facebook ir reģistrēti pārkāpumi, bieži vien rasistiski.
Šādi piemēri atstāj daudz vietas, lai aizdomātos, cik sirsnīgi Facebook uztver primātu neatbilstību - un vai atvainošanās nav vienkārši PR akcija, lai novērstu turpmākas diskusijas.
Attēlu atpazīšana ir ļoti noderīgs rīks, kas var palīdzēt mums uzlabot mūsu ikdienas dzīvi, taču inovācijas nedrīkst būt saistītas ar diskrimināciju vai fanātisma pastiprināšanu. Cilvēka klasificēšana par pērtiķi ir tik pazemojoša, un nav nekas cits kā acīmredzams, ka Facebook kā uzņēmumam būtu jāuzņemas atbildība.
Tas ir tikai triviāli, ka vienkāršs algoritms var radīt nopietnas sekas lielā platformā, un tāpēc pret algoritmiem ir jāizturas šādi. Sejas atpazīšanas algoritmam nevajadzētu būt vienkārši kaut kam, ko var vienkārši uzmest miljoniem cilvēku, un tūkstošiem cilvēku iedalīšana gorillu sadaļā ir tikpat nepieņemama kā šo cilvēku publiska nosodīšana par pērtiķiem.
Lai ar atvainošanos nepietiktu, jo īpaši uzņēmumam, kam ir šāda rasu pārkāpumu vēsture.