Facebook pyytää anteeksi mustien miesten luokittelua kädellisiksi ihmisiksi
Tämä on aito artikkeli, jonka on kirjoittanut BramvdnHeuvel.
Arvioitu lukuaika: 2 min.
Tämä on aito artikkeli, jonka on kirjoittanut BramvdnHeuvel.
Arvioitu lukuaika: 2 min.
Tekoälyillä voi olla rodullisia ennakkoluuloja. Kaukasialaiset kasvot tunnistetaan ja tunnistetaan 10-100 kertaa todennäköisemmin oikein kuin afroamerikkalaiset ja aasialaiset kasvot, mikä on jo johtanut vääriin syytöksiin, pidätyksiin ja jopa vangitsemisiin, koska tekoäly ei osannut oikein yhdistää ei-valkoisia kasvoja.
Monet opiskelijat ovat kokeneet tämän omakohtaisesti pandemian aikana. Monet yritykset, kuten Proctorio, ovat tehneet suuria menestyksiä yliopistoissa ja kouluissa, joissa opettajat ohjeistavat oppilaitaan asentamaan ohjelmiston, joka tarkistaa, tekevätkö he kokeen rehellisesti. Ohjelmisto syytti todennäköisemmin värillisiä ihmisiä huijaamisesta, koska ohjelmisto ei tunnistanut heidän kasvojaan. Tällaisten koetarkastajien ohjelmistojen on osoitettu vahvistavan valkoista ylivaltaa, seksismiä, ableismiä ja transfobiaa.
Facebookin anteeksipyyntö koski New York Timesin mukaan mustia miehiä, jotka olivat joutuneet yhteenottoihin valkoisten siviilien ja poliisien kanssa. Kuvantunnistus tekoäly luokitteli klipit apinoita tai kädellisiä esittäviksi kuviksi, vaikka videoilla ei ollut mitään tekemistä kummankaan kanssa.
Miten tämä tapahtuu? Tekoälyn ennakkoluuloisuus on yleensä seurausta ennakkoluuloisesta koulutusjoukosta. Kuten Joy Buolamwini selittää TED-puheessaan, jossa hän kertoo, miten kasvojentunnistusohjelma ei tunnistanut hänen kasvojaan. Samalla tavalla aineistolla jossa yli 80 prosenttia kasvoista on valkoisia voi olla vaikeampi tunnistaa erivärisiä ihmisiä ja se voi turvautua luokittelemaan nämä kasvot joksikin ihmistä lähellä olevaksi - kuten apinoiksi ja muiksi kädellisiksi.
Facebookin äskettäistä virhettä vastaava skandaali nähtiin vuonna 2015, kun Google määritteli Google-kuvissa mustat ihmiset virheellisesti gorilloiksi. Sen sijaan, että tekoälyä olisi muutettu, Google Photos kuitenkin poisti sanat "gorilla", "simpanssi", "simpanssi" ja "apina". Vaikka tämä tarkoittaa, että ihmisiä ei enää tunnisteta apinoiksi Google Photosissa, se viittaa siihen, että tekoälyn taustalla olevia ongelmia ei ole vielä korjattu.
Vaikka Facebookin tekoälyn virhe juontaa juurensa yhteiskunnallisella tasolla leikittelevästä ongelmasta, Facebookissa on tapahtunut väärinkäytöksiä, usein rasistisia.
Tällaiset esimerkit jättävät runsaasti tilaa ihmetellä, kuinka vilpittömästi Facebook suhtautuu alkukantaiseen epäsuhtaan - ja miettiä, onko anteeksipyyntö pelkkä PR-teko, jolla pyritään estämään lisäkohua.
Kuvantunnistus on erittäin hyödyllinen väline, joka voi auttaa meitä parantamaan jokapäiväistä elämäämme, mutta innovaation ei saa liittyä syrjintään tai kiihkoilun vahvistamiseen. Ihmisen luokitteleminen apinaksi on niin nöyryyttävää, ja on vain selvää, että Facebookia yrityksenä pitäisi pitää vastuullisena.
On vain triviaalia, että yksinkertainen algoritmi voi johtaa suuriin seurauksiin suurella alustalla, ja siksi algoritmeja pitäisi käsitellä niin. Kasvontunnistusalgoritmin ei pitäisi olla vain jotain, jonka voi vain heittää miljoonien ihmisten päälle, ja tuhansien ihmisten luokitteleminen gorillaosastoon on yhtä tuomittavaa kuin näiden ihmisten tuomitseminen julkisesti apinoiksi.
Anteeksipyyntö ei saa riittää, varsinkaan yritykselle, jolla on tällainen rasistinen väärinkäytösrekisteri.