Facebook se je opravičil, ker je črnce uvrstil med primate
To je verodostojen članek, ki ga je napisal BramvdnHeuvel.
Predviden čas branja: 2 min.
To je verodostojen članek, ki ga je napisal BramvdnHeuvel.
Predviden čas branja: 2 min.
Umetne inteligence imajo lahko rasne predsodke. Pravilno prepoznavanje in identifikacija kavkaških obrazov je 10 do 100-krat bolj verjetna kot afroameriških in azijskih, kar je že pripeljalo do nepravilnih obtožb, aretacij in celo zapornih kazni, ker umetna inteligenca ni mogla pravilno primerjati obraza, ki ni belca.
Veliko študentov je to izkusilo na lastni koži med pandemijo. Številna podjetja, kot je Proctorio, so dosegla velike uspehe na univerzah in šolah, kjer učitelji učencem naročijo, naj namestijo programsko opremo, ki preveri, ali so test naredili pošteno. Ta programska oprema je bolj verjetno obtoževala barvne ljudi goljufanja, ker programska oprema ni mogla prepoznati njihovih obrazov. Pokazalo se je, da takšna programska oprema za preverjanje znanja pospešuje nadvlado belcev, seksizem, ableizem in transfobijo.
Facebookovo opravičilo se je nanašalo na temnopolte moške v spopadih z belimi civilisti in policisti, po navedbah časopisa The New York Times. Umetna inteligenca za prepoznavanje slik je posnetke razvrstila kot posnetke opic ali primatov, čeprav videoposnetki niso imeli nič skupnega z nobenim od teh.
Kako se to zgodi? Predsodek v umetni inteligenci je običajno posledica pristranskega nabora za usposabljanje. Kot je razložila Joy Buolamwini v predavanju na TED, kjer je pojasnila, kako programska oprema za prepoznavanje obrazov ni mogla prepoznati njenega obraza. Na enak način lahko nabor podatkov kjer je več kot 80 odstotkov obrazov belih težje prepozna ljudi različnih barv kože in se lahko zateče k razvrščanju teh obrazov kot nečesa, kar je blizu človeku - kot so opice in drugi primati.
Podoben škandal kot nedavna Facebookova napaka se je zgodil leta 2015, ko je Google v Google Photos po pomoti označil črnce kot gorile. Vendar pa se je Google Photos namesto spremembe umetne inteligence znebil besed, kot so "gorila", "šimpanz", "šimpanz" in "opica". Čeprav to pomeni, da ljudje na Google Photos ne bodo več prepoznani kot opice, to nakazuje, da osnovne težave z umetno inteligenco še niso bile odpravljene.
Čeprav napaka Facebookove umetne inteligence izhaja iz temeljnega vprašanja, ki se odvija na družbeni ravni, ima Facebook v svoji zgodovini tudi zlorabe, pogosto rasne.
Takšni primeri puščajo veliko prostora za spraševanje, kako iskreno Facebook jemlje neprimerjanje primatov - in za spraševanje, ali je opravičilo zgolj PR akcija za preprečevanje nadaljnjih polemik.
Prepoznavanje podob je zelo uporabno orodje, ki nam lahko pomaga izboljšati naše vsakdanje življenje, vendar inovacije ne smejo biti povezane z diskriminacijo ali krepitvijo fanatizma. Razvrstitev človeka v opico je tako ponižujoča in ni nič drugega kot očitno, da bi moral biti Facebook kot podjetje za to odgovoren.
Trivialno je, da lahko preprost algoritem privede do velikih posledic na veliki platformi, zato je treba algoritme obravnavati na tak način. Algoritem za prepoznavanje obrazov ne bi smel biti preprosto nekaj, kar lahko preprosto vržete na milijone ljudi, in razvrščanje tisočih ljudi v oddelek goril je enako nesprejemljivo kot javna obsodba teh ljudi kot opic.
Naj opravičilo ne bo dovolj, še posebej ne za podjetje, ki je bilo tako pogosto žrtev rasnih zlorab.