Facebook sa ospravedlnil za to, že černochov klasifikoval ako primátov

Toto je autentický článok, ktorého autorom je BramvdnHeuvel.

Odhadovaný čas čítania: 2 min.

Facebook sa ospravedlnil za to, že černochov klasifikoval ako primátov

Umelé inteligencie môžu mať rasové predsudky. Tváre belochov majú 10 až 100-krát vyššiu pravdepodobnosť správneho rozpoznania a identifikácie ako tváre Afroameričanov a Ázijcov, čo už viedlo k nesprávnym obvineniam, zatknutiam a dokonca uväzneniam, pretože umelá inteligencia nedokázala správne priradiť tvár inej ako bielej farby.

Mnohí študenti to zažili na vlastnej koži počas pandémie. Mnohé spoločnosti ako Proctorio dosiahli veľké úspechy na univerzitách a školách, kde učitelia inštruujú svojich študentov, aby si nainštalovali softvér, ktorý kontroluje, či robia test poctivo. Tento softvér častejšie obviňoval farebných ľudí z podvádzania, pretože softvér nedokázal rozpoznať ich tváre. Ukázalo sa, že takýto proktorovací softvér posilňuje nadradenosť bielej rasy, sexizmus, ableizmus a transfóbiu.

Chyba spoločnosti Facebook

Ospravedlnenie spoločnosti Facebook sa týkalo černochov v konfliktoch s bielymi civilistami a policajtmi, podľa denníka The New York Times. Umelá inteligencia na rozpoznávanie obrazu klasifikovala klipy ako zábery opíc alebo primátov, hoci videá nemali nič spoločné ani s jedným z nich.

Ako k tomu dochádza? Predpojatosť umelej inteligencie je zvyčajne výsledkom neobjektívneho tréningového súboru. Ako vysvetľuje Joy Buolamwini v svojej prednáške na TED, kde vysvetľuje, ako softvér na rozpoznávanie tváre nedokázal rozpoznať jej tvár. Rovnako tak súbor údajov kde je viac ako 80 percent tvárí bielych môže mať ťažšie rozpoznávanie ľudí s inou farbou pleti a môže sa uchýliť k klasifikácii týchto tvárí ako niečoho blízkeho človeku - napríklad opíc a iných primátov.

Podobný škandál ako nedávna chyba Facebooku sa odohral v roku 2015, keď spoločnosť Google na fotografiách Google omylom identifikovala černochov ako gorily. Namiesto zmeny umelej inteligencie sa však Google Photos zbavil slov ako "gorila", "šimpanz", "šimpanz" a "opica". Hoci to znamená, že ľudia už nebudú na Fotkách Google identifikovaní ako opice, naznačuje to, že základné problémy s umelou inteligenciou ešte neboli odstránené.

Rasové pochybenie spoločnosti Facebook

Hoci chyba umelej inteligencie Facebooku vychádza zo základného problému, ktorý sa odohráva na spoločenskej úrovni, Facebook má na svojom konte zneužívanie, často rasové.

Príklady, ako sú tieto, ponechávajú dostatok priestoru na zamyslenie sa nad tým, ako úprimne berie Facebook primárne nezhodu - a na zamyslenie sa nad tým, či je ospravedlnenie len PR akciou, ktorá má zabrániť ďalším kontroverziám.

Čo s tým môžeme urobiť?

Rozpoznávanie obrazov je veľmi užitočný nástroj, ktorý nám môže pomôcť zlepšiť náš každodenný život, ale inovácie nesmú byť spojené s diskrimináciou alebo posilňovaním bigotnosti. Klasifikácia človeka ako opice je takouto nedôstojnosťou a nie je ničím iným ako samozrejmosťou, že Facebook ako spoločnosť by mal niesť zodpovednosť.

Je len triviálne, že jednoduchý algoritmus môže viesť k závažným dôsledkom na veľkej platforme, a preto by sa k algoritmom malo takto pristupovať. Algoritmus na rozpoznávanie tvárí by nemal byť jednoducho niečo, čo môžete len tak hodiť na milióny ľudí, a zaradenie tisícov ľudí do sekcie goríl je rovnako neprijateľné ako verejné odsúdenie týchto ľudí ako opíc.

Nech ospravedlnenie nestačí, najmä v prípade spoločnosti s takou históriou rasového zneužívania.