Facebook se omlouvá za to, že černochy klasifikoval jako primáty

Toto je autentický článek, jehož autorem je BramvdnHeuvel.

Odhadovaná doba čtení: 2 min.

Facebook se omlouvá za to, že černochy klasifikoval jako primáty

Umělé inteligence mohou mít rasové předsudky. Kaušovité tváře mají 10 až 100krát větší pravděpodobnost, že budou správně rozpoznány a identifikovány, než tváře Afroameričanů a Asiatů, což již vedlo k nepravdivým obviněním, zatčením a dokonce uvězněním, protože umělá inteligence nedokázala správně přiřadit tvář jiné než bílé barvy.

Mnoho studentů to během pandemie zažilo na vlastní kůži. Mnoho společností jako Proctorio zaznamenalo velké úspěchy na univerzitách a školách, kde učitelé instruují své studenty, aby si nainstalovali software, který kontroluje, zda dělají test poctivě. Tento software častěji obviňoval z podvádění barevné, protože software nedokázal rozpoznat jejich tváře. Ukázalo se, že takový proktorovací software posiluje nadřazenost bílé rasy, sexismus, ableismus a transfobii.

Chyba společnosti Facebook

Omluva společnosti Facebook se týkala černochů ve střetech s bílými civilisty a policisty, podle The New York Times. Umělá inteligence pro rozpoznávání obrazu klasifikovala klipy jako záběry opic nebo primátů, přestože videa neměla nic společného ani s jedním, ani s druhým.

Jak k tomu dochází? Předpojatost umělé inteligence je obvykle důsledkem neobjektivního tréninkového souboru. Jak vysvětluje Joy Buolamwiniová ve své přednášce na TEDu, kde vysvětluje, jak software pro rozpoznávání obličejů nedokázal rozpoznat její tvář. Stejně tak soubor dat kde je více než 80 procent obličejů bílých může mít větší potíže s rozpoznáváním lidí s jinou barvou pleti a může se uchýlit k tomu, že tyto obličeje klasifikuje jako něco blízkého člověku - například opice a další primáty.

Podobný skandál jako nedávný omyl Facebooku se odehrál v roce 2015, kdy společnost Google omylem identifikovala černochy jako gorily ve Fotkách Google. Místo změny umělé inteligence se však Fotky Google zbavily slov jako "gorila", "šimpanz", "šimpanz" a "opice". To sice znamená, že lidé již nebudou na Fotkách Google označováni jako opice, ale naznačuje to, že základní problémy s umělou inteligencí ještě nebyly odstraněny.

Rasové pochybení společnosti Facebook

Ačkoli chyba umělé inteligence Facebooku vychází ze základního problému, který hraje na společenské úrovni, Facebook má na svém kontě zneužívání, často rasového.

Podobné příklady dávají velký prostor k zamyšlení nad tím, jak upřímně Facebook bere neshodu s primáty - a k zamyšlení, zda omluva není jen PR akcí, která má zabránit dalším kontroverzím.

Co s tím můžeme dělat?

Rozpoznávání obrazu je velmi užitečný nástroj, který nám může pomoci zlepšit náš každodenní život, ale inovace nesmí být spojena s diskriminací nebo posilováním bigotnosti. Klasifikace člověka jako opice je takovou nedůstojností a není nic jiného než zřejmé, že Facebook jako společnost by měl nést odpovědnost.

Je pouze triviální, že jednoduchý algoritmus může vést k závažným důsledkům na velké platformě, a proto by se s algoritmy mělo takto zacházet. Algoritmus pro rozpoznávání obličejů by neměl být něčím, co lze jednoduše hodit na miliony lidí, a zařazení tisíců lidí do sekce goril je stejně nepřijatelné jako veřejné odsouzení těchto lidí jako opic.

Ať vám omluva nestačí, zvláště u společnosti, která má za sebou takovou historii rasového zneužívání.