Facebook przeprasza za zaklasyfikowanie czarnych mężczyzn jako naczelnych.

To jest autentyczny artykuł napisany przez BramvdnHeuvel.

Szacowany czas czytania: 2 min.

Facebook przeprasza za zaklasyfikowanie czarnych mężczyzn jako naczelnych.

Sztuczne inteligencje mogą mieć uprzedzenia rasowe. Twarze kaukaskie są od 10 do 100 razy bardziej prawdopodobne, że zostaną poprawnie rozpoznane i zidentyfikowane niż twarze afroamerykańskie i azjatyckie, co już doprowadziło do nieprawdziwych oskarżeń, aresztowań, a nawet uwięzień, ponieważ sztuczna inteligencja nie mogła poprawnie dopasować twarzy nie-białego.

Wielu studentów doświadczyło tego z pierwszej ręki podczas pandemii. Wiele firm takich jak Proctorio odniosło duży sukces na uniwersytetach i w szkołach, gdzie nauczyciele instruują swoich studentów, aby zainstalowali oprogramowanie, które sprawdza, czy uczciwie wykonują test. Oprogramowanie było bardziej skłonne do obwiniania osób kolorowych o oszukiwanie, ponieważ oprogramowanie nie mogło rozpoznać ich twarzy. Takie oprogramowanie proctoring pokazał do reinforce białej supremacji, seksizm, ableism i transhobia.

Błąd Facebooka

Przeprosiny Facebooka dotyczyły czarnych mężczyzn w starciach z białymi cywilami i policjantami, według The New York Times. Sztuczna inteligencja rozpoznająca obraz sklasyfikowała klipy jako nagrania małp lub naczelnych, mimo że filmy nie miały nic wspólnego z żadnym z nich.

Jak to się dzieje? Uprzedzenie w sztucznej inteligencji jest zazwyczaj wynikiem nieobiektywnego zestawu szkoleniowego. Jak wyjaśnia Joy Buolamwini w jej TED talk, gdzie wyjaśnia, jak oprogramowanie do rozpoznawania twarzy nie mogło rozpoznać jej twarzy. W ten sam sposób, zbiór danych gdzie ponad 80 procent twarzy jest białych może mieć trudniejszy czas na rozpoznanie ludzi o różnych kolorach skóry i może uciekać się do klasyfikowania tych twarzy jako coś bliskiego człowiekowi - jak małpy i inne naczelne.

Podobny skandal do ostatniej pomyłki Facebooka był widoczny w 2015 roku, kiedy to Google błędnie zidentyfikował czarnych ludzi jako goryle w Google Photos. Jednak zamiast zmieniać sztuczną inteligencję, Google Photos pozbyło się słów takich jak "goryl", "szympans", "szympans" i "małpa". Chociaż oznacza to, że ludzie nie będą już identyfikowani jako małpy na Zdjęciach Google, sugeruje to, że podstawowe problemy z SI nie zostały jeszcze naprawione.

Rasistowskie wykroczenia Facebooka

Chociaż błąd sztucznej inteligencji Facebooka wynika z problemu, który rozgrywa się na poziomie społecznym, Facebook ma na swoim koncie nadużycia, często na tle rasowym.

Przykłady takie jak te pozostawiają wiele miejsca na zastanawianie się, jak szczerze Facebook traktuje niedopasowanie naczelnych -- i zastanawianie się, czy przeprosiny są po prostu działaniem PR, aby zapobiec dalszym kontrowersjom.

Co możemy z tym zrobić?

Rozpoznawanie obrazów jest bardzo użytecznym narzędziem, które może pomóc nam poprawić nasze codzienne życie, ale innowacyjność nie może iść w parze z dyskryminacją lub wzmacnianiem bigoterii. Zaklasyfikowanie człowieka jako małpy jest tak haniebne i nie jest niczym innym, jak tylko oczywistym, że Facebook jako firma powinien być pociągnięty do odpowiedzialności.

To banalne, że prosty algorytm może prowadzić do poważnych konsekwencji na dużej platformie, i dlatego algorytmy powinny być traktowane w ten sposób. Algorytm rozpoznawania twarzy nie powinien być po prostu czymś, co można po prostu wrzucić na miliony ludzi, a zakwalifikowanie tysięcy ludzi do sekcji goryli jest tak samo nieakceptowalne jak publiczne potępianie tych ludzi jako małpy.

Nie pozwól, by przeprosiny wystarczyły, zwłaszcza w przypadku firmy z taką historią nadużyć na tle rasowym.