Фейсбук се извини за класифицирането на чернокожите мъже като примати

Това е автентична статия, написана от BramvdnHeuvel.

Очаквано време за четене: 2 мин.

Фейсбук се извини за класифицирането на чернокожите мъже като примати

Изкуствените интелекти могат да имат расови пристрастия. Кавказките лица са от 10 до 100 пъти по-склонни да бъдат правилно разпознати и идентифицирани, отколкото афроамериканските и азиатските, което вече е довело до неправомерни обвинения, арести и дори лишаване от свобода, защото изкуственият интелект не е могъл правилно да съпостави лице, което не е бяло.

Много ученици са изпитали това от първа ръка по време на пандемията. Много компании като Proctorio са постигнали големи успехи в университетите и училищата, където преподавателите инструктират учениците си да инсталират софтуер, който проверява дали правят теста честно. По-вероятно е софтуерът да обвини цветнокожите в измама, защото софтуерът не може да разпознае лицата им. Доказано е, че подобен софтуер за провеждане на тестове подсилва превъзходството на бялата раса, сексизма, ableзма и трансфобията.

Грешка на Facebook

Извинението на Facebook се отнася до чернокожи мъже в пререкания с бели цивилни и полицаи, според The New York Times. Изкуствен интелект за разпознаване на изображения класифицира клиповете като кадри с маймуни или примати, въпреки че видеоклиповете нямат нищо общо с нито едно от двете.

Как се случва това? Пристрастието в изкуствения интелект обикновено е резултат от необективен набор за обучение. Както обяснява Джой Буоламвини в лекцията си в TED, където обяснява как софтуерът за разпознаване на лица не е могъл да разпознае лицето ѝ. По същия начин набор от данни където над 80 % от лицата са бели може да има по-трудно разпознаване на хора с различен цвят на кожата и да прибегне до класифициране на тези лица като нещо близко до човека - като маймуни и други примати.

Подобен скандал на неотдавнашната грешка на Facebook беше наблюдаван през 2015 г., когато Google погрешно идентифицира чернокожи хора като горили в Google Photos. Вместо обаче да промени изкуствения интелект, Google Photos се отърва от думи като "горила", "шимпанзе", "шимпанзе" и "маймуна". Въпреки че това означава, че хората вече няма да бъдат идентифицирани като маймуни в Google Photos, то предполага, че основните проблеми с изкуствения интелект все още не са отстранени.

Расовото неправомерно поведение на Facebook

Въпреки че грешката на изкуствения интелект на Facebook идва от основен проблем, който играе на обществено ниво, Facebook има опит със злоупотреби, често на расова основа.

Подобни примери оставят достатъчно място да се чудим колко искрено Facebook приема несъответствието с примата - и да се запитаме дали извинението не е просто PR акция за предотвратяване на по-нататъшни спорове.

Какво можем да направим по въпроса?

Разпознаването на образи е много полезен инструмент, който може да ни помогне да подобрим ежедневието си, но иновациите не трябва да са свързани с дискриминация или засилване на фанатизма. Класифицирането на човек като маймуна е такова унижение и не е нищо друго освен очевидно, че Facebook като компания трябва да носи отговорност.

Тривиално е, че един прост алгоритъм може да доведе до сериозни последици за голяма платформа, и следователно алгоритмите трябва да се третират по този начин. Алгоритъмът за разпознаване на лица не бива да бъде просто нещо, което може да се хвърли върху милиони хора, а категоризирането на хиляди хора в раздела за горили е също толкова неприемливо, колкото и публичното заклеймяване на тези хора като маймуни.

Не позволявайте извинението да е достатъчно, особено за компания с такова досие на расови злоупотреби.