Технологию по распознаванию лиц уличили в расизме

Исследование, которое проводилось при поддержке правительства Соединённых Штатов Америки гласит, что технология по распознаванию лиц довольно часто ошибочно идентифицируют людей с тёмным цветом кожи, нежели белокожих. Таким образом программу определяют как расистскую, ввиду ошибок во время опознания людей. Поэтому было принято решение нивелировать возможность расовой предвзятости у машин, передаёт Информ-UA.

Научно доказано, что искусственный интеллект достаточно плохо видит людей, чей цвет кожи отличается от белого. Ранее в расизме обвинили ИИ, установленный на беспилотниках, поскольку он плохо распознаёт людей, тон кожи у которых отличается от "белого" населения. Как результат - автомобили, оснащённые искусственным интеллектом могут не заметить на дороге темнокожего пешехода, и сбить его во время следования. Эту "дыру" создатели машин с автономным управлениям обещали исправить. Теперь же стало известно о том, что программы по распознаванию лиц обладают той же "болезнью".

расизм

Национальный институт стандартов и технологий Министерства торговли проводил при поддержке американского правительства исследование программ по распознаванию лиц. Было выяснено, что они от десяти до сотни раз ошибочно определяли людей с тёмной кожей (причём тут речь идёт как про представителей негроидной расы, так и их потомков - мулатов) и представителей азиатских народов. То есть, алгоритмы работали таким образом, что не всегда верно опознавали личности людей.

В исследовании отмечалось, что ошибка в работе программы делала представителей меньшинств более уязвимыми, причём как перед преступными лицами, например, мошенниками, так и перед законом, поскольку они могли быть ложно обвинены в совершении злодеяния. Но в Нацинституте стандартов и технологий подчёркивают, что они не изучают причины, по которым образовалась подобная "дыра" в программном обеспечении, а лишь говорят разработчикам о её наличии. Патрик Гротер, главный автор доклада, отметил, что все, кто работал над исследованием, искренне надеются, что оно сделает их вклад полезным, в связи с чем разработчики займутся важной проблемой, на которую ранее не обращали внимания.

Читати далі: В США планируют «на пробу» сделать робота-киллера

Результаты научной работы были опубликованы на фоне изучения работы технологии по распознаванию лиц, которую обвиняют в злоупотреблении потенциалом. Ряд американских городов отказались от этой программы и запретили правительству её навязывать, причём такой шаг был сделан из-за обеспокоенности в точности работы, плюс вероятных проблем с конфиденциальностью. 

Кстати, "пробоина" наподобие была обнаружена и в программе распознавания лиц от Amazon, которая точно определяла людей других рас лишь в 31 проценте случаев, а когда речь шла про белокожее население, то тут она справлялась на все 100 процентов. Но во время исследования изучались программы от 99 разработчиков, а это 189 разных алгоритмов, которые использовали данные из правительственной базы. Исключением из этого правила стали алгоритмы из Азии, которые, в большинстве случаев, справлялись со своей работой на "ура". Все остальные не могут похвастаться таким же результатами.

Читати далі: ИИ ошибся: шахматную партию он распознал как проявление расизма