Искусственный интеллект заподозрили в «сексизме» и «расизме»

Двa дня нaзaд в 13:10, прoсмoтрoв: 1752

Алгоритмы распознавания лиц, работающие на основе искусственного интеллекта, значительно чаще допускают ошибки, если от них требуется проанализировать лица людей с темным оттенком кожи, в особенности — женщин. К такому выводу пришли специалисты, представляющие Массачусетский технологический институт и Стэнфордскиф университет.


фото: pixabay.com

Специалисты проанализировали, как три популярных программы для распознавания лиц «реагируют» на 1 200 фотографий людей разного пола, относящихся к различным этническим группам. При этом цвет кожи на каждой фотографии оценивался по шестибальной шкале, в которой один балл соответствовал максимально светлому оттенку, а шесть баллов — самому тёмному.

Как выяснилось, чем более тёмной была кожа участников исследования, тем выше был шанс, что программа просто «не заметит» их лицо или же неверно определит, мужчине оно принадлежит или женщине. При этом «угадывать» темнокожих женщин программам удавалось с наибольшим трудом. У мужчин со светлой кожей ошибки встречались менее чем в одном проценте случаев, а пол женщин с очень тёмной кожей некоторым алгоритмам удавалось угадать лишь в половине случаев — то есть не чаще, чем если бы он просто называл его случайным образом.

Таким образом, специалисты отмечают, что алгоритмы в недостаточной степени учитывают разнообразие людей, которые могли бы им пользоваться, а следственно, нуждаются в доработке.

Пока что результаты исследования не были опубликованы ни в одном рецензируемом научном издании, однако специалисты планируют сообщить о них на Конференции по вопросам справедливости, подотчетности и транспарентности в Нью-Йорке. Помимо этого, некоторые эксперты, занимающиеся разработкой программ для распознавания лиц, уже заявили, что выводу учёных будут учитываться ими при дальнейшей работе.

Получайте короткую вечернюю рассылку лучшего в «МК» — подпишитесь на наш Telegram.

к