В эксперименте участвовали 163 американца разного возраста и расовой принадлежности. В первую очередь ученые попросили добровольцев заполнить анкету на тему того, как они относятся к представителям других рас и придерживаются ли стереотипов относительно людей с белой или темной кожей.
Затем участникам эксперимента показали роботов Nao, корпус которых окрашен в телесные цвета, и попросили определить его расу. С это задачей исправились только 11% респондентов.
Следующим этапом стала проверка реакции добровольцев на фотографии, на которых изображены люди и роботы с разными цветами кожи и корпуса, держащие в руках банку газировки, мобильный телефон или пистолет. Участникам эксперимента нужно было как можно быстрее принять решение, стоит ли стрелять в тот или иной объект.
В результате большинство участников «выстрелили» в темнокожих роботов и людей, в руках у которых было оружие. Ученые пришли к выводу, что люди не только определяют расу робота. но и дискриминируют машины на основе своих наблюдений.
Ранее исследователи из Массачусетского технологического университета и Стэнфорда изучили три популярные коммерческие ИИ-алгоритма распознавания лиц и выявили в них признаки сексизма и расизма. Оказалось, что при анализе фотографий белых мужчин алгоритмы неверно определяли пол только в 0,8% случаев, а в случае темнокожих женщин — в 34,7%.