Ученые обвинили Google Translate в сексизме
Детали исследования профессионалов из Принстонского университета и Университета Бата опубликовали в журнале Science. Приобретенные данные позволяют с другой стороны посмотреть на природу стереотипов и направить исследования искусственного интеллекта в сторону освобождения от схожих предрассудков.
Ученые из Принстона узнали, что самообучающийся искусственный интеллект может перенимать человеческие предрассудки в процессе освоения новых данных. Чтобы выяснить это ученые использовали метод ассоциативного теста.
Искусственный интеллект становится все не менее похожим на человека. Например, он ассоциировал дамские имена с такими словами, как «родители» и «свадьба», а мужские имена — со словами «профессиональный» и «зарплата».
«ИИ может научиться стереотипному мышлению, что, в общем-то, предсказуемо».
Проводя эксперименты ученые обратили внимание, что переводчики с искусственным интеллектом создают свои ассоциации связанные с людьми. К примеру, Google Translate предпочитает переводить фразы в мужском роде. В процессе опыта машинный интеллект ассоциировал мужские имена с «зарплатой» и «профессионализмом», а дамские — с «родителями» и «свадьбой», что несомненно является свидетельством стереотипного мышления.