Ученые обвинили Google Translate в сексизме
Детали исследования профессионалов из Принстонского университета и Университета Бата опубликовали в журнале Science. Приобретенные данные позволяют с другой стороны посмотреть на природу стереотипов и направить исследования искусственного интеллекта в сторону освобождения от схожих предрассудков.
Ученые из Принстона узнали, что самообучающийся искусственный интеллект может перенимать человеческие предрассудки в процессе освоения новых данных. Чтобы выяснить это ученые использовали метод ассоциативного теста.
Искусственный интеллект становится все не менее похожим на человека. Например, он ассоциировал дамские имена с такими словами, как «родители» и «свадьба», а мужские имена — со словами «профессиональный» и «зарплата».
«ИИ может научиться стереотипному мышлению, что, в общем-то, предсказуемо».
Проводя эксперименты ученые обратили внимание, что переводчики с искусственным интеллектом создают свои ассоциации связанные с людьми. К примеру, Google Translate предпочитает переводить фразы в мужском роде. В процессе опыта машинный интеллект ассоциировал мужские имена с «зарплатой» и «профессионализмом», а дамские — с «родителями» и «свадьбой», что несомненно является свидетельством стереотипного мышления.
Российские разработчики создали аналог Алисы и Сири: специализируется на алкогольном консалтинге
Археологи обнаружили в Италии зубные пломбы возрастом 13 тыс. лет
Смартфон Сони Xperia XZ Pro может оказаться безрамочным камерофоном
God of War признали игрой года по версии The Game Awards 2018
ФАВОРИТ ДНЯ. Главные матчи дня и популярные прогнозы на 3 октября