Найден способ незаметно управлять Siri, Google Assistant и Alexa
В 3-х самых распространенных интеллектуальных помощниках Apple Siri, Amazon Alexa и Google Assistant найдена уязвимость: они реагируют на скрытые команды, которые не может услышать человек. В университете Беркли узнали, что неслышимые команды можно также встроить в записи мелодий либо разговорной речи. Как информирует New York Times, команде студентов удалось внедрить скрытые команды для голосовых помощников в аудиозаписи и устные тексты. Но готовность и возможность слушать команды в любую секунду — часто даже без надобности произнесения кодового слова-запуска — приводит к тому, что функционалом голосового ассистента могут пользоваться злоумышленники, стремящиеся насолить пользователям.
При разговоре робот подражал человеческой речи, например, использовал междометия. Системы распознавания речи переводят каждый звук в букву, из которых после составляются слова и предложения. Эти команды могут быть вставлены в музыкальные произведения, в видео на YouTube либо быть просто неким шумом, который ваши устройства будут «слышать» и распознавать.
Компании Apple, Amazon и Google, безопасность чьих голосовых помощников оказалась под угрозой, заверили, что усилят меры контроля и постараются защитить пользователей. Они назвали эту технику DolphinAttack и создали программу, позволяющую отдавать неслышные человеку команды на расстоянии 7,6 метра.