Кроме того, в некоторых странах трафик с IoT-устройств, передаваемый через интернет, может анализироваться с помощью государственного программного и аппаратного обеспечения. Это угрожает безопасности пользователей, если доступ к таким данным имеют лица, превышающие должностные полномочия, или данные компрометируются в ходе хакерской атаки[1149]
.Следует упомянуть, что уязвимы не только ASR-системы, входящие в состав голосовых помощников. Аналогичные модули есть и в другой «умной» технике, например в смарт-телевизорах. В некоторых моделях телевизоров, имеющих доступ к интернету, есть опция голосового управления, и они в процессе работы передают записанный голосовой трафик (а иногда – и снимки изображения на экране[1150]
) на серверы производителей и рекламных компаний для улучшения работы ASR-алгоритмов и анализа предпочтений телезрителей.Скрытые инструкции
Устройства, оборудованные голосовыми помощниками, могут подвергаться атакам с применением скрытых команд. Такие команды могут быть неслышными (ультразвук) или слышимыми, но спрятанными в аудиофайлах, например содержащих музыку или рекламу.
КЕЙС
В 2017 г. исследователи из Университета Беркли обнаружили, что встроенные голосовые помощники, в частности Apple Siri, реагируют на не воспринимаемые человеческим слухом команды, скрытые, например, в музыке (ультразвук с частотой колебаний выше 25 кГц). С помощью таких команд удалось открывать веб-ссылки и совершать телефонные звонки[1151]. Короткое наглядное видео опубликовано на странице https://youtu.be/21HjF4A3WE4. Исследователям из Принстонского университета удалось достичь аналогичных результатов с Google Assistant, в том числе с помощью скрытых команд заставить смартфон фотографировать и включать режим «В самолете»[1152]. На скрытые команды могут реагировать и другие устройства, поддерживающие голосовой ввод, например телевизоры или оборудование «умного» дома. Подробно схема потенциальной атаки рассматривается в докладе Шень Шена из Иллинойсского университета[1153].К примеру, по ссылке https://youtu.be/z_qtSTNt_p0
можно прослушать модифицированную запись, в которой на фоне речи человека звучит скрытая команда «Отключить камеру наблюдения и открыть входную дверь». В случае этой атаки на устройство Amazon Echo скрытая команда звучит как тихий случайный шум, практически неразличимый на фоне громкой речи, но на нее реагирует голосовой помощник.Вероятны еще менее заметные атаки с помощью ультразвуковых команд, воспринимаемых ASR-системами. В одном случае ультразвуковой трафик направляется на устройство (например, «умную» колонку или смартфон) по воздуху. Этот способ не слишком удобен: устройство, излучающее ультразвук (динамик), имеет большие габариты; атаке могут помешать преграды на пути от излучателя к микрофону IoT-девайса. Другой способ не связан с такими проблемами. Производится так называемая SurfingAttack, в процессе которой ультразвуковые команды передаются через твердые материалы. Например, злоумышленник может закрепить небольшое устройство-излучатель с оборотной стороны стола и воздействовать на девайс жертвы, когда та положит его на стол. Переданные таким образом команды позволяют управлять голосовым помощником в устройстве жертвы, если настройки ASR-системы это допускают.
Кроме того, как выяснилось[1154]
, микрофоны ASR-систем, работающих под управлением Amazon Alexa, Apple Siri и Google Assistant, реагируют на команды, переданные с помощью лазерного луча. Исследователи из США и Японии смогли открыть гараж с помощью «умной» колонки, передав ей соответствующую команду из соседнего здания. Атака оказалась успешной, так как в результате фотоакустического эффекта волны, создаваемые лазерным лучом, воздействуют на тончайшую мембрану микрофона девайса. С помощью мерцания лазера можно передавать любые инструкции для голосового помощника. Атака возможна, если микрофон атакуемого устройства (колонки, смартфона, планшета и т. п.) находится в прямой видимости от источника лазерного излучения на расстоянии от 5 до 110 м[1155].