Птичий
щебет, песня по радио, рекламные ролики — все это можно использовать для маскировки
незаметных команд голосовым помощникам, утверждают эксперты. Таким образом
можно даже отключать камеры слежения.
Птичий
щебет для атаки

Немецкие исследователи обнаружили, что звук
птичьего щебета может быть использован для проведения атак на голосовые
помощники, такие как Apple Siri, Google Assistant или Amazon Alexa.

На самом деле, проблема не в звуке именно
птичьих голосов; для атаки можно использовать любой другой звук — в том числе
малоразборчивую человеческую речь или песни. Эти звуки могут использоваться как
своего рода акустический камуфляж, маскирующий команды, которые злоумышленники
могут давать «умным колонкам».

Человеческий слух такие команды не разберет:
мозг будет занят обработкой наиболее громкого сигнала на определенной частоте,
а более тихий звук на той же частоте будет проигнорирован. Работает тот же
психоакустический принцип, который используется при кодировании аудиосигнала в
MP3: программы сжатия определяют, какую часть сигнала человек слышит, и удаляют
остальную информацию.

В результате пользователь даже не поймет, что происходит.
А вот голосовые помощники вполне разберут замаскированный сигнал и выполнят
закодированные в нем команды, утверждают эксперты Рурского университета в
Бохуме.

Реальность угрозы

По их мнению, проблема имеет фундаментальный
характер: такие атаки возможны в силу того, как реализованы алгоритмы глубоких
нейронных сетей, на основе которых и функционируют голосовые помощники.

Эксперты приводят такой пример: злоумышленники
записывают и маскируют команды для голосовых помощников, эти записи
интегрируются в мобильные приложения или даже в рекламные ролики — в Сети, на
ТВ или по радио. В результате пострадать могут тысячи людей. Голосовым
помощникам можно дать команду совершить какие-либо покупки или выслать
какие-либо конфиденциальные сведения, и все это — без ведома пользователя.

Скрытое отключение камеры слежения

«При самом худшем сценарии злоумышленник может захватить контроль над всей системой “умного дома”, в том числе, камерами слежения или тревожной сиреной», — отметили эксперты.

Как
защититься

«Угроза вполне реальна, — считает Михаил Зайцев, эксперт по
информационной безопасности компании SEC Consult Services. — Ранее было
доказано, что голосовые помощники способны понимать команды, даже если их
запись воспроизводится в ультразвуковом диапазоне, так что считать “замаскированный”
сигнал им тоже не составит труда, если устройство не настроено должным образом.
С другой стороны, реализовать такую атаку на практике будет, мягко говоря,
непросто. Но возможно. Единственный рабочий метод защиты — максимально
ограничивать функциональность голосовых помощников и настраивать их так, чтобы
прежде чем совершать важные операции они требовали подтверждения личности того,
кто даёт команды.

Источник