Ваш умный динамик может подвергаться риску хакеров, пытающихся украсть ваши личные данные.

Исследователи обнаружили две новые уязвимости в голосовых помощниках, таких как Amazon Alexa или Google Ассистент, что может позволить злоумышленникам украсть конфиденциальную информацию.

Ваш умный динамик может подвергаться риску хакеров, пытающихся украсть ваши личные данные

Эти эксплойты, получившие название «приседание голоса» и «маскировка голоса», позволяют злоумышленникам воспользоваться преимуществами виртуального Персональные помощники (VPA), встроенные в умные динамики, обрабатывают голосовые команды, используя неверные представления пользователей о том, как они работа.

в первый анализ безопасности экосистемы VPA, исследователи из Университета Индианы, Китайской академии наук и Университета Вирджинии продемонстрировал, как VPA можно обмануть простыми омофонами — словами, которые звучат одинаково, но имеют разные значения. значения.

ЧИТАЙТЕ СЛЕДУЮЩИЙ: Лучшие навыки Alexa

В официальном документе приводится пример «голосового приседания», когда голосовой помощник может ошибиться в такой команде, как «Alexa, open Capital One» с вызовом «Capital Won», если злоумышленник создаст вредоносное приложение с похожим названием. имя.

Представлено в сообщение в блоге о лаборатории Malwarebytes, компания, предлагающая антивирусное программное обеспечение, «голосовое приседание» описывается как метод, использующий способ вызова навыка или действия.

Смотрите связанные 

Лучшие навыки и команды Amazon Alexa для вашего эхо-устройства
Лучшие команды Google Home: начало работы с интеллектуальным динамиком Google Действия
Обзор Google Home: отличный умный динамик теперь дешевле, чем когда-либо

 Действительно, исследователи продемонстрировали это на реальном примере, зарегистрировав в Amazon пять новых навыков, предназначенных для имитации широко популярного Звуки сна и релаксации. Эти поддельные навыки, которые прошли проверку Amazon, использовали похожие имена вызовов и, как было установлено, вызывались большой долей пользователей.

В то же время «Маскарад голоса» — это метод, который включает в себя злонамеренный навык, выдающий себя за законный навык, чтобы либо обманом заставить пользователя прочитать личную информацию или учетные данные учетной записи, либо подслушать разговоры.

Двумя выявленными методами были «переключение навыков во время общения», в котором используется ложное предположение о том, что умные помощники легко переключаются с одного навыка на другой, как только пользователи вызывают новый навык. one и «фиктивное завершение», когда вредоносное приложение может использовать способность некоторых навыков самозавершаться после регистрации такой команды, как «до свидания», оставаясь активным и работая в фон.

«Учитывая важность выводов, представленных в исследовании, мы сделали только первый шаг к полному пониманию рисков безопасности систем VPA IoT и эффективному снижению таких рисков. рисков», — заключило исследование, добавив: «Необходимы дальнейшие исследования для лучшей защиты голосового канала, аутентификации вовлеченных сторон без ущерба для удобства использования VPA. системы».

«Умные помощники и IoT в целом все еще являются довольно новой технологией, поэтому мы ожидаем улучшений в области ИИ, а также в усилиях по обеспечению безопасности и конфиденциальности в этом секторе», — написала Malwarebytes в своем блоге. «И Amazon, и Google заявляют, что у них уже есть средства защиты от голосового приседания и маскировки голоса.

«Хотя это правда, что исследователи уже встречались с обеими фирмами, чтобы помочь им лучше понять эти угрозы. и предлагают им смягчающие меры, они по-прежнему скептически относятся к тому, действительно ли введенные средства защиты адекватный».

Поскольку голосовые помощники все чаще используются, в отчетах все чаще упоминаются недостатки — возможно, самый громкий инцидент в этом году связан с Alexa случайно смеется без подсказки.

Об этом сообщил представитель Google. ИТ-специалист это была область, к которой Google относится очень серьезно, предоставляя ссылку на правила для действий в Google.

В отношении обманного поведения политика гласит: «Мы не разрешаем действия, которые пытаются обмануть пользователей. Действия должны обеспечивать точное раскрытие своей функциональности и выполняться в соответствии с разумными ожиданиями пользователя.

«Действия не должны пытаться имитировать функциональность системы или предупреждения любого рода. Любые изменения в настройках устройства должны производиться с ведома и согласия пользователя и быть легко обратимыми пользователем».

Представитель Amazon добавил: «Для нас важно доверие клиентов, и мы проводим проверки безопасности в рамках процесса сертификации навыков. У нас есть меры по смягчению последствий, чтобы обнаруживать этот тип поведения навыков и отклонять или удалять их при обнаружении».