Хакеры могут захватить смартфон простой лазерной указкой
Лазерные указки отлично подходят для издевательства над кошками и причинения раздражения. Но они также весьма эффективны при взломе Alexa, Siri или Google Assistant, говорят исследователи — даже на расстоянии сотни метров.
Микрофоны в интеллектуальных устройствах преобразуют звук в электрические сигналы, которые передают команды на устройство. Но, как обнаружили исследователи из Университета Мичигана и Университета электросвязи в Токио, микрофоны будут точно так же реагировать на сфокусированный свет, направленный прямо на них. Это удивительная уязвимость, которая позволит злоумышленнику тайно захватить многие популярные устройства с голосовым управлением, используя всего лазерную указку.
«Можно заставить микрофоны реагировать на свет, как если бы он был звуком», — сказал Такеши Сугавара, один из ведущих исследователей исследования. «Это означает, что все, что действует на звуковые команды, будет действовать на легкие команды».
Поскольку многие системы голосовых команд не требуют аутентификации, злоумышленнику не потребуется пароль или ПИН-код, чтобы захватить устройство легкой командой. Они просто должны быть в зоне видимости объекта. В статье, опубликованной в понедельник, исследователи подробно рассказали о том, как легко управлять умными динамиками, планшетами и телефонами, не находясь в одном здании, просто направив лазер в окно. В одном случае они захватили Google Home на четвертом этаже офисного здания с вершины колокольни в Университете Мичигана, на расстоянии более 60 метров. И они говорят, что теоретически этот трюк можно было бы использовать для незамедлительной покупки вещей в Интернете, использования интеллектуальных коммутаторов в домашних условиях и бесконечных других тревожных приложений.
«Как только злоумышленник получит контроль над голосовым помощником, ряд других систем могут быть открыты для их манипулирования», — говорится в отчете исследования на сайте Мичиганского университета. «В худшем случае это может означать опасный доступ к учетным записям электронной торговли, кредитным картам и даже к любым подключенным медицинским устройствам, которые пользователь связал со своим помощником».
Исследователи потратили семь месяцев на тестирование трюка на 17 управляемых голосом устройствах с поддержкой Alexa, Siri, портала Facebook и Google Assistant, включая Google Home, Echo Dot, Fire Cube, Google Pixel, Samsung Galaxy, iPhone и iPad. Они успешно проводили атаки, используя обычные лазерные указки, лазерные драйверы, телеобъектив и даже приглушенный фонарик.
Исследователи не были точно уверены, почему эти микрофоны реагируют на свет, когда они звучат. Они не хотели спекулировать и оставляют физику для дальнейшего изучения. Они уведомили Google, Amazon, Apple, Tesla и Ford об уязвимости.
Представители Google и Amazon заявили, что компании рассматривают результаты исследования и его влияние на безопасность своих продуктов. Но считают, что риск для потребителей ограничен. Представитель Amazon отметил, что клиенты могут защитить продукты с поддержкой Alexa с помощью PIN-кода или использовать кнопку отключения звука, чтобы отключить микрофон. Apple не сразу ответила на запросы о комментариях.
Исследователи обнаружили другие неопределяемые способы использования устройств голосового управления, но их возможности были более ограниченными. В 2016 году исследователи из Калифорнийского университета в Беркли показали, что можно скрывать команды белым шумом, музыкой или устным текстом. В 2017 году китайские исследователи показали, что можно давать команды интеллектуальным устройствам на частотах, не слышимых человеческому уху. Но в таком случае передатчик должен быть относительно близко к объекту, чтобы метод работал.
Исследователи заявили, что не известны случаи, чтобы кто-то использовал легкие команды для взлома устройства. Но устранение этой уязвимости потребует редизайна для большинства микрофонов. Исследователи обнаружили, что хитрость легкой командной атаки ограничена. За исключением инфракрасных лазеров, лазеры и другие источники света видны невооруженным глазом и могут быть легко замечены кем-то рядом с устройством. Устройства голосовых команд также обычно дают звуковые ответы. Но в этом случае злоумышленник может изменить громкость устройства, чтобы продолжить работу с ним незамеченным.
На данный момент исследователи говорят, что единственный надежный способ защиты от света заставляет его держать устройства подальше от окон, посторонних глаз и любопытных лазерных лучей.