Китайские хакеры могут взломать любой умный голосовой ассистент
Денис Черкашин
—
Хакеры-энтузиасты из Китая обнаружили, что «умные» голосовые ассистенты Alexa, Siri, Cortana и Google Assistant можно заставить совершать различные действия без разрешения владельца, используя специфику ультразвуковых волн.
Подписаться на iGuides в Telegram, чтобы узнать обо всем первым — t.me/iguides
Дело в том, что диапазон частот ниже 20 Гц и выше 20 кГц является не слышимым для человека, однако микрофоны в смартфонах и «умных» колонках способны распознавать эти звуки. Китайские хакеры создали устройство, которое может с небольшого расстояния активировать любой голосовой ассистент и заставить его, например, отправить СМС в банк с командой перевода денег на другую карту.
Единственный «минус» такого решения заключается в том, что злоумышленникам нужно расположить свое устройство на расстоянии около полуметра от гаджета к голосовым ассистентом.
К сожалению, исправить эту уязвимость тяжело. Компании, разрабатывающие голосовые ассистенты, не могут обновлением ПО сделать так, чтобы система начала игнорировать звуки, выходящие за пределы слышимого для человека диапазона. Они используются для лучшего анализирования голосовых команд.
5
Рекомендации
Рекомендации
Будь в курсе последних новостей из мира гаджетов и технологий
Перевод по смс с карты на карту тоже бред. Надо ввести ещё проверочный код из обратного смс от банка, который без разблокировки телефона не прочесть к тому же.