Обученный американскими исследователями искусственный интеллект смог украсть пароли в виртуальном мире у пользователей на VR-совещании лишь анализируя то, как стучат пальцы аватара по клавиатуре.
Программисты из Иллинойского университета (США) под руководством Хайтао Чжэн научили ИИ анализировать движения рук виртуального аватара и воспроизводить набранный им на клавиатуре текст в течение 10-15 минут. Ученые протестировали программу в приложении виртуального пространства для совместной работы Horizon Workrooms. Подробнее о своей разработке исследователи расскажут на конференции USENIX Security 2024.
Чжэн и ее коллеги провели несколько постановочных атак в Horizon Workrooms, чтобы получить доступ к данным конкретных пользователей, которые должны были использовать клавиатуру для входа в «личные аккаунты».
Во время эксперимента в виртуальной реальности искусственный интеллект правильно распознал от 86 до 98 процентов набранных символов у 13 из 15 испытуемых. Однако из-за шума, который возникал во время набора данных у двух оставшихся аватаров, ИИ становилось сложнее «считать символы», которые те набирали.
Статья по теме: 10 футуристических идей, которые изменят нашу жизнь к 2100 году
Поскольку датчики VR-гарнитуры пока не могут точно считывать движения пальцев, пользователям приходится использовать для набора текста в Horizon Workrooms физическую клавиатуру. Американские ученые обучили отдельные модели ИИ распознавать движения рук аватара при нажатии клавиш, определять, что он нажимает кончиками пальцев именно «кнопки» клавиатуры, а также вычислять, какую клавишу и в каком порядке нажимает аватар.
«Чтобы украсть ваши данные, злоумышленнику достаточно войти в то же виртуальное пространство, где находитесь вы, и просто зафиксировать движения рук вашего аватара. Дальше работа за искусственным интеллектом», — объяснила Чжэн.
Успешный эксперимент Чжэна и ее коллег выявил ряд изъянов в Horizon Workrooms, которые должны взять на вооружения разработчики программного обеспечения для VR. Программисты уже начали экспериментировать с добавлением шума, чтобы скрыть движение рук пользователей в виртуальной мире, и таким образом предотвратить атаку на их личные данные с использованием искусственного интеллекта.
В последнее время искусственный интеллект становится новым оружием хакеров, которые использую его для киберпреступлений. Например, с его помощью злоумышленники могут разрабатывать специальные программы, которые в автоматическом режиме подбирают пароли к чужим аккаунтам. Кроме того, имитировать любой голос и создавать дипфейки — подменять изображение человека на фотографиях и видео изображениями другого человека. Такие фото и видео могут использоваться для обхода биометрической авторизации в интернет-сервисах, корпоративных или государственных информационных системах, при регистрации новых или взломе уже существующих аккаунтов.