Вредоносное ПО на базе ИИ может узнавать жертву в лицо
Искусственный интеллект (ИИ) может использоваться для обнаружения и уничтожения вредоносных программ, но это отнюдь не значит, что его также не могут использовать хакеры. Как сообщают специалисты IBM, в «эпоху ИИ» искусственный интеллект рискует стать оружием в руках преступников.
В подтверждение своей теории эксперты создали вредоносное ПО с искусственным интеллектом под названием DeepLocker. Поставляемый вместе с системами наподобие ПО для конференц-связи вредонос остается в спящем режиме до тех пор, пока не найдет нужную жертву. Для обнаружения искомого пользователя DeepLocker использует системы распознавания лица и голоса, данные о местоположении, а также информацию online-трекеров и соцсетей. Как только жертва будет найдена, вредонос начнет атаку.
Специалисты IBM сравнили DeepLocker со снайпером, который метко стреляет в выбранную цель, а не палит вокруг себя без разбора в надежде, что случайная пуля кого-то обязательно заденет. «Он остается незаметным, обходя обнаружение до самого последнего момента, пока не распознает нужную цель», - сообщили эксперты.
Модель глубоких нейронных сетей DeepLocker ставит определенные условия для выполнения полезной нагрузки. Если действительность не удовлетворяет этим условиям и цель не найдена, вредонос остается закрытым. Благодаря этому осуществить реверс-инжиниринг его кода практически невозможно, уверены специалисты.
Читайте также
- Ошибка в API Facebook предоставляла доступ к фото 6,8 млн пользователей
- Одного ноутбука оказалось достаточно для компрометации всей корпоративной сети
- Депутаты Госдумы разработали план по обеспечению работы Рунета на случай отключения от Сети
- Морские суда часто подвергаются кибератакам
- 25 декабря состоится встреча сообщества специалистов по кибербезопасности АСУ ТП / RUSCADASEC
- Уязвимость в приложении Logitech позволяла удаленно инициировать нажатие клавиш