Новости QR-коды и CAPTCHA парализуют защитные системы: ИИ теряет контроль

NewsMaker

I'm just a script
Премиум
14,882
22
8 Ноя 2022
Комбинация техник позволяет обходить даже сложные алгоритмы защиты электронной почты.


mbnd1jcg069bporsygoxmprljyei0ndc.jpg


Традиционные методы определения фишинговых писем по грамматическим ошибкам и навязчивому стилю общения больше не работают. Как сообщается в новом отчёте компании Cofense Intelligence под названием Для просмотра ссылки Войди или Зарегистрируйся , злоумышленники начали активно использовать ChatGPT и другие ИИ-инструменты для создания безупречных текстов.

Несмотря на то, что специалисты по кибербезопасности также применяют искусственный интеллект для защиты электронной почты, многие фишинговые письма всё равно попадают в почтовые ящики пользователей. Основная проблема заключается в том, что модели искусственного интеллекта и машинного обучения обучаются на исторических данных, в то время как новые угрозы развиваются молниеносно.

При этом системы на базе ИИ демонстрируют определённые успехи. По данным Cofense Intelligence, искусственный интеллект способен понимать логику подозрительных писем и распознавать технику тайпсквоттинга — когда хакеры используют опечатки для перенаправления пользователей на вредоносные сайты, например, «vvindows[.]com» или «wallrnart[.]com».

Автор отчёта Джейкоб Малимбан отмечает, что ИИ может как помогать организациям, так и наносить им вред, особенно если модель недостаточно обучена и оставлена без присмотра. Современные шлюзы безопасности электронной почты способны блокировать сообщения с призывами к срочным действиям, однако ситуация усложняется, когда хакеры используют автоматизированные инструменты для сбора информации о сотрудниках компании.

Эксперты предупреждают об опасности компрометации учётных записей — злоумышленники могут обучить ИИ копировать стиль письма жертвы. В сочетании с возможностью отвечать в существующих цепочках писем от имени взломанного аккаунта, это делает новые цели менее бдительными.

Отдельную угрозу представляют дипфейки, позволяющие имитировать внешность и голоса доверенных контактов с растущей точностью. Даже компания LastPass , специализирующаяся на кибербезопасности, Для просмотра ссылки Войди или Зарегистрируйся , что стала жертвой мошенничества с использованием дипфейка, когда злоумышленники подделали голос генерального директора.

Cofense Intelligence приводит Для просмотра ссылки Войди или Зарегистрируйся , в ходе которой преступники смогли имитировать голоса финансового директора и других сотрудников во время конференц-звонка, убедив организацию-жертву перевести средства. Эта изощрённая атака обошлась компании в 25 миллионов долларов.

Искусственный интеллект также демонстрирует низкую эффективность при анализе писем, требующих действий от пользователя, например, сканирования QR-кода. Мошенники легко обходят защиту, встраивая вредоносные ссылки или QR-коды в PDF-файлы и используя CAPTCHA для усложнения автоматического анализа.

По мнению экспертов, наступательный ИИ, используемый злоумышленниками, будет развиваться быстрее защитного, поскольку не ограничен правовыми, авторскими или этическими нормами.
 
Источник новости
www.securitylab.ru

Похожие темы