Комбинация техник позволяет обходить даже сложные алгоритмы защиты электронной почты.
Традиционные методы определения фишинговых писем по грамматическим ошибкам и навязчивому стилю общения больше не работают. Как сообщается в новом отчёте компании Cofense Intelligence под названием Для просмотра ссылки Войдиили Зарегистрируйся , злоумышленники начали активно использовать ChatGPT и другие ИИ-инструменты для создания безупречных текстов.
Несмотря на то, что специалисты по кибербезопасности также применяют искусственный интеллект для защиты электронной почты, многие фишинговые письма всё равно попадают в почтовые ящики пользователей. Основная проблема заключается в том, что модели искусственного интеллекта и машинного обучения обучаются на исторических данных, в то время как новые угрозы развиваются молниеносно.
При этом системы на базе ИИ демонстрируют определённые успехи. По данным Cofense Intelligence, искусственный интеллект способен понимать логику подозрительных писем и распознавать технику тайпсквоттинга — когда хакеры используют опечатки для перенаправления пользователей на вредоносные сайты, например, «vvindows[.]com» или «wallrnart[.]com».
Автор отчёта Джейкоб Малимбан отмечает, что ИИ может как помогать организациям, так и наносить им вред, особенно если модель недостаточно обучена и оставлена без присмотра. Современные шлюзы безопасности электронной почты способны блокировать сообщения с призывами к срочным действиям, однако ситуация усложняется, когда хакеры используют автоматизированные инструменты для сбора информации о сотрудниках компании.
Эксперты предупреждают об опасности компрометации учётных записей — злоумышленники могут обучить ИИ копировать стиль письма жертвы. В сочетании с возможностью отвечать в существующих цепочках писем от имени взломанного аккаунта, это делает новые цели менее бдительными.
Отдельную угрозу представляют дипфейки, позволяющие имитировать внешность и голоса доверенных контактов с растущей точностью. Даже компания LastPass , специализирующаяся на кибербезопасности, Для просмотра ссылки Войдиили Зарегистрируйся , что стала жертвой мошенничества с использованием дипфейка, когда злоумышленники подделали голос генерального директора.
Cofense Intelligence приводит Для просмотра ссылки Войдиили Зарегистрируйся , в ходе которой преступники смогли имитировать голоса финансового директора и других сотрудников во время конференц-звонка, убедив организацию-жертву перевести средства. Эта изощрённая атака обошлась компании в 25 миллионов долларов.
Искусственный интеллект также демонстрирует низкую эффективность при анализе писем, требующих действий от пользователя, например, сканирования QR-кода. Мошенники легко обходят защиту, встраивая вредоносные ссылки или QR-коды в PDF-файлы и используя CAPTCHA для усложнения автоматического анализа.
По мнению экспертов, наступательный ИИ, используемый злоумышленниками, будет развиваться быстрее защитного, поскольку не ограничен правовыми, авторскими или этическими нормами.
Традиционные методы определения фишинговых писем по грамматическим ошибкам и навязчивому стилю общения больше не работают. Как сообщается в новом отчёте компании Cofense Intelligence под названием Для просмотра ссылки Войди
Несмотря на то, что специалисты по кибербезопасности также применяют искусственный интеллект для защиты электронной почты, многие фишинговые письма всё равно попадают в почтовые ящики пользователей. Основная проблема заключается в том, что модели искусственного интеллекта и машинного обучения обучаются на исторических данных, в то время как новые угрозы развиваются молниеносно.
При этом системы на базе ИИ демонстрируют определённые успехи. По данным Cofense Intelligence, искусственный интеллект способен понимать логику подозрительных писем и распознавать технику тайпсквоттинга — когда хакеры используют опечатки для перенаправления пользователей на вредоносные сайты, например, «vvindows[.]com» или «wallrnart[.]com».
Автор отчёта Джейкоб Малимбан отмечает, что ИИ может как помогать организациям, так и наносить им вред, особенно если модель недостаточно обучена и оставлена без присмотра. Современные шлюзы безопасности электронной почты способны блокировать сообщения с призывами к срочным действиям, однако ситуация усложняется, когда хакеры используют автоматизированные инструменты для сбора информации о сотрудниках компании.
Эксперты предупреждают об опасности компрометации учётных записей — злоумышленники могут обучить ИИ копировать стиль письма жертвы. В сочетании с возможностью отвечать в существующих цепочках писем от имени взломанного аккаунта, это делает новые цели менее бдительными.
Отдельную угрозу представляют дипфейки, позволяющие имитировать внешность и голоса доверенных контактов с растущей точностью. Даже компания LastPass , специализирующаяся на кибербезопасности, Для просмотра ссылки Войди
Cofense Intelligence приводит Для просмотра ссылки Войди
Искусственный интеллект также демонстрирует низкую эффективность при анализе писем, требующих действий от пользователя, например, сканирования QR-кода. Мошенники легко обходят защиту, встраивая вредоносные ссылки или QR-коды в PDF-файлы и используя CAPTCHA для усложнения автоматического анализа.
По мнению экспертов, наступательный ИИ, используемый злоумышленниками, будет развиваться быстрее защитного, поскольку не ограничен правовыми, авторскими или этическими нормами.
- Источник новости
- www.securitylab.ru