«Белые страницы» мастерски обходят умные алгоритмы Google.
Согласно Для просмотра ссылки Войдиили Зарегистрируйся компании Malwarebytes , киберпреступники активно используют возможности искусственного интеллекта (ИИ) и крупных языковых моделей ( LLM ) для создания новых схем обмана, которые способны обходить большинство систем кибербезопасности.
Примером такой активности стала фишинговая кампания, направленная на пользователей Securitas OneID. Злоумышленники запускают рекламу в Google, маскируя её под легитимные объявления. Когда пользователь кликает на такую рекламу, он перенаправляется на так называемую «белую страницу» — специально созданный сайт, не содержащий видимого вредоносного контента. Эти страницы выступают в роли отвлекающего манёвра, предназначенного для обхода автоматических систем защиты Google и других платформ.
Суть атаки заключается в том, что реальные цели фишинга остаются скрытыми, пока пользователь не выполняет определённые действия или пока система безопасности не завершает проверку. «Белые страницы», созданные с помощью ИИ, содержат текст и изображения, которые выглядят правдоподобно, включая сгенерированные лица якобы «сотрудников компании». Это делает их ещё более убедительными и сложными для обнаружения.
Ранее преступники использовали украденные изображения из соцсетей или стоковые фото, но теперь автоматическая генерация контента позволяет быстрее адаптировать такие атаки и создавать уникальные страницы для каждой кампании.
Другой случай связан с программой удалённого доступа Parsec, популярной среди геймеров. Злоумышленники создали «белую страницу» с отсылками к вселенной Star Wars, включая оригинальные постеры и дизайн. Этот контент не только вводит в заблуждение системы защиты, но и выглядит интересно для потенциальных жертв.
Использование ИИ позволяет преступникам с лёгкостью обходить проверки. Например, при валидации рекламы Google видит только невинные «белые страницы», не вызывающие подозрений. Однако для реальных пользователей, знакомых с контекстом, такие страницы нередко выглядят несерьёзно и могут быть легко разоблачены.
В ответ на растущее применение ИИ в преступных схемах некоторые компании уже создают инструменты, способные анализировать и выявлять сгенерированный контент. Однако проблема остаётся острой: универсальность и доступность ИИ делают его привлекательным инструментом в руках злоумышленников.
Ситуация подчёркивает важность человеческого вмешательства в процессы анализа данных. То, что для машинного алгоритма может казаться нормальным, часто сразу бросается в глаза человеку как подозрительное или просто нелепое. Такой баланс между технологиями и человеческим опытом остаётся ключевым элементом в борьбе с цифровыми угрозами.
Согласно Для просмотра ссылки Войди
Примером такой активности стала фишинговая кампания, направленная на пользователей Securitas OneID. Злоумышленники запускают рекламу в Google, маскируя её под легитимные объявления. Когда пользователь кликает на такую рекламу, он перенаправляется на так называемую «белую страницу» — специально созданный сайт, не содержащий видимого вредоносного контента. Эти страницы выступают в роли отвлекающего манёвра, предназначенного для обхода автоматических систем защиты Google и других платформ.
Суть атаки заключается в том, что реальные цели фишинга остаются скрытыми, пока пользователь не выполняет определённые действия или пока система безопасности не завершает проверку. «Белые страницы», созданные с помощью ИИ, содержат текст и изображения, которые выглядят правдоподобно, включая сгенерированные лица якобы «сотрудников компании». Это делает их ещё более убедительными и сложными для обнаружения.
Ранее преступники использовали украденные изображения из соцсетей или стоковые фото, но теперь автоматическая генерация контента позволяет быстрее адаптировать такие атаки и создавать уникальные страницы для каждой кампании.
Другой случай связан с программой удалённого доступа Parsec, популярной среди геймеров. Злоумышленники создали «белую страницу» с отсылками к вселенной Star Wars, включая оригинальные постеры и дизайн. Этот контент не только вводит в заблуждение системы защиты, но и выглядит интересно для потенциальных жертв.
Использование ИИ позволяет преступникам с лёгкостью обходить проверки. Например, при валидации рекламы Google видит только невинные «белые страницы», не вызывающие подозрений. Однако для реальных пользователей, знакомых с контекстом, такие страницы нередко выглядят несерьёзно и могут быть легко разоблачены.
В ответ на растущее применение ИИ в преступных схемах некоторые компании уже создают инструменты, способные анализировать и выявлять сгенерированный контент. Однако проблема остаётся острой: универсальность и доступность ИИ делают его привлекательным инструментом в руках злоумышленников.
Ситуация подчёркивает важность человеческого вмешательства в процессы анализа данных. То, что для машинного алгоритма может казаться нормальным, часто сразу бросается в глаза человеку как подозрительное или просто нелепое. Такой баланс между технологиями и человеческим опытом остаётся ключевым элементом в борьбе с цифровыми угрозами.
- Источник новости
- www.securitylab.ru