ИИ помогает шпиону стать идеальным сотрудником.
Генеративные ИИ-модели становятся полноценными инструментами в арсенале атакующих. Об этом свидетельствует свежий Для просмотра ссылки Войдиили Зарегистрируйся компании CrowdStrike за 2025 год, в котором прослеживается резкий рост количества атак, использующих искусственный интеллект не просто для шаблонного фишинга, а как фундамент для масштабируемых, сложных и всё более незаметных операций.
От простых генераций писем злоумышленники перешли к технически изощрённым схемам, где ИИ участвует не как помощник, а как полноценный элемент инфраструктуры атаки. CrowdStrike фиксирует, что модели вроде LLM теперь применяются для автоматизации разработки вредоносного кода, анализа уязвимостей и написания скриптов. Причём сами атакующие — как государственные группы, так и киберпреступники — используют ИИ не как замену, а как усиление своих уже отлаженных тактик.
Один из тревожных сигналов — резкий всплеск атак типа « Для просмотра ссылки Войдиили Зарегистрируйся » (вишинг, голосовой фишинг): только за первую половину 2025 года их число превысило показатели за весь 2024. Кроме того, зафиксировано увеличение числа «ручных» проникновений (hands-on keyboard intrusions) на 27%, что говорит о прямом участии атакующих в процессе вторжений, поддерживаемом генеративными инструментами.
Особое внимание в отчёте уделено злоупотреблению уязвимостями в самих ИИ-системах. Например, в апреле злоумышленники эксплуатировали уязвимость в Для просмотра ссылки Войдиили Зарегистрируйся ( Для просмотра ссылки Войди или Зарегистрируйся ), популярном решении для создания ИИ-агентов, добиваясь удалённого выполнения команд без авторизации. Это указывает на новый вектор: ИИ-сервисы становятся не просто мишенью, а частью атакуемой инфраструктуры — той самой, которую до этого считали безопасной.
Для просмотра ссылки Войдиили Зарегистрируйся также обрела новую мощь: нейросети формируют персонализированные фишинговые письма, создают цифровые личности с убедительной историей и генерируют поддельные документы, способные обмануть даже опытного сотрудника отдела кадров. Отчёт подчёркивает, что теперь GenAI способен переводить пропагандистские материалы на разные языки, создавать правдоподобные медиа-ресурсы и распространять дезинформацию с невиданной ранее скоростью.
Особый акцент сделан на кибершпионаже с участием подставных IT-работников. CrowdStrike выделяет группу Для просмотра ссылки Войдиили Зарегистрируйся , связанную с Северной Кореей, которая за последний год 320 раз успешно трудоустраивалась в иностранные компании через фальсифицированные резюме, подкреплённые сгенерированными ИИ письмами, дипфейк-интервью и англоязычной перепиской, которую тоже помогала вести нейросеть. Эти сотрудники действительно выполняют реальную работу в течение месяцев, маскируя своё присутствие, при этом получая доступ к конфиденциальным данным компаний.
Согласно CrowdStrike, такие операции стали возможны благодаря использованию инструментов вроде Для просмотра ссылки Войдиили Зарегистрируйся и Для просмотра ссылки Войди или Зарегистрируйся , помогающих северокорейским специалистам справляться с многозадачностью и языковыми барьерами. Каждый из них может параллельно работать сразу на три или четыре организации. За последние 12 месяцев количество подобных случаев выросло на 220%, что указывает на чётко выстроенную систему. Отдельное подразделение 75-го Бюро КНДР, по оценкам аналитиков, может зарабатывать на этих схемах сотни миллионов долларов в год — средства, которые идут на финансирование оборонных программ.
Чтобы противостоять таким схемам, компании должны пересмотреть процессы найма: проверять профили в профессиональных соцсетях, вводить тесты на deepfake во время видеособеседований, усиливать геолокационные проверки и разрабатывать учебные программы для HR-отделов и ИБ-команд. Как подчёркивают специалисты CrowdStrike, угроза уже вышла за рамки экспериментов — теперь это часть реальности.
Генеративные ИИ-модели становятся полноценными инструментами в арсенале атакующих. Об этом свидетельствует свежий Для просмотра ссылки Войди
От простых генераций писем злоумышленники перешли к технически изощрённым схемам, где ИИ участвует не как помощник, а как полноценный элемент инфраструктуры атаки. CrowdStrike фиксирует, что модели вроде LLM теперь применяются для автоматизации разработки вредоносного кода, анализа уязвимостей и написания скриптов. Причём сами атакующие — как государственные группы, так и киберпреступники — используют ИИ не как замену, а как усиление своих уже отлаженных тактик.
Один из тревожных сигналов — резкий всплеск атак типа « Для просмотра ссылки Войди
Особое внимание в отчёте уделено злоупотреблению уязвимостями в самих ИИ-системах. Например, в апреле злоумышленники эксплуатировали уязвимость в Для просмотра ссылки Войди
Для просмотра ссылки Войди
Особый акцент сделан на кибершпионаже с участием подставных IT-работников. CrowdStrike выделяет группу Для просмотра ссылки Войди
Согласно CrowdStrike, такие операции стали возможны благодаря использованию инструментов вроде Для просмотра ссылки Войди
Чтобы противостоять таким схемам, компании должны пересмотреть процессы найма: проверять профили в профессиональных соцсетях, вводить тесты на deepfake во время видеособеседований, усиливать геолокационные проверки и разрабатывать учебные программы для HR-отделов и ИБ-команд. Как подчёркивают специалисты CrowdStrike, угроза уже вышла за рамки экспериментов — теперь это часть реальности.
- Источник новости
- www.securitylab.ru