Они придумали хитрый способ пробраться в чужую сеть. Но прокололись на простом вопросе.
В США рекрутер во время живого видеозвонка столкнулась с ботом, выдававшим себя за соискателя. Этот случай показал, насколько продвинулись мошеннические схемы с ИИ: теперь они не только генерируют резюме, но и проходят онлайн-интервью с помощью синтезированного голоса и картинки. Эксперты предупреждают, что речь идёт уже не просто о потере времени: северокорейские сети используют поддельные личности, чтобы устраиваться на удалённые IT-должности и получать доступ к системам, а затем выуживать государственные тайны. На этом фоне крупные компании частично возвращают очные собеседования.
История началась в компании Nisos, где искали инженеров и специалистов по ИИ для удалённой работы. Главный специалист по персоналу компании Меган Джичинто получила сигнал от менеджера: кандидат ведёт себя подозрительно. На повторной встрече проявились тревожные признаки. Во время ответов была заметна задержка, а «соискатель» всё время косился вправо, словно ждал подсказки с другого экрана. Речь звучала рублено, с неестественными паузами и заученными конструкциями. К тому же внешность явно не соответствовала уровню и ролям из резюме: лицо выглядело слишком молодым.
Чтобы проверить догадку, Джичинто перешла к поведенческим вопросам — тем, где нужно подробно объяснить, что именно делал кандидат в прошлой роли, какие были результаты и как реагировала команда. На таких деталях бот начал путаться. Дополнительно рекрутер задала вопрос о погоде — простой приём, который помогает понять, действительно ли человек находится там, где утверждает. Ответ оказался неверным, после чего «кандидат» окончательно запутался и посыпался на дальнейших вопросах.
Похожий случай описал сооснователь Vidoc Security Давид Мочадло. Во время интервью он заподозрил, что собеседник использует маску-дипфейк в реальном времени. Чтобы проверить это, Мочадло попросил повторить жест — закрыть лицо ладонью. «Кандидат» отказался, и звонок тут же завершили. Идея проста: если перекрыть лицо рукой, фильтр может сломаться и показать подмену.
Почему это опасно. Такие кандидаты чаще всего целятся в инженерные и IT-позиции с доступом к данным и инфраструктуре. По сообщениям специалистов по безопасности, сети КНДР активно используют фальшивые личности, чтобы устраиваться в компании США, Японии и других стран: цель — обойти санкции, получать зарплату и, где возможно, добывать информацию.
Как реагирует рынок. Крупные работодатели снова зовут на очные этапы. По данным The Wall Street Journal , Google, Cisco и McKinsey уже проводят личные интервью на отдельных стадиях найма. Рекрутинговая фирма Coda Search/Staffing (Даллас) оценивает рост запросов на офлайн-интервью у своих клиентов с 5% в прошлом году до 30% в этом. Полностью отказаться от онлайн-этапов сложно, особенно когда нужно нанимать сотни инженеров в год и компания работает полностью удалённо, но живые проверки возвращают как минимум на финале.
При этом более массовая проблема — лавина автогенерированных резюме. <span class="blocked-highlight" title="Соцсеть заблокирована на территории РФ">LinkedIn</span> фиксирует рост откликов на 45% год к году — около 11 000 заявок в минуту. Большую часть из них легко отсеять: даты не совпадают, роли явно завышены. Типичный пример, который приводит Джичинто: вчерашний выпускник внезапно «руководил большой командой разработчиков» в первом же месте работы. Парадокс в том, что вместе с ботами могут отсеивать и слабые заявки реальных людей — если они составлены небрежно и выглядят так же неубедительно.
Что помогает распознать подмену на интервью (по опыту Nisos и Vidoc Security):
В США рекрутер во время живого видеозвонка столкнулась с ботом, выдававшим себя за соискателя. Этот случай показал, насколько продвинулись мошеннические схемы с ИИ: теперь они не только генерируют резюме, но и проходят онлайн-интервью с помощью синтезированного голоса и картинки. Эксперты предупреждают, что речь идёт уже не просто о потере времени: северокорейские сети используют поддельные личности, чтобы устраиваться на удалённые IT-должности и получать доступ к системам, а затем выуживать государственные тайны. На этом фоне крупные компании частично возвращают очные собеседования.
История началась в компании Nisos, где искали инженеров и специалистов по ИИ для удалённой работы. Главный специалист по персоналу компании Меган Джичинто получила сигнал от менеджера: кандидат ведёт себя подозрительно. На повторной встрече проявились тревожные признаки. Во время ответов была заметна задержка, а «соискатель» всё время косился вправо, словно ждал подсказки с другого экрана. Речь звучала рублено, с неестественными паузами и заученными конструкциями. К тому же внешность явно не соответствовала уровню и ролям из резюме: лицо выглядело слишком молодым.
Чтобы проверить догадку, Джичинто перешла к поведенческим вопросам — тем, где нужно подробно объяснить, что именно делал кандидат в прошлой роли, какие были результаты и как реагировала команда. На таких деталях бот начал путаться. Дополнительно рекрутер задала вопрос о погоде — простой приём, который помогает понять, действительно ли человек находится там, где утверждает. Ответ оказался неверным, после чего «кандидат» окончательно запутался и посыпался на дальнейших вопросах.
Похожий случай описал сооснователь Vidoc Security Давид Мочадло. Во время интервью он заподозрил, что собеседник использует маску-дипфейк в реальном времени. Чтобы проверить это, Мочадло попросил повторить жест — закрыть лицо ладонью. «Кандидат» отказался, и звонок тут же завершили. Идея проста: если перекрыть лицо рукой, фильтр может сломаться и показать подмену.
Почему это опасно. Такие кандидаты чаще всего целятся в инженерные и IT-позиции с доступом к данным и инфраструктуре. По сообщениям специалистов по безопасности, сети КНДР активно используют фальшивые личности, чтобы устраиваться в компании США, Японии и других стран: цель — обойти санкции, получать зарплату и, где возможно, добывать информацию.
Как реагирует рынок. Крупные работодатели снова зовут на очные этапы. По данным The Wall Street Journal , Google, Cisco и McKinsey уже проводят личные интервью на отдельных стадиях найма. Рекрутинговая фирма Coda Search/Staffing (Даллас) оценивает рост запросов на офлайн-интервью у своих клиентов с 5% в прошлом году до 30% в этом. Полностью отказаться от онлайн-этапов сложно, особенно когда нужно нанимать сотни инженеров в год и компания работает полностью удалённо, но живые проверки возвращают как минимум на финале.
При этом более массовая проблема — лавина автогенерированных резюме. <span class="blocked-highlight" title="Соцсеть заблокирована на территории РФ">LinkedIn</span> фиксирует рост откликов на 45% год к году — около 11 000 заявок в минуту. Большую часть из них легко отсеять: даты не совпадают, роли явно завышены. Типичный пример, который приводит Джичинто: вчерашний выпускник внезапно «руководил большой командой разработчиков» в первом же месте работы. Парадокс в том, что вместе с ботами могут отсеивать и слабые заявки реальных людей — если они составлены небрежно и выглядят так же неубедительно.
Что помогает распознать подмену на интервью (по опыту Nisos и Vidoc Security):
- заметные паузы перед ответом и постоянные взгляды в сторону;
- рубленая речь без естественных интонаций;
- несоответствие внешности заявленному опыту;
- провал на конкретных деталях поведенческих вопросов;
- отказ повторить простой жест в кадре — маска быстро выдаёт себя;
- контрольные бытовые вопросы (например, про погоду) выявляют несостыковки мгновенно.
- Источник новости
- www.securitylab.ru