Преступники готовили взлом, даже не подозревая, что их планы уже раскрыл искусственный интеллект.
Google Для просмотра ссылки Войдиили Зарегистрируйся об успешном обнаружении серьёзной уязвимости в широко используемом движке баз данных Для просмотра ссылки Войди или Зарегистрируйся до того, как она могла быть использована в реальных атаках. Проблему выявила интеллектуальная система Big Sleep — автономный агент, разработанный совместно DeepMind и Project Zero. Обнаружение произошло в рамках инициативы по использованию языковых моделей для поиска уязвимостей.
Ошибка получила идентификатор Для просмотра ссылки Войдиили Зарегистрируйся и оценку по шкале CVSS в 7.2 балла. Уязвимость представляет собой повреждение памяти, связанное с целочисленным переполнением. Она затрагивает все версии SQLite до 3.50.2. Разработчики SQLite пояснили, что злоумышленник, способный внедрить произвольные SQL-запросы, может вызвать выход за границы массива при чтении данных, что открывает путь к эксплуатации.
По словам Google, данная проблема была известна только потенциальным атакующим. Благодаря сочетанию аналитики угроз и возможностям Big Sleep, компании удалось предсказать попытку её применения и заблокировать атаку до её начала. Для просмотра ссылки Войдиили Зарегистрируйся президента по глобальным вопросам Google и Alphabet Кента Уокера, это первый зафиксированный случай, когда ИИ предотвратил эксплуатацию уязвимости в реальных условиях.
Дополнительные данные поступили от команды GTIG, которая заметила косвенные признаки подготовки атаки, но не смогла сразу определить саму Для просмотра ссылки Войдиили Зарегистрируйся . Эти сведения были переданы другим специалистам Google, которые при помощи Big Sleep сумели локализовать проблему до начала вредоносных действий.
Примечательно, что это уже не первое вмешательство Big Sleep: в октябре 2024 года тот же агент Для просмотра ссылки Войдиили Зарегистрируйся в SQLite другую критическую ошибку — переполнение буфера стека, которое могло привести к сбоям или выполнению произвольного кода.
На фоне этих событий Google также Для просмотра ссылки Войдиили Зарегистрируйся технический документ, посвящённый созданию защищённых ИИ-агентов. В нём подчёркивается необходимость наличия чётких рамок и прозрачности для ИИ-систем, чтобы минимизировать риск утечки конфиденциальной информации и непредсказуемых действий. Компания критикует как классические подходы к защите, которые оказываются слишком жёсткими для гибких ИИ, так и чисто логические системы безопасности, не способные защитить от атак вроде внедрения команд (prompt injection).
В качестве решения предлагается гибридная многоуровневая модель защиты, сочетающая традиционные методы и адаптивные механизмы, основанные на выводах ИИ. Такая стратегия позволяет создавать надёжные рамки вокруг операционной среды агента и предотвращать нежелательные действия даже в случае искажения его логики или внешних манипуляций.
Google подчёркивает, что надёжная защита требует не противопоставления алгоритмических правил и ИИ, а их объединения, чтобы избежать потенциальных катастрофических сценариев, включая использование ИИ в целях кибератак.
Google Для просмотра ссылки Войди
Ошибка получила идентификатор Для просмотра ссылки Войди
По словам Google, данная проблема была известна только потенциальным атакующим. Благодаря сочетанию аналитики угроз и возможностям Big Sleep, компании удалось предсказать попытку её применения и заблокировать атаку до её начала. Для просмотра ссылки Войди
Дополнительные данные поступили от команды GTIG, которая заметила косвенные признаки подготовки атаки, но не смогла сразу определить саму Для просмотра ссылки Войди
Примечательно, что это уже не первое вмешательство Big Sleep: в октябре 2024 года тот же агент Для просмотра ссылки Войди
На фоне этих событий Google также Для просмотра ссылки Войди
В качестве решения предлагается гибридная многоуровневая модель защиты, сочетающая традиционные методы и адаптивные механизмы, основанные на выводах ИИ. Такая стратегия позволяет создавать надёжные рамки вокруг операционной среды агента и предотвращать нежелательные действия даже в случае искажения его логики или внешних манипуляций.
Google подчёркивает, что надёжная защита требует не противопоставления алгоритмических правил и ИИ, а их объединения, чтобы избежать потенциальных катастрофических сценариев, включая использование ИИ в целях кибератак.
- Источник новости
- www.securitylab.ru