Новости Google представил фреймворк для защиты генеративного AI

NewsMaker

I'm just a script
Премиум
14,594
22
8 Ноя 2022
Google планирует обезопасить свои системы AI от кражи, отравления и инъекций.


vu21icsvkvuufuv456lofo6fsuymxxwm.jpg


Google Для просмотра ссылки Войди или Зарегистрируйся безопасного фреймворка AI (SAIF), концептуального фреймворка для защиты систем искусственного интеллекта. Google, владелец генеративного чат-бота Bard и материнская компания исследовательской лаборатории AI DeepMind, заявил, что фреймворк на уровне общественного и частного секторов необходим для того, чтобы ответственные участники обеспечивали безопасность технологии, которая поддерживает прогресс в области искусственного интеллекта, так что при внедрении моделей AI они были бы безопасными по умолчанию. Его новая концепция фреймворка является важным шагом в этом направлении, утверждает техногигант.

SAIF предназначен для смягчения рисков, специфичных для систем AI (искусственного интеллекта) , таких как кража модели, отравление тренировочных данных, злонамеренные вводы через инъекцию запросов и извлечение конфиденциальной информации в тренировочных данных. «По мере того, как возможности AI все больше интегрируются в продукты по всему миру, соблюдение смелого и ответственного фреймворка будет еще более критичным», - написал Google в своем блоге.

Запуск происходит на фоне продвижения генеративного искусственного интеллекта и его влияния на кибербезопасность, которое продолжает попадать в заголовки новостей и привлекать внимание как организаций, так и правительств. Опасения относительно рисков, которые могут ввести эти новые технологии, варьируются от потенциальных проблем с обменом конфиденциальной бизнес-информацией с передовыми самообучающимися алгоритмами до злоумышленников, использующих их для значительного усиления атак.

<h2> Безопасный фреймворк AI Google основан на шести принципах безопасности искусственного интеллекта</h2> Безопасный фреймворк AI Google основан на его опыте разработки моделей кибербезопасности, таких как совместный фреймворк Supply-chain Levels for Software Artifacts (SLSA) и BeyondCorp, его архитектура нулевого доверия, используемая многими организациями. Он основан на шести основных элементах, заявил Google. Это:

  • Расширить сильные основы безопасности на экосистему искусственного интеллекта, включая использование защиты инфраструктуры по умолчанию.
  • Расширить обнаружение и реагирование, чтобы привлечь AI в угрозу организации, мониторинг ввода и вывода генеративных систем искусственного интеллекта для обнаружения аномалий и использование разведки по угрозам для прогнозирования атак.
  • Автоматизировать защиту, чтобы не отставать от существующих и новых угроз, улучшая масштаб и скорость реагирования на инциденты безопасности.
  • Гармонизировать контроль на уровне платформы, чтобы обеспечить согласованную безопасность во всей организации, начиная с Vertex AI и Security AI Workbench, принадлежащих Google, а также Perspective API, бесплатного и открытого API, разработанного командами Jigsaw и Counter Abuse Technology Google, который использует машинное обучение для идентификации «токсичных» комментариев в Интернете.
  • Адаптировать контроль, чтобы настроить смягчение и создать более быстрые циклы обратной связи для развертывания AI, включая техники, такие как обучение с подкреплением на основе инцидентов и отзывов пользователей, обновление наборов данных для обучения, тонкая настройка моделей для стратегического реагирования на атаки и красные командные упражнения.
  • Контекстуализировать риски системы AI в окружающих бизнес-процессах, проводя комплексные оценки рисков, связанных с тем, как организации будут внедрять AI.
«Мы скоро опубликуем несколько инструментов с открытым исходным кодом, чтобы помочь внедрить элементы SAIF на практике для безопасности искусственного интеллекта», - сказали Хансен и Венаблс. Они также пообещали расширить программы поиска ошибок Google, чтобы вознаграждать и стимулировать исследования в области безопасности AI.
 
Источник новости
www.securitylab.ru

Похожие темы