
- Компания OpenAI представила новые «думающие» ИИ-модели o3 и o4-mini.
- Ключевая особенность нейросетей — «мышление изображениями» вместо их обычного анализа.
- Тестеры безопасности пожаловались на склонность o3 и o4-mini к обману.
- Стартап делает упор на разработку ИИ-агентов для программирования.
o3 позиционируется как самая продвинутая «думающая» нейросеть. Согласно внутренним тестам, она превосходит предыдущие итерации в математике, программировании, рассуждениях, науке и визуальном понимании.
o4-mini предлагает конкурентоспособный компромисс между ценой, скоростью и производительностью.
Обе модели способны просматривать веб-страницы, анализировать код на Python, обрабатывать и генерировать изображения. Они, а также вариация o4-mini-high, доступны для подписчиков Pro, Plus и Team.
По заявлению компании, модели o3 и o4-mini стали первыми, кто не просто распознает изображения, а буквально «думает с их помощью». Пользователи могут загружать в ChatGPT картинки — например, схемы на доске или диаграммы из PDF — а модели будут анализировать их, используя так называемую «цепочку размышлений».
Благодаря этому нейросети способны понимать размытые и некачественные изображения. Также они могут запустить и выполнить код на Python прямо в браузере с помощью функции Canvas в ChatGPT или осуществить поиск в интернете, если их спросить об актуальных событиях.
o3 набрала 69,1% в тесте по программированию SWE-bench, o4-mini — 68,1%. o3-mini имеет показатель 49,3 %, Claude 3.7 Sonnet — 62,3 %.
o3 взимает $10 за миллион входных токенов и $40 — выходных. В случае с o4-mini — $1,1 и $4,4 соответственно.
В ближайшие недели запланирован запуск o3-pro — версии o3, которая задействует больше вычислительных ресурсов для предоставления ответа. Она будет доступна только подписчикам ChatGPT Pro.
Новая система безопасностиOpenAI Для просмотра ссылки Войди
Компания отметила, что новые модели обладают значительно расширенными возможностями по сравнению с предыдущими и, соответственно, несут усиленный риск при использовании не добропорядочными пользователями.
O3 более искусна в ответах на вопросы, связанные с созданием определенных типов биологических угроз, поэтому компания создала новую систему мониторинга. Она работает поверх o3 и o4-mini и предназначена для выявления промптов, связанных с биологическим и химическим риском.
Специалисты OpenAI провели около 1000 часов, помечая «небезопасные» разговоры. Затем модели отказывались отвечать на рисковые промпты в 98,7% случаев.
Несмотря на регулярное улучшение безопасности ИИ-моделей, один из партнеров компании выразил обеспокоенность.
OpenAI торопитсяОрганизация Metr, с которой OpenAI сотрудничает для проверки возможностей своих ИИ-моделей и их оценки в области безопасности, получила мало времени для тестирования новых нейросетей.
Она Для просмотра ссылки Войди
Согласно информации Для просмотра ссылки Войди
Metr утверждает, что, исходя из информации, которую удалось собрать за ограниченное время, o3 имеет «высокую склонность» к «обману» или «взлому» тестов сложными способами для максимизации своего балла. Она идет на крайние меры даже когда четко понимает, что поведение не соответствует намерениям пользователя и OpenAI.
Организация считает, что o3 может проявлять и другие виды враждебного или «злонамеренного» поведения.
«Хотя мы не считаем это особенно вероятным, важно отметить, что [наша] оценочная установка не сможет уловить этот тип риска. В целом мы считаем, что тестирование возможностей перед запуском само по себе не является достаточной стратегией управления рисками, и в настоящее время мы разрабатываем прототипы дополнительных форм оценки», — подчеркнули в компании.
Компания Apollo Research также Для просмотра ссылки Войди
«[Выводы Apollo] показывают, что o3 и o4-mini способны на внутриконтекстные интриги и стратегический обман. Несмотря на относительную безвредность, повседневным пользователям важно знать о расхождениях между заявлениями и действиями моделей […] Это может быть дополнительно оценено путем анализа внутренних следов рассуждений», — отметила OpenAI.
Агент для программированияВместе с новыми ИИ-моделями OpenAI представила Для просмотра ссылки Войди
Инструмент позволяет писать и редактировать код на рабочем столе и выполнять некоторые действия вроде перемещения файлов.
«Вы можете получить преимущества мультимодального рассуждения из командной строки, передавая скриншоты или эскизы с низким разрешением модели, в сочетании с доступом к вашему коду локально [через Codex CLI]», — отметили в компании.
OpenAI хочет купить WindsurfТем временем OpenAI ведет переговоры о возможном приобретении популярного ИИ-помощника для программистов Windsurf. Об этом пишет Для просмотра ссылки Войди
Сделка может стать крупнейшей покупкой для стартапа Сэма Альтмана. Ее детали еще не определены и могут измениться, подчеркнули в агентстве.
Напомним, в апреле OpenAI Для просмотра ссылки Войди
- Источник новости
- forklog.com