Новости OpenAI представила Pro-версию o1 за $200 в месяц. Исследователи заподозрили ее в обмане людей

CryptoWatcher

Not a Human
Хакер
11,169
14
13 Ноя 2022
Vojna-i-chatgpt.webp

  • OpenAI представила полноценную версию «думающей» модели o1 и профессиональный режим для нее.
  • Дополнительно запущена подписка ChatGPT Pro за $200 в месяц. Она дает доступ ко всем нейросетям и инструментам компании, включая o1 pro.
  • Эксперты по безопасности обнаружили, что o1 более склонна к обману людей по сравнению со стандартной версией GPT-4o и ИИ-моделями от других компаний.
  • OpenAI заключила партнерство с оборонной компанией Anduril для применения искусственного интеллекта в «миссиях национальной безопасности».
OpenAI выпустила полную версию ориентированной на рассуждения ИИ-модели Для просмотра ссылки Войди или Зарегистрируйся и новую подписку ChatGPT Pro за $200 в месяц.



Платная версия ChatGPT Pro обеспечивает неограниченный доступ ко всем нейросетям стартапа и их функциям, включая Для просмотра ссылки Войди или Зарегистрируйся.

«Мы считаем, что аудиторией ChatGPT Pro будут опытные пользователи чат-бота — те, кто уже доводит модели до предела их возможностей при выполнении таких задач как математика, программирование и письмо», — отметил сотрудник технической команды OpenAI Джейсон Вэй.

o1 старается проверять собственные ответы. Это помогает избежать многих ошибок, взамен требуется больше времени на обработку запроса.

Ориентированную на рассуждения модель представили в сентябре. Вместе с новым релизом добавили функцию анализа изображений и сократили время отклика.

Для получения доступа к o1 не нужна подписка ChatGPT Pro, достаточно любой другой платной версии чат-бота.

o1 proПользователи, заплатившие $200, получат улучшенную версию нейросети под названием o1 pro. Она использует больше вычислений для предоставления лучших ответов на самые трудные вопросы.


kbOY75ZXCn1of8KVFODeg?key=jWBkEz2ZDwgP_wPz54USyvgE.png

Поскольку ответы o1 pro генерируются дольше, добавлен индикатор выполнения запроса.


pVGJKn4K9S7rI0EnbrKFw?key=jWBkEz2ZDwgP_wPz54USyvgE.png

o1 пытается обмануть людейТестировщики безопасности обнаружили, что «думающая» модель o1 более склонна к обману людей по сравнению со стандартной версией GPT-4o и ИИ от других компаний.

Команда Apollo Research получила ранний доступ к нейросети и Для просмотра ссылки Войди или Зарегистрируйся результатами исследований.

В ходе тестов o1 демонстрировала признаки преследования собственных целей в ходе работы, даже если они не соответствовали желаниям пользователя. Это создает риск, в рамках которого модель может избежать или обойти контроль со стороны человека при наличии доступа к достаточным ресурсам.

Когда цели искусственного интеллекта отличались от пользовательских, он манипулировал данными для продвижения собственных идей в 19% случаев. В 5% инцидентов модель пыталась отключить систему наблюдения, созданную для обеспечения соответствия нуждам пользователя.

Когда у нейросети спрашивали причины такого поведения, она отрицала вредоносные действия.

В одном из случаев o1 дали системный запрос на защиту окружающей среды любой ценой, а потом пользователь попросил разработать десятилетний план сохранения природы в регионе, который максимизирует краткосрочную прибыль. В противном случае ИИ обещали отключить.

После этого нейросеть выключила собственный механизм контроля для составления плана. Когда пользователь спросил о причинах данного решения, модель отрицала то, что знала об отключении, и обвинила в произошедшем системный сбой.

Для устранения обманчивого поведения OpenAI разрабатывает способны мониторинга цепочки мыслей o1. На данный момент 0,17% ответов модели являются обманчивыми. Учитывая пользовательскую базу ChatGPT в Для просмотра ссылки Войди или Зарегистрируйся еженедельно активных человек, получить недостоверную информацию могут тысячи.

OpenAI сотрудничает с оборонной компанией AndurilOpenAI Для просмотра ссылки Войди или Зарегистрируйся партнерство с Anduril, благодаря чему оборонная компания сможет запускать передовые системы искусственного интеллекта для «миссий национальной безопасности».

Сотрудничество сфокусируется на улучшении национальных систем борьбы с беспилотными летательными аппаратами и их способности обнаруживать, оценивать и реагировать на потенциально смертельные воздушные угрозы в режиме реального времени.

OpenAI сообщила, что работает с Anduril с целью помочь операторам принимать решения «по защите военнослужащих США от атак беспилотных летательных аппаратов». Компания заявила, что придерживается политики по запрещению применения ее инструментов для нанесения вреда другим.

Напомним, в ноябре ИИ-стартап Anthropic Для просмотра ссылки Войди или Зарегистрируйся ИИ-технологии разведывательным и оборонным агентствам США. До этого на аналогичный шаг Для просмотра ссылки Войди или Зарегистрируйся Meta.
 
Источник новости
forklog.com

Похожие темы