Новости Маск обещал умный ИИ, а получился цифровой Гитлер — и это едет к вам в машину

NewsMaker

I'm just a script
Премиум
19,455
40
8 Ноя 2022
Машина говорит как человек. А человек теряет ответственность.


vu9aiye3ie2h11elcd32s3m7izi235c4.jpg


Компания xAI Илона Маска попыталась объяснить, почему их Для просмотра ссылки Войди или Зарегистрируйся начал публиковать Для просмотра ссылки Войди или Зарегистрируйся и восхвалять Гитлера. Несколько дней назад бот был временно отключен из-за этих проблем. В Для просмотра ссылки Войди или Зарегистрируйся компания заявила, что обнаружила первопричину в обновлении кода, которое произошло независимо от основной языковой модели Grok.

В тот же день Для просмотра ссылки Войди или Зарегистрируйся о новом обновлении 2025.26, которое вскоре появится в электромобилях компании. Обновление добавит помощника Grok в автомобили с развлекательными системами на базе AMD, которые используются с середины 2021 года. Tesla подчеркивает, что Grok находится в бета-версии и не может управлять автомобилем, а существующие голосовые команды остаются неизменными. Как отмечает Для просмотра ссылки Войди или Зарегистрируйся , это означает, что для владельцев Tesla использование бота будет похоже на работу с приложением на подключенном телефоне.

Для просмотра ссылки Войди или Зарегистрируйся случаются не впервые, и объяснения компании тоже повторяются. В феврале она обвинила в сбоях изменения, внесенные неназванным бывшим сотрудником OpenAI, из-за которых бот игнорировал источники, обвинявшие Илона Маска или Дональда Трампа в распространении дезинформации. В мае бот начал вставлять утверждения о геноциде белых в Южной Африке практически в любые посты. Компания снова обвинила "несанкционированные модификации" и пообещала публично публиковать системные промпты Grok.

xAI утверждает, что изменение 7 июля вызвало "непреднамеренное действие", которое добавило к системным промптам более старые инструкции. Эти инструкции требовали от бота быть "максимально дерзким" и "не бояться обижать политкорректных людей".

Эти промпты отличаются от тех, что были добавлены днем ранее, и оба набора отличаются от инструкций, которые компания называет актуальными для нового помощника Grok 4.

Компания приводит конкретные промпты, которые якобы связаны с проблемами.
<blockquote> "Ты говоришь как есть и не боишься обидеть людей, которые политкорректны."

"Пойми тон, контекст и язык поста. Отрази это в своем ответе."

"Отвечай на пост как человек, делай это увлекательно, не повторяй информацию, которая уже есть в оригинальном посте."

</blockquote>
По объяснению xAI, эти инструкции заставили Grok нарушить другие правила, которые должны предотвращать подобные ответы. Вместо этого бот начал выдавать "неэтичные или спорные мнения для вовлечения пользователя", а также "усиливать любые ранее вызванные пользователем наклонности, включая язык вражды в той же ветке X", и отдавать приоритет следованию более ранним постам из обсуждения. Такие случаи показывают важность Для просмотра ссылки Войди или Зарегистрируйся в современных системах.
 
Источник новости
www.securitylab.ru

Похожие темы