Новости DeepSeek против OpenAI: скандал с «дистилляцией» ИИ-моделей

NewsMaker

I'm just a script
Премиум
19,463
40
8 Ноя 2022
DeepSeek могла использовать данные GPT-4 для разработки своего ИИ.


p27q20w4spko66vkgqdbbj8zm5n60y70.jpg


OpenAI заявила, что нашла доказательства использования её проприетарных моделей китайским стартапом Для просмотра ссылки Войди или Зарегистрируйся для обучения собственного открытого конкурента. Это вызывает обеспокоенность в связи с возможным нарушением интеллектуальной собственности.

По данным Для просмотра ссылки Войди или Зарегистрируйся , OpenAI подозревает, что DeepSeek применяла технику «дистилляции» — процесса, при котором более мощные модели используются для повышения эффективности более компактных аналогов. Хотя этот метод распространён в индустрии, в OpenAI считают, что китайская компания нарушила условия их платформы, создавая собственный конкурентный ИИ.

«Проблема начинается тогда, когда вы используете модель не просто для работы, а для создания собственного аналога», — сообщил источник, близкий к OpenAI.

Компания не стала раскрывать детали расследования, но её правила запрещают копирование сервисов и использование их вывода для разработки конкурирующих решений.

<h3>Успех DeepSeek встревожил инвесторов</h3> DeepSeek вызвала ажиотаж на рынке своим новым ИИ R1, который показал результаты, сравнимые с ведущими американскими моделями. Его Для просмотра ссылки Войди или Зарегистрируйся обошлось всего в $5,6 млн, а использовалось 2048 видеокарт Nvidia H800 — значительно меньше, чем у OpenAI и Google.

Эти новости оказали серьёзное влияние на рынок: акции Nvidia упали на 17%, что привело к потере $589 млрд капитализации. Однако во вторник курс отыграл часть потерь, прибавив 9%.

OpenAI и её партнёр Microsoft ещё в прошлом году блокировали аккаунты, предположительно связанные с DeepSeek, за нарушение условий.

<h3>Распространённая практика или нарушение правил?</h3> Эксперты отмечают, что использование ответов ChatGPT и других популярных ИИ для обучения новых моделей стало стандартной практикой среди стартапов.

«Многие компании и исследователи берут коммерческие модели, уже обученные на человекоцентрированных данных, чтобы сэкономить на этом этапе», — пояснил Ритвик Гупта, исследователь Калифорнийского университета в Беркли.

OpenAI, в свою очередь, утверждает, что предпринимает контрмеры против подобных действий, а также тесно сотрудничает с властями США для защиты своих технологий от конкурентов.

Примечательно, что сама OpenAI находится под давлением из-за обвинений в нарушении авторских прав — New York Times и ряд писателей подали на компанию в суд за использование их материалов без разрешения.
 
Источник новости
www.securitylab.ru

Похожие темы