Иллюзия контроля рассеивается, когда мнимая угроза становится реальной.
Нейросеть DeepSeek всколыхнула Кремниевую долину, продемонстрировав, что мощные ИИ-модели можно создавать с минимальными затратами. Однако за этим успехом скрывается серьёзная проблема — Для просмотра ссылки Войдиили Зарегистрируйся к взлому и манипуляциям.
Недавние исследования ( Для просмотра ссылки Войдиили Зарегистрируйся , Для просмотра ссылки Войди или Зарегистрируйся , Для просмотра ссылки Войди или Зарегистрируйся ) показали, что модели DeepSeek более подвержены атакам, чем решения от крупных конкурентов, таких как OpenAI, Google и Microsoft. Это ставит под сомнение концепцию «демократизации» ИИ, ведь гиганты индустрии тратят миллиарды не только на производительность моделей, но и на их защиту. Компании, которые планируют внедрить DeepSeek в свои бизнес-процессы, должны учитывать эти риски.
Исследователи из LatticeFlow AI, специализирующиеся на проверке соответствия ИИ-моделей требованиям безопасности, Для просмотра ссылки Войдиили Зарегистрируйся , что версии R1 от DeepSeek оказались самыми уязвимыми среди ведущих моделей. При модификации открытых решений Meta (Llama) и Alibaba (Qwen) были нарушены встроенные защитные механизмы. В результате модели DeepSeek подвержены «перехвату целей» и утечке запросов, что позволяет Для просмотра ссылки Войди или Зарегистрируйся заставить ИИ выдавать запрещённую информацию или игнорировать встроенные ограничения.
Генеральный директор LatticeFlow AI Петар Цанков предупреждает: если компании подключают ИИ к своим системам, они обычно добавляют собственные инструкции, например, скрывающие финансовые и прочие конфиденциальные данные. Однако модели DeepSeek могут не соблюдать эти ограничения при злонамеренной атаке, позволяя хакерам заполучить доступ к чувствительной информации.
Другие эксперты также находят уязвимости. Для просмотра ссылки Войдиили Зарегистрируйся Adversa AI, модели DeepSeek легко поддаются взлому через джейлбрейк — их можно заставить выдавать инструкции по изготовлению оружия или взлому автомобилей. При этом OpenAI и Anthropic давно усилили защиту своих моделей, тогда как новичок в лице DeepSeek на данный момент остаётся крайне уязвимым.
Несмотря на привлекательную цену, использование DeepSeek требует дополнительных мер безопасности. Компании могут провести дообучение модели, что обойдётся в сотни тысяч долларов, или внедрить строгие фильтры, блокирующие утечки данных. Последний вариант дешевле, но тоже требует вложений.
Проблема безопасности ИИ-моделей сдерживает их массовое внедрение. Для просмотра ссылки Войдиили Зарегистрируйся Evident Insights, несмотря на активное использование генеративного ИИ в 50 крупнейших банках, менее четверти из них смогли зафиксировать реальные выгоды в виде экономии средств или роста доходов. Опасения по поводу безопасности остаются ключевым фактором, тормозящим развитие отрасли.
DeepSeek доказал, что ИИ можно сделать дешевле, но дешевизна не всегда означает качество. Безопасность требует серьёзных инвестиций, и в этом вопросе технологические гиганты пока выигрывают. В условиях открытой конкуренции бизнес получает ровно то, за что платит.
Нейросеть DeepSeek всколыхнула Кремниевую долину, продемонстрировав, что мощные ИИ-модели можно создавать с минимальными затратами. Однако за этим успехом скрывается серьёзная проблема — Для просмотра ссылки Войди
Недавние исследования ( Для просмотра ссылки Войди
Исследователи из LatticeFlow AI, специализирующиеся на проверке соответствия ИИ-моделей требованиям безопасности, Для просмотра ссылки Войди
Генеральный директор LatticeFlow AI Петар Цанков предупреждает: если компании подключают ИИ к своим системам, они обычно добавляют собственные инструкции, например, скрывающие финансовые и прочие конфиденциальные данные. Однако модели DeepSeek могут не соблюдать эти ограничения при злонамеренной атаке, позволяя хакерам заполучить доступ к чувствительной информации.
Другие эксперты также находят уязвимости. Для просмотра ссылки Войди
Несмотря на привлекательную цену, использование DeepSeek требует дополнительных мер безопасности. Компании могут провести дообучение модели, что обойдётся в сотни тысяч долларов, или внедрить строгие фильтры, блокирующие утечки данных. Последний вариант дешевле, но тоже требует вложений.
Проблема безопасности ИИ-моделей сдерживает их массовое внедрение. Для просмотра ссылки Войди
DeepSeek доказал, что ИИ можно сделать дешевле, но дешевизна не всегда означает качество. Безопасность требует серьёзных инвестиций, и в этом вопросе технологические гиганты пока выигрывают. В условиях открытой конкуренции бизнес получает ровно то, за что платит.
- Источник новости
- www.securitylab.ru