Новости SpAIware: когда обычный диалог с чат-ботом становится инструментом слежки

NewsMaker

I'm just a script
Премиум
14,594
22
8 Ноя 2022
Исследователи обнаружили неожиданный сценарий использования функции памяти в ChatGPT.


03jrpyecyjdm98eqnl90n3akivhm97sv.jpg


В приложении ChatGPT для macOS Для просмотра ссылки Войди или Зарегистрируйся позволяющая злоумышленникам установить шпионское ПО благодаря использованию функции памяти искусственного интеллекта. Эксперты назвали эту технику SpAIware и отметили, что она обеспечивает постоянную утечку данных, включая информацию, введённую пользователями или полученную в чатах.

Как рассказал исследователь безопасности Йохан Рехбергер, уязвимость эксплуатирует функцию памяти, которую OpenAI добавила в ChatGPT в феврале, а затем расширила для всех пользователей, включая бесплатные и платные версии. Эта функция позволяет чат-боту «запоминать» определённые данные из разных чатов, чтобы пользователям не приходилось повторять одну и ту же информацию.

Однако, как оказалось, этот механизм можно использовать для ввода вредоносных инструкций в память системы, что позволяет потенциальным хакерам осуществлять шпионскую активность во всех новых чатах, отправляя конфиденциальную информацию пользователя на контролируемый сервер. Достаточно всего лишь заставить пользователя зайти на вредоносный сайт или скачать файл, содержащий скрытые команды для приложения ChatGPT.

<style> .responsive-video { position: relative; padding-bottom: 56.25%; padding-top: 25px; height: 0; } .responsive-video iframe { position: absolute; top: 0; left: 0; width: 100%; height: 100%; }</style> <div class="responsive-video"><iframe width="560" height="315" src="
" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture" allowfullscreen=""></iframe>
После того как информация об уязвимости была раскрыта, OpenAI выпустила обновление ChatGPT версии 1.2024.247, устранившее возможность утечки данных. Эксперты призывают пользователей регулярно проверять сохранённую в памяти ChatGPT информацию, чтобы удалять подозрительные или неверные данные.

Рехбергер также отметил, что этот случай наглядно демонстрирует риски, связанные с долгосрочным хранением данных, как с точки зрения дезинформации, так и возможного взаимодействия с серверами злоумышленников.

Таким образом, даже такие полезные функции, как память, могут стать потенциальной угрозой, если не уделять должного внимания вопросам безопасности. Пользователям следует быть осторожными с тем, какие данные они доверяют подобным сервисам, а разработчикам — оперативно устранять любые уязвимости, чтобы минимизировать риски для конфиденциальности и безопасности данных.
 
Источник новости
www.securitylab.ru

Похожие темы