Алгоритмы, которые рекомендуют контент, могут привести к распространению фейковой информации и вводить пользователей в заблуждение.
ФГУП «Главный радиочастотный центр» (ГРЧЦ), подведомственный Роскомнадзору, Для просмотра ссылки Войдиили Зарегистрируйся о рисках развития рекомендательных сервисов. Они могут привести к политической поляризации общества, продвижению фейковых новостей и риторик ненависти, следует из аналитической справки, подготовленной организацией.
«Законодательное регулирование рекомендательных сервисов необходимо для защиты потребителей от непрозрачных алгоритмов отбора контента, способных искажать реальное положение дел и приводить к пугающим последствиям вплоть до реального нанесения вреда здоровью и психике человека», — говорится в документе.
Работа рекомендательных сервисов основана на технологии искусственного интеллекта, «поэтому можно смело утверждать, что ИИ — ключевой компонент популярных социальных сетей», говорится в записке. ИИ «часто отдает предпочтение спорной, разжигающей вражду и недостоверной информации, поскольку именно такой контент привлекает больше внимания пользователей и ведет к повышению вовлеченности и взаимодействия с платформой». В результате социальные сети могут спровоцировать политическую поляризацию и продвигать дезинформацию, считают составители записки.
В качестве примера авторы документа приводят данные из США: 64% всех новых подписчиков экстремистских групп в Facebook (принадлежит Meta, признана экстремистской и запрещенной в России) пришли в них через рекомендации. Также упоминается система мониторинга поисковой выдачи, которую использовали республиканцы для аналитики рекомендаций в Сети накануне выборов президента США в 2020 году. Согласно этим данным, исследователи отмечали существенный перекос в результатах поиска Google в пользу демократов.
Примеры из работы российских рекомендательных сервисов в ГРЧЦ в записке не приводят.
Еще одним риском распространения рекомендательных сервисов ГРЧЦ считает то, что они выдают пользователю именно ту информацию, которая похожа на то, что он смотрел ранее. Это приводит к появлению эффекта «эхо-камеры», когда пользователь лишается рекомендаций с альтернативной точкой зрения.
ГРЧЦ предлагает внедрить аудит алгоритмов, сообщение для пользователя с разъяснением о работе алгоритмов, а также возможность давать и отзывать согласие на обработку персональных данных.
ФГУП «Главный радиочастотный центр» (ГРЧЦ), подведомственный Роскомнадзору, Для просмотра ссылки Войди
«Законодательное регулирование рекомендательных сервисов необходимо для защиты потребителей от непрозрачных алгоритмов отбора контента, способных искажать реальное положение дел и приводить к пугающим последствиям вплоть до реального нанесения вреда здоровью и психике человека», — говорится в документе.
Работа рекомендательных сервисов основана на технологии искусственного интеллекта, «поэтому можно смело утверждать, что ИИ — ключевой компонент популярных социальных сетей», говорится в записке. ИИ «часто отдает предпочтение спорной, разжигающей вражду и недостоверной информации, поскольку именно такой контент привлекает больше внимания пользователей и ведет к повышению вовлеченности и взаимодействия с платформой». В результате социальные сети могут спровоцировать политическую поляризацию и продвигать дезинформацию, считают составители записки.
В качестве примера авторы документа приводят данные из США: 64% всех новых подписчиков экстремистских групп в Facebook (принадлежит Meta, признана экстремистской и запрещенной в России) пришли в них через рекомендации. Также упоминается система мониторинга поисковой выдачи, которую использовали республиканцы для аналитики рекомендаций в Сети накануне выборов президента США в 2020 году. Согласно этим данным, исследователи отмечали существенный перекос в результатах поиска Google в пользу демократов.
Примеры из работы российских рекомендательных сервисов в ГРЧЦ в записке не приводят.
Еще одним риском распространения рекомендательных сервисов ГРЧЦ считает то, что они выдают пользователю именно ту информацию, которая похожа на то, что он смотрел ранее. Это приводит к появлению эффекта «эхо-камеры», когда пользователь лишается рекомендаций с альтернативной точкой зрения.
ГРЧЦ предлагает внедрить аудит алгоритмов, сообщение для пользователя с разъяснением о работе алгоритмов, а также возможность давать и отзывать согласие на обработку персональных данных.
- Источник новости
- www.securitylab.ru