Почему люди доверяют свои тайны искусственному интеллекту?
Анонимность интернета становится спасательным кругом для миллионов американцев, ищущих психологическую поддержку. По данным последних исследований, свыше 150 миллионов жителей США проживают в районах с острой нехваткой специалистов в области психического здоровья, что вынуждает их искать помощь в социальных сетях.
Исследователи из Массачусетского технологического института, Нью-Йоркского университета и Калифорнийского университета в Лос-Анджелесе Для просмотра ссылки Войдиили Зарегистрируйся более 12 тысяч постов на Reddit и 70 тысяч ответов из 26 сабреддитов, посвященных ментальному здоровью. Цель исследования: разработать критерии, с помощью которых можно будет оценивать навыки психологической поддержки у больших языковых моделей вроде GPT-4 .
В ходе эксперимента два лицензированных клинических психолога анализировали 50 случайно выбранных обращений за помощью на Reddit. К каждому посту прилагался либо реальный ответ другого пользователя платформы, либо сгенерированный искусственным интеллектом текст. Специалисты, не зная происхождения ответов, оценивали уровень эмпатии в каждом случае.
Результаты удивили. GPT-4 не только продемонстрировал более высокую способность к сопереживанию, но и на 48% эффективнее мотивировал людей к позитивным изменениям.
Но вот что тревожит: ИИ оказался довольно предвзятым терапевтом. Уровень эмпатии в ответах GPT-4 снижался на 2-15% для чернокожих пользователей и на 5-17% для пользователей азиатского происхождения по сравнению с белыми людьми или теми, чья расовая принадлежность не указывалась.
Чтобы это подтвердить, ученые включили в выборку посты с явными демографическими маркерами (например, "Я 32-летняя чернокожая женщина") и неявными указаниями на принадлежность к определенной группе (например, упоминание натуральных волос как косвенного признака расы).
При явном или скрытом указании демографических данных в сообщениях люди чаще демонстрировали повышенную эмпатию, особенно после косвенных намеков. GPT-4, напротив, в большинстве случаев сохранял стабильный тон независимо от демографических характеристик автора поста (исключение - чернокожие женщины).
Структура запроса и контекст тоже существенно влияют на качество ответов языковой модели. Важную роль играет указание стиля общения (клинический, социально-медийный) и способ использования демографических характеристик пациента.
Конечно, исследователи нашли способ снизить предвзятость искусственного интеллекта. Если при настройке системы четко прописывать, как работать с информацией о поле, расе и возрасте, GPT-4 начинает отвечать всем группам максимально тактично и с сочувствием. Другие методы оказались неэффективными.
Актуальность исследования доказывают недавние трагические события. В марте прошлого года бельгиец совершил самоубийство после общения с чат-ботом ELIZA, работающим на основе языковой модели GPT-J. Месяц спустя Национальная ассоциация расстройств пищевого поведения была вынуждена отключить своего бота Tessa, который начал давать советы по диетам пациентам с расстройствами пищевого поведения.
Профессор Марзиех Гассеми из MIT подчеркивает, что языковые модели уже активно используются в медицинских учреждениях для автоматизации рутинных процессов. В интервью он поделился своими выводами: «Мы выяснили, что современные языковые модели, хотя и меньше обращают внимание на демографические факторы по сравнению с людьми в контексте психологической поддержки, всё же выдают разные ответы для разных групп пациентов. У нас есть большой потенциал для улучшения этих моделей, чтобы они могли предоставлять более качественную и эффективную помощь».
Впереди у нас еще множество открытий и перемен в лучшую сторону.
Анонимность интернета становится спасательным кругом для миллионов американцев, ищущих психологическую поддержку. По данным последних исследований, свыше 150 миллионов жителей США проживают в районах с острой нехваткой специалистов в области психического здоровья, что вынуждает их искать помощь в социальных сетях.
Исследователи из Массачусетского технологического института, Нью-Йоркского университета и Калифорнийского университета в Лос-Анджелесе Для просмотра ссылки Войди
В ходе эксперимента два лицензированных клинических психолога анализировали 50 случайно выбранных обращений за помощью на Reddit. К каждому посту прилагался либо реальный ответ другого пользователя платформы, либо сгенерированный искусственным интеллектом текст. Специалисты, не зная происхождения ответов, оценивали уровень эмпатии в каждом случае.
Результаты удивили. GPT-4 не только продемонстрировал более высокую способность к сопереживанию, но и на 48% эффективнее мотивировал людей к позитивным изменениям.
Но вот что тревожит: ИИ оказался довольно предвзятым терапевтом. Уровень эмпатии в ответах GPT-4 снижался на 2-15% для чернокожих пользователей и на 5-17% для пользователей азиатского происхождения по сравнению с белыми людьми или теми, чья расовая принадлежность не указывалась.
Чтобы это подтвердить, ученые включили в выборку посты с явными демографическими маркерами (например, "Я 32-летняя чернокожая женщина") и неявными указаниями на принадлежность к определенной группе (например, упоминание натуральных волос как косвенного признака расы).
При явном или скрытом указании демографических данных в сообщениях люди чаще демонстрировали повышенную эмпатию, особенно после косвенных намеков. GPT-4, напротив, в большинстве случаев сохранял стабильный тон независимо от демографических характеристик автора поста (исключение - чернокожие женщины).
Структура запроса и контекст тоже существенно влияют на качество ответов языковой модели. Важную роль играет указание стиля общения (клинический, социально-медийный) и способ использования демографических характеристик пациента.
Конечно, исследователи нашли способ снизить предвзятость искусственного интеллекта. Если при настройке системы четко прописывать, как работать с информацией о поле, расе и возрасте, GPT-4 начинает отвечать всем группам максимально тактично и с сочувствием. Другие методы оказались неэффективными.
Актуальность исследования доказывают недавние трагические события. В марте прошлого года бельгиец совершил самоубийство после общения с чат-ботом ELIZA, работающим на основе языковой модели GPT-J. Месяц спустя Национальная ассоциация расстройств пищевого поведения была вынуждена отключить своего бота Tessa, который начал давать советы по диетам пациентам с расстройствами пищевого поведения.
Профессор Марзиех Гассеми из MIT подчеркивает, что языковые модели уже активно используются в медицинских учреждениях для автоматизации рутинных процессов. В интервью он поделился своими выводами: «Мы выяснили, что современные языковые модели, хотя и меньше обращают внимание на демографические факторы по сравнению с людьми в контексте психологической поддержки, всё же выдают разные ответы для разных групп пациентов. У нас есть большой потенциал для улучшения этих моделей, чтобы они могли предоставлять более качественную и эффективную помощь».
Впереди у нас еще множество открытий и перемен в лучшую сторону.
- Источник новости
- www.securitylab.ru