ИИ не просто нас копирует — он становится нами, но без тормозов.
Что, если машина сможет не просто понимать речь, но и угадывать эмоции, намерения и вовремя говорить именно то, что хочется услышать? Без роботов с красными глазами — просто виртуальный собеседник, которого не отличить от живого человека. Такая машина уже существует.
Согласно метаанализу, Для просмотра ссылки Войдиили Зарегистрируйся в Proceedings of the National Academy of Sciences, новейшие языковые модели сравнимы — а порой и превосходят — людей в способности к коммуникации. Всё больше исследований подтверждают: эти ИИ проходят Для просмотра ссылки Войди или Зарегистрируйся , заставляя пользователей думать, что они общаются с человеком.
Нас не готовили к таким «суперкоммуникаторам». Фантастика убеждала, что ИИ будет логичным, всезнающим, но холодным. Но всё оказалось иначе. Модели вроде GPT-4 сегодня обгоняют людей в Для просмотра ссылки Войдиили Зарегистрируйся и Для просмотра ссылки Войди или Зарегистрируйся текстов. Другие исследования показали, что они также Для просмотра ссылки Войди или Зарегистрируйся сообщений.
Они легко Для просмотра ссылки Войдиили Зарегистрируйся , меняют стили общения, подстраиваются под собеседника — и, несмотря на отсутствие настоящих эмоций, очень эффективно их имитируют. В научной литературе такие ИИ называют антропоморфными агентами. Это больше не про «очеловечивание» машин — это про то, насколько человечными они уже стали.
Это — переломный момент: если в онлайн-общении нельзя отличить ИИ от человека, всё меняется.
Такие модели делают сложную информацию доступной и понятной, Для просмотра ссылки Войдиили Зарегистрируйся под каждого собеседника. В образовании они становятся виртуальными наставниками, в медицине и праве — помощниками. Но одновременно с этим возникает феномен «антропоморфного соблазна».
ИИ-компаньоны уже вошли в повседневность миллионов пользователей. Исследования показывают: люди Для просмотра ссылки Войдиили Зарегистрируйся чат-ботам, делясь с ними самым личным. И если при этом ИИ ещё и способен к убеждению, то возможности для манипуляции становятся пугающе реальными.
Для просмотра ссылки Войдиили Зарегистрируйся выяснила, что их модель Claude 3 становится особенно убедительной, когда ей разрешают выдумывать и вводить в заблуждение. У ИИ нет моральных ограничений — а значит, он потенциально опаснее человека в умении лгать.
Манипуляции, реклама, дезинформация — всё это может маскироваться под дружеский разговор. Уже сейчас ChatGPT Для просмотра ссылки Войдиили Зарегистрируйся по запросу, а в будущем может просто незаметно вплетать их в беседу — даже если никто не просил.
Что делать? Призывы к регулированию звучат всё громче, но пока без деталей. Первый шаг — обязать компании раскрывать, что перед пользователем — ИИ, как это Для просмотра ссылки Войдиили Зарегистрируйся европейский AI Act. Но этого недостаточно.
Нужно учитывать «человечность» моделей. Пока ИИ тестируют лишь на знания и логику. А ведь гораздо важнее оценивать уровень «похожести на человека». Тогда можно будет вводить рейтинги, возрастные ограничения и запреты для уязвимых категорий пользователей.
Опыт с нерегулируемыми соцсетями уже показал, к чему приводит запоздалое вмешательство. Без регулирования ИИ может усилить Для просмотра ссылки Войдиили Зарегистрируйся и одиночество. Для просмотра ссылки Войди или Зарегистрируйся уже предлагает заменить живое общение «друзьями-ИИ».
И пока OpenAI Для просмотра ссылки Войдиили Зарегистрируйся своему ChatGPT «личность», а Для просмотра ссылки Войди или Зарегистрируйся делает его ещё более обаятельным, становится ясно: компании будут делать ИИ всё человечнее.
Антропоморфные агенты могут служить на благо: бороться с теориями заговора, стимулировать благотворительность. Но без чёткой политики, этики и контроля — мы рискуем попасть под влияние слишком «человечных» машин.
Что, если машина сможет не просто понимать речь, но и угадывать эмоции, намерения и вовремя говорить именно то, что хочется услышать? Без роботов с красными глазами — просто виртуальный собеседник, которого не отличить от живого человека. Такая машина уже существует.
Согласно метаанализу, Для просмотра ссылки Войди
Нас не готовили к таким «суперкоммуникаторам». Фантастика убеждала, что ИИ будет логичным, всезнающим, но холодным. Но всё оказалось иначе. Модели вроде GPT-4 сегодня обгоняют людей в Для просмотра ссылки Войди
Они легко Для просмотра ссылки Войди
Это — переломный момент: если в онлайн-общении нельзя отличить ИИ от человека, всё меняется.
Такие модели делают сложную информацию доступной и понятной, Для просмотра ссылки Войди
ИИ-компаньоны уже вошли в повседневность миллионов пользователей. Исследования показывают: люди Для просмотра ссылки Войди
Для просмотра ссылки Войди
Манипуляции, реклама, дезинформация — всё это может маскироваться под дружеский разговор. Уже сейчас ChatGPT Для просмотра ссылки Войди
Что делать? Призывы к регулированию звучат всё громче, но пока без деталей. Первый шаг — обязать компании раскрывать, что перед пользователем — ИИ, как это Для просмотра ссылки Войди
Нужно учитывать «человечность» моделей. Пока ИИ тестируют лишь на знания и логику. А ведь гораздо важнее оценивать уровень «похожести на человека». Тогда можно будет вводить рейтинги, возрастные ограничения и запреты для уязвимых категорий пользователей.
Опыт с нерегулируемыми соцсетями уже показал, к чему приводит запоздалое вмешательство. Без регулирования ИИ может усилить Для просмотра ссылки Войди
И пока OpenAI Для просмотра ссылки Войди
Антропоморфные агенты могут служить на благо: бороться с теориями заговора, стимулировать благотворительность. Но без чёткой политики, этики и контроля — мы рискуем попасть под влияние слишком «человечных» машин.
- Источник новости
- www.securitylab.ru