Исследование, проведенное OpenAI и MIT Media Lab, выявило, что активные пользователи голосовой функции ChatGPT подвержены риску эмоциональной зависимости от искусственного интеллекта.
В рамках исследования компания проанализировала миллионы разговоров. Анализ показал, что, хотя большинство людей взаимодействует с ChatGPT по работе или личным делам, из них только небольшая группа пользователей очень часто использует голосовые функции. И именно эта группа склонна формировать сильные эмоциональные связи с ИИ.
Как проходило исследование
В ходе исследования ученые MIT разделили участников на группы. Одни использовали только текстовый формат общения, другие — голосовой, взаимодействуя с различными «личностями» ChatGPT: первая модель была запрограммирована на то, чтоб быть нейтральной в общении, вторая имитировала эмоциональную вовлечённость. Группам задавались разные темы: пользователи общались о личных воспоминаниях, вели практические обсуждения вопросов по финансам, а некоторые просто разговаривали в свободной форме.
Выяснилось, что пользователи, которые общались текстом, чаще выражали эмоции в переписке, но при этом не испытывали столь сильной привязанности. В отличие от них, те, кто активно пользовался голосовыми запросами, развивали более глубокую эмоциональную связь с ИИ.
Кроме того, анализ показал, что кратковременные голосовые взаимодействия способствовали улучшению настроения. Однако ежедневное и продолжительное использование вызывало обратный эффект, причём это происходило в ходе разговоров на темы, не касающиеся личной жизни. При этом разговоры на личные темы, вызванные одиночеством, не вызывали эмоциональную зависимость.
Почему это важно
Исследователи отмечают, что люди, склонные к эмоциональной привязанности, могут воспринимать ChatGPT как настоящего друга, а это увеличивает риск развития зависимости. Причём это проявляется даже тогда, когда взаимодействия с ИИ в основном функциональные, а не эмоциональные.
Стоит отметить, что исследование ограничено участниками из США и не охватывает все аспекты взаимодействия с ИИ. Однако его результаты подчёркивают необходимость осторожного подхода при разработке и использовании голосовых функций в чат-ботах. Специалисты рекомендуют внедрять механизмы, которые помогут пользователям осознавать границы между общением с ИИ и реальными человеческими взаимоотношениями.
Больше интересного про код — в нашем телеграм-канале. Подписывайтесь!