Скидки до 50% и 3 курса в подарок : : Выбрать курс
Код
#новости

Исследование OpenAI и MIT: голосовой ChatGPT может вызывать эмоциональную зависимость

Большинство людей использует голосовые запросы по работе. Однако есть люди, которые общаются с чат-ботом как с другом.

Исследование, проведенное OpenAI и MIT Media Lab, выявило, что активные пользователи голосовой функции ChatGPT подвержены риску эмоциональной зависимости от искусственного интеллекта.

В рамках исследования компания проанализировала миллионы разговоров. Анализ показал, что, хотя большинство людей взаимодействует с ChatGPT по работе или личным делам, из них только небольшая группа пользователей очень часто использует голосовые функции. И именно эта группа склонна формировать сильные эмоциональные связи с ИИ.

Как проходило исследование

В ходе исследования ученые MIT разделили участников на группы. Одни использовали только текстовый формат общения, другие — голосовой, взаимодействуя с различными «личностями» ChatGPT: первая модель была запрограммирована на то, чтоб быть нейтральной в общении, вторая имитировала эмоциональную вовлечённость. Группам задавались разные темы: пользователи общались о личных воспоминаниях, вели практические обсуждения вопросов по финансам, а некоторые просто разговаривали в свободной форме.

Выяснилось, что пользователи, которые общались текстом, чаще выражали эмоции в переписке, но при этом не испытывали столь сильной привязанности. В отличие от них, те, кто активно пользовался голосовыми запросами, развивали более глубокую эмоциональную связь с ИИ.

Кроме того, анализ показал, что кратковременные голосовые взаимодействия способствовали улучшению настроения. Однако ежедневное и продолжительное использование вызывало обратный эффект, причём это происходило в ходе разговоров на темы, не касающиеся личной жизни. При этом разговоры на личные темы, вызванные одиночеством, не вызывали эмоциональную зависимость.

Почему это важно

Исследователи отмечают, что люди, склонные к эмоциональной привязанности, могут воспринимать ChatGPT как настоящего друга, а это увеличивает риск развития зависимости. Причём это проявляется даже тогда, когда взаимодействия с ИИ в основном функциональные, а не эмоциональные.

Стоит отметить, что исследование ограничено участниками из США и не охватывает все аспекты взаимодействия с ИИ. Однако его результаты подчёркивают необходимость осторожного подхода при разработке и использовании голосовых функций в чат-ботах. Специалисты рекомендуют внедрять механизмы, которые помогут пользователям осознавать границы между общением с ИИ и реальными человеческими взаимоотношениями.

Больше интересного про код — в нашем телеграм-канале. Подписывайтесь!



Изучайте IT на практике — бесплатно

Курсы за 2990 0 р.

Я не знаю, с чего начать
Научитесь: Введение в Data Science Узнать больше
Понравилась статья?
Да

Пользуясь нашим сайтом, вы соглашаетесь с тем, что мы используем cookies 🍪

Ссылка скопирована