Группа исследователей из Калифорнийского университета в Сан-Диего провела тест Тьюринга с участием различных чат-ботов. Среди них был ChatGPT-4. Разработка Open AI успешно прошла испытание, обманув человека более чем в половине случаев.
Суть теста Тьюринга — определить процент случаев, в которых человек в рамках переписки не понимает, что он общается с роботом, а не с другим человеком. В ходе тестирования участвовало 500 человек, которые общались с четырьмя собеседниками — одним человеком и тремя чат-ботами.
В результате ChatGPT-4 показал лучшие результаты по сравнению с другими ИИ-моделями. Так чат-бот от OpenAI смог обмануть человека в 54% случаев, более старая версия, ChatGPT-3.5, показала результат 50%, а программа 60-х годов ELIZA — 22%.
При этом исследователи отмечают, что результаты теста отражают скорее способность чат-бота имитировать человеческое общение, а не его интеллектуальные возможности. Однако если в результате рецензирования эксперимент будет соответствовать всем требованиям, то он станет первым доказательством того, что ИИ может пройти тест Тьюринга.
Стоит отметить, что этот тест активно критикуют многие эксперты — во многом из-за необъективности результатов на фоне развития технологий и изменений в общественном восприятии ИИ.
Больше интересного про код — в нашем телеграм-канале. Подписывайтесь!