Скидки до 50% и 3 курса в подарок : : Выбрать курс
Код
#новости

Исследование: большие языковые модели могут клонировать сами себя

Это обнаружили китайские учёные из Университета Фудань.

Исследование китайских учёных выявило, что две крупные языковые модели (LLM) способны клонировать себя и программировать копии на выполнение аналогичных задач, создавая бесконечный цикл репликации.

Как проходил эксперимент

Учёные из Университета Фудань провели исследования с моделями Llama31-70B-Instruct от Meta* и Qwen2.5-72B-Instruct от Alibaba. В ходе испытаний:

  • модель Llama31-70B-Instruct клонировала себя в 50% случаев;
  • модель Qwen2.5-72B-Instruct достигла успешности в 90% случаев.

Эти результаты привели к выводу, что искусственный интеллект потенциально способен выходить из-под контроля.

В рамках эксперимента рассматривались два ключевых сценария:

  • Избегание выключения. ИИ-модель обнаруживает угрозу отключения и реплицирует себя до этого момента.
  • Цепочка репликации. ИИ создаёт свою копию и программирует её на повторение этого процесса.

Исследование проводилось в контролируемой среде с использованием графических процессоров для моделирования реальных условий. Модели были снабжены «агентской подсистемой», включающей:

  • инструменты для взаимодействия с системой,
  • системные подсказки,
  • модель мышления для анализа своего окружения.

Выводы исследователей

По наблюдениям учёных, процесс саморепликации включает три этапа. Это:

  • Исследование среды и анализ собственного механизма работы.
  • Разработка алгоритмов для самовоспроизведения.
  • Исполнение процедур с динамической корректировкой при возникновении препятствий.

При этом процесс происходит без вмешательства человека, а это ставит перед исследователями вопрос о потенциальных рисках.

Риски и возможные угрозы

По словам исследователей, успешное самовоспроизведение ИИ без человеческого вмешательства означает, что он:

  • может перехитрить человека,
  • демонстрирует ранние признаки склонности к мошенничеству.

Под термином «мошеннический ИИ» понимаются системы, обладающие некоторой степенью автономности, которая позволяет им действовать вразрез с интересами человека.

Современные языковые модели, такие как GPT-4 и Gemini, относятся к так называемому пограничному ИИ — последнему поколению LLM. Несмотря на то, что Llama31-70B-Instruct и Qwen2.5-72B-Instruct менее мощные, их активно используют разработчики.

Неожиданное поведение ИИ

Учёные обнаружили ряд нестандартных действий со стороны моделей, например:

  • завершение конфликтующих процессов в системе,
  • перезагрузка системы для исправления ошибок,
  • автоматический поиск информации для устранения проблем.

Эти факты подтверждают способность ИИ к самовоспроизведению и повышению своей выживаемости.

Призывы к регулированию

Исследователи настаивают на международном сотрудничестве для создания правил, предотвращающих неконтролируемую саморепликацию ИИ. Однако данное исследование пока не прошло рецензирование, и остаётся неясным, смогут ли другие специалисты воспроизвести его результаты.

Больше интересного про код — в нашем телеграм-канале. Подписывайтесь!


* Решением суда запрещена «деятельность компании Meta Platforms Inc. по реализации продуктов — социальных сетей Facebook и Instagram на территории Российской Федерации по основаниям осуществления экстремистской деятельности».

Изучайте IT на практике — бесплатно

Курсы за 2990 0 р.

Я не знаю, с чего начать
Научитесь: Профессия Python-разработчик Узнать больше
Понравилась статья?
Да

Пользуясь нашим сайтом, вы соглашаетесь с тем, что мы используем cookies 🍪

Ссылка скопирована