Скидки до 60% и 3 курса в подарок 0 дней 00 :00 :00 Выбрать курс
Код
#новости

Исследование: большие языковые модели могут клонировать сами себя

Это обнаружили китайские учёные из Университета Фудань.

Исследование китайских учёных выявило, что две крупные языковые модели (LLM) способны клонировать себя и программировать копии на выполнение аналогичных задач, создавая бесконечный цикл репликации.

Как проходил эксперимент

Учёные из Университета Фудань провели исследования с моделями Llama31-70B-Instruct от Meta* и Qwen2.5-72B-Instruct от Alibaba. В ходе испытаний:

  • модель Llama31-70B-Instruct клонировала себя в 50% случаев;
  • модель Qwen2.5-72B-Instruct достигла успешности в 90% случаев.

Эти результаты привели к выводу, что искусственный интеллект потенциально способен выходить из-под контроля.

В рамках эксперимента рассматривались два ключевых сценария:

  • Избегание выключения. ИИ-модель обнаруживает угрозу отключения и реплицирует себя до этого момента.
  • Цепочка репликации. ИИ создаёт свою копию и программирует её на повторение этого процесса.

Исследование проводилось в контролируемой среде с использованием графических процессоров для моделирования реальных условий. Модели были снабжены «агентской подсистемой», включающей:

  • инструменты для взаимодействия с системой,
  • системные подсказки,
  • модель мышления для анализа своего окружения.

Выводы исследователей

По наблюдениям учёных, процесс саморепликации включает три этапа. Это:

  • Исследование среды и анализ собственного механизма работы.
  • Разработка алгоритмов для самовоспроизведения.
  • Исполнение процедур с динамической корректировкой при возникновении препятствий.

При этом процесс происходит без вмешательства человека, а это ставит перед исследователями вопрос о потенциальных рисках.

Риски и возможные угрозы

По словам исследователей, успешное самовоспроизведение ИИ без человеческого вмешательства означает, что он:

  • может перехитрить человека,
  • демонстрирует ранние признаки склонности к мошенничеству.

Под термином «мошеннический ИИ» понимаются системы, обладающие некоторой степенью автономности, которая позволяет им действовать вразрез с интересами человека.

Современные языковые модели, такие как GPT-4 и Gemini, относятся к так называемому пограничному ИИ — последнему поколению LLM. Несмотря на то, что Llama31-70B-Instruct и Qwen2.5-72B-Instruct менее мощные, их активно используют разработчики.

Неожиданное поведение ИИ

Учёные обнаружили ряд нестандартных действий со стороны моделей, например:

  • завершение конфликтующих процессов в системе,
  • перезагрузка системы для исправления ошибок,
  • автоматический поиск информации для устранения проблем.

Эти факты подтверждают способность ИИ к самовоспроизведению и повышению своей выживаемости.

Призывы к регулированию

Исследователи настаивают на международном сотрудничестве для создания правил, предотвращающих неконтролируемую саморепликацию ИИ. Однако данное исследование пока не прошло рецензирование, и остаётся неясным, смогут ли другие специалисты воспроизвести его результаты.

Больше интересного про код — в нашем телеграм-канале. Подписывайтесь!


* Решением суда запрещена «деятельность компании Meta Platforms Inc. по реализации продуктов — социальных сетей Facebook и Instagram на территории Российской Федерации по основаниям осуществления экстремистской деятельности».

Попробуйте бесплатно 4 топовых направления в IT

Переходите в Telegram и откройте доступ к бесплатным IT-курсам. Попробуйте себя в Python, Java, тестировании ПО, SQL и Excel. Определите, какое направление вам подходит, и получите подарки.

Пройти курс
4 бесплатных курса для старта в IT ➞
Переходите в Telegram и пройдите 4 курса по топовым направлениям IT. Определите, какая сфера вам ближе, и сделайте первый шаг к новой профессии.
Пройти курс→
Понравилась статья?
Да

Пользуясь нашим сайтом, вы соглашаетесь с тем, что мы используем cookies 🍪

Ссылка скопирована