Некоммерческая организация Future of Life опубликовала письмо с призывом приостановить обучение продвинутых ИИ-моделей, так как они представляют угрозу человечеству:
«Продвинутые ИИ уже могут конкурировать с людьми в решении общих задач. Должны ли мы позволить машинам наводнить медиа пропагандой и фейками, автоматизировать рабочие места и в итоге лишить нас контроля за цивилизацией? Такие решения не должны делегироваться не избранным лидерам технологических компаний».
Вот что предлагают авторы письма:
- Приостановить как минимум на шесть месяцев обучение систем ИИ более мощных, чем GPT-4.
- Разработать протоколы безопасности, которые будут гарантировать положительный и управляемый эффект от разработки ИИ, — этим должны заниматься независимые эксперты совместно с ИИ-лабораториями.
- Развивать системы надёжного управления ИИ — как минимум создать контролирующие органы, которые будут следить за развитием мощных ИИ-систем (здесь компании должны работать в паре с политиками).
- Разработать системы водяных знаков, помогающие отличить синтетический контент от настоящего.
- Финансировать технические исследования в области безопасности ИИ.
- Поощрять институты, которые занимаются преодолением глобальных последствий для экономики и демократии.
Авторы отдельно отмечают, что их предложение означает не паузу в развитии ИИ в целом, «а просто отступление от опасной гонки за возможностями». Эти меры помогут человечеству адаптироваться к новым технологиям и разработать мощные и безопасные системы, нацеленные на всеобщее благо.
Это письмо хорошо перекликается с опубликованным в воскресенье отчётом Goldman Sachs — в нём говорится, что продвинутые языковые модели могут отнять у людей до 300 млн рабочих мест. По данным агентства, больше всего от автоматизации пострадают офисные работники и «белые воротнички» — юристы, финансисты, архитекторы и административный персонал.
Больше интересного про код в нашем телеграм-канале. Подписывайтесь!