Минцифры опубликовало проект закона о регулировании искусственного интеллекта. Документ предлагает ввести единые правила для разработки, внедрения и использования ИИ-систем в стране. Документ носит рамочный характер и должен вступить в силу с 1 сентября 2027 года.
Впервые на уровне закона предлагается закрепить само понятие ИИ, определить участников рынка и распределить их ответственность, а также внедрить обязательную маркировку синтетического контента.
Разберём ключевые изменения по порядку.
Что конкретно изменится
Одно из главных требований — разрабатывать и обучать модели можно будет только на территории России. При этом закон не запрещает международное сотрудничество в области ИИ через совместные научные исследования.
Помимо этого, законопроект делит все ИИ-системы на несколько категорий:
- суверенные и национальные — полностью разработанные в России и обученные на локальных данных и силами российских компаний; для них предусмотрена господдержка, от льгот до приоритетного внедрения;
- доверенные — модели, прошедшие проверку ФСБ и ФСТЭК. Только их можно будет использовать в государственных органах, инфосистемах и критической инфраструктуре.
Для доверенных моделей создадут отдельный реестр. Суверенная модель может стать доверенной, если пройдёт дополнительные проверки безопасности.
Разработчиков также обяжут учитывать риски: исключать функции, которые могут приводить к дискриминации людей на основе поведения и личностных качеств, а также предупреждать о запрещённых способах использования.
Как будут маркировать контент
Новый законопроект также вводит требование помечать любой контент, созданный нейросетями, — это касается изображений, видео и аудио.
Маркировка должна быть заметной для человека и одновременно доступной для автоматической проверки. Отвечать за неё будут владельцы ИИ-сервисов.
Крупные платформы с суточной аудиторией от 100 тысяч человек должны будут контролировать наличие таких пометок. Если пользователь публикует ИИ-контент без маркировки, площадка обязана либо добавить её самостоятельно, либо удалить материал.
Что изменится для разработчиков и компаний
Законопроект подробно описывает, что должны делать участники рынка.
Так, разработчики будут обязаны:
- исключать дискриминирующий функционал;
- предупреждать о недопустимых сценариях использования;
- проводить моделирование потенциальных рисков.
Операторов ИИ-моделей обяжут:
- тестировать системы;
- информировать пользователей о функциях системы и её ограничениях;
- останавливать работу моделей при угрозе вреда здоровью, безопасности граждан и окружающей среде.
Больше всего требований получат владельцы сервисов. Вот основной список:
- следить, чтобы сервис не использовался в противоправных целях;
- внедрять механизмы, запрещающие создавать незаконный контент;
- маркировать фото, видео и тексты, сгенерированные ИИ;
- включать в пользовательское соглашение условие о том, кому принадлежат права на сгенерированный контент.
Если суточная аудитория сервиса превышает 500 тысяч пользователей из России, к нему применимы положения закона Яровой — то есть владельцы бизнеса обязаны хранить данные и сообщения пользователей до шести месяцев, а также предоставлять их по требованию правоохранительных органов.
Как будут регулировать искусственный интеллект
Документ предлагает рискориентированный подход — это значит, что требования к ИИ зависят от того, насколько система влияет на жизнь людей.
Чем выше потенциальный риск — например, в госуправлении, медицине или финансах, — тем жёстче правила. Для менее критичных сфер регулирование будет мягче. Такой подход сближает российскую модель с европейскими инициативами, где также применяют градацию по уровням риска.
Ответственность за вред от использования ИИ предлагается делить между всеми участниками — в зависимости от их роли и степени вины. Так, разработчики, операторы и владельцы ИИ-систем будут отвечать, если заведомо знали о возможности нарушения. При этом они будут освобождены от наказания, если предприняли исчерпывающие меры для предотвращения вреда, соблюдали все требования закона, а также если вред возник из-за обстоятельств непреодолимой силы, действий потерпевших или третьих лиц.
Что будет с инфраструктурой
В законопроекте есть отдельный блок про инфраструктуру для ИИ. Правительство сможет утвердить список дата-центров, которые получат особые условия для работы с такими системами.
Таким ЦОД хотят дать доступ к долгосрочным контрактам на электроэнергию с фиксированным потолком цены. Ещё их могут освободить от платы за подключение и дать приоритет при присоединении к электросетям.
Кроме того, для таких площадок могут упростить согласование внешнего электроснабжения при строительстве, разрешить им покупать электричество по сниженным тарифам и предоставить бюджетную поддержку, налоговые льготы и другие меры помощи.
Могут ли запретить ChatGPT и другие зарубежные модели
В законопроекте напрямую не говорится о запрете конкретных сервисов. Однако вводится понятие «трансграничные технологии ИИ» — к ним относят системы, связанные сразу с несколькими странами.
В документе указано, что их использование может быть ограничено или запрещено в случаях, которые определит законодательство.
На практике это означает, что сами по себе ChatGPT, Gemini или другие зарубежные модели не запрещаются автоматически. Но их работа может зависеть от дополнительных требований — например, хранения данных в России или соблюдения правил безопасности.
Если такие условия окажутся невыполнимыми, доступ к сервисам действительно могут ограничить. Но это будет зависеть не от текущей версии закона, а от последующих нормативных актов.
Больше интересного про код — в нашем телеграм-канале. Подписывайтесь!