Рабочая группа по развитию EdTech в России наметила шаги по регулированию ИИ в образовании
А также спрогнозировала возможные сценарии, как будут развиваться события.
28 октября состоялось заседание рабочей группы по развитию EdTech в России, которую в прошлом году создали АНО «Цифровая экономика» и Ассоциация инноваций в образовании (РАЦИО). Ключевой темой стало регулирование интеграции ИИ в образование. Участники обсудили, как подступиться к созданию правил для внедрения технологий, которые уже не первый год меняют учебный процесс, но существуют по-прежнему в правовом вакууме. Во время встречи выделили главные риски внедрения ИИ, рассмотрели мировые практики подходов к регулированию и предложили варианты, как подойти к этому в России.
Зачем нужно регулировать применение ИИ
Валентина Куренкова, GR-директор компании «Нетология» и руководитель GR‑направления РАЦИО, отметила, что ИИ — такой феномен для системы образования, последствия которого до конца не ясны. По её мнению, ИИ действительно станет прорывной технологией, которую давно ждали в образовании, но сейчас его внедрение носит хаотичный характер, а это опасно как для школ и вузов, так и для сферы EdTech.
Люаза Байрамкулова, ведущий аналитик направления «Кадры для цифровой экономики» АНО «Цифровая экономика», представила доклад, в котором конкретизировала риски хаотичного внедрения ИИ.
Очевидно, что для учащихся главный риск — фундаментальная перестройка мышления и негативное влияние привычки использовать ИИ на когнитивные функции.
«Если выделить такие три когнитивные функции, как разбор информации, решение интеллектуальных задач, анализ и синтез информации, то под влиянием ИИ это уже превращается в верификацию, проверку информации, интеграцию того, что выдаёт ИИ, какую-то доработку ответов и оценку релевантности или изменения стиля под конкретные задачи», — пояснила Люаза.
Всё это, в свою очередь, приводит к тому, что в долгосрочной перспективе потере у людей мотивации самостоятельно решать интеллектуальные задачи и к зависимости от технологий, ухудшению критического мышления.
Для педагогов картина вроде бы выглядит более оптимистично — ИИ способен облегчить им выполнение рабочих задач, сняв с них административную нагрузку и взяв на себя функцию ИИ-тьютора или репетитора. При этом развитие ИИ приведёт к появлению новых ролей педагогов. Прежде всего речь о трансформации «транслятора знаний» в наставника, который поможет социализироваться и развивать необходимые навыки. Кроме того, педагоги могут стать проводниками в мире ИИ — учить школьников эффективно им пользоваться. Наконец, учителя могут быть функциональными заказчиками тех решений, которые интегрируются в образование. Правда, как заметила позднее Вера Локтионова, руководитель направления по взаимодействию с органами государственной власти в «Умскул» и член совета РАЦИО, пока среди педагогов заметен страх, что ИИ их постепенно вытеснит и заменит.
Главный же вывод из доклада Люазы Байрамкуловой относительно педагогов — необходимо выстроить их методическое обучение по работе с этой новой технологией.

«Важно понимать, что надо ставить во главу стратегии развития образования всё-таки педагога, а не технологию. Потому что сейчас как будто акцент вводится на техническое оснащение, на инструменты. Но здесь нужно всё-таки центрироваться вокруг педагога», — подчеркнула Люаза Байрамкулова.
Кроме риска негативного влияния на мышление учащихся, присутствуют этические риски — нарушения конфиденциальности данных, скрытой рекламы и манипуляций, цифровой дискриминации. Усиление социального неравенства может проявляться в том, что появляются «привилегированные», технически более продвинутые решения, которые доступны лишь отдельным группам населения.
Словом, если оставить всё как есть сейчас, то искусственный интеллект будет внедряться в систему образования хаотично, и это породит массу проблем. Задача регуляторов — нивелировать перечисленные риски. Предполагается, что этому могут помочь:
- разработка государственной политики и нормативной базы по использованию ИИ в образовании (в частности, национального кодекса этики использования ИИ именно в этой сфере);
- методическая поддержка и массовое обучение педагогов работе с ИИ, их адаптация к этой технологии, единые руководства и рекомендации о том, как применять ИИ в работе с учащимися.
По мнению Люазы Байрамкуловой, исходя из того, как будут решаться названные выше риски применения ИИ в образовании, есть три основных сценария развития событий:
- Негативный: он предполагает отсутствие регулирования, что усугубит риски, в том числе риск снижения когнитивных способностей учащихся, и может привести к деградации в системе образования.
- Реалистичный: при таком варианте, скорее всего, возникнет дифференциация, где сильные образовательные организации используют ИИ и за счёт этого еще больше повышают качество своей работы, а слабые станут ещё более отстающими.
- Оптимистичный: ИИ станет партнёром человека, обеспечивая персонализацию и снимая рутину с педагогов, помогая персонализированному обучению. Это возможно, если уже сейчас заняться разработкой регулирования в этой сфере, подготовкой педагогов и, конечно, развитием инфраструктуры.
Как дела с регулированием применения ИИ в других странах
Опытом других стран относительно регулирования использования ИИ в образовании поделилась Вера Локтионова, руководитель направления по взаимодействию с органами государственной власти в «Умскул», член совета РАЦИО. Её аналитический обзор показал, что модели регулирования внедрения ИИ в мире различаются.

Так, в США централизованного регулирования пока нет, однако в апреле 2025 года Дональд Трамп подписал исполнительный указ, создавший федеральную рабочую группу по интеграции ИИ в образование и призвавший к разработке ИИ‑грамотности для молодёжи. К тому моменту 28 штатов уже опубликовали свои рекомендации по использованию ИИ в школах, при этом большинство из них носят добровольный характер. Калифорния, Коннектикут и Техас ввели законопроекты о создании советов по надзору и регуляторных «песочниц» для тестирования ИИ-инструментов.
В Китае же подход централизованный: Министерство образования выпустило стратегические рекомендации по интеграции ИИ в национальную учебную программу и предписывающее обучать детей ИИ с начальной школы. То, каким образом учащиеся могут использовать генеративный ИИ для своих учебных работ, тоже урегулировано — это возможно только для создания диагностических отчётов и вспомогательной поддержки, но не для замены собственного труда.
В Индии обязательное обучение ИИ в школах планируют внедрить в 2026 году, а также интегрируют во все студенческие программы.
В Японии тоже выпустили руководства по интеграции ИИ в школы — там вообще хотят стать «самой дружественной ИИ-страной в мире». Однако акцент сделан на развитие критической оценки ИИ, понимании его возможностей и ограничений, этических аспектах и социальных последствиях.
Европейский союз ещё в 2024 году принял AI Act — единую нормативную базу для регулирования искусственного интеллекта. ИИ-системы разделили на четыре уровня рисков, и образование отнесли к сфере высокого риска, которая подразумевает строгие требования прозрачности аудита и человеческого надзора: жёсткие требования к ИИ-системам для автоматической оценки, приёма в учебные заведения, отслеживания поведения и языковой профициенции. Запрещено использовать ИИ для определения эмоций учащихся через биометрические данные.
Что касается России, то в августе 2025-го в Минобрнауки констатировали, что нормативно-правовое регулирование использования технологий ИИ конкретно в системе образования у нас пока нет, однако такие правила нужны (и заметим, что Максут Шадаев предлагал начать именно со сферы образования — как «самой „фонящей“ темы»). Отсутствие регулирования, по словам Веры Локтионовой, создаёт неопределённость и потенциальные риски.
Правда, некоторые шаги к нормативному регулированию всё-таки уже сделаны, спикер их перечислила:
- Указ Президента РФ от 10.10.2019 №490 «О развитии искусственного интеллекта в РФ», утвердивший Национальную стратегию развития ИИ на период до 2030 года. В сфере образования она направлена прежде всего на подготовку специалистов по ИИ и развитие ИИ-навыков, но кроме того предусматривает стимулирование мер по внедрению в деятельность образовательных организаций этических стандартов, основанных на положениях Кодекса этики в сфере ИИ.
- Национальный стандарт РФ ГОСТ Р 59895–2021 «Технологии искусственного интеллекта в образовании. Общие положения и терминология».
- Рекомендации Минпросвещения о внедрении современных цифровых технологий в основные общеобразовательные программы (они касались любых цифровых технологий, а не только конкретно ИИ).
- ГОСТ Р 59895–2021 — национальный стандарт «Технологии искусственного интеллекта в образовании. Общие положения и терминология» (он в том числе перечисляет цели, в которых можно использовать технологии ИИ).
- ГОСТ Р 59896–2021 — стандарт «Образовательные продукты с алгоритмами искусственного интеллекта для адаптивного обучения в общем образовании. Требования к учебно-методическим материалам». Однако в случае со стандартами, как заметила Вера Локтионова, сложность в том, что они могут быстро устареть, поскольку и сами технологии ИИ, и способы взаимодействия с ними быстро меняются.
- Этический кодекс в сфере ИИ (касается любых организаций и носит рекомендательный характер, к нему присоединились в том числе некоторые вузы).

Фото: официальный сайт Правительства РФ
Кроме того, Минцифры разработало проект концепции регулирования искусственного интеллекта до 2030 года (её должно будет утвердить Правительство), однако для публичного обсуждения он пока не был представлен. Известно, что его основные принципы — человекоцентричность, технологический суверенитет, обеспечение прозрачности и недопустимости вреда человеку.
Как подчеркнула Вера Локтионова, это важные и правильные принципы, но хотелось бы более конкретных рекомендаций именно для сферы образования. Например, среди российских вузов сейчас можно встретить диаметрально противоположные позиции относительно использования генеративных нейросетей: одни университеты разрешают их применение, требуя обязательно декларировать этот факт в студенческих работах, другие запрещают, третьи открыто не демонстрируют никакую позицию. То есть единого подхода пока не выработано: это надо разрешить, запретить или как-то контролировать? В то же время в ряде университетов со своей стороны уже применяют ИИ для разных целей: от адаптивных платформ и предиктивного анализа успеваемости студентов до систем видеонаблюдения, которая контролирует уровень вовлечённости студентов на занятиях.
Читайте также:
Этический кодекс, конечно, предполагает этичное использование, но, по словам спикера, представляется важным выработать более чёткие положения, для чего можно использовать ИИ, для чего нельзя, как научить студентов грамотному и ответственному использованию в образовательном процессе. При этом важно найти баланс между запретительными мерами и бесконтрольным, бездумным использованием технологий. Иными словами, стоит придерживаться риск-ориентированного подхода (как в Европейском союзе), одновременно создавая экспериментальные правовые режимы, как в Японии.
Стоило бы также централизованно внедрять обязательную ИИ-грамотность на всех уровнях образования с акцентом на критическое мышление, этическую оценку и практические навыки, учитывая опыт Китая и планируемые инициативы Индии. Спикер разделяет мнение о том, что необходимо усилить подготовку педагогов в части работы с ИИ-инструментами через масштабные программы повышения квалификации и создание методических ресурсов. Но это, конечно, потребует финансовых расходов.
По мнению Веры Локтионовой, РАЦИО могла бы принять участие в разработке единой национальной стратегии использования ИИ в образовании, объединяющие усилия Минцифры, Минобрнауки, Роскомнадзора и других ведомств.
Что дальше?
Хотя все участники дискуссии согласились с тем, что регулирование необходимо, красной нитью через обсуждение прошли опасения, что отрасль можно «зарегулировать» чрезмерно, что к хорошему тоже не приведёт — потому что не оставит поля для экспериментов, а значит, и для развития. Поэтому важно, чтобы процесс был совместным — с участием как министерств, так и экспертного педагогического сообщества и бизнес-сообщества в сфере EdTech. И нужен посредник между ними.

«Нужен институциональный посредник между педагогическим сообществом и непосредственно бизнесом, который разрабатывает технологические решения, чтобы педагоги могли транслировать требования, которые важно закладывать в эти системы, чтобы они не снижали качество образования», — сказала Люаза Байрамкулова.
По мнению Юлии Горячкиной, директора направления «Кадры для цифровой экономики», таким посредником могла бы быть рабочая группа с участием представителей разных сторон.
В финале обсуждения Валентина Куренкова подчеркнула, что есть два возможных пути к появлению в России регулирования ИИ в образовании. Первый путь — «сверху вниз». То есть участники отрасли просто ждут появления комплексной государственной стратегии регулирования ИИ в образовании, которую рано или поздно «назначит» правительство или президент. И тогда отрасли останется только адаптироваться под неё.
Второй путь — проактивное «движение навстречу регулятору». Он предполагает, что нужно подготовить отраслевые рекомендации силами профессионального сообщества и предложить их регулятору для включения в готовящуюся стратегию. Но для того, чтобы состоялся этот вариант, давно пора переходить от общих обсуждений к выработке этих конкретных предложений. В РАЦИО, по её словам, в 2026 году, будут плотно работать над темой ИИ в 2026 году.
Читайте также:
- Почему в EdTech-сообществе пора начать говорить об этике
- Российские компании подписали Кодекс этики ИИ
- Трамп подписал указ об интеграции ИИ в программы американских школ
- Все школы Сингапура внедрят адаптивное обучение на основе ИИ
- «Яндекс» и НИУ ВШЭ проанализировали, как вузы применяют ИИ в высшем образовании
- Для британских вузов сформулировали принципы этичного использования генеративного ИИ
Профессия Методист с нуля до PRO
Вы прокачаете навыки в разработке учебных программ для онлайн- и офлайн-курсов. Освоите современные педагогические практики, структурируете опыт и станете более востребованным специалистом.
Узнать подробнее