Письмо президенту о несогласии с проектом Стратегии развития образования до 2036 года
В адрес Проекта Стратегии развития образования России до 2036 года написано много критики. Общественные организации, активисты и неравнодушные люди наблюдали за странной и “мутной” разработкой проекта, который авторы почему-то боятся публиковать, хотя документ определяет судьбу народа. В интернет-сообщества периодически просачивалась информация о ходе работы и даже некоторые материалы, включая текст Проекта.
С критикой проекта можно ознакомиться в следующих материалах:
Ниже приведен текст письма с критикой Стратегии развития образования в плане внедрения искусственного интеллекта в систему образования. 17 сентября 2025 года был получен ответ о перенаправлении письма в Министерство просвещения РФ.
Уважаемый Владимир Владимирович! Прошу Вас не подписывать Стратегию развития образования, но инициировать полную переработку данного документа с учетом описанных ниже его существенных недостатков, связанных с внедрением искусственного интеллекта в образование.
В Проекте Стратегии развития образования многократно говорится об использовании технологии искусственного интеллекта (п. 48.12, 49.9, 53.13 и др.).
Например, п.49.9 (в ч.4 “О целях”): “во всех образовательных организациях обеспечено безопасное, эффективное, педагогически обоснованное и этичное использование современных технологий, включая технологии искусственного интеллекта <…>”.
Но на данный момент нигде в законодательстве не определено, что такое “безопасное, эффективное, педагогически обоснованное и этичное использование” ИИ. Каждый видит это по-своему и будет подгонять под это всё, что угодно.
У авторов Стратегии есть понимание, что необходимо нормативно-правовое регулирование данной сферы, например, в п.52.8 об ожидаемых результатах реализации Стратегии: “сформирована нормативно-правовая база безопасного, этичного, целесообразного использования цифровых технологий и применения искусственного интеллекта в системе образования”.
Но нет никаких гарантий и возможности, чтобы к моменту начала реализации Стратегии и, соответственно, внедрения ИИ в образование, были должным образом проведены и обнародованы все необходимые научные исследования, на основе которых можно было бы хотя бы начать разрабатывать нормативно-правовую базу, которая должна намного опережать размышления о том, стоит ли вообще фиксировать в Стратегии развития образования какое-либо использование ИИ. По нормальной логике сначала должно идти исследование, затем закон на основе исследования, и только потом можно рассуждать, что в Стратегию вообще позволительно включать.
Существующие на данный момент исследования свидетельствуют как раз, наоборот, о вреде цифровых технологий.
Например, в докладе СПЧ при Президенте РФ “Цифровая трансформация и защита прав граждан в цифровом пространстве 2.0” (2025) говорится следующее:
- “Существуют многочисленные, в том числе, западные, научно-практические исследования, доказывающие вред, причиняемый внедрением электронных средств обучения в школы, как в отношении здоровья детей, так и эффективности обучения”.
- “Применение цифровых технологий формирует у детей вредные зависимости, негативно влияет на их когнитивные способности”.
- “Молодые люди с экранной зависимостью демонстрируют “микроструктурные и объемные различия или аномалии как серого, так и белого вещества по сравнению со здоровыми контрольными группами”; при этом различия в структуре и функциях мозга наблюдаются во многих из тех же самых областей, в которых они проявляются при наркотической зависимости”.
- “Важно не отказываться от цифровизации, а сделать ее разумной и контролируемой. В частности, необходимы исследования. Без информационной обеспеченности мы не вправе говорить о безопасности цифровизации”.
Известный эксперт в области информационной безопасности Наталья Касперская озвучивает на конференции ЦИПР-2025 свою позицию: “Искусственный интеллект – глючный по определению. Мы должны понимать, что имеем дело с глючными системами. Поэтому внедрять это в государственные системы нельзя!”
Также известный эксперт высочайшего уровня в области информационных технологий Игорь Ашманов говорит следующее (в интервью “ФедералПресс” 07.08.2025):
“Мы создали рабочую группу в Совете Федерации по вопросам регулирования искусственного интеллекта, и ее работа будет направлена на выработку абсолютно разумных норм, направленных на защиту наших граждан. Цифровизация должна начинаться с закона, и я надеюсь, что первый шаг в этом направлении будет сделан уже осенью. Мы должны в законе четко определить, где полезен и нужен ИИ: на войне и в производстве. Возможно, в медицине, но с огромными ограничениями, чтобы не потерять компетенции врачей. И ни в коем случае нельзя допускать ИИ в сферу образования: профориентация через ИИ – это попытка управлять судьбами людей. Везде, где искусственный интеллект может автономно принимать решение о судьбе человека, его надо прямо запрещать.”
Однозначно, попытка указывать в Стратегии развития образования использование ИИ слишком преждевременная и необоснованная никаким разумным и законным образом.
От себя, как учителя с многолетним стажем, добавлю, что совершенно кощунственна идея внедрять в образование так называемых “помощников учителя и ученика” на базе ИИ, автоматически генерирующих и проверяющих задания, потому что именно эта связь между учеником и учителем в виде постановки и решения задач, когда мастер и ученик чувствуют друг друга, погружаются в ментальный и душевный мир друг друга, где происходит всестороннее развитие обоих, является самой драгоценной и живой связью во всем образовательном процессе! Это же насколько надо быть далекими от сути педагогики, чтобы создавать и применять инструменты для разрушения этой связи? Не говоря уже о том, что в популярных в России нейросетях, обученных на иностранном контенте, присутствует откровенно антироссийский нарратив.
Очевидно, что один из рисков использования ИИ – это атрофирование глубинного мышления человека, которое проявляется:
- в ослаблении когнитивных функций;
- в узости мышления;
- в привычке получать быстрые результаты (снижается способность к длительному размышлению и интеллектуальному труду);
- в отказе от интуиции и воображения.
Нейросетевые технологии очень глубоко воздействуют на мозг человека, поэтому по аналогии с психоактивными веществами, нейросетевые технологии должны быть изучены на предмет отнесения их к категории психоактивных нейротехнологий и, в том числе, к наркотикам нехимической природы.
Нейросетевые технологии необходимо законодательно разделить по категориям по похожему принципу, как это делается с веществами. Например, этиловый спирт бывает частью пищи в кефире, квасе; бывает легализованным наркотиком в алкогольной продукции; бывает техническим – недопустимым в пище.
Можно предложить классификацию нейросетевых технологий с точки зрения их воздействия на мозг и характера потребности в них в той или иной сфере, как минимум, следующим образом:
- По воздействию на мозг: по степени замещения когнитивных функций, по степени ограничения широты восприятия, по степени замещения творческих функций…
- По виду работы: поисковая, аналитическая, генеративная…
- По объектам работы: люди, живые организмы, техника, физика…
- По сфере применения: промышленная, финансовая, научная, социальная, военная, медицинская (протезирование, наблюдения…)…
- По происхождению: зарубежная, российская…
- По степени контролируемости…
На основании классификации нейросетевых технологий нужно определить конкретные рамки их применения. Следует строго запретить воздействие на психику людей с помощью нейросетевых технологий: в рекламе, образовании, медиасреде, культуре. Можно рассмотреть, возможна ли легитимизация их в концентрациях и ограничениях, гарантированно не причиняющих вреда здоровью и не вызывающих зависимости. При определении условий применения нейросетей нужно обязательно учитывать категории граждан по возрасту и состоянию здоровья.
Недопустимо толкать детей в неизученный досконально и неконтролируемый законодательно дикий мир цифровых технологий и особенно искусственного интеллекта.
Нужна огромная работа разнообразных специалистов по изучению воздействия ИИ на людей и по разработке нормативно-правовой базы, регулирующей применение ИИ. Но сегодня, пока границы между категориями нейротехнологий не прочерчены, условия безопасного применения (в том числе во временной перспективе) не определены, люди делают с ними то же самое, что делали бы с психоактивными веществами, если бы последние не были ограничены законом.
Согласно приведенному выше докладу СПЧ:
“Многие стратегии цифровизации и внедрения ИИ (включая стандарты) в нашей стране являются некритично переведенными методичками западных организаций. Фактическое наличие у “цифрового класса” скрытых (“теневых”) полномочий, возможностей и рычагов воздействия на граждан и общество – при почти полном отсутствии ответственности – создаёт большие риски для прав и свобод граждан России, а также для устойчивости “традиционной” государственной власти”.
Подписание Стратегии в ее текущей редакции, на мой взгляд и по мнению большого количества экспертов, является очень дорогой ошибкой для страны.
Обязательно делитесь материалами с теми, кто вам дорог!
То, что знаете вы, МНОГИЕ не знают, но могут знать благодаря вам.
Вместе мы сделаем инфополе безопаснее для всех!
