Письмо президенту о несогласии с проектом Стратегии развития образования до 2036 года

Развернуть...

Обратиться можно несколькими способами:



Уважаемый Владимир Владимирович! Прошу Вас не подписывать Стратегию развития образования, но инициировать полную переработку данного документа с учетом описанных ниже его существенных недостатков, связанных с внедрением искусственного интеллекта в образование.

В Проекте Стратегии развития образования многократно говорится об использовании технологии искусственного интеллекта (п. 48.12, 49.9, 53.13 и др.).

Например, п.49.9 (в ч.4 “О целях”): “во всех образовательных организациях обеспечено безопасное, эффективное, педагогически обоснованное и этичное использование современных технологий, включая технологии искусственного интеллекта <…>”.

Но на данный момент нигде в законодательстве не определено, что такое “безопасное, эффективное, педагогически обоснованное и этичное использование” ИИ. Каждый видит это по-своему и будет подгонять под это всё, что угодно.

У авторов Стратегии есть понимание, что необходимо нормативно-правовое регулирование данной сферы, например, в п.52.8 об ожидаемых результатах реализации Стратегии: “сформирована нормативно-правовая база безопасного, этичного, целесообразного использования цифровых технологий и применения искусственного интеллекта в системе образования”.

Но нет никаких гарантий и возможности, чтобы к моменту начала реализации Стратегии и, соответственно, внедрения ИИ в образование, были должным образом проведены и обнародованы все необходимые научные исследования, на основе которых можно было бы хотя бы начать разрабатывать нормативно-правовую базу, которая должна намного опережать размышления о том, стоит ли вообще фиксировать в Стратегии развития образования какое-либо использование ИИ. По нормальной логике сначала должно идти исследование, затем закон на основе исследования, и только потом можно рассуждать, что в Стратегию вообще позволительно включать.

Существующие на данный момент исследования свидетельствуют как раз, наоборот, о вреде цифровых технологий.

Например, в докладе СПЧ при Президенте РФ “Цифровая трансформация и защита прав граждан в цифровом пространстве 2.0” (2025) говорится следующее:

  • “Существуют многочисленные, в том числе, западные, научно-практические исследования, доказывающие вред, причиняемый внедрением электронных средств обучения в школы, как в отношении здоровья детей, так и эффективности обучения”.
  • “Применение цифровых технологий формирует у детей вредные зависимости, негативно влияет на их когнитивные способности”.
  • “Молодые люди с экранной зависимостью демонстрируют “микроструктурные и объемные различия или аномалии как серого, так и белого вещества по сравнению со здоровыми контрольными группами”; при этом различия в структуре и функциях мозга наблюдаются во многих из тех же самых областей, в которых они проявляются при наркотической зависимости”.
  • “Важно не отказываться от цифровизации, а сделать ее разумной и контролируемой. В частности, необходимы исследования. Без информационной обеспеченности мы не вправе говорить о безопасности цифровизации”.

Известный эксперт в области информационной безопасности Наталья Касперская озвучивает на конференции ЦИПР-2025 свою позицию: “Искусственный интеллект – глючный по определению. Мы должны понимать, что имеем дело с глючными системами. Поэтому внедрять это в государственные системы нельзя!”

Также известный эксперт высочайшего уровня в области информационных технологий Игорь Ашманов говорит следующее (в интервью “ФедералПресс” 07.08.2025):

“Мы создали рабочую группу в Совете Федерации по вопросам регулирования искусственного интеллекта, и ее работа будет направлена на выработку абсолютно разумных норм, направленных на защиту наших граждан. Цифровизация должна начинаться с закона, и я надеюсь, что первый шаг в этом направлении будет сделан уже осенью. Мы должны в законе четко определить, где полезен и нужен ИИ: на войне и в производстве. Возможно, в медицине, но с огромными ограничениями, чтобы не потерять компетенции врачей. И ни в коем случае нельзя допускать ИИ в сферу образования: профориентация через ИИ – это попытка управлять судьбами людей. Везде, где искусственный интеллект может автономно принимать решение о судьбе человека, его надо прямо запрещать.”

Однозначно, попытка указывать в Стратегии развития образования использование ИИ слишком преждевременная и необоснованная никаким разумным и законным образом.

От себя, как учителя с многолетним стажем, добавлю, что совершенно кощунственна идея внедрять в образование так называемых “помощников учителя и ученика” на базе ИИ, автоматически генерирующих и проверяющих задания, потому что именно эта связь между учеником и учителем в виде постановки и решения задач, когда мастер и ученик чувствуют друг друга, погружаются в ментальный и душевный мир друг друга, где происходит всестороннее развитие обоих, является самой драгоценной и живой связью во всем образовательном процессе! Это же насколько надо быть далекими от сути педагогики, чтобы создавать и применять инструменты для разрушения этой связи? Не говоря уже о том, что в популярных в России нейросетях, обученных на иностранном контенте, присутствует откровенно антироссийский нарратив.

Очевидно, что один из рисков использования ИИ – это атрофирование глубинного мышления человека, которое проявляется:

  • в ослаблении когнитивных функций;
  • в узости мышления;
  • в привычке получать быстрые результаты (снижается способность к длительному размышлению и интеллектуальному труду);
  • в отказе от интуиции и воображения.

Нейросетевые технологии очень глубоко воздействуют на мозг человека, поэтому по аналогии с психоактивными веществами, нейросетевые технологии должны быть изучены на предмет отнесения их к категории психоактивных нейротехнологий и, в том числе, к наркотикам нехимической природы.

Нейросетевые технологии необходимо законодательно разделить по категориям по похожему принципу, как это делается с веществами. Например, этиловый спирт бывает частью пищи в кефире, квасе; бывает легализованным наркотиком в алкогольной продукции; бывает техническим – недопустимым в пище.

Можно предложить классификацию нейросетевых технологий с точки зрения их воздействия на мозг и характера потребности в них в той или иной сфере, как минимум, следующим образом:

  • По воздействию на мозг: по степени замещения когнитивных функций, по степени ограничения широты восприятия, по степени замещения творческих функций…
  • По виду работы: поисковая, аналитическая, генеративная…
  • По объектам работы: люди, живые организмы, техника, физика…
  • По сфере применения: промышленная, финансовая, научная, социальная, военная, медицинская (протезирование, наблюдения…)…
  • По происхождению: зарубежная, российская…
  • По степени контролируемости…

На основании классификации нейросетевых технологий нужно определить конкретные рамки их применения. Следует строго запретить воздействие на психику людей с помощью нейросетевых технологий: в рекламе, образовании, медиасреде, культуре. Можно рассмотреть, возможна ли легитимизация их в концентрациях и ограничениях, гарантированно не причиняющих вреда здоровью и не вызывающих зависимости. При определении условий применения нейросетей нужно обязательно учитывать категории граждан по возрасту и состоянию здоровья.

Недопустимо толкать детей в неизученный досконально и неконтролируемый законодательно дикий мир цифровых технологий и особенно искусственного интеллекта.

Нужна огромная работа разнообразных специалистов по изучению воздействия ИИ на людей и по разработке нормативно-правовой базы, регулирующей применение ИИ. Но сегодня, пока границы между категориями нейротехнологий не прочерчены, условия безопасного применения (в том числе во временной перспективе) не определены, люди делают с ними то же самое, что делали бы с психоактивными веществами, если бы последние не были ограничены законом.

Согласно приведенному выше докладу СПЧ:

“Многие стратегии цифровизации и внедрения ИИ (включая стандарты) в нашей стране являются некритично переведенными методичками западных организаций. Фактическое наличие у “цифрового класса” скрытых (“теневых”) полномочий, возможностей и рычагов воздействия на граждан и общество – при почти полном отсутствии ответственности – создаёт большие риски для прав и свобод граждан России, а также для устойчивости “традиционной” государственной власти”.

Подписание Стратегии в ее текущей редакции, на мой взгляд и по мнению большого количества экспертов, является очень дорогой ошибкой для страны.