КиберпанкДеталиТехнологии

Будущее ИИ в России: как Минцифры планируют регулировать нейросети

Искусственный интеллект все глубже проникает в повседневность, но его развитие создает новые риски для обычных пользователей и бизнеса. Законов, направленных на контроль использования нейросетей в России пока нет. Однако в Минцифры уже подготовили концепцию регулирования ИИ, частично ориентируясь на европейские стандарты и мировой опыт. Рассказываем, насколько необходимы правила для применения искусственного интеллекта и в каких странах они уже действуют.

Какую концепцию по регулирования ИИ предложили Минцифры 

Министерство цифрового развития, связи и массовых коммуникаций разработало концепцию регулирования отношений в сфере искусственного интеллекта (ИИ) до 2030 года, об этом сообщили  «Ведомости», со ссылкой на документ. Пока он не содержит конкретных законопроектов, но задает принципы, на которых будут строиться будущие правила. Проект подготовлен совместно с Альянсом в сфере ИИ, объединяющим крупные компании, заинтересованные в развитии технологий.

Сейчас концепция проходит обсуждение с экспертами и представителями различных отраслей, после чего ее направят на межведомственное согласование, сообщили изданию  «Ведомости» в Минцифры. Документ подчеркивает ключевые факторы развития ИИ и ставит основной принцип регулирования — создать условия для роста технологий без лишних барьеров при защите интересов общества.

Минцифры
Фото: Сергей Булкин / Global Look Press

Регулирование необходимо для безопасного развития технологий, работы с большими данными — медицинскими, финансовыми, биометрическими. Оно должно определить, кто именно несет ответственность  за ошибки алгоритмов, содержать пункты позволяющие защитить права человека при взаимодействии с нейросетями, предотвратить дискриминацию и манипуляции, а также повысить доверие к системам ИИ.

Ранее РБК, со ссылкой на представителей бизнеса и экспертов,  писал о базовых пунктах, которые должны быть сформулированы в законах, регулирующих ИИ:

  • определение ИИ как комплекса программных и технологических решений, имитирующих когнитивные функции человека, а также понятия технологий и систем нейросетей
  • обязательная маркировка, которая должна быть очевидной и легко идентифицируемой
  • классификация ИИ по уровню риска — от минимального до неприемлемого. Системы с неприемлемым риском, угрожающие безопасности человека, общества или государства, предлагается запрещать. Подобные правила уже существуют в Европе

Какие правила использования ИИ сейчас есть в России

В России пока нет единого федерального закона об искусственном интеллекте, однако действуют отдельные документы, направленные на ограничения использования технологии.

С 2021 года в стране действует Кодекс этики ИИ, разработанный при участии Альянса ИИ, представителей госорганов и отраслевых компаний. Основные принципы кодекса включают защиту прав человека, прозрачность и персональную ответственность разработчика. На сегодняшний день кодекс подписали около 247 организаций, включая крупнейшие компании — Сбер, Яндекс и МТС.

В 2020 году в России приняли закон «Об экспериментальных правовых режимах в сфере цифровых инноваций» (ЭПР), позволяющий создавать исключения для тестирования новых технологий. К концу 2024 года в рамках ЭПР были разработаны 16 рекомендаций, включая случаи обязательного страхования за возможный ущерб от применения ИИ.

Какие правила использования ИИ сейчас есть в России
Фото: Михаил Метцель / ТАСС

Помимо этого, в апреле 2025 года по поручению спикера Госдумы Вячеслава Володина была создана межфракционная рабочая группа по разработке законов об ИИ. Она занимается подготовкой законопроектов и предложений по эффективному применению технологий в разных отраслях, включая вопросы национальной обороны и безопасности.

Председатель общественного совета при Минцифры Алексей Гореславский выступил с похожей инициативой. Он предложил создать внутри ведомства орган, который вырабатывал бы рекомендации по использованию ИИ

Как регулирую сферу ИИ в разных странах 

Пока глобальной унифицированной системы регулирования искусственного интеллекта нет. Отдельные государства вводят свои правила и стандарты, учитывая риски технологий для общества, экономики и безопасности.

Европа

Евросоюз занимает лидирующую позицию в правовом оформлении ИИ. Там, 1 августа 2024 год вступил в силу первый в мире всеобъемлющий закон об искусственном интеллекте AI Act. Документ  разделяет технологии, связанные с ИИ, по уровням риска:

  • в категорию недопустимого риска включены системы биометрической идентификации и категоризации людей, распознавания эмоций на рабочем месте — их использование запрещено на европейском рынке. 
  • системы высокого риска, влияющие на жизнь человека — медицинские приборы, системы оценки работников при найме и беспилотные автомобили — они требуют обязательного тестирования, аудита и постоянного человеческого контроля. 
  • продукты с ограниченным риском (в эту группу может войти нейросеть Midjourney и Chat GPT) обязаны обеспечивать прозрачность: пользователи должны получать информацию о генерировании контента искусственным интеллектом. 
  • минимальный риск (например, игры) не регулируется, сюда относят рекомендательные системы онлайн-магазинов и игровые приложения. 

Нарушение закона грозит компаниям штрафами до €35 млн или 7% от их глобального оборота за предыдущий финансовый год.

При этом правительство Великобритании, напротив, пока не торопится с введением законы об искусственном интеллекте. Правительство отложило разработку регулирования, заявив о намерении подготовить «всеобъемлющий» документ. Власти Соединенного королевства решили согласовать свои действия в этом вопросе с администрацией Трампа в Соединенных Штатах, объясняя это тем, что любый законодательные ограничения могут ослабить привлекательность страны для компаний, связанных с разработкой и использованием ИИ.

США

В США нет единого федерального закона по ИИ. Указ экс-президента Джо Байдена 2023 года, направленный на стандарты безопасности и управление рисками ИИ, был отменен Дональдом Трампом в январе 2025 года.  Вместо этого он представил новый документ «Removing Barriers to American Leadership in Artificial Intelligence», который ставит своей целью дерегулирование, стимулирование инноваций и устранение препятствующих политик.

Как регулирую сферу ИИ в разных странах
Фото: China News Service / Tang Yanjun / TASS

Из-за слабого регулирования отдельные штаты разрабатывают собственные меры. Например, Калифорния, Нью-Йорк, Флорида и Техас принимают законы о прозрачности, предотвращении дискриминации, обязательной маркировке чатботов и ИИ-инструментов, а Иллинойс, Невада и Юта ограничивают использование ИИ в психотерапии.

Китай

В Китае регулирование ИИ также стало одним из приоритетных направлений в законодательной сфере. Мониторинг технологий включен в Национальный план реагирования на чрезвычайные ситуации наряду с пандемиями и кибератаками. Только за первую половину года Китай выпустил больше национальных стандартов по ИИ, чем за предыдущие три года вместе.

С 1 сентября 2025 года в Китае вводят обязательную маркировку контента, созданного нейросетью: все тексты, изображения, видео, аудио и виртуальные сцены должны содержать явные метки. Также 25 апреля Государственное управление по регулированию рынка и Управление по стандартизации выпустили три национальных стандарта для повышения безопасности ИИ, которые вступят в силу с 1 ноября 2025 года.

Стандарты охватывают:

  • Безопасность аннотации данных  — правила, чтобы наборы данных, на которых учат ИИ, были безопасными и надежными. 
  • Требования к данным при обучении — требования к процессам маркировки данных, которые используют для обучения ИИ
  • Общие меры безопасности сервисов — защита самих сервисов ИИ, данных пользователей и моделей от взлома или неправильного использования.

Фото обложки: Axel Heimken / TASS

Копировать ссылкуСкопировано