Что про закон о регулировании ИИ говорит бизнес
Минцифры месяц назад опубликовало законопроект о регулировании искусственного интеллекта в России. С тех пор положения активно обсуждаются: их разбирают и критикуют участники рынка, а ведомство, при согласии, вносит корректировки. На данный момент на портале проектов нормативных правовых актов у документа 23 «лайка» и 165 «дизлайков». В случае принятия нормы вступят в силу 1 сентября 2027 года.
По данным РБК, в общественном обсуждении приняли участие более 150 экспертов, в том числе представители Ассоциации предприятий компьютерных и информационных технологий (АПКИТ), «Роснефти», «Россетей», «МегаФона» и РВБ (Wildberries и Russ). В первую очередь они указывают на то, что определение искусственного интеллекта в законопроекте сформулировано слишком широко: фактически под него подпадает любой софт с элементами автоматизации или машинного обучения. Об этом говорят, например, в Ассоциации продавцов и производителей техники (РАТЭК). Там предупреждают: из-за размытых формулировок с жесткими требованиями по регистрации и маркировке могут столкнуться в том числе голосовые помощники, инструменты автокоррекции текста и улучшения фотографий.

Наиболее суровую критику вызвали требования к суверенным и национальным, а также доверенным ИИ-моделям. Под первыми двумя законопроект понимает системы, во всех стадиях разработки, обучения и эксплуатации которых принимали участие только граждане России и российские юрлица. Кроме того, такие модели обучаются исключительно на датасетах, собранных в РФ. В государственных информационных системах и на объектах критической инфраструктуры (сети связи, энергетические, финансовые, транспортные, медицинские компании) должны будут использоваться только «доверенные» нейросети — те, что соответствуют требованиям безопасности и качества и обрабатывают данные на территории России. Представители бизнеса считают, что такие требования приведут к дополнительным расходам на обеспечение информационной безопасности, создадут барьеры для уже работающих систем и замедлят развитие ИИ-технологий в стране в целом.
Отраслевые ассоциации подчеркивают: в России сейчас нет ИИ-моделей, которые соответствуют заявленным критериям суверенности, — все существующие инструменты используют зарубежные компоненты и открытые датасеты. В «Роснефти» дополняют: требование формировать датасеты для обучения нейросетей исключительно на территории РФ технически невыполнимо — релевантных данных на русском языке в открытых источниках недостаточно, а необходимая вычислительная инфраструктура еще не создана.
Выбор в пользу максимально отечественного решения в традиционно развитых для России сферах, таких как промышленность, культура, образование или государственные сервисы, может обернуться потерей в эффективности, если российская разработка существенно уступает по качеству решениям, созданным на базе иностранных открытых технологий.
Кирилл Дьяков
старший юрист MWS AI
Комментируя дискуссию об иностранных и «русских народных» моделях ИИ, эксперты настаивают: важно продолжать диалог со всеми заинтересованными сторонами, иначе законопроект останется «чрезмерно ориентированным на государственный контроль и недостаточно учитывающим интересы бизнеса».
Еще один пункт, вызывающий вопросы бизнеса, — ответственность разработчиков, операторов и владельцев нейросетей за результат их работы. Замглавы Минцифры Александр Шойтов формулирует это положение проще: искусственный интеллект в России «должен быть подвержен цензуре».
Я считаю, что искусственный интеллект должен быть подвержен цензуре в отличие от гражданина. Людей у нас цензурировать нельзя, у них есть права. А вот конкретно искусственный интеллект — у него на входе и на выходе должны стоять цензуры, которые запрещают определенные запросы, вопросы.
Александр Шойтовзамглавы Минцифры РФ
Участники рынка объясняют: генерация контента носит вероятностный характер, поэтому разработчик не может предоставить гарантий — ответственность должна быть на тех, кто использует ИИ-модель.
Будет ли маркироваться ИИ-контент
В законопроекте Минцифры есть отдельные положения и о маркировке ИИ. Но пока документ не внесен в парламент и находится на этапе консультаций с бизнесом, в Госдуме уже обсудили подобную инициативу. Еще в ноябре 2025 года депутаты от «Справедливой России» и ЛДПР представили отдельный документ, предлагающий обязать владельцев интернет-ресурсов (соцсети, видеохостинги, веб-сайты) маркировать сгенерированный ИИ-контент текстом или с помощью машиночитаемой метки в метаданных. На заседании 15 апреля 2026-го комитет Госдумы по информполитике рекомендовал палате отклонить этот законопроект. Его сочли «избыточным» и «нереализуемым».
Учитывая, с какой скоростью он (ИИ-контент. — Прим. ред.) появляется… Боюсь, что в момент принятия подобной нормы отмаркировать придется уже 90% всего интернета.
Антон Горелкин («Единая Россия»)
первый зампредседателя комитета Госдумы по информационной политике, информационным технологиям и связи
В ходе обсуждений законопроекта Минцифры бизнес-сообщество тоже называет требование маркировать любой сгенерированный контент избыточным, а иногда — технически невыполнимым. Например, в случае с маркетплейсами, у которых миллионы карточек товаров: надежного софта для проверки маркировки и выявления ИИ-контента сегодня не существует. К тому же эксперты считают, что плашка о применении искусственного интеллекта лишь создаст информационный шум на платформах — без какой-либо пользы для потребителя.
Что с регулированием ИИ в других странах
Глобально регулирование искусственного интеллекта находится в переходном периоде — от рекомендаций и этических кодексов к полноценным законам. Причем это касается не только США или Евросоюза, который принял комплексный AI Act, классифицирующий все разработки по уровню риска, еще в августе 2024 года. Тенденция распространяется также на страны Азии и Африки.
Например, в январе 2026 года в Южной Корее вступил в силу «первый в мире закон о безопасном ИИ», как его называют местные власти. Они подчеркивают, что это «первая всеобъемлющая инициатива», а не совокупность правил из различных нормативных актов. В списке нововведений — требование маркировать водяным знаком контент, созданный ИИ, и необходимость предоставлять отчеты о безопасности работы «чрезвычайно мощных ИИ-моделей». Компаниям-нарушителям грозит штраф до $20 тыс.
В апреле проект нацполитики в сфере ИИ опубликовали и в ЮАР, запустив 60-дневный процесс общественных консультаций. Согласно документу, в стране появится система контролирующих институтов — Национальная комиссия по ИИ, Совет по этике и регулирующий орган. Они будут следить за соблюдением норм и обеспечивать механизмы возмещения ущерба в кейсах, связанных с искусственным интеллектом. Кроме того, власти ЮАР намерены ввести налоговые льготы, гранты и субсидии — для поощрения развития частного сектора в этой сфере.
Фото обложки: Dreamstime / Imago / TAS