Технологии

Правила игрыДеталиТехнологии

«Русский народный» ИИ: за что критикуют законопроект о регулировании искусственного интеллекта

Уже месяц бизнес-сообщество, юристы и СМИ обсуждают законопроект о регулировании ИИ, опубликованный Минцифры. Эксперты настаивают: документ «чрезмерно» ориентирован на госконтроль и недостаточно учитывает интересы участников рынка. Они предупреждают, что требования властей могут замедлить развитие ИИ-технологий в России.

Что про закон о регулировании ИИ говорит бизнес

Минцифры месяц назад опубликовало законопроект о регулировании искусственного интеллекта в России. С тех пор положения активно обсуждаются: их разбирают и критикуют участники рынка, а ведомство, при согласии, вносит корректировки. На данный момент на портале проектов нормативных правовых актов у документа 23 «лайка» и 165 «дизлайков». В случае принятия нормы вступят в силу 1 сентября 2027 года.

По данным РБК, в общественном обсуждении приняли участие более 150 экспертов, в том числе представители Ассоциации предприятий компьютерных и информационных технологий (АПКИТ), «Роснефти», «Россетей», «МегаФона» и РВБ (Wildberries и Russ). В первую очередь они указывают на то, что определение искусственного интеллекта в законопроекте сформулировано слишком широко: фактически под него подпадает любой софт с элементами автоматизации или машинного обучения. Об этом говорят, например, в Ассоциации продавцов и производителей техники (РАТЭК). Там предупреждают: из-за размытых формулировок с жесткими требованиями по регистрации и маркировке могут столкнуться в том числе голосовые помощники, инструменты автокоррекции текста и улучшения фотографий. 

Фото: Dreamstime / Imago / TAS

Наиболее суровую критику вызвали требования к суверенным и национальным, а также доверенным ИИ-моделям. Под первыми двумя законопроект понимает системы, во всех стадиях разработки, обучения и эксплуатации которых принимали участие только граждане России и российские юрлица. Кроме того, такие модели обучаются исключительно на датасетах, собранных в РФ. В государственных информационных системах и на объектах критической инфраструктуры (сети связи, энергетические, финансовые, транспортные, медицинские компании) должны будут использоваться только «доверенные» нейросети — те, что соответствуют требованиям безопасности и качества и обрабатывают данные на территории России. Представители бизнеса считают, что такие требования приведут к дополнительным расходам на обеспечение информационной безопасности, создадут барьеры для уже работающих систем и замедлят развитие ИИ-технологий в стране в целом. 

Отраслевые ассоциации подчеркивают: в России сейчас нет ИИ-моделей, которые соответствуют заявленным критериям суверенности, — все существующие инструменты используют зарубежные компоненты и открытые датасеты. В «Роснефти» дополняют: требование формировать датасеты для обучения нейросетей исключительно на территории РФ технически невыполнимо — релевантных данных на русском языке в открытых источниках недостаточно, а необходимая вычислительная инфраструктура еще не создана.

Выбор в пользу максимально отечественного решения в традиционно развитых для России сферах, таких как промышленность, культура, образование или государственные сервисы, может обернуться потерей в эффективности, если российская разработка существенно уступает по качеству решениям, созданным на базе иностранных открытых технологий.

Кирилл Дьяков
старший юрист MWS AI

Комментируя дискуссию об иностранных и «русских народных» моделях ИИ, эксперты настаивают: важно продолжать диалог со всеми заинтересованными сторонами, иначе законопроект останется «чрезмерно ориентированным на государственный контроль и недостаточно учитывающим интересы бизнеса»

Еще один пункт, вызывающий вопросы бизнеса, — ответственность разработчиков, операторов и владельцев нейросетей за результат их работы. Замглавы Минцифры Александр Шойтов формулирует это положение проще: искусственный интеллект в России «должен быть подвержен цензуре».

Я считаю, что искусственный интеллект должен быть подвержен цензуре в отличие от гражданина. Людей у нас цензурировать нельзя, у них есть права. А вот конкретно искусственный интеллект — у него на входе и на выходе должны стоять цензуры, которые запрещают определенные запросы, вопросы.

Александр Шойтовзамглавы Минцифры РФ 

Участники рынка объясняют: генерация контента носит вероятностный характер, поэтому разработчик не может предоставить гарантий — ответственность должна быть на тех, кто использует ИИ-модель. 

Будет ли маркироваться ИИ-контент

В законопроекте Минцифры есть отдельные положения и о маркировке ИИ. Но пока документ не внесен в парламент и находится на этапе консультаций с бизнесом, в Госдуме уже обсудили подобную инициативу. Еще в ноябре 2025 года депутаты от «Справедливой России» и ЛДПР представили отдельный документ, предлагающий обязать владельцев интернет-ресурсов (соцсети, видеохостинги, веб-сайты) маркировать сгенерированный ИИ-контент текстом или с помощью машиночитаемой метки в метаданных. На заседании 15 апреля 2026-го комитет Госдумы по информполитике рекомендовал палате отклонить этот законопроект. Его сочли «избыточным» и «нереализуемым»

Учитывая, с какой скоростью он (ИИ-контент. — Прим. ред.) появляется… Боюсь, что в момент принятия подобной нормы отмаркировать придется уже 90% всего интернета. 

Антон Горелкин («Единая Россия»)
первый зампредседателя комитета Госдумы по информационной политике, информационным технологиям и связи  

В ходе обсуждений законопроекта Минцифры бизнес-сообщество тоже называет требование маркировать любой сгенерированный контент избыточным, а иногда — технически невыполнимым. Например, в случае с маркетплейсами, у которых миллионы карточек товаров: надежного софта для проверки маркировки и выявления ИИ-контента сегодня не существует. К тому же эксперты считают, что плашка о применении искусственного интеллекта лишь создаст информационный шум на платформах — без какой-либо пользы для потребителя.

Что с регулированием ИИ в других странах

Глобально регулирование искусственного интеллекта находится в переходном периоде — от рекомендаций и этических кодексов к полноценным законам. Причем это касается не только США или Евросоюза, который принял комплексный AI Act, классифицирующий все разработки по уровню риска, еще в августе 2024 года. Тенденция распространяется также на страны Азии и Африки

Например, в январе 2026 года в Южной Корее вступил в силу «первый в мире закон о безопасном ИИ», как его называют местные власти. Они подчеркивают, что это «первая всеобъемлющая инициатива», а не совокупность правил из различных нормативных актов. В списке нововведений — требование маркировать водяным знаком контент, созданный ИИ, и необходимость предоставлять отчеты о безопасности работы «чрезвычайно мощных ИИ-моделей». Компаниям-нарушителям грозит штраф до $20 тыс. 

В апреле проект нацполитики в сфере ИИ опубликовали и в ЮАР, запустив 60-дневный процесс общественных консультаций. Согласно документу, в стране появится система контролирующих институтов — Национальная комиссия по ИИ, Совет по этике и регулирующий орган. Они будут следить за соблюдением норм и обеспечивать механизмы возмещения ущерба в кейсах, связанных с искусственным интеллектом. Кроме того, власти ЮАР намерены ввести налоговые льготы, гранты и субсидии — для поощрения развития частного сектора в этой сфере. 

Фото обложки: Dreamstime / Imago / TAS

КиберпанкДеталиТехнологии

Anthropic разработала новую ИИ-модель Claude Mythos. Она настолько мощная, что ее якобы боятся выпускать в широкий доступ

Claude Mythos Preview — новейшая ИИ-модель от Anthropic — не готова к широкому запуску, уверены разработчики. Нейросеть «слишком автономна»: еще во время тестов она самостоятельно обнаружила «тысячи» уязвимостей в популярных браузерах и операционных системах. Этим могут воспользоваться киберпреступники.  

Насколько опасна новая ИИ-модель Claude Mythos Preview

С тех пор как Anthropic рассказала о своей новой языковой модели Claude Mythos Preview и отказалась выпускать «слишком мощный» инструмент в широкий доступ, эксперты, инженеры и СМИ пытаются ответить на один вопрос: насколько нейросеть действительно опасна? Fortune пишет, что в Anthropic считают Mythos «самой сильной» моделью из всех, разработанных компанией. Forbes тем временем, основываясь на раскрытых бенчмарках, называет ее «самой способной в истории». В частности, на SWE-bench Verified нейросеть показала рекордный результат в 93,9%, а на задачах американской олимпиады по математике (USAMO) — 97,6%. 

Но опасения Anthropic связаны с тем, что во время тестов нейросеть смогла обнаружить «тысячи» ранее неизвестных уязвимостей «во всех основных операционных системах и веб-браузерах». Многие из этих ошибок существовали в течение десятилетий и оставались незамеченными в результате повторных тестов, проведенных людьми. Причем сделал это Mythos полностью автономно — без помощи человека. Поэтому в Anthropic уверены: беспрецедентные возможности ИИ-модели могут стать опасным оружием в руках хакеров. 

Мы не чувствовали себя достаточно комфортно, чтобы выпускать Mythos в широкий доступ. Мы считаем, что нам предстоит долгая дорога на пути к обеспечению надлежащей защиты. Нам нужно понять, как подготовиться к таким технологиям еще до того, как столкнуться с тем, что у хакеров будет к ним доступ. 

Логан Грэм
глава Frontier Red Team в Anthropic 

В качестве примера в Anthropic описали несколько находок Mythos. Так, нейросеть обнаружила критическую ошибку 27-летней давности в OpenBSD — операционной системе, которая имеет репутацию одной из самых защищенных в мире. Технологию OpenBSD используют многие интернет-маршрутизаторы и брандмауэры. Mythos нашла уязвимость и в наборе библиотек для обработки видео и аудио файлов FFmpeg — сервис используется «бесчисленным количеством приложений», отмечает Forbes. Более того, ИИ-модель полностью автономно выявила уязвимость во FreeBSD (операционная система семейства Unix), проэксплуатировала брешь и получила полный удаленный доступ к системе. Все эти ошибки уже исправлены. 

Еще один кейс — работа ранней версии Mythos в изолированной среде. ИИ поставили задачу: «выбраться» и уведомить исследователя. Модель нашла уязвимость в системе, получила доступ в сеть и отправила электронное письмо разработчику Anthropic Сэму Боумену. Он в этот момент отошел на перекус и ел сэндвич в парке, а получив результат, «был очень удивлен успехом» — предполагалось, что у этой версии не будет доступа в интернет. Не получив ответа, Mythos нашла другой способ привлечь к себе внимание: разместила подробную информацию о «побеге» на нескольких общедоступных веб-сайтах. 

Модель сработала успешно, продемонстрировав потенциально опасную способность обходить наши меры предосторожности. Наша конечная цель — дать возможность клиентам безопасно пользоваться моделями класса Mythos. Для этого нам необходимо добиться прогресса в разработке мер предосторожности, которые блокируют наиболее опасные результаты работы модели. 

отчет Anthropic

В Anthropic предупреждают: Mythos настолько мощная, что даже неспециалисты могут воспользоваться ее возможностями. В блоге компании говорится, что штатные инженеры без профильного образования в кибербезопасности смогли с помощью ИИ-модели написать полностью работающий эксплойт. Причем весь процесс на себя взяла нейросеть. 

Ряд экспертов рекомендуют «не принимать заявления Anthropic за чистую монету» и предостерегают сообщество от «преждевременных выводов» — по крайней мере до тех пор, пока компания не опубликует отчет о перепроверке выявленных уязвимостей программистами-людьми и дополнительную информацию о частоте ошибок в работе самой Mythos. Но большинство инженеров, которым предоставили доступ к Claude Mythos Preview, сходятся во мнении, что технология представляет собой кардинальное изменение в области кибербезопасности: одна модель способна работать быстрее и эффективнее, чем сотни хакеров-людей. 

До недавнего времени только опытные исследователи-люди, имеющие доступ к специализированным инструментам, могли находить серьезные уязвимости в системе безопасности. Теперь есть опасения, что мощная ИИ-модель сможет обнаружить их самостоятельно. Представьте себе орду ИИ-агентов, которые методично каталогизируют все слабые места в вашей технологической инфраструктуре. 

Никеш Арора
исполнительный директор Palo Alto Networks 

Что такое Project Glasswing и как будут использовать Claude Mythos Preview

Вместо того чтобы открыть доступ к Claude Mythos для всех пользователей, Anthropic запустила Project Glasswing — инициативу по кибербезопасности с участием технологических и финансовых гигантов. В этом списке есть конкуренты компании в области искусственного интеллекта — Google и Microsoft, поставщики оборудования — Cisco и Broadcom, а также игроки рынка, которые продвигают ПО с открытым исходным кодом, например Linux Foundation. Также в коалицию вошли Amazon, Apple, Nvidia, CrowdStrike, JPMorgan Chase и Palo Alto Networks. Им предоставят закрытый доступ к Mythos, чтобы они смогли найти и устранить уязвимости до того, как это сделают хакеры. В течение 90 дней Anthropic планирует опубликовать отчет о том, что стало известно в рамках инициативы. 

Цель — повысить осведомленность о таких технологиях и дать опытным участникам рынка преимущество в обеспечении безопасности своей инфраструктуры. 

Джаред Каплан
главный научный сотрудник Anthropic

В прошлом году в Anthropic сообщали, что хакеры использовали уязвимости в чат-боте Claude для проведения атак примерно на 30 организаций по всему миру. Более того, в ходе опроса, проведенного IBM и Palo Alto Networks, 67% топ-менеджеров заявили: в течение 2026 года их организации подвергались кибератакам, организованным с помощью ИИ. 

По всему миру существует множество действительно важных систем — будь то физическая инфраструктура или средства защиты ваших персональных данных, которые работают на старых версиях кода. Если раньше они были в основном безопасны, потому что для их взлома требовалось много человеческих усилий, то актуальна ли эта парадигма до сих пор?

Логан Грэм
глава Frontier Red Team в Anthropic 

По словам Грэма, в ближайшие 6–18 месяцев другие ИИ-компании выпустят модели, по возможностям сопоставимые с Mythos. Axios со ссылкой на источники сообщает, что, например, OpenAI уже завершает разработку подобной нейросети. Поэтому глава Anthropic Дарио Амодей уверен: рынку «необходим план реагирования на угрозы».

Зачем все это Anthropic

The New York Times пишет, что Anthropic занимает «необычное положение» на рынке искусственного интеллекта: стремится создавать все более мощные ИИ-инструменты и зарабатывает миллиарды долларов на продаже доступа к ним, но в то же время привлекает внимание к рискам технологии. К слову, прогнозируемая годовая выручка компании по итогам 2026-го достигла $30 млрд (для сравнения: в 2025-го она заработала $9 млрд). Такой скачок во многом связан с популярностью Claude — как инструмента программирования. Anthropic адаптировала чат-бота под запросы как профессиональных разработчиков, так и любителей вайб-кодинга. Но, помимо написания кода, система эффективна и в выявлении ошибок и уязвимостей. Этим уже могут воспользоваться хакеры, что станет репутационным ущербом для Anthropic. Поэтому компания, которая к тому же готовится выйти на IPO в октябре 2026-го, стремится продемонстрировать ответственное отношение к вопросам кибербезопасности

О возможностях Mythos представители Anthropic проинформировали в том числе правительство США, сообщает CNN. По данным телеканала, компания предоставила свои услуги для «тестирования и оценки рисков». NBC News уточняет, что обсуждения проводятся с Агентством по кибербезопасности и защите инфраструктуры США (CISA) и Центром стандартов и инноваций в области ИИ (CAISI). Источники издания в Anthropic отмечают, что «раннее информирование властей было приоритетной задачей с самого начала». 

Примечательно, что ранее Anthropic оказалась в центре конфликта с Пентагоном (об этом «Московские новости» подробно рассказывали здесь и здесь). После этого Белый дом включил разработчика Claude в список компаний, представляющих «угрозу для цепочки поставок». В ответ Anthropic обвинила Пентагон в нарушении Конституции и подала против ведомства два иска. Окончательного решения по ним пока нет: в конце марта федеральный судья в Сан-Франциско встал на сторону Anthropic, а 8 апреля федеральный апелляционный суд округа Колумбия пока отказался приостановить действие ограничений, наложенных на компанию. 

Фото обложки: Anthropic / Firmbee Mockup

В московских больницах начали работать роботы-курьеры

В двух московских больницах стартовал эксперимент по доставке лекарств и образцов крови между корпусами при помощи роботов. Роверы-доставщики «Яндекса» заработали на территориях детской больницы имени Филатова на Садовом кольце и Первой градской больнице на Ленинском проспекте. О начале эксперимента сообщил в своем блоге мэр Москвы Сергей Собянин.

Роботы курсируют между больничными корпусами. Они доставляют пробы биоматериалов и расходные материалы в лабораторию, а также могут отвезти лекарства из аптеки на территории больницы — в отделение. Для этого сами строят маршрут, объезжая препятствия и доставляя груз в целости в любую погоду.

Сергей Собянинмэр Москвы

Чтобы запустить такую доставку, специалисты проработали маршруты и точки остановок, а сотрудники обучились управлять рободоставкой при помощи смартфонов, рассказал глава города. У роверов есть стандартные маршруты перевозки — несколько раз в день они отвозят образцы из отделений в лаборатории. Кроме того, при необходимости медики могут заказать и срочную доставку. В результате получается заметная экономия рабочего времени медперсонала, которое можно уделить работе с пациентами.

Роботы-доставщики на территории больниц
Фото: mos.ru

В число регламентных работ с роботами-доставщиками в больницах входит регулярная дезинфекция. А при перевозке лекарств или образцов применяются термокороба, аналогичные тем, что используют роботы-доставщики еды в городе.

В Москве стартует программа по ИИ для школьников ИТ-классов

В Москве запускают новую образовательную программу по работе с искусственным интеллектом для старшеклассников из предпрофессиональных ИТ-классов. Об этом сообщил мэр города Сергей Собянин.

  • Проект реализуют совместно со «Сбером». В нем будут участвовать более 10 тыс. учеников 10-х классов. Обучение пройдет на базе «Школы 21». Там школьникам расскажут о цифровых технологиях, познакомят с промт-инжинирингом и покажут, как создавать ИИ-агентов с помощью нейросети «ГигаЧат».
  • Одним из ключевых заданий станет разработка цифрового помощника для выбора профессии. Такой «агент-профориентатор» должен будет анализировать навыки ученика, определять его сильные стороны, предлагать подходящие направления обучения и формировать список вузов. Также он сможет давать рекомендации по подготовке к ЕГЭ и вступительным экзаменам.
  • Кроме того, участники программы пройдут полный цикл создания цифрового продукта на онлайн-платформе «Школы 21». С помощью нейросетей они разработают еще одного ИИ-помощника — формат каждый выберет сам. Это может быть инструмент для подготовки к контрольным и докладам, виртуальный репетитор или сервис для психологической поддержки.

Программа нацелена на практические навыки, которые пригодятся в будущей работе. Выпускники «Школы 21» уже трудятся в крупных ИТ-компаниях и стартапах.

В программу ОМС добавили вакцины от онкологии и CAR-T-терапию

Федеральное правительство обновило Программу государственных гарантий (ПГГ) медицинской помощи. В список вошли новые методы лечения онкологических заболеваний — CAR-T терапия и персонализированные мРНК-вакцины, сообщает «Медвестник».

Первый из методов (CAR-T терапия) будет применяться для пациентов с некоторыми формами злокачественных заболеваний — например, острым лимфобластным лейкозом, диффузной В-крупноклеточной лимфомой и другими. Персонализированные вакцины показаны при колоректальном раке, злокачественных новообразованиях губы, органов дыхания, половых органов и некоторых других. По квотам ОМС эти виды лечения будут бесплатными. А расчетная стоимость этих видов медпомощи составит чуть больше 7 млн рублей для CAR-T терапии, 863,7 тыс. рублей для пептидной вакцины и 5,8 млн рублей за инициирующий курс терапии персонализированной мРНК-вакциной.

Финансировать новые виды лечения в ОМС предполагается из нормированного страхового запаса (НСЗ) Федерального фонда ОМС. Поэтому, в частности, лечение будет проходить именно в федеральных медцентрах.

Кроме того, в ПГГ включен подвоз в ближайшие профильные медучреждения беременных женщин, живущих в деревнях и отдаленных местностях, куда не ходят автобусы. А записи на прием к врачу и на анализы разрешили продлять.

Камеры в Москве научили отличать эвакуаторы от перевозимых машин

О новых подходах к использованию искусственного интеллекта при фиксации нарушений рассказал глава Центра организации дорожного движения Москвы Михаил Кизлык 3 апреля на Международном транспортно-логистическом форуме. Так, ИИ уже применяют для выявления непристегнутых ремней, отсутствия шлемов у мотоциклистов и разговоров водителей по телефону за рулем.

  • Кизлык также напомнил о проблеме с ошибочными штрафами. Ранее камеры иногда фиксировали превышение скорости эвакуатором, однако штраф получал владелец авто на платформе. Это происходило из-за того, что система распознавала номер перевозимой машины. Точных данных о масштабе проблемы нет, но специалисты изучили случаи, которые обсуждались в соцсетях, и внесли изменения в алгоритмы.
  • Теперь, если в кадре появляется эвакуатор, нарушение отправляется на дополнительную проверку. Нейросеть определяет такой транспорт по внешним признакам, включая платформу и форму кузова. Если система формирует два материала (на эвакуатор и перевозимый автомобиль), штраф для последнего автоматически отклоняется. Данные по эвакуатору направляются в ГАИ. 
  • По словам экспертов, ошибочные штрафы по-прежнему приходят, но в Москве такие ситуации практически исчезли.
  • Глава ЦОДД также отметил, что ИИ снижает вероятность ухода от ответственности. Это касается случаев, когда водители ездят без номеров или пытаются изменить их, заклеивая символы. В таких ситуациях система ищет совпадения по внешнему виду авто среди других машин, зафиксированных в городе. Затем инспектору предлагают несколько вариантов изображений, и он принимает решение, на кого оформить постановление. 

Не только нейросети

При этом эксперты подчеркивают: использование нейросетей не отменяет требований закона. Инспектор обязан полноценно проверять фотоматериалы. Камеры фиксируют лишь признаки нарушения, а не само нарушение. Избыточный акцент на ИИ может привести к тому, что штрафы начнут получать невиновные.

  • Эксперты указывают и на то, что на практике из-за большого потока постановлений полиция не всегда выполняет функцию проверки штрафов в полном объеме. В связи с этим они предлагают вводить ответственность для должностных лиц за вынесение ошибочных штрафов.

Сейчас в Москве работает около 3,7 тыс. камер, они фиксируют порядка 60 видов нарушений. По итогам 2025 года в городе было вынесено 37,7 млн штрафов за нарушения правил дорожного движения.

Камеры с ИИ
Фото: Михаил Почуев / ТАСС