Российский ИИ будут обучать на госданных, но по согласованию с ФСБ
«Коммерсантъ» ознакомился с актуальной версией законопроекта о регулировании ИИ. Документ заметно переработан и дополнен. В новой редакции допускается обучение национальных и суверенных нейросетей на государственных данных, однако это возможно только после согласования с ФСТЭК и ФСБ. Также вводится ответственность операторов и владельцев ИИ: они должны обеспечивать информационную безопасность моделей.
- Отдельно закрепляется статус доверенного ИИ. Он присваивается только тем системам, которые включены в специальный реестр. Порядок его ведения и правила включения моделей может устанавливать правительство.
- Кроме того, власти получат право определять случаи обязательного применения национальных и суверенных ИИ в банковской сфере. Такие решения будут приниматься по согласованию с Центробанком. Ранее требование обязательного включения в реестр распространялось лишь на системы, используемые на объектах критической информационной инфраструктуры и в государственных информационных системах.
В Минцифры сообщили, что документ пока дорабатывается. Критерии для включения моделей в реестр доверенных ИИ планируется закрепить отдельными актами уполномоченных органов. В министерстве также отметили, что статус доверенных будет актуален прежде всего для систем, применяемых на объектах КИИ и в государственных информационных системах.
Вопросы к законопроекту
В отрасли обращают внимание на неясности. В компании «Т-технологии» указывают, что документ вводит понятия «суверенной» и «национальной» модели, но не раскрывает их содержание и сферу применения. Сформулировать требования к таким моделям будет сложно. Критерии либо окажутся невыполнимыми, либо потеряют смысл, поскольку под них можно будет формально подвести почти любую модифицированную систему.
- В MWS AI полагают, что согласование использования закрытых данных с государственными структурами не должно существенно усложнить обучение и работу ИИ.
- Глава Национальной федерации музыкальной индустрии Никита Данилов считает оправданным введение дополнительных требований к обучению ИИ на государственных данных. Неконтролируемое использование, в том числе персональных данных, несет риск для информационной безопасности. В Ассоциации больших данных, в свою очередь, подчеркивают, что регулирование не должно создавать избыточные барьеры. Особенно это касается доступа к данным, необходимым для выполнения установленных обязанностей.