Правила игрыДетали

Нейросеть раздора: почему страны ЕС не могут договориться о правилах использования ИИ и как регулируют сферу в России

В ЕС пройдет четвертый раунд дискуссии об AI Act — законе, устанавливающем правила использования ИИ. Страны-члены не могут договориться о деталях, поэтому Испания, например, предлагает регулировать работу только нейросетей с аудиторией от 45 млн пользователей. 

Что происходит

  • Евросоюз, вероятно, в этом году не сможет принять AI Act — закон, регулирующий использование искусственного интеллекта: у законодателей ЕС не получается согласовать детали документа, пишет Reuters. 
  • Испания, которая председательствует в ЕС до декабря, настаивает на скорейшей ратификации Акта и предлагает компромиссы в попытке ускорить процесс: в частности, регулировать только те нейросети, у которых более 45 млн пользователей. Противники этой инициативы резонно отмечают, что платформы с меньшим числом пользователей «могут представлять не меньшую опасность». 
  • Кроме того, Испания лоббирует еще один пункт: «регулярную проверку работы ChatGPT» для выявления потенциальных угроз и утечек информации. К слову, в апреле Испанское агентство по защите данных (AEPD) начало предварительное расследование в отношении американской OpenAI — компании-разработчика ChatGPT. А затем несколько крупных испанских компаний ввели запрет на использование чат-бота — из-за «угрозы утечек информации». 

История вопроса

  • ЕС начал работу над законопроектом AI Act еще в 2021 году. В мае 2023-го Европейский парламент согласовал документ: его поддержали два профильных комитета — по гражданским свободам и внутреннему рынку. 
  • Законодатели предлагают разделять все системы, основанные на ИИ, на четыре категории по уровню риска для здоровья, безопасности или прав людей: минимальный (или полное его отсутствие), ограниченный, высокий и неприемлемый. 
  • ИИ-системы с минимальным риском (например, игры) будут работать без ограничений. 
  • Если система получит статус «ограниченного» риска (в эту группу могут войти чат-бот ChatGPT и нейросеть Midjourney), то ее разработчики должны будут соблюдать требования прозрачности: пользователей должны информировать о том, что перед ними — продукт, сгенерированный ИИ. Кроме того, провайдеры должны будут документировать и публиковать информацию о соблюдении авторских прав при обучении языковой модели. 
  • К высокорисковым системам (системы оценки работников при найме, беспилотные автомобили и др.) будут предъявлять целый ряд требований, регулирующих процессы сбора и анализа данных, на которых обучается ИИ, правила ведения технической документации и т.д. Подобные сервисы не попадут к конечному пользователю, пока не пройдут самую тщательную экспертную оценку на безопасность.
  • Системы, которые в ЕС сочтут «неприемлемыми», запретят из-за угроз безопасности. Так, в список запрещенных практик уже попал сбор нейросетями биометрических данных из социальных сетей или с камер видеонаблюдения для создания баз данных.
  • В законопроект еще могут внести поправки. На данный момент европейские законодатели провели три дискуссии (с участием Европейского парламента, Совета Европейского союза и Европейской комиссии) по AI Act. Четвертая состоится 24 октября. Однако на этой встрече стороны «вряд ли достигнут соглашения», а пятая дискуссия уже запланирована на начало декабря, отмечает The Verge. 
  • В результате переговоры могут сдвинуться на начало 2024-го, а там дискуссии и вовсе приостановятся — из-за подготовки к выборам в Европейский парламент в июне, пишет Reuters. 

Что говорят

  • Эксперты еще весной 2023-го предупреждали, что трехсторонние переговоры рискуют затянуться. Так, представитель Ассоциации европейских цифровых прав Сара Чандер предположила, что некоторые страны–члены ЕС выступят против запрета на биометрию, поскольку эта технология «необходима для борьбы с преступностью».
  • В то же время в Smart Engines считают, что любая пауза или задержка в одобрении законопроекта фатальна.

Заниматься этим (регулированием использования ИИ. — Прим. ред.) надо было еще лет 10 назад. Хорошо, что вообще спохватились. Все, кому нужно, данные уже собрали. Регулирование необходимо, но эффект будет значительно слабее, чем это было бы 10 лет назад. 

Владимир Арлазаров
генеральный директор Smart Engines
  • Ряд представителей индустрии считают, что правила использования ИИ должны включать не только вопросы информационной безопасности, но и доработку существующих нормативных актов в сфере социальной политики и трудовой занятости.
  • При этом в Институте искусственного интеллекта AIRI отмечают, что «чересчур жесткие ограничения для ИИ в одной части света могут вынудить разработчиков развивать эти технологии там, где ограничения минимальны».

Мировая практика

  • В конце апреля 2023-го стало известно о начале работы стран «Большой семерки» — США, Великобритании, Германии, Японии, Канады, Италии и Франции — над международными стандартами использования ИИ. 
  • А в октябре премьер-министр Японии Фумио Кисида заявил, что лидеры G7 этой осенью проведут онлайн-встречу, чтобы обсудить основные принципы работы для разработчиков ИИ. 

Мы решили к концу года сформулировать международные рекомендации, необходимые для работы с искусственным интеллектом.

Фумио Кисида
премьер-министр Японии 
  • При этом в Японии власти намерены принять проект бюджета, предусматривающий выделение средств на «ускорение развития ИИ и содействие внедрению таких технологий в малом и среднем бизнесе», а также в медицинской сфере.
  • В России еще в 2021 году подписали Кодекс этики ИИ, который носит рекомендательный характер. В документе прописаны основные принципы работы с нейросетями: человеко-ориентированный и гуманистический подход, непричинение вреда и др. 
  • Кроме того, в нацпроект по экономике данных, который правительство планирует утвердить к июлю 2024-го, могут войти нормы о регулировании ИИ. В частности, законодатели предлагают определить, кто будет ответственен за ошибки, допущенные в результате применения ИИ, и создать «единый ИИ-регулятор». Полномочия этого ведомства пока не раскрываются. 
Копировать ссылкуСкопировано