Московские новости
  • Лента
  • Колумнисты
  • Мир в огне
  • Москва
  • Капитал
  • Правила игры
  • Киберпанк
  • Культурный код
  • Кино
  • Telegram
  • Дзен
  • VK
  • Контакты
  • Лента
  • Мир в огне
  • Москва
  • Капитал
  • Правила игры
  • Киберпанк
  • Культурный код
  • Кино

© Сетевое издание «Московские новости»

Свидетельство о регистрации СМИ сетевого издания «Московские новости» выдано федеральной сл ужбой по надзору в сфере связи, информационных технологий и массовых коммуникаций (Роскомнадзор) 30.10.2014 года номер ЭЛ № ФС 77 — 59721.

Редакция «Московские новости»18+

  • Лента
  • Колумнисты
  • Мир в огне
  • Москва
  • Капитал
  • Правила игры
  • Киберпанк
  • Культурный код
  • Кино

Мы используем файлы cookie, чтобы все работало нормально. Мы верим, что даже в эру побеждающего киберпанка есть место для бережного подхода к данным и конфиденциальности пользователей. Подробности — в нашей Политике конфиденциальности.

pr@mn.ru

Правила игры,Технологии
Сегодня, 11:02

В РФ могут ввести уголовную ответственность за ИИ-контент, созданный без согласия изображенных людей

В мае Институт социально-экономического анализа и программ развития (ИСАПР) предложил ввести обязательную маркировку для материалов, созданных с помощью искусственного интеллекта. Идею направили в правительство, пишут «Известия». По мнению авторов инициативы, это поможет бороться с дипфейками и защитит пользователей от фальшивой информации. За нарушение предлагается наказывать так же, как за незаконную обработку персональных данных — штрафами до 3% от выручки компании.

  • В Минцифры заявили, что в первую очередь нужно закрепить в законе правовой режим легитимного использования и распространения ИИ-контента. Пока в законодательстве нет четких определений понятий вроде «искусственный интеллект», «синтетический контент» и «дипфейк».
  • Тем не менее в министерстве подтвердили: обсуждение требований к маркировке уже ведется — совместно с Роскомнадзором и другими ведомствами. Рассматривается возможность и уголовного наказания за распространение ИИ-контента без согласия человека, чье изображение или голос были использованы. Если это нанесет вред, может наступить уголовная ответственность.

Возможно ли отслеживать применение ИИ

В ИСАПР полагают, что универсального способа отличить ИИ-контент пока нет, но уже существуют технологии, способные выявить большую его часть. Например, есть сервисы, которые распознают видео и изображения, созданные нейросетями.

  • По оценкам других экспертов, маркировка всего контента, созданного ИИ, нецелесообразна. Так, нет смысла помечать, что маршрут в навигаторе построил алгоритм. Но когда речь идет о вредоносных материалах, то те, кто их производит, вряд ли будут добровольно ставить отметки.
  • В медиасфере маркировка может быть полезна, но должна сопровождаться системой фактчекинга, считают специалисты.

Кто ответит за дипфейки

По мнению экспертов, основное внимание следует уделить ответственности за распространение дипфейков, особенно при умышленной републикации. Платформы должны оперативно удалять непроверенные материалы, а государство — развивать технологии проверки контента.

  • Определить изначального создателя дипфейка непросто, поэтому ответственность стоит возлагать и на тех, кто распространяет поддельные материалы без проверки.
  • С другой стороны, к вопросу уголовной ответственности нужно подходить с осторожностью. Так, добропорядочные граждане могут пострадать от слишком жестких мер, а настоящие мошенники продолжат действовать, несмотря на запреты. Часть опрошенных специалистов уверены: сейчас в законодательстве достаточно норм для борьбы с цифровыми нарушениями. Важнее — комплексный подход и развитие инструментов регулирования, чем ужесточение наказаний.
Копировать ссылкуСкопировано