КиберпанкДеталиТехнологии

ИИ поможет мошенникам: с помощью нейросети ChatGPT аферисты научились обманывать пользователей и уже нацелились на госструктуры

Участники форумов в даркнете делятся друг с другом хакерскими инструментами, которые создают с помощью новой нейросети от компании OpenAI.

В России преступники обманывают доверчивых интернет-пользователей с помощью дипфейков, а также продают им то, что бесплатно может сделать алгоритм.

Что происходит

Пользователи даркнета тестируют нейросеть ChatGPT для создания хакерских инструментов и делятся друг с другом результатами. Например, им удалось сгенерировать инструменты для хищения файлов и загрузки вредоносных программ. 

Досье

В конце 2022 года компания OpenAI представила в открытом доступе чат-бот ChatGPT, который умеет отвечать на сложные вопросы, писать коды, искать баги, сочинять музыку и стихи.

За чем следить

Эксперты по кибербезопасности предполагают, что с помощью нейросети можно создать аналоги успешных в прошлом программ-вымогателей, парализовавших многие госведомства и бизнес по всему миру.

В России

Мошенники с помощью нейросетей уже наживаются на россиянах: доверчивым пользователям предлагают сделать за деньги digital-портрет, а сами для его создания используют бесплатные алгоритмы. 

Что происходит

Пользователи форумов в даркнете начали использовать популярную нейрость ChatGPT от OpenA для создания хакерских инструментов. Об этом предупредили специалисты израильской компании Check Point и американской Hold Security, занимающиеся киберразведкой.

  • На одном из форумов, где в том числе распространяют вредоносное ПО для устройств на Android, эксперты обнаружили код, написанный ChatGPT. Программа автономно, без участия злоумышленника, умеет скачивать интересующие его файлы, сжимать их и отправлять по сети. Это могут быть данные банковских карт и расчетных счетов, документы.
  • Хакеры также продемонстрировали созданный нейросетью инструмент, который устанавливает на компьютер бэкдор (с англ. «черный ход»). Он позволяет загружать вредоносные программы без ведома пользователя.
  • Еще один «испытатель» поделился кодом на языке программирования Python, созданным, по его словам, при помощи ChatGPT. Особенность алгоритма в том, что он способен шифровать файлы на пользовательских устройствах и блокировать их. 
  • Также участники форумов рассказывают, что с помощью ChatGPT им удалось создать маркетплейс в даркнете для торговли украденными аккаунтами и данными платежных карт.
  • Кроме того, мошенники пишут о намерении создавать боты, чтобы выдавать их за реальных людей на сайтах знакомств. Таким образом, аферисты планируют без лишних усилий устанавливать контакт с потенциальными жертвами.

Досье

В конце 2022 года американская компания OpenAI представила в открытом доступе новую нейросеть, чат-бот ChatGPT. 

  • Всего за 5 дней нейросеть привлекла внимание 1 млн пользователей. Популярность проекта удивила даже его создателей.
  • ChatGPT анализирует информацию с миллионов сайтов. Обладая огромной базой данных, бот умеет отвечать на вопросы, причем в стилистике живой человеческой речи. По наблюдениям пользователей, качество его ответов выше, чем, например, у поисковой системы Google.
  • Кроме того, алгоритм способен решать математические задачи, генерировать изображения на основе описаний (например, создавать интерьеры), давать прогнозы и советы, включая медицинские, придумывать сценарии, сочинять стихи и музыку, писать эссе. Некоторые интернет-пользователи предполагают, что ChatGPT даже по силам писать качественную художественную и научную литературу.
  • Нейросеть — сама себе программист. Она может создать код за считаные секунды или найти баги в уже существующем. 
  • Некоторые эксперты считают, что ChatGPT кардинально изменит привычную жизнь людей. К примеру, бот может повлиять на образовательный процесс: учебным заведениям придется придумать, чем заменить традиционные сочинения, которые легко может написать нейросеть. 

При этом в OpenAI подчеркивают, что чат-бот не совершенен. 

  • Например, ChatGPT иногда ошибается (в рамках тестирования дал неверный ответ на задачу по алгебре), злоупотребляет определенными фразами и иногда предвзято «рассуждает».
  • Недостатки успели найти и сторонние эксперты. Специалисты, опрошенные изданием Insider, считают, что ChatGPT не может гарантировать достоверность информации, нередко «фантазирует» и не способен различать «добро» и «зло». Это значит, что нейросеть может генерировать ответы, способствующие, к примеру, разжиганию ненависти. 

За чем следить 

Эксперты по кибербезопасности считают, что текущие эксперименты мошенников с ChatGPT — это только начало.

  • В компании Forescout заявили, что пока не видят предпосылок для создания опасных вирусов-вымогателей, ChatGPT подойдет для генерации более простых, но тоже весьма эффективных хакерских инструментов.
  • Эксперты опасаются появления программ вроде Conti. За 2021 год различные службы безопасности США вместе с ФБР зафиксировали свыше 400 атак на организации по всему миру, включая сети здравоохранения и экстренные службы, с использованием Conti. Взломы совершались с целью выкупа. Например, в мае 2021 года разрушительной атаке подверглась вся система здравоохранения Ирландии. Для защиты профильные ведомства отключили часть серверов, из-за чего несколько дней онкопациенты не могли записаться на лучевую терапию. Кроме того, не обновлялась статистика по заболеваемости COVID-19. При этом власти Ирландии отказались платить выкуп.
  • В Check Point предположили, что нейросеть особенно удобна для мошенников, не владеющих английским. К примеру, с ее помощью можно создать фишинговые письма с целью выманить информацию, которые написаны максимально правдоподобно.

В России

Мошенники с помощью нейросетей уже пытаются нажиться на россиянах. 

  • В конце 2022 года в Сети стали появляться объявления с предложениями нарисовать digital-портрет, например в стиле аниме, за 300–3500 рублей. При этом изображение создает нейросеть, причем бесплатно — в интернете доступно множество графических нейросетей вроде Stable Diffusion
  • Еще раньше аферисты начали обманывать особо доверчивых россиян с помощью дипфейков. Пользуясь нейросетями, преступники создают поддельные видео определенного человека и по видеосвязи выманивают крупные суммы денег у его родственников, друзей или коллег. В других случаях мошенники создают видео с компрометирующим содержанием и шантажируют «запечатленную» на нем жертву. Эксперты отметили, что для создания таких роликов не нужны даже реальные видео с потенциальной жертвой, достаточно большого числа фотографий.

Для борьбы с такими мошенниками в Национальном исследовательском университете ИТМО разработали «систему распознавания видеолжи». Expert анализирует уверенность человека на записи, уровень агрессии, согласованность вербальной и невербальной передачи информации, противоречивость высказываний. Изначально был выбран английский язык как самый распространенный, объясняют разработчики. В дальнейшем планируется адаптировать систему под русскую речь. Технологию еще не тестировали, но ей уже заинтересовался Роскомнадзор.

Копировать ссылкуСкопировано