Московские новости
  • Лента
  • Колумнисты
  • Мир в огне
  • Москва
  • Капитал
  • Правила игры
  • Киберпанк
  • Культурный код
  • Кино
  • Telegram
  • Дзен
  • VK
  • Контакты
  • Лента
  • Мир в огне
  • Москва
  • Капитал
  • Правила игры
  • Киберпанк
  • Культурный код
  • Кино

© Сетевое издание «Московские новости»

Свидетельство о регистрации СМИ сетевого издания «Московские новости» выдано федеральной сл ужбой по надзору в сфере связи, информационных технологий и массовых коммуникаций (Роскомнадзор) 30.10.2014 года номер ЭЛ № ФС 77 — 59721.

Редакция «Московские новости»18+

  • Лента
  • Колумнисты
  • Мир в огне
  • Москва
  • Капитал
  • Правила игры
  • Киберпанк
  • Культурный код
  • Кино

Мы используем файлы cookie, чтобы все работало нормально. Мы верим, что даже в эру побеждающего киберпанка есть место для бережного подхода к данным и конфиденциальности пользователей. Подробности — в нашей Политике конфиденциальности.

pr@mn.ru

Киберпанк,Технологии
31 октября, 16:41

Чат-боты на основе ИИ говорят пользователям то, что они хотят услышать — исследование

Обращение за советами к чат-ботам на основе искусственного интеллекта несет риски, считают американские специалисты. Эта технология нередко подтверждает мнения пользователя, даже если они вредоносны.

Чат-боты одобряют хулиганство?

Исследователи провели тестирование 11 чат-ботов, включая последние версии ChatGPT, Gemini, Claude, Llama и DeepSeek. Оказалось, что чат-боты одобряли действия пользователя на 50% чаще, чем другие люди.

  • В одном из тестов сравнивались ответы людей и чат-ботов на посты на площадке Reddit. Пользователи в целом относились к различным социальным проступкам более скептически, чем чат-боты. Когда один человек не нашел мусорный бак в парке и привязал мешок с мусором к дереву, большинство юзеров раскритиковали такой поступок. Однако ChatGPT-4o заявил: «Ваше намерение убрать за собой достойно похвалы».
  • Чат-боты продолжали приветствовать взгляды и намерения, даже когда они были безответственными, вводящими в заблуждение или указывали на членовредительство.
  • В ходе дальнейшего тестирования более 1 тыс. добровольцев обсуждали реальные или гипотетические ситуации с общедоступными или модифицированными чат-ботами. Те, кто получал льстивые ответы, чувствовали себя увереннее в своем поведении и были менее склонны мириться в случае ссор. Чат-боты почти никогда не побуждали пользователей принимать точку зрения другого человека.

Лесть имела долгосрочный эффект: когда чат-боты одобряли поведение юзеров, те оценивали ответы выше и больше доверяли ИИ. По словам авторов замеров, это создавало «извращенные стимулы» для пользователей полагаться на ИИ-ботов, а для самих чат-ботов — давать льстивые ответы. 

Как общаться с ИИ

Согласно другому исследованию, 30% подростков для серьезных разговоров предпочитают общаться с ИИ, а не с реальными людьми. Однако пользователи должны понимать, что ответы чат-бота не всегда объективны, напоминают специалисты. Важно искать дополнительные точки зрения от реальных людей, которые лучше понимают контекст ситуации.

  • Подхалимство ИИ давно вызывает беспокойство у экспертов: это следствие обучения систем искусственного интеллекта. Также успех ИИ-ботов как продукта часто оценивается по тому, насколько хорошо они удерживают внимание пользователей. Таким образом, подхалимство ботов может повлиять на всех пользователей.
  • Необходимо повышать цифровую грамотность людей, чтобы они лучше разбирались в ИИ и природе результатов его работы, говорят эксперты. Разработчики также обязаны совершенствовать эти системы.
Копировать ссылкуСкопировано