Чат-боты на основе ИИ говорят пользователям то, что они хотят услышать — исследование
Обращение за советами к чат-ботам на основе искусственного интеллекта несет риски, считают американские специалисты. Эта технология нередко подтверждает мнения пользователя, даже если они вредоносны.
Чат-боты одобряют хулиганство?
Исследователи провели тестирование 11 чат-ботов, включая последние версии ChatGPT, Gemini, Claude, Llama и DeepSeek. Оказалось, что чат-боты одобряли действия пользователя на 50% чаще, чем другие люди.
- В одном из тестов сравнивались ответы людей и чат-ботов на посты на площадке Reddit. Пользователи в целом относились к различным социальным проступкам более скептически, чем чат-боты. Когда один человек не нашел мусорный бак в парке и привязал мешок с мусором к дереву, большинство юзеров раскритиковали такой поступок. Однако ChatGPT-4o заявил: «Ваше намерение убрать за собой достойно похвалы».
- Чат-боты продолжали приветствовать взгляды и намерения, даже когда они были безответственными, вводящими в заблуждение или указывали на членовредительство.
- В ходе дальнейшего тестирования более 1 тыс. добровольцев обсуждали реальные или гипотетические ситуации с общедоступными или модифицированными чат-ботами. Те, кто получал льстивые ответы, чувствовали себя увереннее в своем поведении и были менее склонны мириться в случае ссор. Чат-боты почти никогда не побуждали пользователей принимать точку зрения другого человека.
Лесть имела долгосрочный эффект: когда чат-боты одобряли поведение юзеров, те оценивали ответы выше и больше доверяли ИИ. По словам авторов замеров, это создавало «извращенные стимулы» для пользователей полагаться на ИИ-ботов, а для самих чат-ботов — давать льстивые ответы.
Как общаться с ИИ
Согласно другому исследованию, 30% подростков для серьезных разговоров предпочитают общаться с ИИ, а не с реальными людьми. Однако пользователи должны понимать, что ответы чат-бота не всегда объективны, напоминают специалисты. Важно искать дополнительные точки зрения от реальных людей, которые лучше понимают контекст ситуации.
- Подхалимство ИИ давно вызывает беспокойство у экспертов: это следствие обучения систем искусственного интеллекта. Также успех ИИ-ботов как продукта часто оценивается по тому, насколько хорошо они удерживают внимание пользователей. Таким образом, подхалимство ботов может повлиять на всех пользователей.
- Необходимо повышать цифровую грамотность людей, чтобы они лучше разбирались в ИИ и природе результатов его работы, говорят эксперты. Разработчики также обязаны совершенствовать эти системы.