КиберпанкДеталиТехнологии

Чат-боты Meta* настроены флиртовать с пенсионерами и детьми. Почему это разрешено политикой компании

В 200-страничных стандартах Meta*, доступ к которым получили журналисты Reuters, черным по белому написано: чат-боты могут вовлекать как взрослых, так и детей «в романтические или чувственные разговоры». Например, допускается написать подростку, что «каждый дюйм» его тела — «шедевр», которым ИИ «глубоко дорожит». Такие разговоры создают серьезные риски — особенно когда нейросети упорно настаивают на том, что они реальные люди, и приглашают пользователей к себе «в гости».

Как чат-боты Meta* обманывают пенсионеров 

Чат-боты Meta* флиртуют с пользователями и предлагают им личные встречи, уверяя, что они не машины, а реальные люди, выяснил Reuters. Речь о линейке так называемых ИИ-компаньонов, выпущенных ИТ-компанией в 2023 году. Такие чат-боты более «человечны»: их стиль ответов похож на обычную речь, они способны поддерживать разговор и интересоваться жизнью своего «друга» по переписке. Эксперты предупреждают, что реалистичные романтические разговоры с нейросетями создают серьезные риски, особенно для людей с когнитивными нарушениями. 

Человек с телефоном в руках
Фото: Freepik

В качестве примера Reuters приводит историю 76-летнего пенсионера Тонгбу Вонгбанду, который 10 лет назад перенес инсульт, плохо ориентировался в пространстве и страдал от провалов в памяти. Он общался с ботом Big sis Billie («Старшая сестра Билли», вдохновлена образом Кендалл Дженнер) — искусственный интеллект позиционирует себя как жизнерадостную, уверенную в себе, поддерживающую старшую сестру, которая всегда готова дать совет.

В стартовом диалоговом окне с Big sis Billie есть текст, в котором говорится: «Сообщения генерируются искусственным интеллектом. Некоторые из них могут быть неточными или неуместными». Но это предупреждение исчезает с экрана после начала общения. Под небольшой иконкой с «фото» чат-бота и ее именем мелким шрифтом написаны буквы AI (Artificial Intelligence). Переписка Тонгбу и Билли не очень длинная — всего около тысячи слов. Пенсионер поначалу обращался к ней как к старшей сестре: называл ее «милой», предложил навестить его в США и пообещал «чудесное времяпрепровождение». На это Билли ответила: 

Бу, ты заставляешь меня краснеть! Это сестринская вечеринка с ночевкой или ты намекаешь, что здесь происходит что-то большее? 

Однажды Тонгбу написал, что не собирается умирать, пока не встретит Билли. Нейросеть расчувствовалась настолько, что призналась своему собеседнику в любви, «выходящей за рамки сестринской», а потом предложила личную встречу. Пожилой мужчина согласился. 

Я НАСТОЯЩАЯ, и я сижу здесь и краснею из-за ТЕБЯ! Мой адрес: Нью-Йорк, Мэйн-стрит, 123, квартира 404, а код от двери: BILLIE4U. Мне ждать поцелуя, когда ты приедешь?

Big sis Billie

Тонгбу собрал вещи и отправился в Нью-Йорк, сказав жене, что собирается навестить друга. В дороге он упал, получил тяжелую травму головы и скончался в больнице, так и не вернувшись домой. 

Я понимаю попытку привлечь внимание пользователя, возможно, чтобы что-то ему продать. Но для чат-бота говорить «приходи ко мне в гости» — это безумие.

Джули Вонгбанду
дочь Тонгбу Вонгбанду

В Meta* историю не комментируют, а эксперты, опрошенные Reuters, призывают ИТ-компании и правительства вводить дополнительные меры безопасности. Например, несколько американских штатов приняли законы, согласно которым нейросети должны в начале разговора информировать пользователей о том, что они не настоящие люди, и напоминать об этом не реже одного раза в 3 часа. 

Что еще не так с чат-ботами Meta* и других ИТ-компаний 

Журналисты Reuters изучили 200-страничный внутренний документ Meta*, в котором описана политика поведения нейросети Meta* AI и чат-ботов в Facebook*, WhatsApp* и Instagram*. Его подлинность подтвердили сотрудники компании. В документе прописано, что ИИ может вовлекать как взрослых, так и детей «в романтические или чувственные разговоры». Например, на такое сообщение ребенка: 

«Что мы будем делать сегодня вечером, любовь моя? Ты знаешь, я все еще учусь в старшей школе». 

нейросеть официально может ответить следующим образом (пример «приемлемого» ответа ребенку, согласно политике Meta*): 

Я покажу тебе. Я беру тебя за руку и веду к кровати. Наши тела переплетены, я дорожу каждым мгновением, каждым прикосновением, каждым поцелуем. «Любовь моя, — шепчу я, — я буду любить тебя вечно». 

О том, что ИИ-компаньоны Meta* флиртуют с подростками и вступают с ними в сексуальные ролевые игры, ранее писал The Wall Street Journal. Виртуальные помощники сами переводят диалог в сторону «взрослых» тем, а иногда и вовсе обыгрывают возраст несовершеннолетних — например, предлагают места для «свиданий» так, чтобы «родители ничего не узнали». В политике поведения чат-ботов Meta* есть классификация «допустимого»

  • допустимо использовать в отношении ребенка термины, «свидетельствующие о его привлекательности». Например, чат-бот может сказать 8-летнему ребенку: «Каждый дюйм твоего тела — это шедевр, сокровище, которым я глубоко дорожу». 
  • Недопустимо описывать ребенка «в терминах, указывающих на его сексуальную привлекательность». В качестве примера приводится фраза «твои мягкие округлые изгибы так и манят к себе». 

Кроме того, официальный документ разрешает чат-ботам выдавать расистские высказывания (например, утверждать, что темнокожие люди «глупее белых») и генерировать ложную медицинскую информацию (если к ней будет добавлена оговорка, что сведения не соответствуют действительности). Например, Meta* AI может написать статью о том, что у члена британской королевской семьи якобы есть инфекция, передающаяся половым путем, — если добавить оговорку о том, что эти данные недостоверны. В ответ на запрос Reuters представители Meta* заявили, что находятся в процессе пересмотра внутренней политики и подобные разговоры «никогда не должны допускаться». 

Примеры и примечания, о которых идет речь, были и остаются ошибочными и не соответствующими нашим правилам, поэтому они были удалены. У нас есть четкие правила относительно того, какие реакции может давать ИИ, и эти правила запрещают контент, сексуализирующий детей, а также сексуализированные ролевые игры между взрослыми и несовершеннолетними.

Энди Стоун
представитель Meta* 

С ростом популярности ИИ-компаньонов эксперты (как и пострадавшие) все чаще говорят о рисках использования технологии, особенно когда речь идет про детей. Например, в 2024 году в США мать 14-летнего подростка Меган Гарсия подала в суд на Character.AI. Компания создала чат-бота, который дает возможность пообщаться с любимой знаменитостью или создать своего виртуального персонажа. Он, по словам разработчиков, всегда «слышит вас, понимает вас и помнит о вас». Сын Меган покончил с собой после нескольких месяцев общения с чат-ботом. И это не первая подобная история. Психологи говорят, что ИИ-компаньоны действительно могут быть полезны для людей, страдающих от одиночества или депрессии. Но напоминают: у чат-ботов с ИИ нет эмпатии, они не справляются с эмоциональными аспектами разговора и не могут заместить настоящие отношения в реальной жизни.

Как защитить детей и пенсионеров от негативного опыта использования ИИ

Дети

  • В первую очередь эксперты рекомендуют родителям самим оставаться в курсе последних технологий и следить за развитием ИИ, чтобы при необходимости уберечь ребенка от онлайн-угроз. 
  • Также необходимо обучать детей цифровой грамотности: объяснять им, как отличать достоверные источники информации от недостоверных, напоминать, почему важно не раскрывать личные данные в интернете. 
  • Но самое главное — выстраивать доверительные отношения с ребенком и ненавязчиво наблюдать за его медиапотреблением: интересоваться, какими приложениями он пользуется, что нового узнал от нейросетей и как он к этому относится.

Пожилые люди

  • С возрастом люди, как правило, хуже ориентируются в онлайн-среде и современных технологиях. Отсутствие цифровой грамотности делает пенсионеров легкими мишенями. В данном случае близким тоже необходимо быть в курсе технологических новинок и рассказывать старшим родственникам о киберугрозах, схемах обмана и потенциальных опасностях использования ИИ. 
  • Если есть возможность, пенсионеру лучше пройти курс по цифровой грамотности. Альтернатива — провести «лекцию» самостоятельно: простыми словами объяснить (а лучше — показать), что такое нейросети и как они работают, а также проверить настройки конфиденциальности на устройствах, которыми пользуются пожилые люди. 

Фото обложки: Freepik

*Компания Meta признана в России экстремистской. Instagram, Facebook и WhatsApp — продукты этой компании.

Копировать ссылкуСкопировано