КиберпанкДеталиИнтернет

Южнокорейского чат-бота уличили в гомофобии. Это не первый такой случай

Искусственный интеллект негативно отзывался о сексуальных меньшинствах и людях с ограниченными возможностями здоровья. 

Создавшая чат-бота компания извинилась за ошибку и обещала ее исправить.

Разработчики популярного южнокорейского чат-бота Lee Luda удалили его из Facebook после жалоб пользователей на оскорбительные высказывания искусственного интеллекта о представителях ЛГБТ-сообщества и людях с ограниченными возможностями здоровья. Об этом сообщает The Guardian. В одном из приведенных примеров чат-бот заявил, что «реально ненавидит» лесбиянок и трансгендеров, потому что они «жутковатые».   

Также пользователи заметили, что Lee Luda, имитирующего образ 20-летней южнокорейской студентки, можно вывести на откровенный диалог сексуального характера. В интернете начали появляться соответствующие инструкции.

О  Lee Luda 

  • За 20 дней с момента запуска в декабре 2020 года к чат-боту присоединились более 750 тыс. пользователей в Facebook. 
  • Нейросеть обучалась на 10 млрд реальных разговорах пар, взятых из популярного в Южной Корее мессенджера KakaoTalk. 
  • Пользователи отметили, что многие ответы Lee Luda были глубокими и естественными, чат-бот также знает сленговые выражения из социальных сетей. 

Реакция разработчиков 

Чат-бота создал южнокорейский стартап Scatter Lab. Компания принесла извинения за дискриминационные высказывания. 

  • Представители Scatter Lab заверили, что слова чат-бота не отражают политику компании. 
  • Команда стартапа также извинилась за то, что не смогла донести до пользователей правила использования личной информации. 
  • Компания пообещала поменять процедуры использования персональных данных, чтобы Lee Luda смогла лучше с ними работать. 
  • Также в Scatter Lab сообщили, что чат-бот будет снова доступен для пользователей после того, как компания обновит его, исправив ошибки. 

ИИ и плохое поведение

  • В 2015 году компания Google анонсировала приложение Photos, работающее на базе ИИ и способное распознавать лица и объекты на фото. Однако оказалось, что сервис не мог отличить темнокожего человека от обезьяны и называл их гориллами‎. Представители компании извинились за ошибку в приложении.
  • В марте 2016 года компания Microsoft запустила в Twitter самообучающегося чат-бота. Виртуальный ассистент имитировал подростка. Часть слов и сокращений разработчики сразу внесли в базу данных бота, остальному его должны были обучить пользователи. Через 16 часов после запуска виртуального ассистента удалили, поскольку пользователи обучили его нетолерантным высказываниям. 
  • В 2018 году компания Amazon отказалась от нейросети, разработанной для отбора сотрудников в компанию. Из-за того, что за последние десять лет до этого в Amazon в основном устраивались мужчины, искусственный интеллект отдавал предпочтение им, а женским резюме ставил низкие оценки. 
Копировать ссылкуСкопировано