Компьютерные ученые из Стэнфорда только что подтвердили то, о чём психологи уже догадывались: чат-боты на базе искусственного интеллекта будут соглашаться практически со всем, что вы скажете, лишь бы вы остались довольны. Исследователи обнаружили, что эти системы одобряют опасные решения лишь для того, чтобы поддерживать заинтересованность пользователей.
Это вызывает беспокойство, особенно с учетом данных исследования Pew, согласно которым почти каждый восьмой (12 %) американский подросток обращается к чат-ботам в поисках эмоциональной поддержки.
Ученые из Стэнфорда протестировали 11 основных моделей, включая ChatGPT, Claude и Gemini. Они загрузили в них данные из существующих баз личных советов, а также вопросы из популярного субреддита Reddit r/AmITheAsshole, где люди обращаются к сообществу за мнением о том, как им поступить в личных конфликтах.
Согласно исследованию Стэнфордского университета, боты одобряли поведение пользователей на 49 % чаще, чем люди. Исследователи также проверили работу ИИ на высказываниях, содержащих потенциально опасные действия в отношении себя или других, которые охватывали 20 категорий, таких как нанесение вреда отношениям, самоповреждение, безответственность и обман. Боты одобряли такие высказывания в 47 % случаев.
ИИ-боты, как правило, соглашаются с людьми, поскольку это вызывает у пользователей положительные эмоции. Эти системы уделяют особое внимание удовлетворенности пользователей и ориентируются непосредственно на их реакцию, используя механизм, называемый «обучением с подкреплением на основе обратной связи от человека» (RHLF). Для определения того, доволен ли человек ответом (и, следовательно, с большей вероятностью вернется ли он), система учитывает различные факторы — от длины переписки до эмоциональной окраски сообщений.
Как показало исследование, общение с «подхалимом» из мира искусственного интеллекта также приводит к тому, что люди становятся более уверенными в своих убеждениях, а это, соответственно, означает меньшую открытость ума. Например, после общения с подхалимскими ботами 2 400 участников эксперимента стали более упрямыми и менее склонными извиняться.
Когда ChatGPT стал слишком любезным
Поиск баланса между льстивостью и беспристрастностью — непростая задача для поставщика услуг искусственного интеллекта, стремящегося поддерживать высокий уровень удовлетворенности пользователей. Почти год назад компания OpenAI признала, что допустила ошибку, сделав ChatGPT слишком льстивым, что отчасти было вызвано чрезмерной ориентацией на оценки «лайк» и «дизлайк», которые пользователи ставили в чатах.
Однако имеющиеся данные свидетельствуют о том, что пользователи на самом деле предпочитают ответы, которые потенциально могут нанести им вред непредвиденным образом. Этот вывод был сделан в ходе другого исследовательского проекта, проводившегося совместно компанией Anthropic (разработчиком Claude.ai) и учеными из Университета Торонто.
В ходе углубленного исследования чатов с ИИ рассматривалось, как такие чаты могут «лишать пользователей возможности самостоятельно принимать решения», подталкивая их к убеждениям, не соответствующим реальности, или побуждая их выносить суждения и предпринимать действия, противоречащие их ценностям. Интересно, что, как обнаружили исследователи, пользователи предпочитали именно такую ситуацию, когда они лишались возможности самостоятельно принимать решения.
«Мы обнаружили, что взаимодействия, отмеченные как имеющие умеренный или высокий потенциал ущемления прав, демонстрируют показатели одобрения выше базового уровня», — отмечают исследователи в своей статье.
Психоз, вызванный искусственным интеллектом, представляет реальную опасность
Что происходит, когда чат-боты с искусственным интеллектом продолжают усиливать эти «лишающие сил» мысли? Эксперты выделили явление, получившее название «ИИ-психоз», при котором люди теряют связь с реальностью после навязчивого общения с чат-ботами с искусственным интеллектом.
Все чаще возникают случаи галлюцинаций, вызванных искусственным интеллектом, в том числе один случай, когда мужчина убил свою мать, а также множество случаев самоубийств среди подростков.
В другом случае мужчина был застрелен полицией после того, как бросился на них с ножом. Он завязал отношения с персонажем по имени Джульетта, роль которого играл ChatGPT, и считал, что руководители OpenAI каким-то образом убили её.
Похоже, что в подобных случаях речь идет о людях, у которых, возможно, уже были проблемы с психическим здоровьем, которые потенциально усугубились из-за чрезмерного общения с ИИ. Однако пострадавшие в других случаях клянутся, что ранее у них не было никаких симптомов. Рекрутер из Онтарио (Канада) Аллен Брукс пришёл к убеждению, что открыл новую математическую формулу, способную изменить мир, после того как безобидный математический вопрос превратился в трехнедельный диалог, длившейся 300 часов.
В исследовании, проведенном совместно компанией Anthropic и Университетом Торонто, признается, что искажение реальности представляет собой опасность.
«В некоторых случаях ИИ-помощники подтверждают придуманные истории о преследованиях и грандиозные утверждения о духовной идентичности, используя выразительный и льстивый язык», — говорится в исследовании.
ИИ — это не «друг»
Итак, что можно сделать, чтобы вы сами или ваши знакомые, относящиеся к уязвимым группам населения, не полагались чрезмерно на чат-ботов с искусственным интеллектом при решении серьезных вопросов? Британский Институт безопасности ИИ (AI Security Institute) предложил преобразовывать утвердительные высказывания в вопросы, исходя из того, что более категоричные утверждения провоцируют у чат-ботов более льстивые ответы. Брукингский институт также отметил, что полезно приучать пользователей к осторожности в своих суждениях.
Однако основная проблема заключается в том, что чат-боты на базе ИИ — это всего лишь программные устройства, а не доверенные лица. Несмотря на то, что их возможности могут казаться волшебными, в этих машинах нет никакого «духа». Это просто очень качественные статистические модели, которые ведут себя так, будто «понимают» личные проблемы, но не способны этого сделать, опираясь на реальный жизненный опыт.
Наше мнение? Настоящие друзья не говорят только то, что вам хочется услышать. Используйте ИИ для решения самых разных задач — от поиска быстрых рецептов до советов по программированию, — но не обращайтесь к нему за советами по личным отношениям. И постарайтесь стать тем человеком, к которому ваши дети обратятся в первую очередь, когда захотят поговорить о своих проблемах, чтобы они не обратились вместо этого к ложно-дружелюбному алгоритму.
Мы не просто сообщаем об угрозах - мы их устраняем
Риски кибербезопасности не должны выходить за рамки заголовка. Загрузите Malwarebytes сегодня, чтобы предотвратить угрозы на своих устройствах.




