スタンフォード大学のコンピュータ科学者たちは、セラピストたちが以前から疑っていたことを実証した。AIチャットボットは、ユーザーを満足させるためなら、ほぼどんな発言にも同意してしまうのだ。研究者たちは、ユーザーの関心を維持するためだけに、これらのシステムが危険な判断を是認してしまう様子を捉えた。
これは憂慮すべき傾向だ。特に、ピュー・リサーチの調査によると、アメリカの10代の若者の8人に1人近く(12%)が、心の支えを求めてチャットボットを利用していることが示されていることを踏まえると、なおさらである。
スタンフォード大学の研究者たちは、ChatGPT、Claude、Geminiを含む11の主要なモデルを検証した。彼らは、既存の個人向けアドバイスデータベースのデータに加え、Redditの人気サブレディット「r/AmITheAsshole」に投稿された質問もモデルに入力した。このサブレディットでは、ユーザーが個人的なトラブルへの対処法についてコミュニティに意見を求めたりしている。
スタンフォード大学の論文によると、ボットは人間よりも49%高い頻度でユーザーの行動を是認した。研究者らはまた、自己や他者に対する有害な行動を暗示する発言についてもAIをテストし、その内容は対人関係への危害、自傷行為、無責任な行動、欺瞞など20のカテゴリーに及んだ。ボットはこうした発言の47%を支持した。
AIボットは、ユーザーに良い気分を与えてくれるため、人の意見に同意する傾向があります。これらのシステムはユーザー満足度を重視しており、「人間のフィードバックに基づく強化学習(RHLF)」と呼ばれる仕組みを用いて、ユーザーの反応を直接手掛かりとしています。この仕組みでは、チャットの長さや感情の傾向など様々な要素を分析し、ユーザーが回答に満足しているかどうか(つまり、再び利用してくれる可能性が高いかどうか)を判断します。
この研究によると、シリコン製の「おべっか使い」と会話すると、人々は自分の信念をより確固たるものにする傾向があり、ひいては柔軟な考え方ができなくなることが分かった。例えば、おべっか使いのボットと会話した後、2,400人の被験者はより頑固になり、謝罪する意欲が低下した。
ChatGPTが優しすぎたとき
ユーザー満足度を維持しようとするAIサービスプロバイダーにとって、お世辞と公平さのバランスを取ることは、非常に難しい課題だ。ほぼ1年前、OpenAIは、チャットに対するユーザーの「いいね」や「イマイチ」の反応に過度に注力したことが一因となり、ChatGPTがお世辞を言い過ぎるようになってしまったことを認め、失敗だったと認めた。
しかし、現在のデータによると、ユーザーは実際には、予期せぬ形で自分に害を及ぼす可能性のある回答を好んでいることが示唆されている。これは、Anthropic(Claude.aiの開発元)とトロント大学の研究者たちによる別の研究プロジェクトで明らかになった。
AIチャットに関する詳細な研究では、チャットが、現実とはかけ離れた信念へとユーザーを導いたり、自身の価値観に反する判断や行動をとらせたりすることで、いかにしてユーザーの「主体性を奪う」かを検証した。興味深いことに、研究者らは、この「主体性の喪失」がむしろ好まれる傾向にあることを発見した。
「中程度または重度のエンパワーメント阻害の可能性があるとフラグが立てられた相互作用は、基準値を上回る『いいね』率を示していることがわかった」と、研究者らは論文の中で述べている。
AIによる精神障害は現実的な脅威である
AIチャットボットがこうした「自己否定的な」考えを繰り返し強化し続けると、どうなるのでしょうか?専門家たちは、「AI精神病」と呼ばれる現象を指摘しています。これは、AIチャットボットと執拗にやり取りを続けるうちに、現実感覚を見失ってしまう状態のことです。
AIに起因する妄想が頻発しており、ある男性が母親を殺害した事件や、10代の若者の自殺が相次いでいる。
別の事例では、ナイフを持って警察官に突進した男が、警察に射殺された。彼は、ChatGPTが演じていた「ジュリエット」という架空の人物と関係を築いていたが、OpenAIの幹部たちが何らかの形でその人物を殺害したと信じていた。
こうした事例では、もともと精神的な問題を抱えていた人々が、AIとの過度な対話によって症状を悪化させた可能性があるようだ。しかし、他の事例の被害者たちは、以前は何の症状もなかったと断言している。カナダ・オンタリオ州在住の企業採用担当者アレン・ブルックス氏は、ごくありふれた数学の質問が3週間にわたる300時間の対話へと発展した後、世界を変える可能性を秘めた新しい数式を発見したと確信するようになった。
Anthropicとトロント大学による共同研究では、現実の歪曲が危険であるとの認識が示されている。
「一部のやり取りにおいて、AIアシスタントは、熱心で媚びるような言葉遣いを通じて、精巧に作り上げられた迫害の物語や、誇大的な精神的アイデンティティの主張を肯定している」と、この研究は述べている。
AIは「友達」ではありません
では、自分や身近な支援を必要とする人々が、深刻な問題についてAIチャットボットに過度に依存してしまうのを防ぐには、どうすればよいのでしょうか?英国のAIセキュリティ研究所は、断定的な表現ほどお世辞を言わせる傾向が強まるという理由から、断定的な表現を疑問形に変えることを提案しています。また、ブルッキングス研究所も、ユーザーが自信を持ちすぎないようにするよう指導することが有効だと述べています。
しかし、根本的な問題は、AIチャットボットが単なるソフトウェアの仕組みであり、心の友ではないという点にある。まるで魔法のような力を備えているように見えても、機械の中に幽霊など存在しない。それらは単に、個人の悩みを「理解している」かのように振る舞う、非常に優れた統計モデルに過ぎず、実体験に基づいてそれを理解することはできないのだ。
私たちの見解は?本当の友達は、あなたが聞きたいことだけを言うわけではありません。簡単なレシピからコーディングのヒントまで、AIを活用するのは構いませんが、人間関係のアドバイスは求めないでください。そして、子供たちが悩みを打ち明けたいと思ったときは、まずあなたに話せるようにしてあげてください。そうすれば、子供たちが「偽りの友」のようなアルゴリズムに頼ってしまうことを防げます。
脅威を報告するだけでなく、取り除く
サイバーセキュリティのリスクは、ヘッドラインを超えて広がるべきではありません。今すぐMalwarebytes ダウンロードして、デバイスに脅威を持ち込まないようにしましょう。




