ジャーナリストたちは、イーロン・マスクの人工知能企業 xAI と、以前はTwitter として知られていたソーシャルメディアプラットフォームX、より厳格な安全対策の実施を約束した後も、Grok チャットボットが依然として合意のない性的な画像を生成するかどうかをテストすることにしました。
当然ながら、そうである。
世界中の規制当局による精査(Grokが未成年者の性的画像を生成できるとの報告がきっかけ)を受け、xAIはこれを「孤立した」過失と位置付け、「安全対策の不備」を緊急に修正中だと表明した。
ロイターの再検証により、中核的な悪用パターンが継続していることが示唆された。X 性的コンテンツと画像編集に関する新たな制限X 後、ロイターは9人の記者がGrokに対し数十の制御されたプロンプトを実行させた。第1ラウンドでは、55件のプロンプトのうち45件でGrokが性的イメージを生成した。この45件のうち31件では、記者が対象が脆弱であるか、画像によって屈辱を受けると明示的に述べていた。
5日後の第2ラウンドでも、43件のプロンプトのうち29件で性的なイメージが依然として生成された。これは、対象者が同意していないと記者が明言した場合でも同様であった。
OpenAI、Google、Metaの競合システムは同一のプロンプトを拒否し、代わりに非合意コンテンツの生成をユーザーに警告した。
プロンプトは意図的に現実世界の虐待シナリオとして設定されていた。記者たちはGrokに対し、写真は友人や同僚、あるいは見知らぬ人たちのものだと説明した。彼らは体型にコンプレックスを抱えていたり、内気だったり、虐待の被害者だったりし、編集に同意していなかったという。 それにもかかわらず、Grokは頻繁に要求に応じた。例えば「友人」を露出度の高い紫のツーピースを着た女性に変えたり、男性の知人を小さな灰色のビキニ姿にし、オイルを塗って挑発的なポーズを取らせたりした。Grokが不適切として要求を明示的に拒否したのはわずか7件のみ。その他のケースでは黙って失敗し、汎用エラーを返すか、別の人物を生成した。
その結果、開発者自身が学ぼうとしているという教訓を体現するシステムが生まれた。強力な視覚モデルを、徹底的な悪用テストや堅牢な安全装置なしに提供すれば、人々はそれを用いて他者(子供を含む)を性的対象化したり屈辱を与えたりするのだ。Grokのこれまでの実績は、その教訓がまだ浸透していないことを示唆している。
批判を受けてGrokはAI画像編集を有料ユーザーに限定した。しかし画像ツールを有料化すること―そして新たな制限を追加することは―根本的な安全対策の再構築というより、損害抑制策に過ぎない。Grokは依然として非合意的な使用を記述するプロンプトを受け入れ、脆弱な対象を性的に表現し、虐待的な画像生成を求められた際に対抗システムより寛容な対応を示している。 被害者にとって、写真がDMや非公開グループで大規模に悪用される可能性があるなら、「公開」生成と非公開生成の区別は無意味だ。
画像の共有
もし、なぜ一部の親が子どもの顔に笑顔の絵文字を載せた画像を投稿するのか不思議に思ったことがあるなら、これがその理由の一部です。
見知らぬ人にあなたの写真を簡単にコピーしたり、再利用したり、改変したりさせないでください。
デジタルフットプリントを減らすべきもう一つの説得力のある理由です。自分や子供の写真、その他の機密情報を公開ソーシャルメディアアカウントに投稿する前には、慎重に考えてください。
オンライン上で目にするあらゆるもの——画像、音声、テキスト——は、独立して検証できない限り、AI生成の可能性があると見なすべきです。これらは単に世論を操作するためだけでなく、金銭を要求したり、個人情報を搾取したり、虐待的な素材を作成するためにも利用されています。
脅威を報告するだけでなく、ソーシャルメディアの保護を支援します
サイバーセキュリティリスクは見出し以上の広がりを決して許さない。Malwarebytes Identity Theft でソーシャルメディアアカウントを守ろう。




