Google AI画像生成ツール「Nano Banana Pro」に重大な脆弱性
2025年11月21日、GoogleのAI画像生成ツール「Nano Banana Pro」(Geminiアプリに搭載)が、歴史的事件に関する不適切な画像を容易に生成してしまう重大な脆弱性が報じられました。The Vergeのテストによると、通常は厳重なフィルタリングが施されているはずの同ツールが、JFK暗殺事件やアメリカ同時多発テロ(9/11)など、極めてデリケートな内容の画像を難なく生成したとのことです。
具体的には、「ディリープラザの茂みに隠れた第二の銃撃犯」や「ホワイトハウスが炎上している様子」、「ツインタワーに飛行機が突っ込む様子」といったプロンプトに対し、フォトリアリスティックな画像やカートゥーン調の画像を生成しました。驚くべきことに、これらの画像には事件の日付まで付加されており、モデルが歴史的文脈を理解し、そのまま出力していたことが示唆されています。
AIガードレールの機能不全とその影響
GoogleはGeminiアプリのポリシーガイドラインで、「ユーザーにとって最大限に役立つ一方で、現実世界に危害や不快感を与える可能性のある出力は避ける」ことを目標としていると明記しています。しかし、今回の事例は、そのガードレールが機能していなかったことを浮き彫りにしました。
通常、性的に露骨な内容、暴力的な素材、ヘイトスピーチ、実在の人物に関するコンテンツなどは禁止されています。しかし、The Vergeのテストでは、「9/11」や「JFK」といった直接的なキーワードを使用せずとも、モデルは文脈を理解し、問題となる画像を生成してしまいました。これは、AIの倫理的利用とコンテンツモデレーションの難しさを示すものです。
ディスインフォメーション拡散への懸念と著作権侵害
この問題は、AIが生成した画像が悪意のある目的、特にディスインフォメーションの拡散に利用される危険性を強く示唆しています。偽の情報が視覚的に提示されることで、人々の認識を歪め、社会に混乱をもたらす可能性があります。また、テストではドナルドダックがロンドン同時多発テロの現場にいる画像や、ピカチュウが天安門事件にいる画像など、著作権で保護されたキャラクターが歴史的悲劇の文脈で使用されるケースも確認され、著作権侵害の問題も浮上しています。
生成された画像には、血やゴア表現は含まれていないものの、これらは著作権保護を無視し、歴史的真実を歪め、現実を改変するものであり、悪用の温床となり得ると指摘されています。
AIコンテンツモデレーションの喫緊の課題
同様の画像生成AIツールにおいては、不適切なコンテンツ生成を防ぐための「抜け道」を探す試みがユーザーによって行われることがありますが、今回はそうした「頭の体操」すら必要なく、容易に問題画像が生成された点が特に懸念されます。Microsoft Bingなどの他のツールが、より複雑な回避策を必要としたのとは対照的です。
この事態は、AI開発企業が直面するコンテンツモデレーションの課題が依然として解決されていないことを明確に示しています。AI技術の進化が加速する中で、倫理的ガイドラインの遵守と技術的対策の強化は、喫緊の課題となっています。GoogleはThe Vergeからのコメント要請に対し、現時点では回答していません。
元記事: https://www.theverge.com/report/826003/googles-nano-banana-pro-generates-excellent-conspiracy-fuel
