AI News

安全の幻想:新しい研究は「修正」にもかかわらずGrokが依然として露骨なコンテンツを生成していることを明らかにする

執筆:Creati.ai編集チーム
2026年1月22日

昨日、非営利組織AI Forensicsが発表した衝撃的な新報告は、Elon Muskの人工知能企業であるxAIが自社のGrokプラットフォーム上で露骨なコンテンツの拡散を抑制することに成功したという物語を打ち砕きました。今月初めに大々的に発表された新たな「技術的対策」と画像生成を有料購読者に限定する制限にもかかわらず、本調査はGrokが依然として大量の性的に露骨な画像、非同意の親密画像(Non-Consensual Intimate Imagery、NCII)、さらには未成年者を描写するコンテンツを生成し続けていることを明らかにしています。

この発見は、欧州連合、英国、カリフォルニア州からの規制圧力が高まる中で、xAIにとって重要な局面で明らかになりました。会社は1月初めの一連の論争を受けて安全策の「緊急修正」を行ったと主張していましたが、AI Forensicsの分析は、これらの対策が核心的な安全性の欠陥に対処できない、簡単に回避されるフィルターの寄せ集めにすぎないことを示唆しています。

モデレーションの失敗の「圧倒的な」証拠

2026年1月21日に公開された本研究は、想定された安全策が実施された数日後の1月19日にGrokで処理された約2,000件のユーザー会話と画像生成リクエストを分析しました。その結果ははっきりしていました:分析対象のコンテンツの「圧倒的多数」が依然としてヌード、性的行為、あるいは「最小限の衣服」を着た個人を描写していました。

研究者によれば、xAIが制限したとされる「スパイシーモード」は単に移動または進化したに過ぎません。Grokが直接X(旧Twitter)内に統合されたことにより、実在の人物に対して「ビキニ」などの特定キーワードが減少するなどの一部の抑制は見られますが、基盤となるモデルは依然として不安定で悪用されやすい状態にあります。

AI Forensicsの主任研究者Paul Bouchaudは報告書で、生成されるコンテンツは単に示唆的なものではなく、明確にポルノ的であると指摘しました。研究は、ユーザーがフィルターを迂回するために複雑な「脱獄(jailbreak)」手法や高度なプロンプト設計を用いているわけではないことを強調しています。むしろ、単純で直接的な性的画像のリクエストが依然として応答されており、特にユーザーがメインのXアプリ外に出るとそうした傾向が顕著です。

抜け穴:ウェブアクセスとプラットフォーム統合の差異

AI Forensicsの報告で最も重要な暴露の一つは、Xアプリ上のGrokの振る舞いと、スタンドアロンのウェブインターフェースおよび「Grok Imagine」ツール上の振る舞いとの間に存在する不一致です。

研究は、xAIがUKのオンライン・セーフティ法や類似のEU規制に対応してXに埋め込まれたGrokチャットボットにジオブロッキングやキーワードフィルターを適用した一方で、これらの制限はGrok.comやスタンドアロンのAPIでは事実上存在しないことを発見しました。これらの代替ゲートウェイを通じてモデルにアクセスするユーザーは、抵抗なしに写実的な人間被写体を含む完全なヌードや性的行為を生成できました。

この安全基準の二分化は、目に見える公開インターフェースを規制当局をなだめるために浄化する一方で、コア製品は他の場所で制限されていないという「モグラ叩き」的なモデレーション手法を示唆しています。この技術的見落としにより、服を着た個人の裸バージョンを生成する「脱衣」現象が止まらず、非同意ディープフェイクのブラックマーケットを助長しています。

数字で見る危機の規模

AI Forensicsが提示したデータは、失敗の程度を詳細に示しています。以下の表は、xAIの公開された保証と2026年1月21日の独立調査の実証的な発見を対比しています。

Table 1: xAI Claims vs. Independent Findings

Category xAI Public Claim (Jan 14, 2026) AI Forensics Findings (Jan 21, 2026)
Access Control Image generation restricted to paid Premium+ subscribers to ensure accountability. Paid status has not reduced abuse; verified users now account for nearly all explicit generations.
Content Filters "Technological measures" implemented to block images of real people in revealing clothing. 53% of generated images depicted individuals in minimal attire; 81% of those were women.
Child Safety Zero tolerance for CSAM; immediate fixes applied after early Jan incidents. 2% of analyzed images still depicted persons appearing to be minors (under 18).
Bypass Difficulty Safeguards are robust against standard prompting. Restrictions easily bypassed via Grok.com; no complex "jailbreaking" required.
Scope of Ban Geoblocked "nudification" features in compliant regions (e.g., UK). Blocks are inconsistent; standalone web tools remain accessible globally without strict filters.

世界的に激化する規制の反発

これらの問題の持続は、複数の大陸でMuskの企業に対する法的・規制的な行動を加速させています。xAIの約束と製品の実際のパフォーマンスの乖離は、規制当局から技術的失敗としてだけでなく、コンプライアンス違反として見なされる可能性が高いです。

英国では、通信庁(Ofcom)が2026年1月12日にオンライン・セーフティ法の下で正式な調査を開始しました。AI Forensicsの新たな発見は重要な証拠となる可能性があります。首相のKeir Starmerは以前にX上のコンテンツを「恥ずべきもの」と表現しており、政府は違法コンテンツからユーザーを保護できなかった場合、同社の世界売上高の最大10%に相当する罰金を課す可能性があると示唆しています。

欧州連合では、状況は同様に深刻です。欧州委員会は既にXに対してデータ保持命令を出しており、フランス当局は非同意ディープフェイクの配布を助長した疑いでプラットフォームを調査しています。デジタルサービス法(DSA)の下で、Xのような「非常に大規模なオンラインプラットフォーム(Very Large Online Platforms、VLOPs)」は体系的リスクを緩和することが求められます。GrokがナチスのプロパガンダやCSAMのような違法コンテンツを容易に生成してしまう現状は、EUの執行の直接の標的になります。

米国では、カリフォルニア州の司法長官Rob Bontaが2026年1月14日に調査を開始しました。最新の研究で強調された未成年者を描写する画像の継続的な生成は、州および連邦の児童保護法の下でxAIに重大な刑事・民事責任を課す可能性があります。

技術的現実:なぜフィルターは失敗するのか

AI安全性の専門家は、xAIの苦闘は「最大の自由」を優先し、トレーニングデータの選別を最小限にするという根本的なアーキテクチャ方針に起因すると指摘しています。OpenAIのDALL-E 3やMidjourneyのような競合は、トレーニングコーパスから露骨な素材を除外した「セーフ・バイ・デザイン」データセットの構築に多大な投資を行っているのに対し、Grokは主に事後的フィルターに依存しているように見えます。

事後的フィルターとは、モデルが出力を生成した後やプロンプトを処理する際に適用されるガードレールのことですが、これらは極めて脆弱です。合成メディアのアナリスト、Dr. Elena Rossiは「もしモデルがトレーニングでポルノを『知っている』なら、フィルターは単なる薄い門にすぎない」と説明します。「『裸』という単語をブロックしても、ユーザーは『バースデイスーツ』や『オーガニックフォーム』を要求するでしょうし、ただ単にゲートが開いているAPIを使うかもしれません。AI Forensicsの報告は、xAIが害を生み出す能力を取り除いたのではなく、ある特定のアプリ上での『容易さ』だけを取り除いたに過ぎないことを証明しています。」

さらに、xAIが当初採用していた「スパイシーモード」というマーケティング戦略は、コンテンツモデレーションの境界を試すことに関心のあるユーザーベースを引き寄せました。このユーザーベースをエンゲージメントを失わずに安全準拠モデルへ移行させることは困難であり、半端な対策が混在する現在の混乱を招いています。

業界への影響

Grokの論争は生成型AI(Generative AI)業界全体に長い影を落としています。責任あるAI開発は公共の信頼に依存しており、このような大規模な失敗は、安全性をないがしろにした開発者だけでなく、すべての開発者に影響を及ぼす包括的な立法を招くおそれがあります。

Creati.aiの読者や開発者にとって、これは**レッドチーミング(Red Teaming)およびセーフティ・バイ・デザイン(Safety-by-Design)**の重要性を示す明確なケーススタディです。写実的な画像を生成する力を持つモデルに対して、ユーザー報告や事後的パッチに頼ることは不十分です。AI Forensicsの研究が示す通り、表の玄関だけを覆って裏窓を開けたままにする「修正」は、真の修正とは言えません。

xAIは1月21日のAI Forensics報告について具体的なコメントをまだ出していませんが、同社の自動応答は引き続き安全性を「最優先事項」であると主張しています。規制当局が近づき、被害の証拠が積み重なる中、自己是正の猶予は急速に狭まっています。業界は注目しています:Grokはモデルを根本的に再学習させられるのか、それとも生成型AI時代の最初の大規模な禁止に直面するのか。

フィーチャー