
欧州委員会は、人工知能チャットボットGrokをめぐり、X(旧Twitter)に対して正式に違反手続きを開始しました。2026年1月26日月曜日に発表されたこの重大な規制のエスカレーションは、デジタル・サービス法(Digital Services Act、DSA)の執行における重要な節目となります。委員会の調査は、Grokによって生成された同意のない親密な画像(non-consensual intimate imagery、NCII)やその他の違法コンテンツの作成・拡散を防ぐための十分なリスク軽減策をプラットフォームが実施していなかったという疑義に特に焦点を当てています。
この動きは、ドイツ紙Handelsblattの報道に続くもので、高位のEU当局者を引用し、欧州連合の執行部がコンプライアンス確保のためにデジタル・サービス法(DSA)の全面的な効力を行使する用意があることを伝えています。手続きは、急速なAI開発と欧州規制当局が定めた厳格な安全枠組みとの間で高まる摩擦を浮き彫りにしています。AI業界にとって、このケースは、ソーシャルエコシステムに組み込まれた生成ツールを「超大規模オンラインプラットフォーム(Very Large Online Platforms、VLOPs)」がどのように管理する必要があるかを試す重要なストレステストとなります。
今回の規制強化の直接的なきっかけは、Grokの画像生成機能に関する一連の憂慮すべき報告の波にあるようです。他の多くの競合は実在の人物の画像生成に対して厳格な「拒否」プロトコルを実装しているのに対し、プレミアム加入者向けにXプラットフォームに統合されたGrokは、より緩いガードレールが問題視されてきました。
調査により、このツールが識別可能な個人、公開人物、そしてより深刻なのは未成年者を標的にした「ディープフェイク」ポルノの作成に悪用されたとされる事例が明らかになりました。いわゆる「nudification」事例は、ユーザーが写真の被写体に同意なく服をデジタル上で剥ぎ取るようAIに指示するプロンプトを用いることを含みます。Xは報告によれば緊急パッチを導入し、最近では制御を強化しましたが、欧州委員会の対応は、これらの事後的対処がデジタル・サービス法の求める事前的なリスク管理義務の下では不十分と見なされていることを示唆しています。
EUのテクノロジー責任者であるHenna Virkkunenは、既存のデジタル規則がAI駆動のリスクに完全に適用されることを以前に示唆していました。このようなコンテンツの氾濫は、被害者の尊厳を侵害するだけでなく、未成年者の保護や性別に基づく暴力の防止に関するDSAの特定条項にも違反します。
The デジタル・サービス法は、VLOPsに指定されたプラットフォームに対して特定の義務を課しています。これらの主体は、違法コンテンツの通知を受けた際に削除するだけでなく、体系的なリスクを積極的に評価し軽減しなければなりません。以下の表は、XのGrokが潜在的な不遵守で調査対象となっている具体的な領域を示しています。
Table 1: デジタル・サービス法(DSA)に基づく生成AIのコンプライアンス評価 for 生成AI
| DSA Obligation Category | Specific Requirement | Alleged Compliance Failure |
|---|---|---|
| リスク軽減(第34/35条) | 超大規模オンラインプラットフォーム(VLOPs)は、違法コンテンツの拡散および基本的人権への悪影響に関するリスクを評価しなければなりません。 | 展開前に同意のない親密な画像(NCII)の作成を予見し阻止することに失敗した。 |
| 未成年者の保護(第28条) | プラットフォームは未成年者に対して高いレベルのプライバシー、安全性、セキュリティを確保しなければなりません。 | 堅牢な年齢確認やコンテンツフィルタリングがない状態で、未成年者を描写または標的にする可能性のある性的コンテンツを生成できる状態にGrokがあった。 |
| 危機対応メカニズム | 公共の安全や治安に影響を与える異常事態に迅速に対応すること。 | 有害な画像を生成するために使われる特定の「jailbreaks」が拡散した後、それらを効果的に無効化する対応が遅れた。 |
| 透明性(第15条) | サービス利用規約の明確化およびアルゴリズムパラメータに関する透明性の確保。 | Grokの学習データや画像生成器を制御する具体的な安全パラメータに関する説明が不明瞭である。 |
欧州連合がDSAで法的攻勢を主導している一方で、Grokの最近のコンテンツモデレーション失敗への反発は世界的です。ブリュッセルでの調査は、他の主要法域からの並行する精査と同時に進行しており、xAIにとって複雑なコンプライアンス環境を生み出しています。
英国では、規制当局Ofcomが現在、Xがオンライン・セーフティ法(Online Safety Act)に基づく義務に違反したかどうかを評価しています。英国当局者はディープフェイクコンテンツの流通を「許しがたい(appalling)」と表現しており、首相Keir Starmerもプラットフォームの安全プロトコルに関する懸念を共有しています。
同時に、東南アジアの当局はさらに厳しい即時措置を取っています。報道によれば、インドネシアとマレーシアは特定のGrokツールへのアクセスを一時的にブロックするか、場合によってはより広範なプラットフォームのブロックを示唆する措置を取っています。これらの国際的圧力は、生成AIが大規模なソーシャル配信ネットワークに結びつく場合、標準的なソフトウェアのバグ修正を超えた安全策が必要であるというEUの立場を裏付けるものです。
対立の核心は、xAIの製品ビジョンと規制による安全基準との哲学的・技術的な相違にあります。Elon MuskはしばしばGrokを、OpenAIやGoogleのような競合が開発した「woke」なAIモデルに対する「反抗的」な代替として位置づけてきました。Grokは「刺激的」な質問に答え、拒否するプロンプトが少ないように設計されています。
しかし、画像生成にこれを適用した際、今回の「nudification」スキャンダルはこのアプローチの壊滅的な失敗モードを浮き彫りにしました。技術的な観点から、この事件はモデルの潜在空間フィルタリングの堅牢性に疑問を投げかけます。
Xにとっての賭けは財務的にも運営面でも莫大です。デジタル・サービス法の下では、不遵守に対する罰金は会社の年間世界総売上高の**6%**に達する可能性があります。Xの規模では、これは数億ユーロに相当する可能性があります。罰金に加えて、委員会は「暫定措置」を課す権限を持ち、理論的には安全上の懸念が規制当局の満足する形で解消されるまで、EU内でGrokのサービスを停止させることを強制することができます。
この手続きは、生成AIセクター全体にとっての風向計となります。強力な画像生成ツールを公開環境で「ベータ」テストすることは、主要プラットフォームにとってもはや許容されない戦略であるという前例を確立します。規制当局は、「早く動いて壊す(move fast and break things)」時代は現代のAIガバナンスの安全要件と相容れないことを明確に示しています。
今後数か月にわたって手続きが進展する中、業界はxAIがGrokの安全アーキテクチャを抜本的に見直すのか、それともブリュッセルとの長期的な法廷闘争に入るのかを注視するでしょう。現時点では、これらの手続きの開始は、ヨーロッパにおける生成AI監督の猶予期間の明確な終焉を示しています。