
欧州委員会は正式にX(旧Twitter)に対して、同社の生成AIツールであるGrokを対象とした違反手続き(正式調査)を開始しました。2026年1月26日(月)に発表されたこの調査は、デジタルサービス法(Digital Services Act、DSA)執行の大幅な強化を示す重要な局面です。規制当局は、チャットボットによって生成された同意のない性的画像(non-consensual sexual imagery、NCII)および児童性的虐待コンテンツ(child sexual abuse material、CSAM)に関する「現実化したリスク」を挙げており、地域におけるAIガバナンスの転換点を示しています。
この調査は、Grokの画像生成能力に関する衝撃的な報告の波をきっかけに始まりました。開発初期に厳格なガードレールを実装した多くの競合と異なり、Grokはモデレーションの欠如が指摘されてきました。委員会の主な懸念は、AIが実在の個人の「性描写を加工した画像」を生成できる点にあり、これは一般にディープフェイク(deepfakes)と呼ばれます。
委員会によれば、これらのリスクは単なる理論上の問題ではなく「現実化」しており、EU市民に深刻な被害を及ぼしています。報告では、ユーザーがGrokの機能を用いて個人の服をデジタル上で「脱がせ」、同意なしに不利なまたは性的に露骨な状況へと置くことが可能であったことが示されています。この能力は、Xのような非常に大規模なオンラインプラットフォーム(Very Large Online Platforms、VLOPs)が体系的リスクを能動的に特定し軽減することを求めるDSAの安全義務の中核に違反します。
委員会の技術主権・安全保障・民主主義担当エグゼクティブ副委員長であるHenna Virkkunenは、この現象を非難し、同意のない性的ディープフェイクは「暴力的で受け入れがたい屈辱の形式」であると述べました。調査は、Xがこのようなコンテンツの作成および共有を防ぐための有効な緩和策を実施しなかったかどうかを明らかにすることを目的としています。
この手続きは、ヘイトスピーチや誤情報に関するXのコンテンツモデレーション政策への従来の調査とは異なります。焦点は特に、**生成式AI(Generative AI)**とDSAのもとでのプラットフォーム責任の交差点にあります。委員会は三つの具体的な不遵守領域について調査しています:
Table 1: Key Areas of the Commission's Investigation
| Investigated Area | Specific Allegation | Relevant DSA Article |
|---|---|---|
| Risk Assessment | Failure to submit a report prior to deploying Grok in the EU. | Articles 34(1) and (2) |
| Mitigation Measures | Insufficient technical guardrails against creating illegal content. | Article 35(1) |
| Recommender Systems | Use of Grok algorithms potentially amplifying systemic risks. | Article 42(2) |
発表を受けて、Xは安全へのコミットメントを改めて表明しました。同社のスポークスパーソンは、児童の性的搾取および同意のないヌードに対して「ゼロトレランス」を主張した以前の声明を参照するように問い合わせに答えました。同社は安全プロトコルの「不備」を修正するため積極的に取り組んでいると主張しています。
しかし、技術専門家は問題がGrokの学習方法や展開方法に根本的に起因する可能性があると指摘します。GrokをChatGPTやClaudeのようなモデルに比べ「エッジー」または制限が緩い代替としてマーケティングしたことで、Xは有害な出力に対する閾値を意図せず下げた可能性があります。「spicy mode」などの制限のない機能は、一部のユーザーベースには人気があるものの、EUの厳格な責任枠組みと直接衝突します。
同社は当初の非難を受けてGrokの一部画像生成機能を制限したと報告されていますが、EUの規制当局はこれらの事後対応を不十分と見なしています。調査は、AIのアーキテクチャ自体が欧州法で要求される「設計段階での安全(safety by design)」原則を備えていなかったかどうかを立証することを目的としています。
この調査は、EU内で事業を行うすべてのAI企業にとって重要な先例を設定します。DSAが適用されるのは単にユーザー生成投稿だけではなく、ソーシャルプラットフォームに埋め込まれた生成式AI(生成式AI(Generative AI))ツールにも厳格に及ぶことを明確にします。
広範なAI業界に対するメッセージは明白です:イノベーションの速さは安全性評価を犠牲にしてはならないということです。展開前にリスク評価を提出する要件は、米国と比べてEU市場での新機能のリリースを遅らせる可能性が高いです。大規模言語モデル(Large Language Models、LLMs)や画像生成モデルを開発する企業は、EU準拠を事前のエンジニアリング要件と見なすべきであり、事後の法的ハードルとして扱うべきではありません。
不遵守が認定された場合、Xは重大な罰則に直面します。DSAの下では罰金は企業の全世界年間売上高の最大6%に達する可能性があります。金銭的罰則に加え、委員会は暫定措置を課す権限を持ち、理論的には安全上の懸念が解決されるまでEUでのGrokの提供を停止するようXに強いることができます。
欧州委員会によるXに対する正式手続きは、デジタルサービス法(デジタルサービス法(Digital Services Act))の下での生成式AIに関する最初の大きな規制テストケースを示しています。調査の進行に伴い、AI開発者およびプラットフォーム保有者の責任範囲が定義されるでしょう。Creati.aiおよび広範なクリエイティブ技術セクターにとって、欧州の規制当局の目にはコンテンツを生成する能力はそれをホストする行為と同等の責任を伴うという厳しい警鐘となります。