
ワシントンD.C. – 米国のテクノロジー政策における大きな転換点として、議会のリーダーたちは人工知能(AI)開発の広範な停止措置から離れ、代わりによりきめ細かな、分野別(セクター別)の規制枠組み(sector-by-sector regulatory framework)を支持する動きを見せている。今週開催されたIncompasポリシー・サミットにおいて、ジェイ・オバーノルテ(Jay Obernolte)下院議員(共和党、カリフォルニア州選出)は、イノベーションと公衆安全のバランスを取るターゲットを絞った監視体制に対し、超党派の強い支持があることを示唆し、今後の立法の方針を明確にした。
AI業界にとって、これは潜在的な開発停止という不確実な状況から、より予測可能なリスクベースのガバナンスモデルへの決定的な移行を意味する。新たなコンセンサスによれば、将来の規制はテクノロジー自体に一律の制限を課すのではなく、医療や金融などの具体的なユースケースに合わせて調整されることになる。
一般的な「AIモラトリアム(AI Moratorium)」という概念は、2025年に特定のAI開発を一時停止する条項が予算調整法案に付加された際に大きく報道された。しかし、下院科学・宇宙・技術委員会の研究・技術小委員会委員長であるオバーノルテ議員は現在、その取り組みを恒久的な政策目標ではなく、戦略的な「メッセージング修正案(messaging amendment)」であったと位置づけている。
「モラトリアムは決して長期的な解決策として意図されたものではありません」とオバーノルテ議員はサミットの参加者に語った。彼は、下院を通過し上院で削除されたこの条項が、州と連邦の規制当局間の権限分立について必要な議論を強制するために設計されたものであると説明した。下院での可決という衝撃は、その目的を果たした。それは、矛盾する州法が乱立する断片的な状況を防ぐための、結束した国家戦略の緊急性を浮き彫りにしたのである。
その議論が成熟した今、議員たちはモラトリアムという無骨な手段を捨て、精密なツールを優先している。焦点は、州が児童安全や政府調達といった特定の分野で「民主主義の実験場(laboratories of democracy)」として活動する余地を残しつつ、州を越えた商取引を保護するために連邦政府による優先権(national preemption)が必要な明確な「レーン」を定義することに移っている。
新しい立法の枠組みの核心は、すべてのAIが同じリスクプロファイルを持つわけではないという認識にある。ビデオゲームの推奨アルゴリズムを、病院のAI駆動型診断ツールと同じ厳格さで扱うことは、非効率的であり、イノベーションを阻害するものとますます見なされるようになっている。
オバーノルテ議員は、この違いを医学的な例えを用いて説明した。「FDA(食品医薬品局)はすでにAIや医療機器の使用に対して数千件の許可を出しています。人の体に埋め込まれるペースメーカーのようなものでは受け入れがたいほどリスクが高いモデルであっても、別の展開環境では完全に無害である可能性があります」
提案されている 分野別アプローチ(sector-specific approach) の下では、個々の連邦機関がそれぞれのドメイン内でAIを規制する権限を与えられることになる。これにより、深く、文脈に応じた監視が可能になる:
この手法は、リスクの低いアプリケーションを意図せず損なう一方で、ハイリスクなシステムを適切に監視できないという「一律(one-size-fits-all)」の法律の落とし穴を回避するものである。
オバーノルテ議員の提案の中心的な柱は、AI標準・イノベーションセンター(Center for AI Standards and Innovation、CAISI) の法定化である。以前の政権下では米国AI安全研究所(U.S. AI Safety Institute)として知られていたこの組織は、トランプ大統領の下で名称が変更され、継続されている。
オバーノルテ議員は、CAISIを直接的な規制当局としてではなく、テクニカル・リソース・ハブ、つまり他の機関が必要とする測定基準や安全プロトコルを作成する「工場」として想定している。CAISIの任務には以下が含まれる:
CAISIに技術的な専門知識を集中させつつ、執行権限を分野別の機関に分散させることで、議会は科学的に厳格かつ法的に柔軟なシステムの構築を目指している。
AI開発者にとって最も差し迫った懸念の一つは、州レベルの規制が「パッチワーク(patchwork)」のように乱立することであった。連邦基準がなければ、企業は50種類の異なるコンプライアンス体制に直面する可能性がある。新しい枠組みは、2025年12月のトランプ大統領による大統領令で支持された立場である連邦優先権(federal preemption)を通じて、これを解決することを目指している。
この大統領令は、AI開発者に不当な負担を強いる州法を特定するための見直しを指示した。しかし、州による規制が推奨される特定の例外も設けている。
規制権限の提案分担
| 規制ドメイン | 権限 | 重点分野 |
|---|---|---|
| 州間商取引 | 連邦(優先的) | コアAIモデルの安全性、州間のデータトラフィック、基本的権利の保護。 |
| 児童の安全 | 州および地方 | オンラインでの未成年者保護、教育現場。 |
| インフラ | 州および地方 | データセンターのゾーニング、エネルギー使用、地方の計算インフラ。 |
| 調達 | 州および地方 | 州機関がAIツールを購入・使用する方法を規定する規則。 |
フォーマット確認: 上記の表は単一の垂直バーを使用し、各列に少なくとも3つのダッシュを含むセパレーター行を含み、無効な文字は含まれていません。
ワシントンの政治情勢はしばしば二極化しているが、AIガバナンス(AI governance) は依然として超党派の協力が行われる珍しい分野である。オバーノルテ議員は、両党が広範な問題で意見が一致しないことはあっても、科学技術委員会内での活動は「驚くほど超党派的である」と強調した。
実質的な法案を通過させるためには、この枠組みは上院で60票を必要とし、共和党と民主党の両方に訴えかける法案が必要となる。分野別アプローチは、その妥協案となるようだ。中央の「AI長官(AI Czar)」や強権的なライセンス制度を避けることで規制過多に対する共和党の懸念に対処しつつ、権限を与えられた各機関を通じて安全性と倫理基準に関する民主党の優先事項を充足させている。
Creati.aiの読者および広範なAIコミュニティにとって、この立法の転換は市場の成熟を示唆している。AIを停止すべきかどうかという実存的な議論の時代は終わり、実務的で業界固有のコンプライアンスの時代が始まろうとしている。開発者は、AIを構築できるかどうかではなく、提供する特定の分野にAIがいかに安全に適合するかを問われる規制環境に備えるべきである。