
2026年2月を迎え、米国における人工知能(AI)規制の情勢は劇的に変化しています。多くの業界観測筋は、今年中に包括的な連邦政府の枠組みが登場すると予想していましたが、連邦取引委員会(FTC)からの最近のシグナルは、ワシントンD.C.における動きが大幅に停滞していることを示唆しています。しかし、自然界が真空を嫌うように、州議会はその空白を埋めるべく迅速に動いています。
人事リーダーやタレントマネジメントの専門家にとって、注目すべき場所は連邦議会議事堂から各州の沿岸部へと移りました。ハワイ州とワシントン州は、採用および職場での意思決定におけるAIの使用を標的とした、強力な新しい法案を導入しました。これらの提案、特にハワイ州のHB 2500とワシントン州のHB 2157は、転換点を象徴しています。私たちは「倫理的AI(Ethical AI)」に関する理論的な議論から、透明性、バイアス監査、および説明責任に関する具体的な法的義務へと移行しつつあります。
ハワイ州は観光のイメージが強いですが、2026年、同州はデジタル権利のパイオニアとしての地位を固めています。州議会は、AIツールを構築するベンダーと、それらを導入する雇用主の両方に厳格な新しい義務を課す、2つの重要な法案(HB 2500およびSB 2967)を導入しました。
HB 2500は、「アルゴリズム的意思決定システム(Algorithmic Decision Systems:ADS)」に関する包括的な枠組みを提案しています。この法案は、ADSを、採用、昇進、従業員の懲戒などの重大な事項において、人間の意思決定を支援または代替するあらゆるマシンベースのツールを含むものと広く定義しています。
この提案の下では、責任は分担されますが明確に区別されています。AIツールの開発者は、ソフトウェアを購入する企業に対し、予見可能な用途や既知の法的リスクを開示することが求められます。雇用主(「導入者」と定義)に対しては、さらに高い基準が設定されています。雇用に実質的な影響を与えるADSを使用する前に、企業は候補者および従業員に事前通知を行わなければなりません。さらに、システムの出力に基づいて決定が下された場合、雇用主は使用後の情報開示を行い、システムが依拠した特定の個人的特性(影響力の大きい上位20要因まで)を特定する必要があります。
これを補完するのが、消費者保護法案として導入されたSB 2967です。この法案は、雇用関連のAIを「ハイリスク」に分類しています。この法案は単なる透明性を超え、導入者が不当な影響(disparate impact)やバイアスをテストするために年次の影響評価を実施することを要求しています。また、訂正権と人間による審査を受ける権利を創設し、異議申し立ての経路がない「ブラックボックス」による自動拒絶を事実上禁止しています。
一方、太平洋北西部では、ワシントン州がHB 2157によって独自の規制アジェンダを推進しています。技術革新のハブとして知られるワシントン州は、業界の成長と市民権の保護のバランスを取ろうとしています。
HB 2157は、採用や医療保険を含む「重大な意思決定」における**AI差別(AI discrimination)**の防止に重点を置いています。単に免責事項を要求する透明性優先の法律とは異なり、この法案は、アルゴリズムモデルに組み込まれた差別から個人を保護するために、企業が積極的な措置を講じることを義務付けています。
この法案は、年商10万ドルを超える企業に適用されます。この基準は、エンタープライズ向けの人事ソフトウェアを使用している雇用主の大部分を網羅するものです。特に、バイアスのあるアルゴリズムによる「萎縮効果」をターゲットにしており、開発者と導入者は、自社のツールが保護対象クラス(特定の属性を持つ集団)に対して不利益を与えないことを証明する必要があります。この立法措置は、以前に設立され「AI職場の指導原則」に関する勧告を発表してきたワシントン州AIタスクフォースの成果を受けたものです。
ワシントン州のアプローチは、テクノロジー業界との潜在的な衝突を示唆している点で特に注目に値します。経済団体は、アルゴリズムの結果に対するこのような厳格な責任は、効率を高めるツールの使用自体を萎縮させかねないと、すでに懸念を表明しています。しかし、法案の支持者は、連邦政府のガイドラインがない以上、労働者の権利を守るためには州による監督が不可欠であると主張しています。
州議会で見られる緊急性は、連邦レベルの現在のムードとは鮮明な対比をなしています。2026年1月下旬、FTCは新しいAI規制に対する意欲の減退を示唆しました。プライバシー教書会議(Privacy State of the Union Conference)で、FTC消費者保護局長のクリス・ムファリージ氏は、同局の当面の規則策定計画において「AI関連のものに対する意欲はない」と述べました。
これは、イノベーションへの障壁を取り除くことを強調する現政権下の広範な規制緩和の姿勢と一致しています。FTCは、新しいAI固有の制定法を作成するのではなく、既存の法律を「控えめに」執行することに依拠する意向を示しています。例えば、同局は最近、AI執筆アシスタントに関する訴訟で和解しましたが、AI監査を全国的に標準化するような広範な規則策定は事実上棚上げされました。
複数の州で事業を展開する雇用主にとって、これは複雑なコンプライアンス環境を生み出します。単一の連邦基準の代わりに、企業は今や州法の「パッチワーク」を乗り越えなければなりません。ハワイ州の厳格な透明性ルール、ワシントン州の反差別義務、そしてニューヨーク市のバイアス監査要件に従いつつ、連邦政府のガイダンスは最小限にとどまるという状況です。
タレントマネジメントおよび人事法務チームがこれらの新たな要件を理解しやすくするため、以下の表にハワイ州とワシントン州の新法案の主要構成要素をまとめました。
| 特徴 | ハワイ州 (HB 2500 / SB 2967) | ワシントン州 (HB 2157) |
|---|---|---|
| 主な焦点 | 透明性と説明 | 反差別と保護 |
| 適用条件 | 「アルゴリズム的意思決定システム」の使用 | 「重大な意思決定」における使用 |
| 雇用主の義務 | 事前通知、決定後の要因開示 | 差別からの保護、非差別の証明 |
| 候補者の権利 | データの訂正権、人間による審査 | 不当な影響(disparate impact)からの保護 |
| 監査要件 | 年次の影響評価 (SB 2967) | 非差別の証明において暗示 |
| 基準 | 広範な適用 | 年商10万ドル/年以上 |
州レベルの野心と連邦レベルの不作為の乖離は、雇用主を不安定な立場に追い込んでいます。国家標準を待つことはもはや実行可能な戦略ではありません。人事部門は、本社がどこにあるかにかかわらず、最も厳格な州の要件を満たすために、自社の**雇用法(Employment Law)**コンプライアンス戦略を積極的に適応させる必要があります。
1. AIインベントリの監査
多くの組織が、個々の採用担当者がスクリーニングや面接に未承認のツールを使用する「シャドーAI」に悩まされています。人事リーダーシップは、採用ライフサイクルで使用されるすべてのアルゴリズムツールの完全な目録(インベントリ)を作成し、どれが「ハイリスク」または「重大な」意思決定の定義に該当するかを判断しなければなりません。
2. ベンダーへの透明性の要求
立証責任は雇用主(「導入者」)に移りつつありますが、技術的なデータはベンダーが保持しています。ハワイ州のHB 2500のような法律で義務付けられている特定の開示事項をベンダーに提供させるよう、契約を更新する必要があります。ベンダーが自社モデルの「上位20の影響要因」を説明できない場合、特定の管轄区域ではそのツールの使用が事実上違法となる可能性があります。
3. 「ヒューマン・イン・ザ・ループ」要件への備え
ハワイ州とワシントン州の両方が、人間による監視の必要性を強調しています。完全に自動化された不採用通知メールの時代は終わりを迎えつつあります。雇用主は、AIが最終的な意思決定者ではなく意思決定支援として機能するワークフローを確立し、異議申し立てや修正に対応できる人間の審査担当者を確保する必要があります。
2026年は、州レベルの保護と連邦レベルの規制緩和の間の綱引きによって定義される年になるでしょう。FTCが沈黙を守る一方で、ハワイ州やワシントン州のような州は、**職場向けAI(Workplace AI)**が法的なグレーゾーンで運用されないようにしています。先見の明のある企業にとって、これは信頼を築くチャンスです。透明性と公平性の高い基準を自発的に採用することで、組織は岸辺に打ち寄せ始めたばかりの必然的な規制の波に対して、自社の採用活動を将来にわたって適応させることができるのです。