
人工知能(Artificial Intelligence)セクターは、最も支配的な3つのプレーヤーであるAnthropic、OpenAI、xAIからの相次ぐ著名な辞任を受け、今週動揺しています。わずか72時間の間に、業界はリード安全研究者、主要な戦略家、そして共同創設者を失いました。それぞれが、世界的な大惨事に関する不可解な警告から、商業化に対する具体的な懸念に至るまでのメッセージを残して去っていきました。
これらの離職は、Anthropicが大規模な**Claude Opus 4.6モデルのリリースを準備し、OpenAIが広告収益モデル(Ad-supported revenue model)へと転換する中で、競争が激化している背景の中で起こっています。このタイミングは、来週ニューデリーで開催される第1回AI Impact Summit 2026**に向けて、世界のテックリーダーが集結する準備を進めている中で、特に重要です。
今週の退職者の中で最も反響を呼んでいるのは、Anthropicのセーフガード研究チーム(Safeguards Research Team)の元リーダーである Mrinank Sharma です。2023年に同社に入社したオックスフォード大学出身の機械学習(Machine Learning)の専門家である Mrinank Sharma は、月曜日に辞任を発表し、その公開書簡はそれ以来、業界の観察者の間で急速に拡散しています。
通常このような発表に付随する標準的な企業の社交辞令とは異なり、Mrinank Sharma の別れの言葉は、冷酷で、ほとんど哲学的とも言える警告でした。彼は「世界は危機に瀕している」と明言し、自身の懸念が AI のリスクを超えて「まさに今この瞬間に展開している一連の相互に関連した危機」にまで及んでいることを明らかにしました。
Mrinank Sharma の Anthropic での在職期間は、AI支援によるバイオテロ(Bioterrorism)に対する防御や、AIシコファンシー(AI sycophancy) — 真実に関わらずモデルがユーザーに同調する傾向 — の研究を含む、重要な安全イニシアチブに関する仕事によって定義されていました。しかし、彼の辞任届は、会社の方向性に関する深い内部対立を示唆していました。
「私たちの価値観に真に私たちの行動を支配させることがいかに困難であるかを、私は繰り返し見てきました」と Mrinank Sharma は書き、外部からの圧力が会社の核心的な安全任務に対する妥協を強いていることを示唆しました。「私たちは、最も重要なことを脇に置くよう常に圧力に直面しています。」
この研究者は、「一定期間、姿を消す」ために英国に戻ることを示し、すぐに競合他社に加わるのではなく、詩を勉強する意向を表明しました。この分野からの撤退は、自分たちが構築を支援しているシステムそのものを抑制する任務を負った科学者たちの間で高まっている、燃え尽き症候群や道徳的葛藤の感情を浮き彫りにしています。
Mrinank Sharma の退職が存亡に関わる言葉で表現された一方で、火曜日の OpenAI からの Zoe Hitzig の辞任は、ビジネス戦略におけるより具体的な変化を指摘していました。プロダクト・安全戦略に焦点を当てた研究者である Zoe Hitzig は、進化する OpenAI のビジネスモデルに対する「深い懸念」を理由に同社を去りました。
この件に詳しい関係者によると、Zoe Hitzig の退職は、ChatGPT のインターフェースへの広告導入に関する内部議論によって加速されたとのことです。OpenAI が膨大なコンピューティングコストを支えるための収益源を模索し続ける中、広告収益モデルへの移行は、ユーザー操作や AI 生成の回答の完全性に関する倫理的疑問を投げかけています。
Zoe Hitzig の退職は、過去2年間で創設チームが大幅に減少した OpenAI における広範な「頭脳流出」の一部です。彼女の辞任は、組織の非営利としてのルーツと、ますます攻撃的になっている営利目的の軌道との間の摩擦を強調しています。
離職の3つ目を締めくくるのは、Elon Musk の人工知能ベンチャーである xAI の共同創設者である Tony Wu です。Tony Wu は月曜日後半に辞任を発表し、単に「次に進む時が来た」と述べました。彼のメッセージは Mrinank Sharma や Zoe Hitzig ほど批判的ではありませんでしたが、同社の混乱した再編期間中に発表されました。
xAI は最近、Musk が支配する別の事業体である SpaceX によって買収されました。これは、宇宙ベースの資産を使用して「演算能力を生成する」方法として説明されています。この統合は、元のリーダーシップチームを動揺させたと言われています。Tony Wu は、最近離職した Igor Babuschkin などの他の共同創設者に加わり、xAI には当初の技術リーダーシップのわずかな一部しか残っていません。
今週、主要な AI 研究所に影響を与えた重要な退職者の概要を以下の表に示します。
| 名前 | 会社 | 役割 | 辞任の理由 |
|---|---|---|---|
| Mrinank Sharma | Anthropic | リード、セーフガード研究チーム | 「世界は危機に瀕している」との言及、および価値観を妥協させる内部の圧力 |
| Zoe Hitzig | OpenAI | 研究者、プロダクト・安全戦略 | ChatGPT で提案されている広告戦略に関する懸念 |
| Tony Wu | xAI | 共同創設者 | 会社の再編と SpaceX による買収の中での個人的な決定 |
これらの離職の背景を無視することはできません。Anthropic は、現在のベンチマークを大幅に上回ると予想されるモデル Claude Opus 4.6 の展開を数日後に控えていると報じられています。このモデルを完成させてリリースする圧力は、Mrinank Sharma が言及した「最も重要なことを脇に置くよう強いる圧力」に寄与した可能性があります。
業界関係者は、次世代モデルで優位性を獲得しようとする競争が、安全性のタイムラインを圧縮していると推測しています。企業の評価額が3,500億ドルに達しようとする中、安全研究者の声は、商業的な必然性の轟音とますます競合するようになっています。
これらの辞任は、2月16日にニューデリーで開幕予定の AI Impact Summit 2026 に向けて、緊張した舞台を整えました。このサミットには、Anthropic の CEO である Dario Amodei、OpenAI の Sam Altman、Google の Sundar Pichai を含む業界の巨頭たちが集まります。
サミットは、技術的な進歩と国際協力のショーケースとなる予定でした。しかし、世界の危機を警告するトップの安全リードが退職したばかりの今、アジェンダは変わる可能性があります。リーダーたちは今、壇上で説く「ガバナンス(Governance)」が自社の研究所で実践されているのかという、鋭い質問に直面することになるでしょう。
Creati.ai にとっての疑問は残ります。私たちの安全を確保するために報酬を支払われている個人が、自分たちの声が届かないと感じて去っていくのであれば、ガードレールを守るために誰が残されているのでしょうか?業界が突き進む中、これらの去りゆく専門家たちの沈黙は、来週のどの基調講演よりも大きな意味を持つかもしれません。