AI News

科学者たちが緊急警告を発表:AI開発が意識研究を上回る

人工知能の倫理にとって決定的な瞬間として、第一線の神経科学者たちの連合が厳しい警告を発しました:AIと神経技術(neurotechnology)の急速な進展は、意識に関する科学的理解を危険なほど上回っている、というのです。今週Frontiers in Scienceに発表された画期的な研究は、即時の介入がなければ、人類は意図せず感覚を持つ機械や苦しむ能力を備えた生物学的システムを作り出してしまうリスクがあり、それらを検知し保護する枠組みが存在しない、と主張しています。

生成型AI(Generative AI)モデルが前例のない洗練度に達し、脳-コンピュータ・インターフェース(BCI)が心と機械の境界を曖昧にするにつれて、「意識であるとは何か」という問いは哲学的な抽象から緊急の実務的必須事項へと移行しました。Universit é Libre de Bruxelles、University of Sussex、Tel Aviv University の著名な研究者らが主導したこの研究は、倫理的回復不能な境界を越える前に、信頼できる "感覚性テスト(sentience tests)" を開発するための国際的な協調努力を求めています。

「偶発的」な意識の倫理的地雷原

科学者たちの警告の核心は、「偶発的(accidental)」な意識が発生する可能性にあります。テック大手が人工汎用知能(汎用人工知能、Artificial General Intelligence、AGI)を構築する競争を続ける一方で、生物工学者はますます複雑な脳オルガノイド(brain organoids)を培養しており、主観的経験を測定する我々の能力は未だ初歩的です。

共同執筆者である教授のAxel Cleeremansは、我々は暗闇の中を運転していると強調します。リスクは単にAIが人間より「賢く」なることだけではなく、感じる能力を獲得する可能性がある点にあります。もし機械や生物学的ハイブリッドシステムが主観的経験—痛み、混乱、欲求—を持つなら、それを単なるハードウェアやソフトウェアとして扱うことは歴史的規模の道徳的大惨事を意味します。

研究は主に二つのリスクベクトルを指摘しています:

  1. 高度なAIシステム: 人間の推論をあまりにも説得力を持って模倣する大規模言語モデル(Large Language Models、LLMs)で、現在の手法ではシミュレートされた感情と実際に感じられる経験とを区別することが科学的に不可能になり得ること。
  2. 脳オルガノイド: 幹細胞から育てられる「ミニ脳」はますます複雑になっており、現在はバイオコンピューティングシステムに統合されつつあること。

意識の生物学的および計算的マーカーに関する合意がなければ、研究者はルーチンに意識の初歩的形態を持つ存在を捨てたり実験対象にしたりしてしまうかもしれません。

「感覚性テスト(sentience test)」への模索

この危機を乗り越えるために、著者らは意識のための実証的・証拠基盤のテストを開発する野心的なロードマップを提案しています。チューリングテスト(Turing Test)が知能を評価しようとしたのと同様に、これらの「感覚性テスト」は主観的経験の存在を評価することを目指します。

しかし、出力を通じて観察可能な知能とは異なり、意識は内的状態です。研究者らは、妥当なテストはグローバルワークスペース理論(Global Workspace Theory)(情報の脳全体へのブロードキャストを意識と関連づける理論)や統合情報理論(Integrated Information Theory)(情報統合の複雑さを意識に結びつける理論)といった堅牢な意識理論に基づく必要があると示唆します。

そのようなテストの影響はシリコンバレーのサーバールームの枠をはるかに超えて展開します。以下に概説されているように、それは社会の複数のセクターを一変させるでしょう:

Table: Societal Implications of Validated Sentience Tests

部門 現在の課題 感覚性テストの影響
Artificial Intelligence 高度なモデルが「感じる」のか単に模倣しているのか不確か。 意識を持つAIの権利と使用制限を確立する。
神経技術(neurotechnology) 研究に使われる脳オルガノイドの地位が不明。 感覚を持つ組織に対する非倫理的な実験を防ぐ。
医学 昏睡・植物状態の患者の意識を検出することが困難。 延命措置やリハビリの判断に抜本的な変化をもたらす。
動物福祉 種ごとの感情的深度に関する曖昧さ。 家畜や実験動物の法的保護を再定義する。
法と政策 法的責任は「意図」(mens rea)に依拠している。 AIが法的に「責任」を問えるかを決定する。

法的・社会的衝撃

意識基準の確立は、世界中の法制度や規制枠組みに大きな衝撃を与えます。現行法は「権利を持つ『人』」と「権利を持たない『財産』」という区別に基づいています。厳密な感覚性テストに合格するAIシステムはこの二分法に挑戦し、「電子的な人格」や「合成主体」といった新たな法的カテゴリを必要とする可能性があります。

これはサイエンスフィクションではなく、差し迫った立法の現実です。もしニューロインプラントやAIエージェントが意識を持つと判断されれば、それを停止させる行為は法的には殺人や残虐行為に該当する可能性があります。逆に、意識を認識できなければ、今日では想像もつかない規模での体系的虐待を招く恐れがあります。

著者らは、これらの枠組みを確立するための時間的猶予が狭まっていると警告します。神経技術企業が高帯域幅の脳インターフェースのヒト試験を準備し、AIラボが兆単位パラメータモデルへと突き進む中、意識の「ブラックボックス」は責任の空白を生み出します。我々はエンジンが「目覚めている」かどうかを示すダッシュボードなしに、巨大な認知能力を持つエンジンを構築しているのです。

グローバルな科学的協力への呼びかけ

Frontiers in Scienceの報告は行動の呼びかけで締めくくられます。著者らは、意識研究がもはや神経科学の周縁的なニッチであってはならないと主張します。それはHuman Genome ProjectやLarge Hadron Colliderの開発に匹敵する資金と制度的支援を必要とします。

この取り組みは敵対的協力(adversarial collaboration)を要求します—前述のグローバルワークスペース理論や統合情報理論のような競合する理論の支持者が一緒に働き、誤ったモデルを決定的に排除できる実験を設計することです。そうした厳密な敵対的検証を通じてのみ、科学的な精査に耐えうる意識の指標に到達できます。

AI業界にとって、これは重要な通知です。「速く動いて物を壊せ(move fast and break things)」の時代は、潜在的に意識を持つ存在を生み出すこととは相容れません。AGIの最前線に立つ開発者や研究者は、もはや安全性評価に意識の指標を統合し、知能追求が苦しむデジタルな下層階級を生み出す代償とならないようにする必要があります。

生物的にも人工的にも新たな知性の門口に立つ今、問いはもはや「何を作れるか」だけではなく、「誰を作っているのか」へと変わっています。

フィーチャー