AI News

音声AI(Voice AI)インフラのユニコーン:LiveKitが$100Mを調達し評価額$1 Billionに

LiveKitは、次世代のリアルタイム人工知能を支えるオープンソースのインフラプロバイダーであり、正式にテックユニコーンの仲間入りを果たしました。サンフランシスコ拠点の同社は木曜日にシリーズCで$100Mを調達し、評価額を$1 billionに押し上げたと発表しました。この大規模な資金注入は、特にOpenAIのChatGPT Advanced Voice Modeの主要エンジンとして、急成長するAIスタックにおけるLiveKitの重要な役割を浮き彫りにします。

このラウンドは、世代規模の技術シフトを支援することで知られるIndex Venturesがリードし、既存投資家であるAltimeter Capital、Redpoint Ventures、Hanabi Capitalも継続して参加しました。今回の資金調達は同社のシリーズBから1年未満で行われており、リアルタイムで「見て」「聞いて」「話す」ことができるマルチモーダル(multimodal)AIエージェントへの爆発的な需要によって推進される積極的な成長軌道を強調しています。

「私たちは2026年が、音声AIが世界中の何千ものユースケースで広く展開される年になると予想しています」とLiveKitの共同創業者兼CEO、Russ d’Saは述べました。資金はLiveKitのグローバルな"Real-time Cloud"ネットワークの拡大と、低レイテンシ(low-latency)AIインタラクションに必要な複雑なオーケストレーションを単純化するためのフレームワークであるAgents APIのさらなる開発に充てられます。

OpenAIとのパートナーシップ:インフラの検証

LiveKitの急速な台頭の中心には、OpenAIとの戦略的パートナーシップがあります。生成式AI(Generative AI)が主にテキストベースの大規模言語モデル(LLM)に注目していた一方で、フロンティアはマルチモーダル、特に音声とビデオへと移行しています。LiveKitの技術はChatGPTのVoice Modeのバックボーンとして機能しており、AIとの会話を自然で人間らしく感じさせるために必要なミリ秒単位の複雑なデータ伝送を処理しています。

LiveKit以前は、リアルタイムの音声ボットを構築しようとする開発者は、音声からテキストへの変換(STT)、LLM推論、テキストから音声への合成(TTS)向けの個別APIを寄せ集め、標準のHTTPやWebSocketプロトコルでラッピングする必要がありました。この「継ぎ接ぎ」アプローチは、会話においては長く感じられる2〜3秒以上のレイテンシを引き起こし、気まずい間や言葉の切れ目を生み出していました。

LiveKitはこれを、ビデオ会議の標準プロトコルであるWebRTCをAI向けに最適化したデータ輸送レイヤーへと適応させることで解決しました。ユーザーのデバイスとAIモデルの間でオーディオストリームを直接管理することにより、LiveKitはレイテンシを300ミリ秒未満に削減します。これは人間の脳が相互作用を「リアルタイム」として認識するために必要な閾値です。

Index Venturesの投資家、Sahir Azamは声明で、LiveKitが「AIスタックにおける最も重要なインフラ層の一つを確立している」と指摘し、AIモデルを物理世界とつなぐ神経系になりつつあると述べました。

技術の内部:AIエージェントの「神経系」

LiveKitのプラットフォームは単なるビデオ通話SDKではなく、状態を保持する「ステートフル」AIエージェントを構築するための包括的な環境です。HTTPリクエスト間でコンテキストを忘れるステートレスな従来のチャットボットとは異なり、音声エージェントは中断、バックグラウンドノイズ、ターンテイキングのロジックを扱うために継続的な接続を維持する必要があります。

同社のAgents APIは、複雑なワークフローを設定ではなくコードで構築できるようにします。Deepgramによるトランスクリプション、OpenAIやAnthropicによるインテリジェンス、CartesiaやElevenLabsによる音声合成など、さまざまなモデルプロバイダー間のデータフローをオーケストレーションし、ネットワーキング部分をLiveKitが担います。

主要な技術的差別化要素

  • 超低レイテンシ: 機械間および機械と人間のオーディオルーティング専用に最適化されたグローバルエッジネットワーク。
  • マルチモーダルネイティブ: オーディオ、ビデオ、データチャネルを同時に扱えるように構築されており、カメラ入力で「見る」ことができるエージェントの実現を可能にします。
  • エンドツーエンドのオーケストレーション: ユーザーが割り込んだときにAIが即座に話を止める「voice activity detection(VAD)」の難しいロジックを扱い、自然な会話を実現します。

競合環境:専門インフラ vs レガシー通信

LiveKitの台頭は、長らく市場を支配してきたレガシーな通信プラットフォーム(CPaaS)プロバイダーや、Agoraのようなビデオ中心のSDKに対する破壊をもたらしています。これらの既存勢は人と人をつなぐことには長けていますが、人間と通信するAIモデルの高スループット・低レイテンシの要求に合わせて設計されてはいませんでした。

次の表は、リアルタイム分野における従来の競合と比べた際のLiveKitの立ち位置を示します。

Feature LiveKit Agora Twilio
Primary Focus AI Agent Infrastructure Live Video/Audio Streaming Telephony & Messaging
Architecture WebRTC for AI (Data + Media) Proprietary Real-Time Network SIP / PSTN / HTTP
Open Source Core Yes (Apache 2.0) No (Closed Source) No (Closed Source)
AI Orchestration Native Agents Framework Partner Integrations Partner Integrations
Latency Target <300ms (Conversational) <400ms (Broadcasting) Variable (Telephony standards)
Developer Model Self-hostable or Cloud Cloud Only Cloud Only

LiveKitのオープンソース戦略は採用において重要な役割を果たしてきました。エンジニアがコードを検査し、テストのためにスタックをセルフホストできるようにすることで、20万人を超える開発者コミュニティを構築しています。この「ボトムアップ」な採用はVercelやMongoDBのような他のインフラ大手の戦略を反映しており、プロプライエタリなソリューションが突破しづらい堀を作り出しています。

クライアントの拡大:スタートアップからエンタープライズまで

OpenAIが目玉クライアントである一方で、LiveKitの有用性は消費者向けチャットボットの範疇をはるかに超えています。技術は現在、多様なエンタープライズの大手によって導入されています。例えば:

  • Tesla: リアルタイム診断や車載音声アシスタント機能の可能性のためにLiveKitを利用。
  • Salesforce: Service CloudやAgentforceプラットフォームにリアルタイム音声機能を統合。
  • xAI: Grokのマルチモーダル機能のためにインフラを活用。
  • Spotify: 音声駆動ナビゲーションやAI DJ機能の実験に取り組み。

「今日、大企業はワークフローを自動化し、顧客体験を改善し、新たな収益を生み出すために音声エージェントを評価・構築しています」とd’Saは資金発表に伴うブログ投稿で書きました。多くのユースケースは概念実証段階にありますが、本番導入への移行は加速していると彼は強調しました。金融サービスは音声バイオメトリクスによる本人確認に利用し、医療提供者は患者が人間の医師と話す前のトリアージにエージェントを展開しています。

将来のロードマップ:「ウォーム」コンピューティングの時代

$100Mの新規資本により、LiveKitはエンジニアリングチームの拡大と物理的インフラのプレゼンス拡大を計画しています。ロードマップの重要な部分はvision capabilitiesに捧げられています。GPT-4oやGemini 1.5 Proのようなモデルがビデオストリームの処理にさらに長けるにつれて、LiveKitはカメラフィードをLLMにリアルタイムで送るための標準パイプとなることを目指しています。

たとえば、スマートグラスを着用したフィールドサービス技術者がAIエージェントに話しかけると、そのエージェントは技術者のカメラを通して故障した機械を「見」て、交換すべき正しい部品をヘッドアップディスプレイ上でハイライトしてくれる、という光景を想像してください。これは単純な音声を超える帯域幅と同期能力を必要とし、LiveKitはこのパイプラインを所有するポジションを取ろうとしています。

さらに、同社はエッジコンピューティング(edge computing)にも投資しています。可能な限りミリ秒単位のレイテンシを削減するために、LiveKitはメディアサーバーをエンドユーザーやモデル推論センターにより近い場所に展開し、データパケットの「往復時間」を短縮しています。

Creati.ai の見解:インフラは新たなゴールド

Creati.aiの視点では、LiveKitの評価額$1 billionは生成式AI(Generative AI)市場の成熟を示しています。当初のハイプサイクルは基礎となるモデル自体(OpenAI、Anthropic、Google)に大きく注目していました。今や注目は、むしろ有効化層──それらのモデル上に信頼できる製品を実際に構築できる「道具」と「掘削棒」──へと移りつつあります。

LiveKitは、AI普及のボトルネックがもはや知能ではなく「インタラクション」であると正しく見抜いています。AIが賢くても応答に3秒かかるなら、カスタマーサービスには使えません。レイテンシとオーケストレーションの問題を解決することで、LiveKitは単にソフトウェアを売っているだけでなく、AIエージェント経済の実行可能性を提供しているのです。

2026年を通じて、私たちはこの層での統合が進むと予想しています。ユーザーの口元からモデルの「脳」へ、そして戻るまでのシームレスなエンドツーエンドのパイプを提供できる企業が莫大な価値を獲得するでしょう。オープンソースのルーツと業界リーダーであるOpenAIとの深い統合を持つLiveKitは、今後10年間で人間と機械がどのように通信するかを定義するためのポールポジションにいると考えられます。

フィーチャー