Press Releases

SambaNova、エージェント型AI向け最速チップを発表、インテルと提携し3億5000万ドル超を調達

作成者: SambaNova|2026年03月05日
  • 新しい半導体SN50は、競合チップと比較して最大5倍の高速処理を実現 [1]
  • GPUと比較して3分の1のコストでエージェント型AIを実行 -- 推論コストを削減し利益率を最大化 [2]
  • ソフトバンク株式会社が日本国内の次世代AIデータセンターにSN50を導入する初の顧客となる
  • SambaNovaとIntel、クラウド規模のAI推論を実現する複数年にわたる戦略的提携を計画。数十億ドル規模の市場機会を開拓
  • 生産能力とクラウド容量拡大のため、シリーズEの戦略的な資金調達で3億5000万ドルを調達。新規投資家にはVista Equity Partners、Cambium Capital、Intel Capital、Battery Ventures、T. Rowe Price Associates, Inc.が助言する口座も含む

米国カリフォルニア州サンノゼ- 2026年2月24日- SambaNovaは本日、競合チップ比で最大5倍の高速性能を実現する新しいAI半導体「SN50」を発表しました。また、高性能かつコスト効率に優れたAI推論ソリューションを提供するためのIntelとの協業計画、さらに、新規・既存投資家からの3億5000万ドル超の資金調達も発表しました。

新製品SN50は、エージェント型AI向け最高効率チップとして位置付けられており、企業の総所有コストを3分の1に抑えます。これにより、企業は高速推論を拡張し、自律型AIエージェントを本格稼働させる強力な基盤を構築することができます。SN50は2026年後半に顧客へ出荷開始予定です。

SN50を迅速にスケールアップし普及させるため、SambaNovaはIntelと協力しました。さらに、生産能力とクラウド基盤を強化するための戦略的なシリーズE資金調達として3億5,000万ドルを獲得しました。

SambaNovaの共同創業者兼CEOであるロドリゴ・リアンは次のように述べています。

「AIはもはや最大のモデルを構築する競争ではありません。SN50とIntelとの深い連携により、真の競争は、『AIエージェントによってデータセンター全体を高速かつ安定的に稼働させ、さらにAIを実験段階からクラウドで最も収益性の高いエンジンへと転換できるコスト構造を実現できる企業はどこか』という点に移っています。」

Intelのエグゼクティブバイスプレジデント兼データセンター事業部ゼネラルマネージャーであるケヴォーク・ケチチアン氏は次のように述べています。

「お客様は、AIを拡張する際、より多くの選択肢と効率的な方法を求めています。Intelのコンピューティング、ネットワーク、メモリ分野におけるリーダーシップと、SambaNovaのフルスタックAIシステムおよび推論クラウドプラットフォームを組み合わせることで、高度なAIを大規模に展開する際にGPUに代わる有力な選択肢を企業に提供できるようになります。」

SN50は、前世代と比べて1アクセラレータあたり5倍の演算性能と4倍のネットワーク帯域を提供します。最大256台のアクセラレータを、毎秒マルチテラバイトのインターコネクトで接続できるため、初回トークン生成までの時間を短縮し、より大きなバッチ処理にも対応します。その結果、企業はより大規模で長いコンテキストを扱えるAIモデルを、高いスループットと応答性を維持しながら導入でき、パフォーマンスを確保しつつコストとレイテンシを抑制できます。

Cambium Capitalの共同創業者兼マネージングパートナーであるランダン・ダウンズ氏は次のように述べています。

「AIは、もはやソフトウェア中心の話ではなく、インフラが主戦場になりつつあります。SN50は、現実的なレイテンシ要件と経済性を満たすよう設計されており、これらが、大規模なエージェント型AIを成功裏に展開する上で重要となります。」

今回の発表は、SambaNovaが2025年末に過去最高の受注と売上を記録したことに続くものです。金融、通信、エネルギー、そして各国政府向けの導入など、世界中で本番運用可能なAIシステムへの需要が急速に高まっていることを示しています。

エージェント型AIの本番運用のために設計

SN50は、SambaNovaのReconfigurable Data Unit(RDU)アーキテクチャを基盤としており、以下の特長を備えています。

  • 即時応答のAI体験 - 超低レイテンシにより、音声アシスタントなど次世代エンタープライズアプリでリアルタイムの応答性を実現。
  • 圧倒的なスケールと同時実行性 - 数千のAIセッションを同時に処理しながら、安定した高パフォーマンスを維持。
  • 飛躍的なモデル容量 - 3層メモリアーキテクチャにより、10兆パラメータ超のモデルや1,000万トークン超のコンテキスト長を扱うことができ、より深い推論と豊かな出力を可能に。
  • 大規模運用での最大効率 - ハードウェア利用率を高めることで、トークンあたりのコストを削減し、性能とROIを向上。
  • より賢いメモリ管理による効率化 - マルチモデル常駐メモリやエージェント向けキャッシングにより、3層アーキテクチャを最適化し、企業規模のAI導入におけるインフラコストを削減。

調査会社IDCのパフォーマンス集約型コンピューティング担当リサーチバイスプレジデントであるピーター・ラッテン氏は次のように述べています。

「新しいSambaNova SN50 RDUは、大規模AI推論におけるトークノミクスを根本から変える存在です。既存の電力で動作し、空冷で高性能かつ高スループットを実現できる点で、SambaNovaは業界の常識を覆しています。」

ソフトバンク、国内AIデータセンターにSN50を導入

ソフトバンク株式会社は、日本国内の次世代AIデータセンターにおいて、SN50を導入する最初の企業となります。この導入により、国内のAIデータセンターを活用する日本企業向けに、低レイテンシのAI推論サービスを提供できるようになります。SN50は、オープンソースモデルから独自のフロンティアモデルまで、厳しいレイテンシとスループット要件を満たす形で大規模に運用できる基盤を支えます。

ソフトバンク株式会社の執行役員で次世代技術開発本部の本部長である丹波 廣寅氏は、次のように述べています。

「SN50によって、ソフトバンクのお客様やパートナーが求めるスピード、堅牢性、そして主権性を備えた日本向けAI推論基盤を構築していきます。SN50を標準基盤として採用することで、世界最高水準のGPUクラスタに匹敵する性能を持ちながら、より優れた経済性と運用コントロールを確保し、当社独自の条件で世界クラスのAIサービスを提供できるようになります。」

SN50の導入により、SambaNovaとソフトバンクの既存の協業関係はさらに強化されます。ソフトバンクは既にSambaNova Cloudをホストし、日本の開発者向けに超高速の推論環境を提供しています。今回、最新のクラスタ基盤としてSN50を採用することで、ソフトバンクは、同社の次世代ソーシャルインフラ戦略および将来の大規模エージェントサービスを支える推論基盤を、SambaNovaと協力して開発していきます。

SambaNovaとIntel、複数年にわたる戦略的協業を計画

SambaNovaとIntelは、AIネイティブ企業、モデル提供者、一般企業、政府機関などの世界中の組織に向けて、高性能かつコスト効率の高いAI推論ソリューションを提供するため、複数年にわたる戦略的協業を開始します。

この協業により、顧客はGPU中心のソリューションに代わる強力な選択肢を得ることができます。主要なオープンソースモデルに対して最適化された性能を、予測可能なスループットと総所有コスト(TCO)で実現できる点が大きな特徴です。

協業の一環として、IntelはSambaNovaへの戦略的投資を計画しており、Intel技術を活用したAIクラウドの展開を加速させる方針です。今回の協業は主に次の3つの領域にわたることが想定されています。

  • AIクラウドの拡張 - SambaNovaの垂直統合型AIクラウドを、Intel Xeonベースのインフラ上で大規模に拡張し、大規模言語モデルやマルチモーダルモデル向けに最適化。低レイテンシ、高スループットのAIサービスを提供し、さらに、リファレンスアーキテクチャ、導入ガイド、SI企業やソフトウェアベンダーとの連携によって、企業の導入を支援します。
  • 統合AIインフラの構築 - SambaNovaのシステムとインテルのCPU、アクセラレータ、ネットワーク技術を組み合わせ、推論、コード生成、マルチモーダルアプリケーション、エージェント型ワークフローという用途に対応する、スケーラブルで本番運用可能なAI推論基盤を実現します。
  • 市場展開の強化 - Intelのグローバルなエンタープライズ、クラウド、パートナーチャネルを通じた共同販売・共同マーケティングを実施し、AIエコシステム全体での導入を加速します。

SambaNovaとIntelは、次世代のヘテロジニアス(異種混在型)AIデータセンターの構築を目指しています。Intel Xeonプロセッサー、Intel GPU、Intelのネットワークおよびストレージ技術、そしてSambaNovaのシステムを統合することで、数十億ドル規模のAI推論市場機会を開拓します。

3億5000万ドル超を調達、主導はVistaとCambium

今回のシリーズEラウンドは大きな関心を集め、募集枠を上回る調達となりました。主導したのはVista Equity PartnersとCambium Capitalで、Intel Capitalも積極的に参画しました。

新規投資家として参加した企業・ファンドには以下です。Assam Ventures、Battery Ventures、Gulf Energy、Mayfield Capital、Saudi First Data、Seligman Ventures、Rowe Price Associates, Inc. が助言するアカウント。既存投資家としては以下が引き続き参加しています。A&E、8Square、Atlantic Bridge、BlackRock、GV、Nepenthe、Nuri Capital、Redline Capital

エージェント型ワークロードの拡大に伴い、企業は、学習用途に最適化された既存インフラでは本番環境で求められるレイテンシやコスト要件に対応しきれないという課題を認識し始めています。

Vista Capitalのパートナーであるモンティ・サロヤ氏は次のように述べています。

「SambaNovaの成長における重要な局面で投資できることを誇りに思います。SN50は複数のモデルをオーケストレーションし、ほぼリアルタイムで処理するエージェント型AIに最適化されており、従来のGPU中心のシステムよりも効率的に動作するよう設計されています。」

調達した資金は、SN50の生産拡大、SambaCloudのスケール拡大、エンタープライズ向けソフトウェア統合の強化に活用される予定です。

SambaNovaについて

SambaNovaは次世代AIインフラのリーダー企業であり、企業、Neo Clouds、AI研究所、サービスプロバイダー、そして世界中の主権AIイニシアチブ向けに、最速かつ最も効率的なAI推論を実現するフルスタックプラットフォームを提供しています。2017年に設立され、カリフォルニア州サンノゼに本社を置くSambaNovaは、チップ、システム、クラウドサービスを提供し、顧客が優れた性能、低い総所有コスト、迅速な価値創出を実現しながら最先端モデルを展開することを可能にします。

詳細についてはsambanova.aiをご覧いただくか、info@sambanova.aiまでお問い合わせください。

[1] SemiAnalysis InferenceX - Llama 3.3 70B 最大速度(Nvidia B200、FP8、入力1K/出力1K) - ユーザーあたり毎秒184トークン。Llama 3.3 70B 最大速度(SN50、FP8、入力1K/出力1K) - ユーザーあたり毎秒895トークン。

[2] SemiAnalysis InferenceX - Llama 3.3 70B 処理能力(Nvidia B200チップあたり、FP8、入力1K/出力1K) - 各種構成において、GPUあたりの総処理能力とRDUあたりの総処理能力を比較すると、ユーザーあたり秒間33トークンでは約1倍の差が、RDUでは約25倍の優位性となる(ユーザーあたり毎秒184トークン時)。SN50における平均スループット優位性は3倍と算出される(Llama 70B、GPT-OSS 120B、DeepSeek 671Bの比較、レイテンシ予算を前提)。

報道関係者お問い合わせ先

Virginia Jamieson
virginia.jamieson@sambanova.ai
+1 650-279-8619