












あなたのために設計されたインテリジェントなソリューション
開発者およびエンタープライズ向け
DeepSeek、Llama、OpenAIなど、最先端のオープンソースモデルをSambaCloud上で活用し、数分で開発を開始できます。クラウドやオンプレミスで専用インフラを構築できるSambaStackにより、エンタープライズ規模への拡張も容易です。
詳細はこちら →
政府および
公共部門向け
SambaStack for Public Sector を活用すれば、AIワークロードの実行や機密性の高い業務の管理を、すべて自国の領域内で完結できます。このソリューションは、国内で最もセキュアなデータセンターへのオンプレミス導入を前提に設計された、スケーラブルで高性能なインフラです。
詳細はこちら →
公共部門向け
数分ではなく、数秒で動くAIエージェント
スピードとレイテンシはAIの価値を左右します。 SambaNovaは、独自のRDUを搭載し、最高性能の大規模オープンソースモデルにおいても高速な推論を実現します。
最大規模モデルで最高のパフォーマンスを実現
AIモデルはますます高度化、大規模化しています。 SambaNovaは、DeepSeekやLlamaをはじめとする最大級のモデルを、フル精度かつ開発者に必要なすべての機能を備えた形で実行可能です。
1kWhあたり、最も多くのトークンを生成
最高効率を誇るラックにより、1ワットあたりのトークン生成数を最大化します。
The Fastest and Most Efficient AI Accelerator
Call to Action Text
Call to Action Text
SambaCloud

Unleash lightning fast inference
Experience the power of SambaNova's RDU chips, engineered for fast AI inference. Experience it now on SambaNova Cloud with the best open-source foundation models.

Revolutionizing efficiency
Maximize your Data Center's potential with SambaNova's hardware. Run multiple AI models per node, all while using less power and saving floor space for AI inference workloads.

Scale inference with ease
Meet growing AI demand with a scalable Data Center solution. Quickly set up racks and deploy on-premise, and effortlessly increase your AI inference capacity to stay ahead of the curve.
Lightning-fast inference
Experience the power of SambaNova's RDU chips, engineered for fast AI inference, with next level open-source foundation models available in SambaCloud.
AIのために設計された、唯一のチップからモデルまでのコンピューティング基盤
Inference | Bring Your Own Checkpoints | Agents
SambaNova provides simple-to-integrate APIs for Al inference, making it easy to onboard applications.
Auto Scaling | Load Balancing | Monitoring | Model Management | Cloud Create | Server Management
SambaOrchestrator simplifies managing AI workloads across data centers. Easily monitor and manage model deployments and scale automatically to meet user demand.
Hardware + Operating System + Networking
SambaRack is a state-of-the-art system that can be set up easily in data centers to run Al inference workloads. They consume an average of 10 kWh running the largest models like Llama 4 Maverick.
SN-40L
At the heart of SambaNova's innovation lies the RDU (reconfigurable dataflow unit). With a unique 3-tier memory architecture and dataflow processing, RDU chips are able to achieve much faster inference using a lot less power than other architectures.
-
Complete AI platform that provides a fully integrated end-to-end agentic AI stack – spanning across agents, models, knowledge, and data.
-
Composable AI platform that is open, unifies structured and unstructured data, queries in any environment, and deploys on any AI model. Build or use pre-built AI agents — all with business-aware intelligence.
-
Sovereign AI platform that keeps data secure and governed while business teams query in any environment. IT stays in control, while business teams self-serve AI — and both can focus on what matters.

最高のオープンソースモデルで構築しよう

DeepSeek
DeepSeek-R1(6710億パラメータ)を含む先進的なDeepSeekモデルに対応。 コーディング・推論・数学で高性能を発揮し、他モデルの数分の一のコストで利用可能。
SambaNovaのRDU上で毎秒最大200トークンの高速推論を実現(Artificial Analysis社調べ)。

Llama
MetaのLlama 4シリーズのローンチパートナーとして、SambaNovaはオープンソースAIの最前線をリードしています。
Llama 3.1の全モデル(8B、70B、405B)にいち早く対応し、高速推論を実現した最初のプラットフォームです。
現在Meta社と連携し、ScoutおよびMaverickモデルでの高速推論提供に取り組んでいます。

OpenAI
OpenAIのWhisperモデルは、SambaNovaのRDU上でサポートされており、音声系AIアプリケーションの中核を担う存在となっています。 高速処理が可能なSambaNovaプラットフォームを活用することで、開発者は音声AIエージェントにおける新たなユースケースを実現し、より没入感のある体験を創出できます。

OpenRouter uses SambaNova Cloud to deliver high speed LLM performance

SambaNova、AIプラットフォームをAWS Marketplaceで提供開始
「企業はますます多様なビジネスアプリケーションにAIを活用するようになっています。こうした流れを受けて、戦術的なAI導入から、よりスケーラブルで全社的なAIソリューションへの移行が求められています。」
- Mike Wheatley, SiliconANGLE
Mike Wheatley
「SambaNovaは、自社の製品を『スタックのあらゆる層で革新をもたらす完全統合型AIプラットフォーム』と位置づけており、NVIDIAの製品群と比較する形でその優位性を打ち出しています。」
- Oliver Peckham, HPCWire
Oliver Peckham
「SambaNovaのチームがテストから本番運用に至るまで迅速に対応・サポートしてくれたスピードは非常に優れており、他社との差別化要因となりました。」
- Robert Rizk, Blackbox.ai, Cofounder and CEO
Robert Rizk
「私たちはSambaNovaと提携し、オープンソースモデルでのより高速な推論を開発者コミュニティに直接提供できることを大変嬉しく思っています。」
- Julien Chaumond, CTO Hugging Face