SambaCloud

最大規模のAIモデルで、最速の推論を実現

 

スピードのために設計

SambaCloudは、SN40L RDU半導体を搭載し、最高かつ最大規模のAIモデルに対して高速な推論を実現する唯一のシステムです。すべての推論速度は、第三者機関であるArtificial Analysisによって独立してベンチマーク・報告されています。

開発者による、開発者のためのプラットフォーム

sambanova_favicon
SambaNovaはLlama 4の公式ローンチパートナーです。
クラウドプレイグラウンドで
Maverickを今すぐ体験しましょう!
今すぐ始める

SambaNovaの導入は、
たったの3ステップで完了

他のプロバイダー(OpenAIなど)から、スムーズにSambaNovaへ移行できます。

  1. OPENAI_API_KEY にSambaNovaのAPIキーを設定

  2. ベースURLを指定

  3. モデルを選んで実行!

 

関連リソース

Inference Speed or Throughput? With RDUs, You Don't Have to Choose

Inference Speed or Throughput? With RDUs, You Don't Have to Choose

1月 15, 2026
SambaStack: Solving the Infrastructure Crisis for AI Inference with Dataflow

SambaStack: Solving the Infrastructure Crisis for AI Inference with Dataflow

1月 13, 2026
AI Is No Longer About Training Bigger Models — It’s About Inference at Scale

AI Is No Longer About Training Bigger Models — It’s About Inference at Scale

1月 5, 2026