DataScale
…RNN、スパースモデルなど、科学のためのAIを駆使した詳細モデル データフローコンピューティング CPUやGPUの世代ごとの性能向上が低下する中、最先端のAIやディープラーニングへの要求が高まっています。 新しいCardinal SN30™ RDUを搭載したDataScale SN30は、DGX A100システム(GPT 13B)の6倍速という世界記録のGPTトレーニング、DGX A100の12.8倍のメモリ容量、導入自動化と容易な拡張機能などの性能向上を実現しています。 拡張性 ディープラーニングやファンデーションモデルの学習と展開には、数百、数千のGPUによる大規模な並列化が必要です。このプロセスはコストがかかり、複雑で、精度を低下させる可能性があります。 DataScaleは、大容量のオンチップメモリとシステムメモリにより、並列化をほとんど必要とせず、最大規模のモデルやデータを処理することができます。SambaFlowソフトウェアは、デバイスや構成の数に関係なく、スケーリングを管理します。DataScaleシステムを最大48ラックまでシームレスに拡張し、ラック間の帯域幅とレイテンシを一定に保つことができます。 これにより、企業はGPUが必要とするコスト、複雑さ、オーバーヘッドなしに、最大規模のモデルを学習し、展開することができます。 SambaFlow SambaNova DataScale®のための完全なソフトウェアスタックであるSambaFlow™は、PyTorchのような一般的な標準フレームワークと完全に統合されています。SambaFlowはオープンで柔軟、かつ使いやすい開発インターフェイスを提供します。 SambaFlowは、あらゆるモデルの最適なデータフロー・グラフを自動的に抽出し、最適化し、実行します。これにより、すぐに使えるパフォーマンス、精度、スケール、使いやすさを実現することができます。SambaFlowを利用することで、低レベルのチューニングに悩まされることなく、開発労力をフレームワークに集中させ、生産性を最大化させることができます。 完全に統合され、最適化されたラックレベルソリューション AI の最先端技術は常に再定義されており、新たなブレークスルーが現れると同時に、要件も変化しています。GPUなどのレガシーシステムでは、データサイエンスやエンジニアリングチームは、これらの新しいモデルを最適化するために、独自のコーディング言語を使用する必要があります。その上、同じモデルでも十分に学習し、展開するためには、異なる形式の拡張性が必要となります。また、新しい要件に対応するために、新しいインフラを追加したり、切り替えたりする必要が頻繁に発生します。 DataScaleはラックレベルのソリューションであり、1時間以内にセットアップと展開可能 DataScaleは、PyTorchのような一般的なオープンソースフレームワークと直接統合しています。また、ローコード/ノーコードAPIを使用し、モデルの展開を大幅に簡素化します。 SambaFlowは、モデルの最適なデータフローグラフを自動的に抽出、最適化、実行し、学習と推論の性能をすぐに最適化することができます。 DataScaleは、学習と推論を同じプラットフォームで管理できるため、エンドツーエンドのMLパイプラインを管理するために必要なインフラストラクチャが大幅に簡素化されます。 企業は他のどのAIインフラストラクチャ製品よりも迅速にROIを達成し、リスクを大幅に低減し、よりコスト効率よく拡張することができます。 関連リソース 問い合わせをする SambaNovaがどのようにAIへの取り組みを進め、お客様の不可能を可能にするのかをご紹介します。 AIのトレンド、情報、企業ニュースをお届けします。…