何を探していますか?

Displaying 1-10 of 10 results
Sort by: MOST RELATED | DATE

DataScale

…データフローコンピューティング CPUやGPUの世代ごとの性能向上が低下する中、最先端のAIやディープラーニングへの要求が高まっています。 新しいCardinal SN30™ RDUを搭載したDataScale SN30は、DGX A100システム(GPT 13B)の6倍速という世界記録のGPTトレーニング、DGX A100の12.8倍のメモリ容量、導入自動化と容易な拡張機能などの性能向上を実現しています。 拡張性 ディープラーニングやファンデーションモデルの学習と展開には、数百、数千のGPUによる大規模な並列化が必要です。このプロセスはコストがかかり、複雑で、精度を低下させる可能性があります。 DataScaleは、大容量のオンチップメモリとシステムメモリにより、並列化をほとんど必要とせず、最大規模のモデルやデータを処理することができます。SambaFlowソフトウェアは、デバイスや構成の数に関係なく、スケーリングを管理します。DataScaleシステムを最大48ラックまでシームレスに拡張し、ラック間の帯域幅とレイテンシを一定に保つことができます。 これにより、企業はGPUが必要とするコスト、複雑さ、オーバーヘッドなしに、最大規模のモデルを学習し、展開することができます。 お客様の声 SambaFlow SambaNova DataScale®のための完全なソフトウェアスタックであるSambaFlow™は、PyTorchのような一般的な標準フレームワークと完全に統合されています。SambaFlowはオープンで柔軟、かつ使いやすい開発インターフェイスを提供します。 SambaFlowは、あらゆるモデルの最適なデータフロー・グラフを自動的に抽出し、最適化し、実行します。これにより、すぐに使えるパフォーマンス、精度、スケール、使いやすさを実現することができます。SambaFlowを利用することで、低レベルのチューニングに悩まされることなく、開発労力をフレームワークに集中させ、生産性を最大化させることができます。 完全に統合され、最適化されたラックレベルソリューション AI の最先端技術は常に再定義されており、新たなブレークスルーが現れると同時に、要件も変化しています。GPUなどのレガシーシステムでは、データサイエンスやエンジニアリングチームは、これらの新しいモデルを最適化するために、独自のコーディング言語を使用する必要があります。その上、同じモデルでも十分に学習し、展開するためには、異なる形式の拡張性が必要となります。また、新しい要件に対応するために、新しいインフラを追加したり、切り替えたりする必要が頻繁に発生します。 DataScaleはラックレベルのソリューションであり、1時間以内にセットアップと展開可能 DataScaleは、PyTorchのような一般的なオープンソースフレームワークと直接統合しています。また、ローコード/ノーコードAPIを使用し、モデルの展開を大幅に簡素化します。 SambaFlowは、モデルの最適なデータフローグラフを自動的に抽出、最適化、実行し、学習と推論の性能をすぐに最適化することができます。 DataScaleは、学習と推論を同じプラットフォームで管理できるため、エンドツーエンドのMLパイプラインを管理するために必要なインフラストラクチャが大幅に簡素化されます。 企業は他のどのAIインフラストラクチャ製品よりも迅速にROIを達成し、リスクを大幅に低減し、よりコスト効率よく拡張することができます。 関連リソース 問い合わせをする SambaNovaがどのようにAIへの取り組みを進め、お客様の不可能を可能にするのかをご紹介します。 AIのトレンド、情報、企業ニュースをお届けします。…

PRODUCTS | February 22, 2022

会社概要

…SambaNova Systems RDA は、幅広いAIアプリケーションやあらゆるサイズや形態のモデルを効率的に実行するために設計された空間的に再構成可能なアーキテクチャです。 どのようなワークロードであっても、ハードウェアはソフトウェアに最適なデータフローを直感的に構成し、ネイティブに最適化することができます。 これにより、プログラマビリティや効率を犠牲にすることなく、すぐにASICに近い性能を実現することができます。 最先端のAIアルゴリズムは常に再定義されているため、RDAは変化する要求に常に対応しています。 SambaNova RDA はソフトウェアで定義されているため、従来のハードウェアのボトルネックとなっていた命令セットによる障害がありません。 SambaNova DataScale は、すべてのワークロードに対応するデータセンターの将来性を高め、無限の可能性を秘めたAIイノベーションを実現するためのハードウェアとソフトウェアの統合プラットフォームを構築します。 AIが貴社にとって戦略的または必須である場合、SambaNova DataScale は、データセンターからクラウド、そしてエッジに至るまで、AIアプリケーションを実行するためのコアインフラストラクチャを提供します。 他社が1つの技術コンポーネントに集中しているのに対し、SambaNova DataScale はデータフローのために構築され、最適化されています。 アルゴリズムからシリコンまで。 コンピューティングの新時代を切り開くためにAIのためにゼロから構築された SambaNova DataScale は、以下のことを可能にします。 – 高性能なAIアプリケーションを高速で実行・開発し、大きな効率でスケールアップすることができる – テクノロジーを簡単に導入できるので、すぐにシステムを最大限に活用できる – データを流し、システムに必要なパフォーマンスを定義できるようにする…

ABOUT | February 22, 2022

AIスタックの各レイヤーでイノベーションを実現する

…global_colors_info=”{}”] AIスタックの全レイヤーでイノベーションを実現する データフローを最適化。ファンデーションモデル。サブスクリプション価格 2022年9月14日、SambaNova Systemsは、組織がAIイノベーションの次の波であるファンデーションモデルを利用できるようにする新製品と技術を発表しました。SambaNovaファンデーションモデルプラットフォームは、今後10年間に到来するAIイノベーションの波に対応する「AIバックボーン」を提供するため、スタックの各レベルでイノベーションを実現する完全統合型AIプラットフォームです。 DataScale DataScale SN30は、最先端のディープラーニング、ファンデーションモデル、科学のためのAIワークロードのためのイノベーションシステムです。新しいCardinal SN30™ RDUを搭載したDataScale SN30は、DGX A100システム(GPT 13B)よりも6倍高速な世界記録のGPT学習、DGX A100の12.8倍のメモリ容量、展開の自動化と拡張性の高い機能などの性能強化をさらに実現します。 ファンデーションモデル ファンデーションモデルは、AIイノベーションの次の波を後押ししています。ファンデーションモデルは、高い精度と前例のない汎用性の両方を実現し、大規模なスケール、ゼロおよび少数のショットプロンプトによる強力な創発能力、1つのモデルで何十もの異なるタスクを解決する能力によって可能にします。このスケール、精度、汎用性の組み合わせにより、組織は1000ものレガシーモデルを、組織や企業に前例のない価値を提供する独自の能力を持つ単一のファンデーションモデルに削減することができます。 事前学習済みモデル SambaNova Dataflow-as-a-ServiceTM GPT は、事前に学習された GPT ファンデーションモデルを提供し、企業独自の環境において無制限のファインチューニングや事前学習を行うことにより、世界最高水準の精度を実現します。これにより、企業は自社の業務に最適化された最先端の機能を迅速かつ容易に展開できるとともに、これらのモデルを社内で完全に学習させるために必要な膨大な複雑さ、資金投資、時間を回避することができます。 サブスクリプション価格 SambaNova DataScaleにサブスクリプション価格が提供されたことにより、企業はAI機能を拡張する際に必要な先行投資とリスクを低減すると同時に、価格の予測可能性を高め、無制限の学習、ファインチューニング、推論などによって隠れたコストを排除することが可能になります。 関連リソース 問い合わせをする SambaNovaがどのようにAIへの取り組みを進め、お客様の不可能を可能にするのかをご紹介します。 AIのトレンド、情報、企業ニュースをお届けします。…

September 30, 2022

NLPモデルの展開における画期的な効率

…図1:オンライン推論のレイテンシーの比較 デジタルアシスタントや検索エンジンなどのアプリケーションでは、入力データはシーケンス長が短い自然言語トークンです。たとえば、「サンフランシスコの天気は?」などのスマートフォンアシスタントクエリです。 これらのタイプのシナリオでは、シーケンス長の短縮は通常、コンパクトモデルによって達成される精度にほとんど影響を与えません。 これは、RDUの遅延の利点と深く結びついているもう1つの特性です。 コンパクトモデルの場合、GPUのレイテンシはシーケンス長が短くなると飽和しますが、RDUのレイテンシはシーケンス長が短くなると向上します。 図2に示すように、TinyBERTモデルは、プロキシとして使用するMNLIベンチマークタスクで、64〜256のシーケンス長にわたって最先端のモデル精度と一致させることができます。 図3では、GPUがシーケンスの長さ全体で同じレイテンシーを示していることがわかります。 ただし、GPUを介したRDUの高速化は、シーケンス長を64に短縮すると、 8.7倍に向上します。 図2:シーケンス長が異なる場合のRDUおよびGPUモデルの精度 図3:さまざまなシーケンス長でのRDUとGPUのレイテンシーの棒グラフ SambaNovaSystemsDataScaleによる精度の向上 当社のデータフロー最適化チップは、コンパクトモデルの低遅延オンライン推論の前例のない機能を示しています。 データフローチップのこれらの機能を利用して、私たちの研究所は、完全なSambaNova DataScaleシステム(8ソケット)を使用して、コンパクトなNLPモデルで低遅延の推論を実行しながら最先端の精度を達成できることも示しました。 SambaNova Systems研究所の調査によると、複数のモデルインスタンスにわたる多数決により、TinyBERTによって達成される精度が大幅に向上する可能性があります(図4)。 SambaNova DataScaleシステムは、これらの精度の向上を効率的に活用するように完全に設計されています。 SambaNovaDataScaleシステムの8つのソケットすべてに複数のTinyBERTモデルをデプロイできることを示します。 図5に示すように、TinyBERTモデルをアンサンブルすると、RDU上の単一のTinyBERTモデルと比較して、レイテンシーのコストを無視できる程度で、分類精度が0.4%向上します。 図4。 アンサンブルの専門家の数が異なる場合のモデルの精度 図5。 1つのRDUでの単一のTinyBertと8ソケットシステムでの8人のエキスパートのレイテンシーの比較 コンパクトなBERTモデルは、SambaNovaSystemsDataScaleが低遅延で高精度のオンライン推論に合わせたソリューションを提供する重要なケースの1つにすぎません。 もっと詳しく知る NLPの最新技術を読む:GPUを超えて SambaNovaDataScaleの詳細 会議を設定する…

TECHNOLOGY | May 27, 2022