中国の深Shenzhen - 2025年7月 - AIと大規模な言語モデルコンピューティングのブレークスルーで、NvidiaはH100 141GBNVLオリジナル、AIのパフォーマンス、メモリ容量、エネルギー効率の境界を押し上げるように設計された次世代ソリューション。エンタープライズスケールのAIワークロードを念頭に置いて構築されたH100 NVL 141GBモジュールは、今日の最先端のデータセンター、言語モデルトレーニング、前例のない速度とスケールでの推測の要求を満たすように調整されています。
3倍高速なLLM推論 - NVLアーキテクチャを搭載
標準のSXMやPCIE GPUとは異なり、H100 NVLは、NVLINKを介して接続された2つのH100 GPUを特徴とするユニークなフォームファクターであり、141GBの共有HBM3メモリと7TB/s以上のメモリ帯域幅を備えたデュアルGPUソリューションとしてパッケージ化されています。これにより、以下の理想的なGPUになります。
GPT-3、GPT-4、およびLlama 3トレーニング
大規模な変圧器推論ワークロード
マルチモーダルAIタスク(ビジョン言語、スピーチなど)
NVIDIAの内部テストによると、H100 NVLは、A100 80GBと比較して、大規模な言語モデルに対して最大12倍高速な推論を提供します。
NVIDIA H100 96GB PCIE OEM:将来のスケールのワークロードのために構築された究極のAIアクセラレータ
NVIDIA A800 80GB PCIE OEM:制限された市場でのAIスケーラビリティのスマートな選択
WhatsApp
Telefly
E-mail
QQ