Telefly Telecommunications Equipment Co.、Ltd。
Telefly Telecommunications Equipment Co.、Ltd。
ニュース

NVIDIA H100 96GB PCIE OEM:将来のスケールのワークロードのために構築された究極のAIアクセラレータ

AIモデルが1兆パラメーターのスケールを超えて進化するにつれて、業界は極端なパフォーマンスと能力を要求します。 NVIDIA H100 96GB PCIE OEMを入力します - 最も強力なPCIEベースGPUホッパーアーキテクチャ、96GBの超高速HBM3メモリ、およびFP8精度アクセラレーションを組み合わせて、PCIEフォームファクターではこれまでにないパフォーマンスレベルのロックを解除したことがあります。

実数に裏打ちされた大きなモデル用に構築されています

96GBのHBM3が搭載されていますGPU処理するように設計されています:


GPT-4、クロード3、ジェミニ1.5、ラマ3-400b

マルチモーダルLLMSおよび拡散モデル(ビデオ、ビジョン、音声)


大規模なリアルタイム、低遅延のAI推論

エンタープライズグレードモデルの微調整(RAG、SFT、LORA)


重要な仕様:


メモリ:96GB HBM3、最大3.35TB/sの帯域幅


テンソルパフォーマンス:トランスエンジンを備えた最大4,000 TFLOPS(FP8)


ピークFP16パフォーマンス:2,000以上のTFLOPS


PCIEインターフェイス:PCIEGEN5 X16


アーキテクチャ:Nvidia Hopper(H100)


パフォーマンスデータ:

NVIDIA内部ベンチマークでは、H100 96GB PCIEが達成されました。


最大3.5×GPT-Jトレーニング対A100 80GB PCIE


2.6×高LLM推論スループット対H100 80GB


効率的なマルチインスタンスGPU(MIG)サポート、1枚のカードで安全なAI-AS-AS-AS-AS-AS-AS-AS-AS-AS-AS-AS-AS-AS-AS-AS-A-Serviceのワークロードが可能になります


OEMアドバンテージ:同じパワー、よりスマートな調達

H100 96GB PCIE OEMバージョンは、小売モデルと同じ計算パフォーマンスを提供しますが、TCOは大幅に低くなります。完璧:

GPUサーバーインテグレーター


クラウドAIサービスプロバイダー


国立研究所と大学のクラスター


AIチップベンチマークプラットフォーム


OEMバージョンのハイライト:


100%真新しいGPU


バルクトレイパッケージまたは反スタティックシールユニット


グローバル互換性(Supermicro、Dell、Asus、ギガバイトプラットフォーム)


柔軟な保証(ボリュームに基づく1〜3年)


ボリューム出荷に利用できます

ユースケース:極端なAI、どこでも

LLMトレーニングとチューニング - ファインチューンの大規模モデル社内、パブリッククラウドコストの回避

AIインフラストラクチャアップグレード - A100ノードをワットあたり2〜3×パフォーマンスに置き換えます

AI推論-as-a-Service(AIAAS) - MIGまたはコンテナ化されたパイプラインを使用して何千ものセッションを提供します

Medical AI - 精密イメージング、創薬、リアルタイム診断

自律システム - マルチセンサー融合、シミュレーション、およびポリシー学習


「単一のH100 96GB PCIEは、クラスターサイズ、電力使用、コストを削減するトランスベースのワークロードで、複数のA100と一致または上回ることができます。」 - Nvidia、2024ホワイトペーパー

関連ニュース
X
We use cookies to offer you a better browsing experience, analyze site traffic and personalize content. By using this site, you agree to our use of cookies. Privacy Policy
Reject Accept