NVIDIA H200 141GB HBM3e メモリGPU、帯域幅4.8TB/秒

製品概要
NVIDIA H200 GPU: 141GB HBM3e メモリ、4.8TB/秒の帯域幅。 14,592 CUDA コア、PCIe 5.0、600 W の電力を備えた大規模な AI モデルに最適です。 9 倍高速なトレーニングを実現する Transformer Engine を搭載。
基本プロパティ
ブランド名: NVIDIA
モデル番号: 900-21010-0040-000
取引物件
最低注文数量: 10
価格: 25000USD
支払い条件: T/T
製品の説明
NVIDIA H200 141GB PCIe GPU
製品概要

NVIDIA H200 NVL は、最も要求の厳しい大規模言語モデル (LLM) ワークロードと生成 AI タスクに対応するために特別に設計された、Hopper アーキテクチャの最新の進化形です。HBM3e メモリを初めて搭載した GPU として、H200 NVL はデータセンターのパフォーマンスに新たな基準を確立し、前例のないメモリ帯域幅と容量を提供して、数十億パラメータを持つモデルのトレーニングと推論の両方を加速します。

NVIDIA MPN: 900-21010-0040-000 (NVH200NVLTCGPU-KIT)

この PCIe ベースのソリューションは、NVIDIA の最も先進的な AI アクセラレータのパワーをメインストリームサーバーインフラストラクチャにもたらし、既存の H100 デプロイメントにシームレスなアップグレードパスを提供します。

主な仕様
メモリ 141 GB HBM3e
メモリ帯域幅 4.8 TB/s
CUDA コア 14,592
Tensor コア 第 4 世代 456
インターフェイス PCIe 5.0 x16
NVLink 帯域幅 最大 900 GB/s
フォームファクタ デュアルスロット、フルハイト、パッシブ冷却
消費電力 標準 600W (ピーク 700W)
高度な機能
  • 最大 7 つの独立したインスタンスに安全にパーティション化するためのマルチインスタンス GPU (MIG) テクノロジー
  • 大規模言語モデルの AI トレーニングを最大 9 倍高速化する Transformer Engine
  • FP8 精度サポートにより最大 1,979 TFLOPS を実現
  • FP64 パフォーマンスは 34 TFLOPS
  • ラック最適化データセンター環境向けに最適化
アプリケーション領域

NVIDIA H200 NVL は、AI 推論、HPC シミュレーション、科学計算アプリケーション、および卓越したメモリ帯域幅と計算能力を必要とする最も要求の厳しい生成 AI ワークロードに最適です。

製品詳細
ハイライト:

hbm3eメモリGPU

,

141GBメモリGPU

,

141GBワークステーションGPU

Mr. Sales

Sales Department

関連製品
問い合わせを送る