HopperアーキテクチャとPCIe 5.0 x16搭載NVIDIA H100 NVL 94GB GPU

製品概要
NVIDIA H100 NVL 94GB GPU は、デュアル構成で 188GB HBM3 メモリを搭載し、A100 と比較して 12 倍高速な LLM パフォーマンスを実現します。 GPT-175B モデルに最適で、標準サーバーで効率的な AI 推論とトレーニングを行うための Transformer Engine と PCIe 5.0 を備えています。
基本プロパティ
ブランド名: NVIDIA
モデル番号: 900-21010-0020-000
取引物件
最低注文数量: 10
価格: 24000USD
支払い条件: T/T
製品の説明
NVIDIA H100 NVL 94GB GPU
NVIDIA MPN: 900-21010-0020-000
NVIDIA H100 NVL 94GB GPUは,PCIeベースのサーバーシステムにホッパーアーキテクチャのパワーを導入することで,大型言語モデル (LLM) の推論とトレーニングを民主化するために設計されています..この特殊変種は,GPT-175Bなどの1750億パラメータまでのモデルのユニークなメモリとコンピューティング要件に対応します.電力制限のあるデータセンター環境で 運用効率を維持しながら 卓越したパフォーマンスを提供する.
NVLinkブリッジで接続された2つのGPUの配置で展開すると,H100 NVLはHBM3メモリの188GBを組み合わせて提供し,GPUペアが統一されたメモリプールとして機能することを効果的に可能にします.
テクニカル仕様
H100 NVLは,メモリ密集型推論作業と大型言語モデルの微調整に最適化された 94 GB の HBM3 メモリを備えています.GPUは,ホッパーアーキテクチャの完全な機能を活用しています混合精密コンピューティングでLLM操作を加速するトランスフォーマーエンジンを含む.
前世代のシステムと比較して,H100 NVL GPU で装備されたサーバーは,NVIDIA DGX A100 構成よりも GPT-175B モデルで最大 12 倍高いパフォーマンスを示しています.遅延特性が著しく改善されたこのカードは PCIe 5.0 x16 経由でインターフェースを設定し,ブリッジ経由で NVLink 技術をサポートします.超高帯域幅のGPU対GPU通信が可能になり,複数の加速器のモデル並行性をスケーリングするのに不可欠です..
デザインと互換性
H100 NVLは,主流のデータセンター展開のために設計されており,OEM構成に応じてアクティブまたは受動冷却オプションを持つデュアルスロット形式を採用している.GPUはNVIDIAのエンタープライズソフトウェアスタックと完全に互換性があるCUDA,TensorRT,およびNVIDIA AI Enterprise スイートを含む,既存のAIパイプラインにシームレスな統合を保証します.
主要なアプリケーションは,会話AI,モデル精準調整,および復元拡張生成 (RAG) ワークロードのためのリアルタイム推論を含む. 記憶容量のバランスのとれた組み合わせにより,計算性能電力効率 the H100 NVL represents the optimal entry point for organizations seeking to operationalize large language models across their infrastructure without the complexity or cost of high-density SXM-based systems.
製品詳細
ハイライト:

NVIDIA H100 PCIe GPU

,

94GB PCIe GPU

,

PCIe 5.0 x16 GPU

Mr. Sales

Sales Department

関連製品
問い合わせを送る