NVIDIA H100 NVL 94GB GPU với Hopper Architecture và PCIe 5.0 x16
Tóm tắt sản phẩm
GPU NVIDIA H100 NVL 94GB mang lại hiệu suất LLM nhanh hơn 12 lần so với A100, với bộ nhớ HBM3 188GB ở cấu hình kép. Lý tưởng cho các mẫu GPT-175B, có Transformer Engine và PCIe 5.0 để suy luận và đào tạo AI hiệu quả trong các máy chủ tiêu chuẩn.
Thuộc tính cơ bản
Tên thương hiệu:
NVIDIA
Số mô hình:
900-21010-0020-000
Giao dịch Bất động sản
Số lượng đặt hàng tối thiểu:
10
Giá:
24000USD
Điều khoản thanh toán:
T/T
Mô tả sản phẩm
GPU NVIDIA H100 NVL 94GB
NVIDIA MPN: 900-21010-0020-000
GPU NVIDIA H100 NVL 94GB được chế tạo đặc biệt để dân chủ hóa việc suy luận và huấn luyện các mô hình ngôn ngữ lớn (LLM) bằng cách mang sức mạnh của kiến trúc Hopper đến các hệ thống máy chủ dựa trên PCIe phổ thông. Phiên bản chuyên dụng này giải quyết các yêu cầu về bộ nhớ và tính toán độc đáo của các mô hình có tới 175 tỷ tham số, chẳng hạn như GPT-175B, mang lại hiệu suất vượt trội đồng thời duy trì hiệu quả hoạt động trong môi trường trung tâm dữ liệu bị hạn chế về năng lượng.
Khi được triển khai trong cấu hình hai GPU được kết nối qua cầu NVLink, H100 NVL cung cấp tổng cộng 188 GB bộ nhớ HBM3, cho phép cặp GPU hoạt động hiệu quả như một nhóm bộ nhớ hợp nhất.
Thông số kỹ thuật
H100 NVL có bộ nhớ HBM3 94 GB, được tối ưu hóa cho các tác vụ suy luận đòi hỏi nhiều bộ nhớ và tinh chỉnh các mô hình ngôn ngữ lớn. GPU tận dụng toàn bộ khả năng của kiến trúc Hopper, bao gồm cả Transformer Engine giúp tăng tốc các hoạt động LLM bằng tính toán độ chính xác hỗn hợp.
So với các hệ thống thế hệ trước, các máy chủ được trang bị GPU H100 NVL cho thấy hiệu suất cao hơn tới 12 lần trên các mô hình GPT-175B so với cấu hình NVIDIA DGX A100, với đặc tính độ trễ được cải thiện đáng kể. Card giao tiếp qua PCIe 5.0 x16 và hỗ trợ công nghệ NVLink qua cầu, cho phép giao tiếp GPU-GPU băng thông cực cao, cần thiết để mở rộng quy mô song song mô hình trên nhiều bộ tăng tốc.
Thiết kế & Tương thích
Được thiết kế để triển khai trong các trung tâm dữ liệu phổ thông, H100 NVL có dạng yếu tố hai khe cắm với các tùy chọn làm mát chủ động hoặc thụ động tùy thuộc vào cấu hình OEM. GPU hoàn toàn tương thích với ngăn xếp phần mềm doanh nghiệp của NVIDIA, bao gồm CUDA, TensorRT và bộ NVIDIA AI Enterprise, đảm bảo tích hợp liền mạch vào các quy trình AI hiện có.
Các ứng dụng chính bao gồm suy luận thời gian thực cho AI đàm thoại, tinh chỉnh mô hình và các tác vụ tạo sinh tăng cường truy xuất (RAG). Với sự kết hợp cân bằng giữa dung lượng bộ nhớ, hiệu suất tính toán và hiệu quả năng lượng, H100 NVL đại diện cho điểm khởi đầu tối ưu cho các tổ chức muốn vận hành các mô hình ngôn ngữ lớn trên cơ sở hạ tầng của họ mà không gặp phải sự phức tạp hoặc chi phí của các hệ thống dựa trên SXM mật độ cao.
Chi tiết sản phẩm
Làm nổi bật:
Nvidia H100 PCI GPU
,94GB PCI GPU
,GPU PCIe 5.0 x16
Sản phẩm liên quan
-
Bộ vi xử lý AMD EPYCTM 9124 với 16 lõi, đồng hồ cơ sở 3.0 GHz và TDP 200W
AMD EPYC 9124: Bộ xử lý máy chủ 'Zen 4' 16 nhân với xung nhịp cơ bản 3.0GHz, TDP 200W. Có 12 kênh DDR5, 128 làn PCIe 5.0. Lý tưởng cho việc ảo hóa, ứng dụng chuyên dụng và cơ sở hạ tầng SMB với hiệu quả cấp doanh nghiệp. -
Bộ xử lý máy chủ có thể mở rộng thế hệ thứ 5 Xeon Gold 6538Y+ 32 Lõi với TDP 225W cho Trung tâm dữ liệu và Điện toán đám mây
Intel Xeon Gold 6538Y+ cung cấp 32 lõi, bộ nhớ đệm 60 MB và tốc độ tăng tốc 4,0 GHz cho trung tâm dữ liệu. Có DDR5-5200, PCIe 5.0, bộ tăng tốc AI tích hợp và bảo mật doanh nghiệp với TDP 225W. -
cpu Bộ vi xử lý Intel Xeon 6768P với 64 lõi tần số cơ sở 2,4 GHz và TDP 330W
Intel® Xeon® 6768P: bộ xử lý hàng đầu 64 nhân với tần số cơ bản 2,4GHz, TDP 330W. Có bộ nhớ DDR5, PCIe 5.0 và các bộ tăng tốc tích hợp cho AI, HPC và khối lượng công việc ảo hóa quy mô lớn.