Risultati di ricerca per:
pcie gpu
(27 Elementi)-
NVIDIA H100 80GB PCIe GPU con Hopper Architecture e PCIe 5.0 x16 Interface
GPU NVIDIA H100 PCIe da 80 GB: architettura Hopper con HBM3 da 80 GB, larghezza di banda da 2 TB/s e motore Transformer per AI/HPC. Dispone di MIG, Confidential Computing, PCIe 5.0 e include il software NVIDIA AI Enterprise. -
NVIDIA H100 NVL 94GB GPU con Hopper Architecture e PCIe 5.0 x16
La GPU NVIDIA H100 NVL da 94 GB offre prestazioni LLM 12 volte più veloci rispetto alla A100, con memoria HBM3 da 188 GB in doppia configurazione. Ideale per i modelli GPT-175B, dotato di Transformer Engine e PCIe 5.0 per inferenza e formazione AI efficienti nei server standard. -
Acceleratore NVIDIA L40S da 48 GB PCIe con 18176 Core CUDA
NVIDIA L40S: acceleratore universale per data center da 48 GB con 18.176 core CUDA, Tensor Core di quarta generazione e RT Core. Ideale per training AI, inferenza e carichi di lavoro grafici. Sicurezza aziendale, memoria ECC e raffreddamento passivo. -
Acceleratore PCIe NVIDIA L4 con memoria GDDR6 da 24 GB e involucro di alimentazione da 72 W
NVIDIA L4 PCIe da 24 GB: acceleratore video/AI universale con GDDR6 da 24 GB, potenza 72 W, prestazioni video AI 120x rispetto alla CPU. Raffreddamento passivo a slot singolo per un'efficiente implementazione edge/data center. -
NVIDIA A16 64GB GDDR6 Memoria PCIe 4.0 x16 Data Center GPU 250W Consumo di energia
GPU NVIDIA A16 da 64 GB: scheda Quad-GPU per VDI ad alta densità, che supporta 64 utenti. Raddoppia la densità utente rispetto all'M10 con memoria ECC da 64 GB, core RTX e Tensor e decodifica AV1. Ideale per postazioni di lavoro remote scalabili. -
GPU NVIDIA H200 con memoria HBM3e da 141 GB e larghezza di banda di 4,8 TB al secondo
GPU NVIDIA H200: memoria HBM3e da 141 GB, larghezza di banda 4,8 TB/s. Ideale per modelli AI di grandi dimensioni con 14.592 CUDA core, PCIe 5.0 e potenza di 600 W. Dispone di Transformer Engine per un allenamento 9 volte più veloce. -
Acceleratore GPU NVIDIA H200 NVL 141GB PCIe per addestramento AI e applicazioni HPC
NVIDIA H200 NVL 141GB PCIe Accelerator GPU High-Performance AI and HPC Acceleration The NVIDIA H200 NVL 141GB PCIe Accelerator delivers exceptional performance for demanding artificial intelligence training and inference, high-performance computing, and advanced graphics applications. NVIDIA Accelerators are engineered to tackle the world's most complex scientific, industrial, and business challenges through advanced AI and HPC capabilities. Key Applications Artificial -
GPU NVIDIA RTX PRO 6000 Blackwell per Workstation con 96 GB di Memoria GDDR7 e 24064 Core CUDA
NVIDIA RTX PRO 6000: GPU workstation definitiva con memoria ECC GDDR7 da 96 GB, larghezza di banda di 1,79 TB/s e die GB202 completo per AI, rendering 3D e simulazione. Affidabilità certificata ISV con 4 uscite DisplayPort 2.1b. -
GPU NVIDIA RTX PRO 4000 Blackwell con 24 GB di memoria GDDR7 40 TFLOPS Single Precision
NVIDIA RTX PRO 4000 Blackwell a slot singolo: GDDR7 ECC da 24 GB, 1290 AI TOPS, potenza massima 140 W. Ideale per AI, rendering e scienza dei dati in workstation compatte.