Résultats de recherche pour:
pcie gpu
(27 Articles)-
GPU NVIDIA H100 80 Go PCIe avec architecture Hopper et interface PCIe 5.0 x16
GPU NVIDIA H100 80 Go PCIe : architecture Hopper avec 80 Go HBM3, bande passante de 2 To/s et Transformer Engine pour AI/HPC. Comprend MIG, Confidential Computing, PCIe 5.0 et inclut le logiciel NVIDIA AI Enterprise. -
GPU NVIDIA H100 NVL de 94 Go avec architecture Hopper et PCIe 5.0 x16
Le GPU NVIDIA H100 NVL 94 Go offre des performances LLM 12 fois plus rapides que l'A100, avec 188 Go de mémoire HBM3 dans des configurations doubles. Idéal pour les modèles GPT-175B, doté de Transformer Engine et PCIe 5.0 pour une inférence IA efficace et une formation sur les serveurs standard. -
Accélérateur PCIe NVIDIA L40S 48 Go avec 18176 cœurs CUDA
NVIDIA L40S : accélérateur de centre de données universel de 48 Go avec 18 176 cœurs CUDA, cœurs Tensor de 4e génération et cœurs RT. Idéal pour les charges de travail de formation, d’inférence et de graphiques en IA. Sécurité d'entreprise, mémoire ECC et refroidissement passif. -
Accélérateur PCIe de mémoire NVIDIA L4 24 GB GDDR6 avec enveloppe de puissance de 72 W
NVIDIA L4 24 Go PCIe : accélérateur IA/vidéo universel avec 24 Go GDDR6, puissance 72 W, performances vidéo IA 120x par rapport au CPU. Refroidissement passif à emplacement unique pour un déploiement efficace en périphérie/centre de données. -
NVIDIA A16 64 Go GDDR6 Mémoire PCIe 4.0 x16 Centre de données GPU 250 W Consommation électrique
GPU NVIDIA A16 64 Go : carte Quad-GPU pour VDI haute densité, prenant en charge 64 utilisateurs. Double la densité d'utilisateurs par rapport au M10 avec 64 Go de mémoire ECC, des cœurs RTX et Tensor et un décodage AV1. Idéal pour les postes de travail distants évolutifs. -
GPU NVIDIA H200 141 Go HBM3e avec une bande passante de 4,8 To par seconde
GPU NVIDIA H200 : 141 Go de mémoire HBM3e, bande passante de 4,8 To/s. Idéal pour les grands modèles d'IA avec 14 592 cœurs CUDA, PCIe 5.0 et une puissance de 600 W. Comprend Transformer Engine pour un entraînement 9 fois plus rapide. -
NVIDIA H200 NVL 141GB PCIe Accelerator GPU pour la formation de l'IA et les applications HPC
NVIDIA H200 NVL 141GB PCIe Accelerator GPU High-Performance AI and HPC Acceleration The NVIDIA H200 NVL 141GB PCIe Accelerator delivers exceptional performance for demanding artificial intelligence training and inference, high-performance computing, and advanced graphics applications. NVIDIA Accelerators are engineered to tackle the world's most complex scientific, industrial, and business challenges through advanced AI and HPC capabilities. Key Applications Artificial -
NVIDIA RTX PRO 6000 Blackwell Workstation GPU avec 96 Go de mémoire GDDR7 et 24064 cœurs CUDA
NVIDIA RTX PRO 6000 : GPU de station de travail ultime avec 96 Go de mémoire GDDR7 ECC, 1,79 To/s de bande passante et une matrice GB202 complète pour l'IA, le rendu 3D et la simulation. Fiabilité certifiée ISV avec 4 sorties DisplayPort 2.1b. -
NVIDIA RTX PRO 4000 Blackwell GPU avec 24 Go de mémoire GDDR7 40 TFLOPS avec une seule précision
NVIDIA RTX PRO 4000 Blackwell à emplacement unique : 24 Go GDDR7 ECC, 1290 AI TOPS, puissance maximale de 140 W. Idéal pour l'IA, le rendu et la science des données sur des postes de travail compacts.