GPU Cisco NVIDIA H100 80 Go FHFL, PCIe passif 350 W

VENDOR: CISCO Mfg Part#: UCSC-GPU-H100-80=
Passer aux informations produits
1 de 1
La photo est uniquement à des fins d'illustration. Le produit réel peut être différent.
Prix habituel $67,974.55
Prix habituel Prix promotionnel $67,974.55
Promotion Épuisé
MSRP: $99,696.00
Frais d'expédition calculés à l'étape de paiement.
  • - Facteur de forme pleine hauteur/pleine longueur (FHFL) avec interface PCI Express
  • - Mémoire HBM2e de 80 Go fonctionnant à 1593 MHz avec une largeur de données de 5120 bits
  • - Alimenté par le contrôleur graphique NVIDIA H100
  • - Solution thermique passive pour une utilisation optimisée du flux d'air du serveur
  • - Conforme à la TAA ; fabriqué à Taiwan
  • - Consommation électrique de 350 W conçue pour les environnements de centre de données

Expédition et retours

Tous nos produits peuvent être expédiés partout aux États-Unis continentaux.

Consultez notre politique d'expédition et de retour

Afficher tous les détails

Principaux avantages

Eye-Insights
  • - Offre 80 Go de mémoire HBM2e haute vitesse et une interface 5120 bits, idéale pour le calcul de l'IA et les grands ensembles de données
  • - La solution thermique passive prend en charge un déploiement optimisé dans des environnements de serveurs à haute densité
  • - Conforme aux réglementations TAA, adapté à une utilisation gouvernementale ou par une entreprise réglementée

Présentation du produit

Le GPU Cisco NVIDIA H100 80 Go est conçu pour l'accélération de l'IA et les charges de travail de calcul haute performance . Avec 80 Go de mémoire HBM2e cadencée à 1 593 MHz et une interface 5 120 bits , il offre une bande passante de calcul exceptionnelle. Son refroidissement passif assure une gestion thermique efficace dans les environnements de serveurs d'entreprise . Intégrée via PCI Express , cette carte FHFL pleine hauteur et pleine longueur est adaptée aux systèmes Cisco UCS modernes. Conforme aux normes TAA et doté d'une puissance nominale de 350 W , ce GPU est prêt pour les applications de centre de données exigeantes.

Caractéristiques

Product Overview

Type GPU Accelerator
Graphics Controller NVIDIA H100
Graphics Processor Manufacturer NVIDIA
Form Factor Full Height/Full Length (FHFL)
Thermal Solution Passive
Power Requirements 350W
Slot Width Double-slot
Supported Servers Cisco UCS systems

Video & Memory

Video Memory / Installed Size 80 GB
Video Memory / Technology HBM2e
Video Memory / Clock Speed 1593 MHz
Video Memory / Data Width 5120-bit
Memory Bandwidth 2 TB/s

Advanced Security Features

Secure Boot Support Yes
Hardware Root of Trust Yes
NVIDIA Confidential Computing Supported (via NVIDIA Hopper architecture)

Compliance & Origin

TAA Compliance Yes
Country of Origin Taiwan
RoHS Compliance Yes
ECC Memory Support Yes
Open Compute Project (OCP) Compliant No
CE Compliance Yes
Certifications FDA Class A, FCC, UL, CB

Interfaces

Video Interface PCI Express
PCIe Interface Version PCIe 5.0 x16
PCI Express Bandwidth 64 GB/s (bidirectional)
NVLink Support Yes
NVLink Bandwidth Up to 900 GB/s with NVLink Switch System

Physical & Environmental

Dimensions (L x H) 267 mm x 112 mm
Card Length Full Length (267 mm)
Card Height Full Height (112 mm)
Cooling Data center passive cooling (requires proper airflow)
Operating Temperature Range 0°C to 55°C
Storage Temperature Range -40°C to 75°C
Relative Humidity (Operating) 5% to 85% (non-condensing)

Cloud Management & Licensing

Management Interface NVIDIA Data Center GPU Manager (DCGM)
Supported Software NVIDIA AI Enterprise Suite, CUDA Toolkit, cuDNN, TensorRT
Licensing Requirements May require licensing for software stack (NVIDIA AI Enterprise)