GPU CISCO NVIDIA H100 80 Go 350 W 2 emplacements FHFL

VENDOR: CISCO Mfg Part#: HCI-GPU-H100-80=
Passer aux informations produits
1 de 1
La photo est uniquement à des fins d'illustration. Le produit réel peut être différent.
Prix habituel $67,974.55
Prix habituel Prix promotionnel $67,974.55
Promotion Épuisé
MSRP: $99,696.00
Frais d'expédition calculés à l'étape de paiement.
  • GPU au format FHFL à 2 emplacements pour la compatibilité avec les architectures de serveurs d'entreprise
  • 80 Go de mémoire permettant des charges de travail à haut débit et à forte intensité de calcul
  • Consommation électrique de 350 W pour des capacités de traitement hautes performances
  • Fabriqué à Taïwan, répondant aux exigences d'approvisionnement spécifiques à la région
  • Conforme à la TAA, adapté aux déploiements gouvernementaux ou aux entreprises réglementées

Expédition et retours

Tous nos produits peuvent être expédiés partout aux États-Unis continentaux.

Consultez notre politique d'expédition et de retour

Afficher tous les détails

Principaux avantages

Eye-Insights
  • Conçu pour les environnements hautes performances avec 80 Go de mémoire et une puissance GPU de 350 W
  • La conformité TAA en fait un choix idéal pour les achats informatiques des gouvernements ou des entreprises réglementées
  • Conçu par Cisco, intégrant l'architecture avancée de NVIDIA dans des normes d'infrastructure de confiance

Présentation du produit

Le GPU CISCO NVIDIA H100 FHFL à 2 emplacements est conçu pour les charges de travail intensives en informatique d'entreprise et en IA, avec une puissance de 350 W et 80 Go de mémoire . Son format FHFL s'adapte aux châssis d'entreprise standard et est conforme aux normes TAA (Technology Association of America) et fabriqué à Taïwan . Conçu pour les applications GPU évolutives dans les centres de données, ce processeur est idéal pour les déploiements gourmands en ressources et les infrastructures conformes aux réglementations.

Caractéristiques

Product Overview

GPU Model NVIDIA H100
GPU Architecture Hopper
Memory Size 80 GB
Memory Type HBM3
Form Factor 2-Slot Full Height Full Length (FHFL)
TDP (Thermal Design Power) 350 W
Product Type GPU Accelerator
Use Case AI, ML, Data Analytics, High Performance Computing (HPC)
Cooling Type Passive (requires server airflow)
Compute Capability 9.0
Max Power Consumption 350 W
Slot Occupancy Dual-Slot

Wireless Features

Compliance & Origin

TAA Compliant Yes
Country of Origin Taiwan
RoHS Compliance Yes
ECC Memory Support Yes
Environmental Certification RoHS, REACH

Advanced Security Features

Secure Boot Yes
Hardware Root of Trust Yes
Encrypted Memory Yes
Secure Firmware Update Yes

Interfaces

Interface Type PCI Express 5.0 x16
Data Transfer Rate Up to 64 GB/s
NVLink Support Yes
NVLink Bandwidth Per GPU 900 GB/s
Number of NVLink Bridges Supported Up to 3
PCIe Gen Support Gen 5.0

Physical & Environmental

Card Dimensions (L x H) 267 mm x 112 mm
Form Factor Details FHFL Dual Slot (Standard width x full height x full length)
Minimum System Power Requirement 800 W or higher (system dependent)
Cooling Requirements Requires chassis airflow management
Operating Temperature Range 0°C to 55°C
Relative Humidity (operating) 5% to 85% non-condensing
Vibration – Operating 0.02 g²/Hz, 15 min per axis
Shock – Operating 30G (5ms), 3 shocks per axis

Cloud Management & Licensing

Management Software Compatibility NVIDIA NGC, NVIDIA AI Enterprise
Driver Support NVIDIA Data Center GPU Driver
Supported Frameworks TensorFlow, PyTorch, MXNet, RAPIDS, cuDNN
Software Licensing Requirements NVIDIA AI Enterprise (optional)