
TITAN GM645R-G6
Serveur IA et GPU
- 4U NVIDIA MGX™
- Double processeur AMD EPYC™ séries 9005 et 9004
- Prend en charge 8 GPU double fente de 600 W TDP chacun
- Jusqu'à 6 To de mémoire DDR5-6400 MT/s
- 16 x E1.S (PCIe5.0 x4) baies de disque remplaçables à chaud et 2 x M.2
- Gestion ASPEED AST2600
- Alimentation 3200 W (3+1) 80 PLUS Titanium
- Parfait pour la formation en IA, l'inférence IA, l'apprentissage profond et plus encore

Aperçu du produit
Le CIARA TITAN GM645R-G6 est un serveur 4U NVIDIA® MGX™ conçu pour l’entraînement IA à grande échelle, l’inférence à haut volume et les environnements IA distribués. Propulsé par deux processeurs AMD EPYC™ série 9005/9004 et 97x4 (jusqu’à 500 W chacun), il offre une performance multicœur robuste pour les charges intensives en données et orientées GPU.
Basé sur l’architecture modulaire NVIDIA MGX™, le système prend en charge jusqu’à huit GPU NVIDIA, dont les RTX™ 6000, H200 NVL, H100 NVL et L40s, avec un flux d’air, un espacement et une alimentation optimisés pour des performances GPU soutenues sous charge continue.
Avec la prise en charge de jusqu’à 6 To de mémoire DDR5 6400 MT/s, de huit ports QSFP112 400 Gb/s, d’un stockage E1.S PCIe Gen5 et d’une robuste expansion PCIe Gen5, le CIARA TITAN GM645R-G6 offre le débit réseau, la bande passante mémoire et l’évolutivité nécessaires pour les grappes d’IA modernes et les futures générations de GPU haute puissance.


Caractéristiques et avantages clés
Performance AMD EPYC™ pour les workloads IA avancés
Le CIARA TITAN GM645R-G6 intègre deux processeurs AMD EPYC™ 9005/9004 et série 97x4 (jusqu’à 500 W chacun), offrant une forte performance multicœur pour l’entraînement IA, la simulation et l’analytique à grande échelle. Cette architecture de calcul assure un traitement efficace des données et un fonctionnement fluide des charges de travail GPU lors d’opérations intensives.
Architecture MGX™ pour des performances GPU optimisée
Basé sur la plateforme modulaire NVIDIA MGX™, le système prend en charge jusqu’à huit GPU NVIDIA (600 W chacun), dont RTX™ 6000, H200 NVL, H100 NVL et L40s, avec un flux d’air, une alimentation électrique et un espacement des emplacements standardisés. Cela garantit un refroidissement constant, des performances multi-GPU fiables et une flexibilité pour adopter les GPU de prochaine génération.
Réseaux haut débit pour grappes IA
Le système inclut huit ports QSFP112 400 Gb/s équipés de NVIDIA® ConnectX®-8, offrant une bande passante réseau extrêmement élevée pour l’entraînement distribué, l’inférence multi-nœuds et le transfert massif de données. Ce niveau de connectivité est essentiel pour construire et faire évoluer des grappes IA haute performance.
Mémoire à haut débit et stockage E1.S
Avec jusqu’à 6 To de mémoire DDR5 6400 MT/s et seize baies de disques E1.S PCIe Gen5, le système offre la vitesse et le débit nécessaires pour les grands ensembles de données et les points de contrôle à haute vitesse. Cette architecture de stockage prend en charge les flux de travail d’IA critiques pour les performances et les environnements de développement en évolution rapide.
Idéal pour
Entraînement de l'IA
Inférence IA
Apprentissage profond
Simulation
Charges de travail multinœuds
Spécifications techniques
Ressources
Produits connexes













