GPU Xe HPC Ponte Vecchio, Intel prépare un monstre de puissance ?

Spread the love
  • Yum

Lors de sa conférence “Architecture Day” Intel a proposé plusieurs détails techniques autour de ses solutions Xe HPC Ponte Vecchio. Nous avons aussi quelques informations concernant les performances. Il s’agit par contre de données « préliminaires » issues de prototypes (A0).

L’une des dernières puces en question atteint les 45 TFLOPs en FP32. Ce chiffre est prometteur. Obtenu à l’aide d’une plateforme Xeon “Sapphire Rapids” exécutant un seul OAM Ponte Vecchio, ce score est au-dessus des 19.5 TFLOPs  annoncés pour l’A100 Tensor Core de Nvidia. AMD ne s’en sort pas mieux avec sa solution Instinct MI100 et ses 23.1 TFLOPs toujours en FP32.

GPU Xe HPC Ponte Vecchio

La référence « A0 silicon » indique qu’il s’agit d’un premier lot de puces. Ces prototypes sont probablement en circulation dans les laboratoires d’Intel et chez un groupe « exclusif » d’éditeurs de logiciels. Il est aussi possible que quelques partenaires de l’industrie soient concernés moyennant le respect d’un NDA très stricte. Il n’y a rien d’étonnant car ce type de démarche est courante.  L’expédition de « jeunes » prototypes à des fréquences inférieures à celles de la version finale permet aux éditeurs de préparer leurs logiciels. La finalité est d’être opérationnel lors de l’annonce officielle afin d’exploiter toute le potentiel de ces nouveautés.

Il est possible que d’ici le lancement, la puissance soit encore revue à la hausse.  Pourquoi ? Intel peut envisager une hausse de la fréquence sachant que nous sommes face à de “jeunes” prototypes. Il n’y a cependant pas de certitude. Les rumeurs évoquent déjà une importante demande énergétique. Il serait question de 600 W pour cette version A0 nécessitant au passage un refroidissement liquide pour ces OAMs.

GPU Xe HPC Ponte Vecchio

A titre d’information, voici les différentes caractéristiques des solutions A100 de Nvidia

Spécifications

A100 40 Go PCIe A100 80 Go PCIe A100 40 Go SXM A100 80 Go SXM
FP64 9,7 TFlops
FP64 Tensor Core 19,5 TFlops
FP32 19,5 TFlops
Tensor Float 32 (TF32) 156 TFlops | 312 TFlops
BFLOAT16 Tensor Core 312 TFlops | 624 TFlops
FP16 Tensor Core 312 TFlops | 624 TFlops
INT8 Tensor Core 624 TOPs | 1248 TOPs
Mémoire GPU 40 Go HBM2 80 Go HBM2e 40 Go HBM2 80 Go HBM2e
Bande passante GPU 1555 Go/s 1935 Go/s 1555 Go/s 2039 Go/s
Enveloppe thermique (TDP) 250W 300W 400W 400W
GPU multi-instances Jusqu’à 7 instances MIG à 5 Go Jusqu’à 7 instances MIG à 10 Go Jusqu’à 7 instances MIG à 5 Go Jusqu’à 7 instances MIG à 10 Go
Configuration PCIe SXM
Interface d’interconnexion Pont NVIDIA NVLink pour 2 GPU : 600 Go/s
PCIe Gen4 : 64 Go/s
NVLink : 600 Go/s
PCIe Gen4 : 64 Go/s
Options de serveur Systèmes partenaires et systèmes NVIDIA certifiés avec de 1 à 8 GPU Systèmes partenaires NVIDIA HGX A100 et systèmes NVIDIA certifiés avec 4, 8 ou 16 GPU
NVIDIA DGX A100 avec 8 GPU

Leave a Reply

%d bloggers like this: