NVIDIA prépare un GPU A100-PCIe armé de 80 Go de HMB2E
Publié le 29/06/2021 - Source : Tom's Hardware
Comme la version SXM4, la déclinaison PCIe de l’A100 aura également droit à ses 80 Go de mémoire.
Après avoir octroyé 80 Go de HBM2E à son GPU A100 en novembre dernier, NVIDIA s’apprête à récidiver, cette fois pour le modèle FLFH (Full-Height Form-Factor) ; autrement dit celui qui s’insère dans un emplacement PCIe, à la manière d’une carte graphique grand public. Jusqu’à présent, seul le GPU au format SXM4 avait eu le privilège de recevoir deux fois plus de mémoire que le modèle d’origine.
NVIDIA a listé cette variante sur son site mais ne l’a toujours pas officiellement annoncée. Vous l’imaginez, le format SXM possède certains avantages par rapport aux cartes PCIe ordinaires, notamment en matière de TDP. Celui des A100-SXM4 est de 400 W, à la fois pour les références dotées de 40 Go que de 80 Go de HMB2E ; les A100-PCIe doivent quant à elles composer avec un TDP limité à 250 W. Il est en effet plus facile d’alimenter en énergie et de refroidir les premières que les secondes. Ainsi, les centres de données clients de NVDIA semblent privilégier les modules SXM4 aux cartes PCIe. Cela explique sûrement pourquoi NVIDIA a d’abord lancé l’A100-SXM4 avec 40 Go HBM2E, une version PCIe 4.0 ensuite, puis une A100-SXM4 avec 80 Go et enfin cette A100-PCIe prochainement.
Une carte à plusieurs dizaines de milliers de dollars
Les A100-SXM et A100-PCIe embarquent 6912 cœurs CUDA et délivrent des puissances de calcul relativement proches. En revanche, comme expliqué dans une précédente actu, la variante au format PCIe n’exploite la technologie NVLink, qui assure la communication inter-GPU, qu’entre deux cartes à la fois.
Terminons par les tarifs. Naturellement, nous ignorons celui de l’A100-PCIe 80 Go, cette référence n’ayant pas été officiellement lancée ; mais sachez que sa petite sœur armée de 40 Go de HBM2E se négocie entre 15 850 dollars et 27 100 dollars en fonction des revendeurs.