NVIDIA : Serveurs Ampere A100, carte réseau avec GPU intégré, nouvelles plateformes

Isaac et Jarvis sont dans une voiture autonome...
NVIDIA : Serveurs Ampere A100, carte réseau avec GPU intégré, nouvelles plateformes

Comme à chaque GTC, NVIDIA multiplie les annonces sur tous les fronts : les serveurs et de nouvelles plateformes logicielles bien entendu, mais aussi des partenariats dans les domaines de la robotique, de la voiture autonome et... une carte réseau 2x 100G ave un GPU Ampere intégré (pour la 5G, entre autres) !

Lors de sa conférence en ligne organisée en marge de la GTC 2020, NVIDIA a dévoilé son GPU exploitant l'architecture Ampere, visant le datacenter : l'A100. Une première annonce de taille, mais c'était loin d'être la seule. Ce produit est en effet décliné de nombreuses manières, accompagné de nombreuses évolutions logicielles.

DGX et HGX A100, SuperPod, SaturNV : des GPU par milliers

Il y a bien entendu DGX A100 : la baie « maison » de NVIDIA qui exploite huit GPU A100 au format SXM4. Ils utilisent six NVSwitch de nouvelle génération (600 Go/s de GPU à GPU, doublée), mais pas que. On note un autre changement de taille : ce sont des processeurs EPYC d'AMD à 64 cœurs (Rome, 7 nm) qui sont désormais utilisés plutôt que des Xeon d'Intel. Le tout est accompagné de 15 To de SSD (NVMe, Gen 4) et 9 cartes réseau 2x 100G Mellanox ConnectX-6 VPI. 

De quoi développer une puissance de calcul de 156 TFLOPS, (10 PetaOPS en INT8). NVIDIA précise que ses GPU peuvent être utilisés de manière unifiée, mais aussi que chacun peut être divisé en sept petits GPU via MIG (Multi-Instance GPU), soit 56 par DGX A100... chacun étant plus performant qu'une Tesla T4 précise le constructeur.

Tarif de départ de la bête : 199 000 dollars. Bien entendu, Jen Hsun Huang en profite pour placer son habituel « The more you buy, the more you save », indiquant que ces baies permettent de se débarrasser de centaines de serveurs CPU et de leur consommation, avec des performances similaires... mais pour une fraction du prix. 

Ce sera aux clients d'en juger, afin de savoir à qui ils signeront leur chèque. Pour convaincre de nouveaux prospects, l'entreprise ajoute cette fois quelques données chiffrées issues de cas précis. Les DGX A100 peuvent eux-mêmes être regroupés en Superpod, qui peuvent également travailler ensemble. Comptez 140 baies, soit 1 120 GPU. NVIDIA en a profité pour mettre à jour son SaturNV

Plusieurs clients ont déjà passé commande de leur DGX A100, notamment des centres de recherches et laboratoires (situé pour certains en Allemagne). Allegro AI, cnvrg.io, Core Scientific, Domino Data Lab, Iguazio et Paperspace intègre pour leur part le programme DGX-Ready Software. Des DGXpert peuvent aussi être désignés, comme experts dans le domaine de l'IA aidant les clients de NVIDIA à exploiter les solutions DGX.

Notez qu'une déclinaison HGX est également au rendez-vous. Pour rappel, il s'agit de celle proposée par des intégrateurs tiers ou des services Cloud. De nombreux partenaires sont annoncés.

  • NVIDIA DGX HGX A100
  • NVIDIA DGX HGX A100
  • NVIDIA DGX HGX A100
  • NVIDIA DGX HGX A100
  • NVIDIA DGX HGX A100
  • NVIDIA DGX HGX A100

EGX A100 : réseau et GPU combinés dans une même carte

Autre grande nouveauté du jour, l'incursion enfin assumée de NVIDIA dans les télécoms. Comme Intel et son SoC Snow Ridge, ou ses solutions FPGA (N3000), le constructeur veut aller sur ce marché au potentiel commercial important, surtout avec le déploiement des réseaux 5G qui va commencer. L'Aerial SDK est ainsi mis en ligne.

Mais il vise également la robotique et les usages industriels, le médical ou la tendance Smart City avec son projet Metropolis, dont EGX est désormais une brique essentielle. L'EGX A100 combine ainsi une puce Mellanox ConnectX-6 Dx et un GPU Ampere avec Tensor Core de 3e génération (caractéristiques non détaillées). Les flux peuvent directement transiter par le GPU pour être traités : analyse et compression vidéo, de données, etc.

NVIDIA assure que tout est mis en place pour assurer la sécurité et la confidentialité des informations qui transitent par sa puce. Le tout pouvant être virtualisé, exploitant Infiniband ou Ethernet selon les besoins. La stack logicielle EGX a été mise à jour pour coller à ces usages et devrait sans doute continuer d'évoluer dans les mois à venir. Il sera intéressant de voir quels gros clients NVIDIA arrive à attirer avec de telles solutions.

EGX A100 sera disponible d'ici la fin de l'année. On apprend au passage que la carte EGX Jetson Xavier NX, pensée pour des micro serveurs edge est désormais disponible pour 399 dollars.

Mellanox annonce au passage son ConnectX-6 Lx, un SmartNIC 2x 25G (ou 1x 50G) PCIe 3.0/4.0 x8 avec accélération IPSec, RDMA GPUDirect pour NVMeOF (OverFabrics), Accelerated switching and packet processing (ASAP²), SR-IOV et VirtIO. Elle sera disponible pendant le troisième trimestre 2020.

  • NVIDIA EGX A100
  • NVIDIA EGX A100
  • NVIDIA EGX A100

Plateformes et stacks logicielles en veux-tu en voilà !

La présentation de Jen Hsun Huang a aussi été l'occasion d'évoquer de nombreux partenariats, évolutions logicielles, outils et autres annonces, trop nombreuses pour être toutes détaillées. 

On pense à CUDA 11, NSight, le HPC SDK, Apache Spark 3.0 qui supporte désormais l'accélération via les GPU, basée sur RAPIDS. NVIDIA a également dévoilé son framework Merlin visant à améliorer les systèmes de recommandation et de personnalisation en exploitant ses puces, Jarvis pour des plateformes conversationnelles moins décevantes.

Le SoC Orin, dévoilé il y a quelques mois a à nouveau été mentionné concernant les évolutions de la plateforme Drive et son extension ADAS. NVIDIA dit aussi multiplier les partenariats autour de véhicules (plus ou moins) autonomes. L'outil d'apprentissage et de gestion Isaac a d'ailleurs été sélectionné par BMW pour les robots de ses usines.

Un nouveau SDK Isaac sera disponible le 26 mai prochain.

  • NVIDIA GTC 2020 Software
  • NVIDIA GTC 2020 Software
  • NVIDIA GTC 2020 Software
  • NVIDIA GTC 2020 Software
  • NVIDIA GTC 2020 Software
  • NVIDIA GTC 2020 Software
  • NVIDIA GTC 2020 Software
  • NVIDIA GTC 2020 Software
  • NVIDIA GTC 2020 Software
  • NVIDIA GTC 2020 Automobile
  • NVIDIA GTC 2020 Automobile
  • NVIDIA GTC 2020 Automobile
  • NVIDIA GTC 2020 Automobile
  • NVIDIA GTC 2020 Automobile
  • NVIDIA GTC 2020 Automobile
  • NVIDIA GTC 2020 Automobile
  • Introduction
  • DGX et HGX A100, SuperPod, SaturNV : des GPU par milliers
  • EGX A100 : réseau et GPU combinés dans une même carte
  • Plateformes et stacks logicielles en veux-tu en voilà !
S'abonner à partir de 3,75 €

2000 - 2021 INpact MediaGroup - SARL de presse, membre du SPIIL. N° de CPPAP 0321 Z 92244.

Marque déposée. Tous droits réservés. Mentions légales et contact