OVHcloud se prépare à intégrer des serveurs DGX-2 de NVIDIA dans son offre PaaS

En attendant Ampere...
OVHcloud se prépare à intégrer des serveurs DGX-2 de NVIDIA dans son offre PaaS

Les GPU prennent de plus en plus de place dans les datacenters. La preuve, même Intel aura les siens sous peu. Mais au-delà des annonces, il faut être attentif à ce que proposent les intégrateurs et hébergeurs. Déjà « client » des DGX-1 de NVIDIA, OVHcloud passe aux DGX-2, toujours sur architecture Volta.

Si NVIDIA commercialise depuis quelques années maintenant ses propres serveurs sous la marque DGX, et AGX via des intégrateurs tiers, il a plus récemment cherché à en faciliter l'accès aux développeurs et autres entreprises à travers son programme partenaire NPN.

Malheureusement, en France, Atos est le seul acteur clairement mis en avant. Il faut se tourner vers ce formulaire pour avoir la liste complète de fournisseurs de services proposant du DGX. Et du côté des hébergeurs ? Si Scaleway avait un temps évoqué cette possibilité, nous n'avons pas eu de nouvelles depuis. Seul des GPU Pascal (P100) ayant été mis en production à petit prix (1 euro de l'heure). Aucun programme de test sur Tesla V100/A100 ne semble en cours.

DGX de NVIDIA : OVHcloud passe en v2

OVHcloud avait pour sa part exposé des DGX-1 watercoolés l'année dernière, une solution annoncée dès 2017, certifiée NVIDIA GPU Cloud depuis l'année dernière. Depuis, l'offre GPU a été mise en vente, entre 2,3 et 9,4 euros de l'heure pour 1 à 4 V100, avec des instances plus ou moins performantes.

On apprend que la suite arrive, mais il ne s'agit pas (encore) de la version A100  basée sur l'architecture Ampere. Octave Klaba vient en effet de publier la photo de serveurs DGX-2, annoncés en mars 2018. Deux clusters sont en train d'être installés au sein de datacenters en France et au Canada pour un total de 5 millions de cœurs, sans que l'on ne sache s'ils respectent l'architecture de référence DGX Pod).

NVIDIA DGX-2 OVHcloudNVIDIA DGX-2 OVHcloud

Cela ferait une soixantaine de serveurs, chacun composé de 16 GPU Tesla V100 pour un total de 81 920 CUDA Cores. Ils sont prévus pour une offre Public Cloud autour de l'IA (as-a-service), tant pour les phases d'entraînement que d'inférence. Elle doit prochainement être proposée en bêta, sans plus de détails sur le tarif.

Il n'est d'ailleurs plus question de watercooling ou de détails techniques, mais bien « de réduction des coûts de 50 % par rapport aux hyperscalers, de quoi changer l'état d'esprit : lancez vos jobs, pas des VMs » selon Octave Klaba. Rien n'a été évoqué concernant une potentielle migration vers Ampere et les A100.

Prochaine étape : Ampere ?

Pour rappel, ces GPU ont de nombreux avantages pour de telles offres, puisqu'outre leurs évolutions techniques et les gains en termes de performances, ils ont la possibilité d'être « découpés » (via SR-IOV) en un maximum de sept portions disposant de cœurs et mémoire dédiés, comme s'ils étaient composés de plusieurs GPU distincts.  L'idéal pour les hébergeurs qui vendent de la puissance à la demande. Qui sera le premier français à sauter le pas ?

4 commentaires

Commentaire de Abolah supprimé le 11/06/20 à 10:10:45 : Demande de l'auteur

Commentaire de David_L supprimé le 11/06/20 à 10:11:01 : Demande de l'auteur

Commentaire de Abolah supprimé le 11/06/20 à 10:09:58 : Demande de l'auteur

Commentaire de Ticapix supprimé le 11/06/20 à 10:10:29 : Demande de l'auteur

Il n'est plus possible de commenter cette actualité.

2000 - 2020 INpact MediaGroup - SARL de presse, membre du SPIIL. N° de CPPAP 0321 Z 92244.

Marque déposée. Tous droits réservés. Mentions légales et contact