Pascal à tous les étages chez NVIDIA : Tesla P100, DGX-1 à 129 000 $ et Roborace

Vroume vroum
Pascal à tous les étages chez NVIDIA : Tesla P100, DGX-1 à 129 000 $ et Roborace

La GTC était l'occasion pour NVIDIA d'annoncer la Tesla P100, son premier produit exploitant un GPU Pascal. Il était également question d'un serveur DGX-1 avec huit cartes Tesla P100, de nouveautés pour plusieurs SDK et de l'arrivée de la plateforme Drive PX 2 dans les voitures de la Roborace.

Comme chaque année, NVIDIA profite de sa GTC (GPU Technology Conference) pour dévoiler ses nouveautés en matière de GPU, entre autres choses. Bien évidemment, le PDG de la société Jen-Hsun Huang était sur scène afin d'assurer le show, mais aussi pour parler de la nouvelle architecture Pascal.

Tesla P100 (GPU Pascal GP100) : 16 nm, 15,6 milliards de transistors et HBM2

Le fabricant présente en effet sa première carte exploitant une puce Pascal (GP100) : la Tesla P100, qui devrait « offrir des performances et un rendement inégalés afin d'alimenter les applications les plus exigeantes en calcul » promet NVIDIA. Les caractéristiques techniques de la puce sont impressionnantes : elle est gravée en 16 nm FinFET et intègre la bagatelle de 15,3 milliards de transistors sur une surface de 610 mm² ; contre 8 milliards de transistors sur environ 600 mm² pour la Titan X.

Côté mémoire vive, on retrouve 16 Go de HBM2 sur 4096 bits avec un débit de 720 Go/s ainsi que 4 Mo de cache L2. Bien évidemment, NVLink est de la partie afin de proposer une bande passante d'interconnexion de 160 Go/s, soit entre plusieurs Tesla P100 soit avec le CPU. NVIDIA annonce des performances très élevées : 10,6 TFLOPS en simple précision, contre respectivement 5,3 TFLOPS (avec GPU Boost) et 21,2 TFLOPS en double et demi précision. À titre de comparaison, la Titan X de NVIDIA est donnée pour 7 TFLOPS en simple précision, mais seulement 0,2 TFLOPS en double.

Plus en détails, le GPU de la Tesla P100 dispose de 3 584 unités de traitement, soit 512 de plus que la Tesla M40. La carte fonctionne à 1 328 MHz par défaut et jusqu'à 1480 MHz en GPU Boost, contre respectivement 948 et 114 MHz pour la génération précédente.

Tout les détails techniques sont disponibles sur le blog de NVIDIA, repris en partie dans le tableau ci-dessous :

GTC 2016 GP100 Tesla P100

Lors de la keynote, Jen-Hsun Huang indique que la production des Tesla P100 a d'ores et déjà débuté et que les expéditions vont « bientôt commencer ». Les premiers serveurs l'exploitant sont attendus pour l'année prochaine. Parmi les fabricants intéressés, il est question d'IBM, de Hewlett Packard, de Dell et de Cray. 

Rien n'a par contre été annoncé concernant une éventuelle GeForce grand public équipée d'une puce GP100. Selon nos confrères de Hardware.fr qui ont tâté le terrain auprès de NVIDIA, il semble très peu probable qu'une carte graphique pensée pour le jeu exploitant ce GPU soit prévue, tant l'orientation est différente (le GP100 est pensé pour le Deep Learning). Cela n'empêchera évidemment pas NVIDIA de proposer de nouvelles GeForce prochainement, reste à voir si cela sera avec Pascal aux commandes ou non.

GTC 2016

DGX-1 : une IA avec huit Tesla P100 dans une boîte, pour 129 000 dollars

NVIDIA en profite aussi pour dévoiler son DGX-1, « le premier superordinateur dans une boite pour l'apprentissage profond ». Prenant la forme d'un serveur rackable 3U livré « clé en main », il intègre à la fois une partie matérielle et logicielle afin de se permettre aux intéressés de se lancer rapidement dans l'apprentissage profond. 

Il n'exploite pas moins de huit cartes Tesla P100 reliées via NVLink, ce qui lui permet d'offrir une puissance de calcul de près de 170 TFLOPS en demi-précision et 86 TFLOPS en simple précision. 7 To de stockage sous la forme de SSD sont également de la partie, ainsi que deux CPU Xeon de chez Intel (référence non précisée), 2x 256 Go de DDR4, deux ports réseaux 10 Gb/s et quatre InfiniBand à 100 Gb/s complètent l'ensemble. L'alimentation affiche une puissance de 3 200 watts.

GTC 2016

Le DGX-1 est dès disponible pour 129 000 dollars, avec une livraison prévue pour juin. NVIDIA estime que cela pourrait intéresser les sociétés ayant besoin de réaliser d'énormes quantités de calculs, mais sans forcément vouloir ou avoir les besoins de monter des clusters de serveurs. Le constructeur ajoute qu'il a d'ores et déjà un premier partenaire : le Massachusetts General Hospital, qui s'en servira pour éduquer une intelligence artificielle en exploitant sa base de données ne comprenant pas moins de 10 milliards d'images.

Quand les développeurs deviennent les pilotes de voitures de course

NVIDIA profite également de la GTC pour revenir sur sa plateforme Drive PX2 et son ensemble d'outils DriveWorks pour les voitures autonomes. Pour rappel, tous les deux avaient déjà été présentés au CES de Las Vegas. Le constructeur annonce cette fois-ci qu'il sera partenaire de la Roborace, un championnat où s'affronteront des voitures de course autonomes, sans pilotes (voir cette actualité).

Chaque course mettra en compétition dix équipes, chacune avec deux voitures qui seront équipées du système Drive PX 2. Le châssis et les deux « moteurs » (pour les roues et pour l'intelligence artificielle) des voitures seront donc identiques et ce sera aux développeurs de faire la différence pour remporter la victoire. Que le moins buggué gagne ? 

GTC 2016 Roborace

cuDNN 5, CUDA 8, DriveWorks... : les SDK se mettent à jour pour Pascal

Lors de sa keynote, le PDG de la société a également annoncé le lancement du « NVIDIA SDK, un SDK unifié » qui regroupe tous les outils de la société pour l'apprentissage profond, les voitures autonomes, la réalité virtuelle, les jeux, etc. Bien évidemment, l'architecture Pascal était également au cœur des nouveautés concernant les différents SDK afin que ces derniers puissent en tirer pleinement parti.

Il est tout d'abord question d'intelligence artificielle et de l'apprentissage profond avec cuDNN 5 (CUDA Deep Neural Network library). Pour rappel, celui-ci existe déjà depuis longtemps et il permet aux développeurs de se consacrer davantage sur la conception et l'apprentissage de leurs réseaux de neurones, que sur l'optimisation des performances, selon NVIDIA. cuDNN 5 arrivera au mois d'avril, avec la prise en charge de Pascal donc.

GTC 2016GTC 2016

Il est ensuite question de CUDA 8, là encore avec des optimisations pour Pascal, mais pas uniquement. Une nouvelle bibliothèque nvGRAPH (NVIDIA Graph Analytics) sera de la partie afin d'accélérer l'analyse et la création de graphiques de grande taille, accompagnée de NVIDIA IndeX 1.4 (disponible dès à présent). CUDA 8 et nvGRAPH seront tous les deux disponible dans le courant du mois de juin. De la documentation technique sur CUDA 8 est disponible ici.

Il a enfin été question de DriveWorks, un kit de développement pour les voitures connectées déjà présenté au CES. Cette trousse à outils est toujours en développement, mais elle est d'ores et déjà disponible pour certains partenaires de NVIDIA. Une ouverture plus large est prévue pour le deuxième trimestre de l'année, tandis que le lancement est attendu pour 2017, juste à temps pour la Roborace ?

Ce contenu est désormais en accès libre

Il a été produit grâce à nos abonnés, l'abonnement finance le travail de notre équipe de journalistes.

ou choisissez l'une de nos offres d'abonnement :

43 commentaires
Avatar de Maicka INpactien
Avatar de MaickaMaicka- 06/04/16 à 15:33:24

Allez allez,maintenant le grand public avec les geforce ! Vivement !

Avatar de IhazHedont Abonné
Avatar de IhazHedontIhazHedont- 06/04/16 à 15:33:49

Sûrement  les premiers GPU qui pourront exploiter la 4K dans de bonnes conditions pour jouer.

Par contre apparemment les premières cartes graphiques grand public seront bridées. Il faudra attendre soit la version Ti, soit l'autre génération pour avoir tout le potentiel.

Édité par IhazHedont le 06/04/2016 à 15:34
Avatar de XMalek Abonné
Avatar de XMalekXMalek- 06/04/16 à 15:35:32

Source comme quoi elles seront bridées ? parce qu'actuellement on a 0 informations sur les futures carets hormis un vague Q3-Q4 2016.

Avatar de stef54100 INpactien
Avatar de stef54100stef54100- 06/04/16 à 15:35:34

Moi je veux une P100D.

Avatar de maxscript INpactien
Avatar de maxscriptmaxscript- 06/04/16 à 15:37:33

3200 W ... rien que la facture d’électricité va faire mal auQ

Avatar de kwak-kwak INpactien
Avatar de kwak-kwakkwak-kwak- 06/04/16 à 15:44:39

Et moi qui ne lit que le titre en diagonale, voit "Tesla P100" ouvre la news et m'attend à voir une présentation successeur de la Tesla P90 (en parrallèle du modèle 3 qui vient d'être présenté).

Et je tombe sur une news Nvidia.. .. quelle déception

Cela dit ça parle quand même de bagnole

Édité par kwak-kwak le 06/04/2016 à 15:48
Avatar de IhazHedont Abonné
Avatar de IhazHedontIhazHedont- 06/04/16 à 15:45:29

http://arstechnica.co.uk/gadgets/2016/04/nvidia-tesla-p100-pascal-details/

 The Tesla P100 isn't even a fully-enabled version of Pascal; it's based on the company's new GP100 GPU, with 56 of its 60 streaming multiprocessors (SM) enabled. The GP100 die, with a surface area of 610 square millimetres, is roughly the same size as the GM200 Titan X. Rather than shrink down the die thanks to the smaller 16nm process, Nvidia has instead chosen to simply fill the same space up with a lot more transistors—15.3 billion of them to be precise—almost doubling that of the top-end GM200 Maxwell chip.

Édité par IhazHedont le 06/04/2016 à 15:45
Avatar de AvoLimon INpactien
Avatar de AvoLimonAvoLimon- 06/04/16 à 15:47:19

IhazHedont a écrit :

Sûrement  les premiers GPU qui pourront exploiter la 4K dans de bonnes conditions pour jouer.

Par contre apparemment les premières cartes graphiques grand public seront bridées. Il faudra attendre soit la version Ti, soit l'autre génération pour avoir tout le potentiel.

Comme ce fut le cas avec la 1er fournée kepler

Avatar de stef54100 INpactien
Avatar de stef54100stef54100- 06/04/16 à 15:48:01

Moi idem, tesla + p100 + un prix > 100k... en plus qu'ils doivent effectivement sortir une 100KWh...
C'est clairement volontaire cette ressemblance... :x

Avatar de spamator Abonné
Avatar de spamatorspamator- 06/04/16 à 15:53:57

Bel article ! On sent la maîtrise du sujet.
Je ne peux lui donner la note maximale cependant car on ne parle pas des cartes grand public !!!

Bordel, je suis impatient de savoir combien d'€ je vais devoir claquer et dans quel type de matériel ! Allé quoi !! Sébastien, fais un effort )

Il n'est plus possible de commenter cette actualité.
Page 1 / 5

Votre commentaire

Avatar de lecteur anonyme
Avatar de lecteur anonyme

2000 - 2019 INpact MediaGroup - SARL de presse, membre du SPIIL. N° de CPPAP 0321 Z 92244.

Marque déposée. Tous droits réservés. Mentions légales et contact