NVIDIA veut frapper fort avec ses GeForce GTX 1070 et 1080 dès 379 dollars, la VR et Ansel

2016 sera l'année du renouveau des GPU
Composants 14 min
NVIDIA veut frapper fort avec ses GeForce GTX 1070 et 1080 dès 379 dollars, la VR et Ansel

NVIDIA organisait ce week-end une petite sauterie à Austin, avec des journalistes triés sur le volet. L'occasion d'annoncer son retour sur le marché du GPU haut de gamme avec ses GeForce GTX 1070 et 1080 (Pascal) et de nouvelles technologies, parfois étonnantes.

Ces derniers mois, NVIDIA s'est concentré sur deux secteurs qui l'ont un peu éloigné de son métier de base : fabricant de GPU pour joueurs. Il faut dire que le marché était un peu morose du fait du manque d'évolution au niveau de la finesse de gravure des puces. Mais surtout, NVIDIA voulait préparer son avenir en s'ouvrant de nouveaux marchés.

Android TV pour les joueurs amateurs de multimédia

La société a donc passé pas mal de temps à démontrer que le jeu vidéo n'était pas qu'une affaire de grosses puces en investissant une partie de son temps à faire la promotion de sa console SHIELD Android TV, mais aussi de son service de streaming GeForce Now (voir notre analyse).

Le but était de montrer que la montée en puissance d'Android TV, mais aussi qu'un SoC avec de bonnes performances graphiques, permet à la fois de disposer de solutions multimédia complètes, tout en permettant de jouer à de nombreux jeux natifs, ou à des titres plus gourmands en streaming, local ou distant.

GeForce NowGeForce Now

Continuer de faire du GPU une solution d'avenir pour les serveurs (et les voitures)

Le second axe de la stratégie de NVIDIA consiste à continuer de montrer qu'outre les questions spécifiques au marché grand public et celui des joueurs, « GPU is serious business ». Ainsi, la nouvelle architecture Pascal a non pas été mise en avant tout d'abord pour ses capacités à faire tourner le prochain Battlefield ou Call of Duty, mais bien à travers des solutions de deep learning et de calcul haute performance.

En janvier dernier, on découvrait ainsi Drive PX2 dédié aux voitures autonomes. Puis DGX-1, une solution basée sur pas moins de huit Tesla P100 qui utilisent une puce Pascal dotée de 3 584 unités de traitement, pour 15,3 milliards de transistors et 300 watts de TDP. Un monstre uniquement destiné aux serveurs et qui ne devrait pas être proposé sur le marché grand public (pour le moment ?).

L'autre avantage de ce type de marché, c'est qu'il permet d'effectuer des annonces sans avoir à mettre le produit en vente de manière immédiate. De quoi répondre rapidement à AMD et ses nouvelles Radeon, sans vraiment s'opposer frontalement dans un premier temps.

Ne pas laisser AMD profiter de la fin du 28 nm pour se relancer

Car si NVIDIA indique avoir travaillé sur ses nouvelles puces depuis près de deux ans, le constructeur a décidé de laisser son concurrent partir au front avec sa Radeon Pro Duo officialisée en mars dernier et disponible depuis peu. Une solution qui fait dans l'excès puisqu'il est question de deux GPU de la génération Fiji, plus de 300 watts de TDP, deux connecteurs d'alimentation PCIe à huit broches et un tarif de pas moins de 1500 euros. Le tout avec une cible en tête : les développeurs et la réalité virtuelle.

La suite n'est attendue qu'avec Polaris 10/11, dont on sait pour le moment assez peu de choses, si ce n'est que la sortie est prévue pour cette année. Profitant d'une finesse de gravure en 14 nm, cette nouvelle génération se veut 2,5 fois plus efficace du côté des performances par watt mais aussi plus complète que la gamme actuelle au niveau du traitement vidéo et de la connectique. On devrait sans doute en apprendre un peu plus pendant le Computex de juin.

AMD Radeon Roadmap 2016 2018AMD Roadmap Mars 2016

Le père des GeForce a de son côté entretenu le mystère. Les rumeurs assez contradictoires se sont ainsi multipliées ces derniers mois, nos confrères annonçant une disponibilité rapide puis des retards, sans que l'on sache vraiment de quoi il en retourne. Finalement, c'est récemment que l'on a pu voir les premiers clichés définitifs montrant des cartes avec un nouveau ventirad aux formes plus anguleuses, le signe d'un lancement imminent. 

Et pour NVIDIA, l'enjeu est important. Le marché du GPU grand public draine toujours une bonne partie de son chiffre d'affaires et la société ne peut décemment pas continuer à se reposer sur une architecture Maxwell qui a fait son temps, et qui est contestée sur le terrain de DirectX 12, notamment en raison du support de l'asynchronous compute (voir l'analyse de nos confrères d'Hardware.fr).

GeForce GTX 1070 et 1080 : deux cartes haut de gamme, dès 379 dollars

Pour ne pas laisser le terrain libre à AMD, NVIDIA a donc décidé de frapper tôt, et fort. Cela passe par deux nouvelles cartes haut de gamme exploitant la nouvelle architecture Pascal : les GeForce GTX 1070 et 1080. Ici, c'est une finesse de gravure 16 nm FinFET de chez TSMC qui a été retenue, avec un résultat qui se veut impressionnant : une 1080 est ainsi annoncée comme deux fois plus performante qu'une 980 (165 watts), mais avec une consommation proche, annoncée à 180 watts.

NVIDIA veut ici renouveler ce qui avait fait le succès de Maxwell : ne pas tout miser sur la performance pure, mais apporter un gain important tout en réduisant la gourmandise énergétique de son GPU. De quoi faire oublier des bêtes comme la Titan X qui n'intéressent qu'un public relativement limité.

NVIDIA Pascal GeForce GTX 1070 1080GeForce GTX 1070 1080 NVIDIA

Cette volonté de rester mesuré se retrouve aussi dans les tarifs annoncés, ce qui n'est pas toujours dans les habitudes de NVIDIA. Preuve que la marque sait apprendre de ses erreurs et veut marquer le coup avec cette nouvelle génération. Ainsi, la GeForce GTX 1070 est annoncée à 379 dollars, ce qui parait raisonnable. Sa grande sœur, elle, demandera tout de même de dépenser pas moins de 599 dollars. Les tarifs en euros devraient être plus élevés, il faudra attendre le verdict des revendeurs afin d'avoir les montants exacts.

Pour les amateurs, une « Founders edition » sera aussi proposée à respectivement 449 dollars et 699 dollars. Derrière ce nom se cache en réalité le modèle de référence qui sera désormais distingué par cette dénomination purement marketing. Il faudra voir si ce surcoût est mérité dans la pratique ou si les partenaires arrivent à faire mieux, pour un tarif moindre.

Certains de nos confrères évoquent une vente directe sur le site de NVIDIA, comme pour les produits de la gamme SHIELD. Il sera intéressant de voir si un tel modèle sera suivi en France, ce qui n'est pas dans les habitudes du constructeur qui préfère ne pas se mettre à dos les revendeurs.

Une disponibilité dès le 27 mai et une gamme qui va encore évoluer d'ici Noël

Côté disponibilité, la GTX 1070 est annoncée pour le 10 juin, contre le 27 mai pour le modèle le plus haut de gamme. De quoi tenter de vous faire craquer pour celui-ci si vous êtes du genre impatient, et laisser à nos confrères le temps de recevoir les produits et tous les détails afin de publier leurs tests d'ici peu.

Car pour le moment, NVIDIA ne communique pas vraiment sur les performances ou les caractéristiques de ses deux produits. Seuls les détails de la GTX 1080 sont connus. Le GPU, qui compte 7,2 milliards de transistors, laisse une bonne marge d'évolution vers le haut de gamme puisqu'il n'intègre « que » 2 560 unités de traitement, pour une capacité de calcul annoncée à 9 TFLOPS. Pour rappel, la GTX 980 intègre 2048 unités pour 5 TFLOPS contre 2816 unités et plus de 6 TFLOPS pour la 980 Ti.

L'interface mémoire, qui reste de type 256 bits, est accompagnée de 8 Go de GDDR5X signée Micron qui se veut plus rapide et plus efficace que la GDDR5 sans être du niveau de la HBM utilisée par AMD (qui est aussi relativement coûteuse). La fréquence est de 2,5 GHz, alors que la bande passante est donnée pour 320 Go/s .

GeForce GTX 1070 1080 NVIDIA

NVIDIA passe à la GDDR5X et se limite à du 16 nm FinFET

On notera au passage que le communiqué de presse fait mention de nouveautés du côté de l'asynchronous compute, ce qui semble indiquer que les soucis rencontrés jusqu'à maintenant devraient être du passé. Il sera donc intéressant de refaire le point sur différents titres DirectX 12 dans leurs versions définitives.

D'un point de vue purement technique, NVIDIA semble donc en retrait par rapport à son concurrent qui avait exploité ce type de mémoire sur sa génération précédente et profitera d'une finesse de gravure en 14 nm. Le match qui va les opposer jusqu'à la fin de l'année en sera d'autant plus intéressant à décrypter.

Côté fréquence, la baisse de finesse de gravure semble néanmoins avoir tenu ses promesses puisqu'il est question de 1 607 MHz avec un maximum de 1 733 MHz via la technologie GPU Boost de troisième génération, sur laquelle aucun détail n'a été donné si ce n'est qu'elle doit améliorer l'overclocking.

Pendant la conférence, NVIDIA a indiqué pouvoir grimper à 2 GHz tout en restant sur un GPU à 67°C, reste à voir si ce résultat est facile à reproduire avec une carte classique. Le père des GeForce indique avoir aussi spécialement travaillé l'alimentation de sa carte et son efficacité afin de permettre de se limiter aux 180 watts annoncés.

On notera d'ailleurs qu'un seul connecteur PCIe à huit broches est présent sur la carte de référence (contre deux PCIe à six broches sur une 980). Du côté de la connectique vidéo, on retrouve trois DisplayPort 1.4 (HDR 4K@120 Hz), un HDMI 2.0b et un DVI-DL :

GeForce GTX 1070 1080 NVIDIA

GeForce GTX 1070 : mystère et boule de gomme

La GeForce GTX 1070, elle, devra se contenter de 8 Go de GDDR5 et d'une puissance de calcul annoncée de 6,5 TFLOPS, soit un gain de près de 40 % pour la GTX 1080 qui est tout de même 58 % plus chère. Des chiffres qu'il sera intéressant de vérifier dans la pratique.

Si NVIDIA est resté relativement mystérieux sur ses cartes afin de faire monter progressivement la pression jusqu'au Computex de juin, le constructeur a néanmoins décidé d'accompagner l'annonce de ses nouveaux produits par la mise en avant de nouvelles fonctionnalités.

GeForce GTX 1070 1080 NVIDIA

Perspective Surround : adapter l'image aux écrans

Comme pour toute bonne conférence sur les GPU en 2016, il a bien entendu été question de réalité virtuelle. Cela passe tout d'abord par l'amélioration de la suite VRWorks qui permettra un gain en termes de performances, mais aussi en « sens ». Le constructeur évoque la technologie Simultaneous Multi-Projection introduite avec Pascal.

Celle-ci n'est pas vraiment détaillée mais permet selon le constructeur d'adapter le rendu d'une scène 3D à la configuration d'affichage à laquelle elle est destiné :  un seul moniteur, plusieurs, incurvés ou non, casque de réalité virtuelle, etc. Une fonctionnalité nommée Perspective Surround, dont on attend de voir comment elle s'applique dans la pratique. Elle promet en effet d'adapter l'image notamment dans des configurations avec trois écrans placés de manière à créer un ensemble incurvé plutôt que de recréer une grande image un peu déformée.

NVIDIA Perspective Surround

Réalité virtuelle : VRWorks amélioré, Audio, PhysX et Funhouse au programme

Mais sur le terrain de la VR, NVIDIA met en avant le Lens Matched Shading qui permet d'éviter le rendu de pixels qui ne seront pas exploités au sein d'un casque de réalité virtuelle, ou le Single Pass Stereo qui permet d'utiliser une seule passe de calcul géométrique pour le rendu destiné à l'œil gauche et droit. De quoi permettre à la GTX 1080 d'afficher des performances doublées par rapport à la Titan X si ces solutions sont exploitées, selon le constructeur. 

VRWorks Audio fait ainsi son apparition afin d'aider les développeurs à prendre en compte la propagation du son au sein de l'environnement afin de le rendre plus réaliste. Pour cela, NVIDIA se base sur sa solution de Ray-tracing Optix. PhysX pourra de son côté être exploité pour la gestion du comportement des objets que l'on peut prendre en main dans un environnement virtuel. Une tentative de relancer l'intérêt pour cette technologie qui n'a finalement été que peu utilisée dans les jeux. 

Pour mettre en avant ces nouvelles possibilités, NVIDIA publiera bientôt sur Steam l'application VR Funhouse. Celle-ci proposera dix mini-jeux et sera proposée en open source. De quoi montrer la voie aux développeurs tout en s'adaptant à la nouvelle stratégie GPUOpen de son concurrent qui mise de plus en plus sur l'ouverture de son code source (voir notre analyse).

Ansel : devenez photographe... de jeu

Le plus inattendu de cette conférence était finalement Ansel, d'autant que son introduction a de quoi étonner : « La photographie de jeu est indéniablement une nouvelle forme d'art - les captures d'écran peuvent être sélectionnées et encadrées, et ceux avec un bon œil vont choisir les meilleures scènes et les plus belles vues, comme un photographe le ferait. Mais contrairement au monde réel, où n'importe qui avec un bon œil et un appareil photo peut prendre des clichés impressionnants, la photographie de jeu nécessite des outils de spécialistes, des versions spécifiques des jeux et du matériel haut de gamme. »

NVIDIA veut donc démocratiser cette pratique, comme il a simplifié la vie des streamers avec son Shadow Play. Il espère ainsi s'attirer les faveurs d'un nouveau public de passionnés, qui trouvera aussi son bonheur dans la réalité virtuelle, tout en proposant une solution qu'AMD n'a pas dans sa besace. 

Ansel est une technologie qui sera proposée à partir des GeForce GTX 600. Elle ne sera ainsi pas réservée aux modèles de la génération Pascal. Elle ne sera par contre proposée que dans certains jeux compatibles. Tom Clancy's The Division, The Witness, Lawbreakers, The Witcher 3, Paragon, No Man's Sky, Obduction, Fortnite et Unreal Tournament sont pour le moment les seuls qui seront concernés.

Des captures en caméra libre, au format OpenEXR, jusqu'à 8 Gigapixels ou à 360°

Dans la pratique, il sera possible de prendre des captures au sein d'un jeu en profitant de plusieurs fonctionnalités comme le fait de repositionner librement la caméra pour effectuer une capture, avec la possibilité de zoomer sur une zone en particulier. 

Vous pourrez aussi prendre des clichés à très haute définition, jusqu'à 32 fois celle de votre écran (sans pouvoir dépasser 8 Gigapixels. Pour les adeptes de HDR, le format OpenEXR sera supporté, tout comme les captures à 360°. Elles pourront être utilisée avec le NVIDIA VR Viewer proposé sur le Play Store.

Enfin, des filtres de post-processing (grain, noir et blanc, sépia, hue shift, etc.) pourront être utilisés afin d'améliorer le rendu final de vos captures avant même de les retravailler dans un outil dédié.

NVIDIA AnselNVIDIA Ansel

2016 : l'année du renouveau pour le GPU et les joueurs

Bref, NVIDIA semble bien décidé à revenir sur le terrain du haut de gamme avec ses nouveaux GPU et des fonctionnalités dédiées à des usages avancés. Si la marque n'a pas tous les derniers atouts technologiques dans sa poche, elle dispose d'une carte pour joueurs qui reste à peu près accessible et d'un modèle haut de gamme plutôt prometteur pour ceux qui ont le budget suffisant.

Reste maintenant à voir ce que tout ce petit monde propose dans la pratique. Mais une chose est sûre, AMD va devoir batailler pour contrer Pascal et ne pourra pas se contenter d'une architecture Polaris qui ne serait qu'une évolution de la gamme actuelle. Déjà en retrait par rapport à Maxwell du côté des performances par watt, elle nécessite encore un refroidissement liquide ou une limitation des fréquences pour tenir la route.

NVIDIA a d'ailleurs su se garder du mou afin de proposer des modèles plus accessibles dans le courant de l'année. Nombreux seront ceux qui attendront sans doute l'arrivée d'une éventuelle GeForce GTX 1060 pour craquer. On peut aussi imaginer qu'une 1080 Ti qui exploitera un GPU plus proche du GP100 et ses 3 584 unités de traitement pourra être mise sur le marché dans un second temps. 

Après plusieurs années plus ou moins décevantes du côté de l'évolutoin des GPU, 2016 devrait être bien plus passionnante. Le tout sur fond de consoles plus puissantes dans nos salons, de multiplications de jeux exploitant DirectX 12 ou Vulkan (DOOM exploitant cette API a été montré à plus de 200 fps lors de la conférence NVIDIA) et, espérons-le, d'une extension des solutions de « cloud gaming » à nos bons vieux PC. 

Ainsi, le Computex et l'E3 qui ouvriront leurs portes dans un mois environ devraient être l'occasion d'en savoir plus et sans doute d'avoir droit à quelques surprises. Il ne reste donc plus qu'à attendre afin de découvrir ce que l'avenir du jeu vidéo nous réserve réellement.

Ce contenu est désormais en accès libre

Il a été produit grâce à nos abonnés, l'abonnement finance le travail de notre équipe de journalistes.

ou choisissez l'une de nos offres d'abonnement :

104 commentaires
Avatar de Soltek Abonné
Avatar de SoltekSoltek- 09/05/16 à 10:45:32

Je me demande si les constructeurs vont sortir des modèles sur le tarif le plus bas.
Actuellement aucun modèle de GPU pour joueur utilise le modèle de référence de Nvidia (ou AMD) mais tout le temps un custom avec un meilleur système de refroidissement.
À voir la différence entre les 2 éditions du Caméléon.

Avatar de thorspark INpactien
Avatar de thorsparkthorspark- 09/05/16 à 10:49:45

Merci pour les explications détaillées, c'est plus lisible que sur d'autres sites.
Personnellement, je serais assez tenté par une 1070 qui pour un prix raisonnable serait capable de soutenir les fps sur un écran 3k5 (3440x1440), ce qu'une 970 ne fait clairement pas.
Mais ça attendra un peu, le temps que des variantes de la carte sortent, et qu'AMD sorte ses nouvelles cartes.

Avatar de Northernlights Abonné
Avatar de NorthernlightsNorthernlights- 09/05/16 à 10:53:39

C'est bien la grille arrière, ca permettra de chauffer les connecteurs :).

Vu le gain de perf annoncé, les 60fps en 4k (ultra) ne sont pas encore la. (ptet les 30...)

Édité par Northernlights le 09/05/2016 à 10:53
Avatar de NeedSumSleep INpactien
Avatar de NeedSumSleepNeedSumSleep- 09/05/16 à 10:54:34

je sais pas y'a encore un petit saut en terme de perf et technologie à faire pour me convaincre, notamment vis à vis de la HBM. Je pense que si quelqu'un veut s'offrir un 1080 devrait plutôt attendre quelques mois pour une version Ti courant. Après si la 1070 est aussi bonne rapport qualité/prix que la 970 se sera une bonne affaire

Avatar de David_L Équipe
Avatar de David_LDavid_L- 09/05/16 à 10:59:15

Les tarifs annoncés sont ceux des constructeurs, le modèle de référence sera plus cher comme précisé. NVIDIA change juste sa façon de présenter les choses, mais ses ventirad de références étaient souvent utilisés sur le haut de gamme (sur l'entrée de gamme c'est quasi tout le temps du custom).

Après il faudra voir quels seront les tarifs réels sur le marché EU et notamment chez nous (mais pour ça je préfère attendre de voir ce qu'annoncent les revendeurs).

Avatar de David_L Équipe
Avatar de David_LDavid_L- 09/05/16 à 11:02:15

C'est tout le souci d'analyser la nouveauté que sur le plan de la techno pure, en oubliant les impacts sur le reste. La différence entre le 14nm d'AMD et le 16 nm de NVIDIA sera intéressant à analyser dans les faits, que ce soit au niveau des fréquences ou de la consommation. En général les choix techniques sont relativement bien étudiés avant toute décision, espérons que l'on pourra en savoir plus sur les motivations de chacun.

Pour la question de la HBM, je pense que c'est moins une problématique étant donné que le gain en BP ne se concrétise pas toujours en fps, sans parler du surcoût au passage (l'un des soucis de la gamme Fiji chez AMD). La techno est intéressante, mais sans doute pas assez mature. Là aussi, il faudra comparer mais ça me semble déjà plus "logique" surtout dans un premier temps (ou en attendant la HBM 2).

Avatar de tiret Abonné
Avatar de tirettiret- 09/05/16 à 11:02:27

Je compte prendre une GeForce 1070 à la sortie, maintenant j'espère qu'elle ne sera pas tellement au-dessus de 400 euros quand même.

Avatar de Soltek Abonné
Avatar de SoltekSoltek- 09/05/16 à 11:06:25

Merci

tiret a écrit :

Je compte prendre une GeForce 1070 à la sortie, maintenant j'espère qu'elle ne sera pas tellement au-dessus de 400 euros quand même.

Compte pas trop là-dessus

Avatar de Dice34110 Abonné
Avatar de Dice34110Dice34110- 09/05/16 à 11:08:37

j'aurais dit que le références était utilisé sur le milieux de gamme. En bas c’était du blowers custom et bruyant, En haut des customs multi-ventilateur et des rad massif (ou watercooler depuis quelque temps) et au milieu le design ref qui malgré tout et pas forcement aimé par la communauté malgré des qualité certaine (un peu bruyant sur la gen 6)

Avatar de Aricko INpactien
Avatar de ArickoAricko- 09/05/16 à 11:10:56

tiret a écrit :

Je compte prendre une GeForce 1070 à la sortie, maintenant j'espère qu'elle ne sera pas tellement au-dessus de 400 euros quand même.

Si ça fait comme les générations précédentes : ça démarrera au prix annoncé, puis ça explosera après quelques semaines, pour enfin redescendre petit à petit et entendre dire "ça baisse ! c'est génial"... mais sans jamais atteindre le prix initial.

Bon ok je frôle le troll, mais ne suis probablement pas loin de la vérité.

Ceci dit, dans l'attente de benchs réels et sérieux (du moins je l'espère), personne ne prend le temps de mettre en avant le graphique d'NVidia, qui montre lui même que les X2 ou X3 ne s'appliquent pas vraiment où les gens l'attendent (dans les jeux quoi).

Wait & See, mais quoiqu'il arrive, je vais enfin remplacer ma 660 Ti

Il n'est plus possible de commenter cette actualité.
Page 1 / 11

2000 - 2019 INpact MediaGroup - SARL de presse, membre du SPIIL. N° de CPPAP 0321 Z 92244.

Marque déposée. Tous droits réservés. Mentions légales et contact