DLSS et NGX, OC simplifié, 8K, NVLink et VirtuaLink : les GeForce RTX au-delà du ray tracing

Parce qu'il le faut bien
Composants 12 min
DLSS et NGX, OC simplifié, 8K, NVLink et VirtuaLink : les GeForce RTX au-delà du ray tracing

Outre les améliorations apportées à ses GPU, NVIDIA accompagne le lancement des GeForce RTX de nouvelles fonctionnalités. Si l'on ne sait toujours pas si les pilotes de la branche 400 auront droit à une cure de jouvence, voici tous les détails que nous avons pu récolter.

Nous l'avons vu, l'architecture Turing de NVIDIA apporte des évolutions au-delà de la simple intégration des RT Cores et de l'accélération du ray tracing. Tant mieux pour le constructeur qui ne va rien avoir à mettre sous la dent de ses clients sur ce terrain avant encore quelques mois. Il le sait et a d'ailleurs commencé à adapter sa communication.

Mais une carte graphique est bien plus qu'un GPU. C'est aussi la qualité de son intégration, la gestion des fréquences et toute une ribambelle de solutions logicielles qui peuvent nous simplifier la vie au quotidien. Au-delà de l'évolution des unités de calcul, caches et autres dispositifs de compression de la mémoire, NVIDIA a travaillé sur ces différents aspects.

Nous allons nous plonger dans chacun d'eux avant l'analyse pratique, une fois les cartes arrivées dans nos labos. Cela nous permettra de comprendre comment le constructeur tente de justifier la hausse de sa tarification autrement que par un gain de performances de 30 %.

Notre dossier sur Turing et les GeForce RTX :

NGX : les réseaux de neurones au chevet des Gamers (mais pas que)

Première fierté de NVIDIA sur la fusion entre les architectures Pascal et Volta que représente Turing, ses Tensor Cores. Ce sont pour rappel des unités spécialisées dans les calculs liés à l'intelligence artificielle.

De manière plus concrète, elles sont chargées d'effectuer plus rapidement que les CUDA Cores des calculs sur des matrices de 4x4 en précision dite mixte. Chacune peut traiter 64 opérations FMA (FP16) par cycle, mais aussi se focaliser sur des modes de précision plus faibles comme INT8 ou INT4.

Elles sont intégrées par blocs de huit dans chaque Streaming Multiprocessors (SM). Une GeForce RTX 2070 en contient 288, contre 368 pour une RTX 2080 et 544 pour une RTX 2080 Ti. Mais quel rapport avec le jeu vidéo ? Les éditeurs pourraient les exploiter pour rendre leurs IA plus « intelligentes », mais ce n'est pas l'approche privilégiée.

  • GeForce RTX NGX DLSS
  • GeForce RTX NGX DLSS
  • GeForce RTX NGX DLSS

En réalité, c'est sur NGX que misent NVIDIA et ses partenaires. Cet acronyme, qui signifie Neural Graphics Acceleration, permet de tirer parti de réseaux de neurones (DNN) afin d'améliorer le rendu ou la qualité d'image (par exemple). Cette solution est une plateforme, ce qui signifie chez NVIDIA qu'elle comporte une dimension accessible aux développeurs et éditeurs (notamment l'API NGX) et une intégration côté client.

Ici, c'est GeForce Experience (GFE) qui prend le relai, ou Quadro Experience (QXP), proposée aux professionnels sous forme d'une Tech Preview. Dans la pratique, lorsqu'un GPU de la génération Turing est détecté, un élément complémentaire est récupéré : NGX Core. Il fera le lien entre les applications et NGX.

Pour les joueurs, il faut voir NGX comme un dispositif de profils. NVIDIA ou les éditeurs peuvent ainsi entraîner un réseau de neurones pour une fonctionnalité précise, et mettre à disposition des utilisateurs le résultat. Celui-ci sera récupéré à travers GFE ou QXP et utilisé dans l'application ou le jeu auquel il est lié. Plus tard, le jeu pourra directement l'intégrer.

Les modèles ainsi générés peuvent s'interfacer via CUDA 10, mais également DirectX ou Vulkan précise NVIDIA.

DLSS : de l'IA dans l'AA

L'exemple le plus mis en avant par le constructeur de cette implémentation est le Deep Learning Super Sampling (DLSS), les travaux sur NGX concernant beaucoup la reconstruction ou l'amélioration de l'image.

Ainsi, plutôt que d'utiliser des méthodes classiques d'anti-aliasing (AA), plus ou moins coûteuses en performances, l'idée est d'exploiter un réseau de neurones chasseur de petits effets d'escaliers. NVIDIA indique que la méthode utilisée consiste à calculer et collecter des milliers d'images avec une définition agrandie 64 fois (Super-sampling 64x).

Servant de références, elles sont ensuite comparées à un rendu classique du jeu, le réseau de neurones étant alors entrainé à retrouver un résultat le plus proche possible de la version de référence via la méthode dite de rétropropagation du gradient. Il doit au passage apprendre à éviter les effets secondaires des méthodes classiques d'AA tels que le flou, la transparence, la désocclusion, etc.

Selon le constructeur, cette solution permet d'obtenir un résultat sans commune mesure avec les méthodes habituelles. Surtout, elle le fait avec des performances renforcées par rapport à une solution pourtant jugée efficace comme le Temporal AA (TAA). Notamment grâce à l'intégration des Tensor Cores, mais aussi un rendu inférieur pour l'image de départ. 

GeForce RTX NGX DLSSGeForce RTX NGX DLSS

La passe de traitement de DLSS ne se limite donc pas à la seule question de l'aliasing. La solution semble plutôt efficace et améliorera surtout la vie de ceux qui jouent à des définitions classiques (1080p, 1440p) et qui veulent un rendu de bonne qualité. Des points qu'il nous tarde de vérifier dans la pratique. 

En complément de la méthodologie classique, une autre est proposée : DLSS 2X. Il s'agit ici d'utiliser un réseau de neurones plus important, mais surtout d'utiliser en entrée une image dans la définition finale et non amoindrie, le résultat devant alors un peu plus s'approcher du niveau d'un super sampling 64x, au prix de performances plus faibles.

NVIDIA ne s'y trompe d'ailleurs pas puisque seuls des comparatifs de qualité sont proposés pour ce mode, il n'est plus question de performances chiffrées.

Comme évoqué, DLSS affiche également une limite de taille : un réseau de neurones doit être entraîné (et éventuellement mis à jour) pour chaque jeu, 25 étant compatibles. Les liens avec les éditeurs seront donc importants. Mais du SLI à 3D Vision, en passant par les profils de réglages de GFE, NVIDIA a déjà montré qu'il savait gérer ce genre de choses sur le long terme.

Slow-Mo, Super Rez et Inpainting

DLSS n'est pas le seul débouché qui devrait être exploité, loin de là. Trois solutions sont évoquées dans les documents techniques liées à NGX. Nous avons déjà eu l'occasion de parler de la première, Super Rez, qui vise à obtenir une image de définition supérieure via un réseau de neurones.

Elle sera notamment exploitée pour Ansel RTX avec AI Up-Res qui arriveront dans GFE à l'automne. Des dizaines de milliers d'images auraient été utilisées pour l'entrainement du réseau de neurones permettant de faire passer une image en 1080p à une définition de 8K. Les concepteurs de TV y seront sans doute attentifs.

Mais les éditeurs d'applications de traitement d'images ou de montage vidéo pourraient également être intéressées. Inpainting permet ainsi de retrouver les éléments effacés d'un cliché, sans doute une future killer feature de Photoshop. L'ajout artificiel d'un effet de slow-motion a aussi déjà été démontré par NVIDIA.

GeForce RTX AnselGeForce RTX Ansel

Connectique fournie et compression HEVC HDR 8K30 en temps réel

Dans le domaine de la vidéo, les GeForce RTX affichent d'autres évolutions intéressantes. Tout d'abord la connectique assez complète des cartes de référence (Founders Edition) : HDMI 2.0b, DisplayPort 1.4a et VirtualLink. Deux écrans 8K peuvent ainsi être gérés en simultané, à 60 Hz.

Le HDMI 2.0b gère la 4K à 60 Hz et la protection HDCP 2.2, le DP 1.4a monte à de la 8K à 60 Hz et peut exploiter la version 1.2 de la compression Display Stream (DSC). VirtualLink se destine aux casques de réalité virtuelle nouvelle génération. NVIDIA a sauté sur l'occasion pour revoir son moteur de (dé)compression vidéo (NVENC), qui passe aussi à la 8K

Il est donc capable de gérer un flux 8K30 avec HDR, en HEVC (H.265) et en temps réel (soit plus de 30 ips). La compression HEVC est améliorée de 25 %, contre 15 % pour le H.264. De quoi proposer une meilleure qualité d'image à nombre de flux identiques. La société vise clairement les usages professionnels et veut marquer des points face aux CPU. 

La phase de tone mapping du HDR est gérée côté matériel et intégrée au pipeline graphique. Côté décompression, les flux VP9 HDR 10 et 12 bits sont pris en charge, tout comme HEVC HDR 8, 10 et 12 bits (4:4:4).

GeForce RTXGeForce RTX

USB Type-C : VirtualLink fait son entrée

Concernant le port VirtualLink, c'est une première pour des cartes graphiques grand public. On retrouve cette connectique sur l'ensemble des GeForce RTX et Quadro RTX de référence, mais il faudra voir si tous les partenaires de NVIDA la conservent sur leurs différents modèles. 

Ce standard repose sur un connecteur USB Type-C. Il peut gérer un flux vidéo DisplayPort 1.4a (quatre liens High Bit Rate 3) et donc grimper à une définition de 8K à 60 Hz, avec HDR. Il peut être utilisé simultanément avec un flux de données USB 3.1 Gen 2, contrairement à un connecteur classique où il faut choisir entre l'un ou l'autre. 

Il fournit également une alimentation pouvant grimper jusqu'à 27 watts (pourra-t-on y recharger un smartphone ?). NVIDIA précise d'ailleurs que son utilisation implique jusqu'à 35 watts de TDP, complémentaire à celui du GPU. Il sera donc à prendre en compte dans le dimensionnement de la solution de refroidissement. 

L'idée est de simplifier la connexion des casques de réalité virtuelle, ce qui ne sera pas un luxe. Il doit permettre aussi l'émergence de modèles plus compacts, avec moins de câbles. 

GeForce RTX

NVIDIA Scanner : l'OC pour les nuls

Que serait une carte graphique sans sa capacité d'overclocking ? Comme pour les CPU, la pratique a perdu de sa superbe avec la montée en puissance des solutions de type « Turbo » qui maximisent les fréquences en fonction de différents critères comme le TDP, la consommation, le refroidissement, etc. 

Néanmoins, on pousse les composants un peu plus loin que leurs caractéristiques de départ, et les constructeurs veillent à ce que cela reste possible, notamment pour vendre des modèles haut de gamme, bien au-delà du prix annoncé pour les cartes de référence.

Avec les GeForce RTX, NVIDIA a travaillé plusieurs points. Tout d'abord, la finition de ses Founders Editions, annoncées comme silencieuses malgré un GPU gardé au frais. Elles exploitent deux ventilateurs et une chambre à vapeur en remplacement du système de refroidissement à turbine jusque-là favorisé par NVIDIA.

  • GeForce RTX OC
  • GeForce RTX OC
  • GeForce RTX OC
  • GeForce RTX OC

Une GeForce RTX 2080 se limiterait ainsi à 29 db(A), même une fois overclockée, contre 32 à 36 Db(A) pour la GTX 1080. Surtout, le processeur graphique serait maintenu constamment sous les 75°C, alors qu'il pouvait atteindre les 95 °C précédemment. Bref, c'est bien mieux. 

Cela permet à la carte d'afficher une plus grande marge autour de son TDP, son étage d'alimentation ayant aussi été amélioré pour favoriser la montée en fréquence. Outre le léger gain proposé par défaut, et celui que l'utilisateur peut espérer atteindre par les méthodes classiques, NVIDIA a travaillé sur son « Scanner ».

Un peu à la manière du Precision Boost Overdrive des Ryzen Threadripper, il s'agit d'une méthode « One-click » pour atteindre les capacités maximales de la cartes sans trop se fouler. Le tout en assurant une stabilité, même lorsque la carte sera utilisée dans les jeux. Ce n'est donc pas un chiffre record qui est visé, mais un résultat exploitable.

Mais la comparaison s'arrête là, puisque les méthodes de fonctionnement diffèrent. Une API a d'ailleurs été mise en place, charge aux constructeurs d'intégrer le dispositif dans leurs applications de gestion des fréquences. Precision X1 d'EVGA a déjà été indiqué comme compatible. Il effectuera une série de tests pendant une vingtaine de minutes, avec une charge et un algorithme définis par NVIDIA. L'utilisateur n'aura plus qu'à admirer le résultat.

  • GeForce RTX OC
  • GeForce RTX OC
  • GeForce RTX OC
  • GeForce RTX OC

Pour se démarquer, chaque constructeur devra donc désormais proposer les cartes qui offrent les plus gros chiffres à travers ce dispositif. À voir dans quelle mesure les overclockeurs arrivent encore à faire mieux.

Notez au passage que NVIDIA n'a pas communiqué sur une éventuelle évolution de la gestion de son Tubo Boost.

NVLink : « vous allez pouvoir jouer en 8K »

L'une des promesses des GeForce RTX est de permettre de jouer en 4K à des titres récents à 60 Hz, dans de bonnes conditions graphiques. Dès lors, comment continuer à vendre des cartes en duo ? Miser sur la 8K !

C'est ici qu'entre en jeu le nouveau connecteur NVLink 2.0 qui remplace les ponts SLI (Multiple I/O). Inspiré des solutions proposées sur le marché professionnel, il propose un débit de 50 Go/s sur la RTX 2080 (un lien x8) et 100 Go/s sur la RTX 2080 Ti (deux liens x8). La RTX 2070 est pour sa part dépourvue de cette fonctionnalité, sans doute jugée trop peu performante pour l'usage visé.

Car NVIDIA met en avant de très hautes définitions comme les 4K/5K/8K, parfois à haute fréquence ou via différents écrans. Autant dire que le public visé est assez minoritaire. Mais à 85 euros le connecteur, nous n'attendions rien d'autre. NVLink n'est pourtant pas dénué d'intérêt technique.

Il permet en effet d'adresser la mémoire du second GPU (de manière partielle) depuis le premier, ce qui est parfois intéressant. Son usage ne vise donc pas que les joueurs acharnés. Notez au passage qu'aucune solution n'est proposée pour ceux qui voudraient relier ainsi trois ou quatre GPU. Seuls des groupes de deux peuvent être composés.

Turing NVLinkGeForce RTX

Ce contenu est désormais en accès libre

Il a été produit grâce à nos abonnés, l'abonnement finance le travail de notre équipe de journalistes.

ou choisissez l'une de nos offres d'abonnement :

10 commentaires
Avatar de crocodudule Abonné
Avatar de crocodudulecrocodudule- 14/09/18 à 16:22:33

Sur le papier le réseau neuronal entrainé à gommer les défauts de rendu c'est pas mal. A voir en pratique, mais au moins théoriquement c'est une bonne idée.

Avatar de Aneoshun Abonné
Avatar de AneoshunAneoshun- 14/09/18 à 19:32:52

Est-ce qu'on a une idée si les tensor-cores de nvidia (et donc les RTX en general) permettent un gain de performance pour le GPGPU par rapport à des GTX classiques (Typiquement sur tensorflow) ?

Avatar de David_L Équipe
Avatar de David_LDavid_L- 14/09/18 à 21:00:58

Ils ont un peut été faits pour ça à la base Il y a aussi des solutions maison quand tu fais de l'inférence : 
https://developer.nvidia.com/tensorrt

Voir par ici sinon : 
https://github.com/NVIDIA/DeepLearningExamples 

Avatar de MoonRa Abonné
Avatar de MoonRaMoonRa- 15/09/18 à 08:54:40

Pourquoi le nvlink coûte aussi cher.

Avatar de David_L Équipe
Avatar de David_LDavid_L- 15/09/18 à 09:12:28

Parce que ce n'est pas qu'un bout de plastique ? Après NVIDIA y va sans doute un peu fort sur la marge de tels trucs, mais comme dit, l'utilisateur qui vient de se payer 2/3 écrans UHD et 2 RTX 2080 Ti se moquera un peu des 85 balles (qui pourraient néanmoins lui être offerts )

Avatar de BennJ Abonné
Avatar de BennJBennJ- 15/09/18 à 12:01:09

J'espère que BFV utilisera le DLSS qui a l'air d'envoyer du lourd si Nvidia ne bullshit pas trop... Même si pour l'instant DICE a juste confirmé travailler sur le RayTracing... D'ailleurs toutes les nouvelles techno j'espère qu'elle n'ajoute pas trop de latence ingame sinon ca craint.

Avatar de jb18v Abonné
Avatar de jb18vjb18v- 17/09/18 à 11:13:17

mais passer de 4K à 8K, c'est quand même 4x plus de pixels, alors en doublant simplement le nombre de cartes ça va pas être juste ?
Enfin c'est très théorique et bien lointain encore, avant d'avoir des écrans compatibles

Avatar de OlivierJ Abonné
Avatar de OlivierJOlivierJ- 18/09/18 à 13:08:48

jb18v a écrit :

mais passer de 4K à 8K, c'est quand même 4x plus de pixels, alors en doublant simplement le nombre de cartes ça va pas être juste ?
Enfin c'est très théorique et bien lointain encore, avant d'avoir des écrans compatibles

La 4k étant de qualité égale voire un peu supérieure au 35 mm en salle de cinéma (et peu inférieure en pratique au 70 mm argentique), je me demande qui va acheter du 8k, il faudra un oeil bionique.
L'intérêt du 8k à ce que j'ai compris, ce serait les casques VR car là l'image doit couvrir tout le champ visuel, et là on voit la différence entre 4k et 8k.

Avatar de jb18v Abonné
Avatar de jb18vjb18v- 18/09/18 à 14:08:28

OlivierJ a écrit :

La 4k étant de qualité égale voire un peu supérieure au 35 mm en salle de cinéma (et peu inférieure en pratique au 70 mm argentique), je me demande qui va acheter du 8k, il faudra un oeil bionique.
L'intérêt du 8k à ce que j'ai compris, ce serait les casques VR car là l'image doit couvrir tout le champ visuel, et là on voit la différence entre 4k et 8k.

Je parlais plus en capacité / puissance de calcul :)

Avatar de OlivierJ Abonné
Avatar de OlivierJOlivierJ- 18/09/18 à 14:19:03

Oui, je n'ai pas relevé cette partie car je n'avais rien à ajouter :-) .

Il n'est plus possible de commenter cette actualité.

2000 - 2019 INpact MediaGroup - SARL de presse, membre du SPIIL. N° de CPPAP 0321 Z 92244.

Marque déposée. Tous droits réservés. Mentions légales et contact