Deep Learning Super Sampling (DLSS) de NVIDIA : il reste encore du travail

C'est bêta
Deep Learning Super Sampling (DLSS) de NVIDIA : il reste encore du travail

On peut enfin activer DLSS sur Battlefield V, et bientôt sur Metro Exodus. L'occasion de vérifier les promesses de NVIDIA, mais aussi de faire face à nos premières déceptions concernant cette solution.

Hier, NVIDIA annonçait l'arrivée d'un patch dans Battlefield V permettant de profiter de sa fameuse fonctionnalité d'amélioration de l'image DLSS en complément du ray tracing. Il évoquait également le cas de Metro Exodus à l'occasion de la sortie prochaine du titre. Certains confrères ont d'ailleurs pu effectuer des tests sur une préversion.

Mais derrière ces annonces se cache une information que le constructeur n'avait pas publiquement évoquée jusqu'à maintenant : la possibilité d'activer ou non DLSS peut dépendre de la définition de l'utilisateur et de la carte graphique utilisée. Un choix qui pourrait être compréhensible s'il n'était pas si incohérent dans certains cas.

Cela montre en tous cas que NVIDIA n'en a pas fini avec la communication bancale autour des GeForce RTX et de leurs fonctionnalités. On a d'ailleurs toujours autant de mal à comprendre comment une société de ce niveau peut encore se prendre les pieds dans le tapis sur des problématiques aussi basiques.

RTX et DLSS, c'est le turfu !

À l'annonce des GeForce RTX, NVIDIA faisait face à un problème : l'architecture Turing est pour une bonne moitié composée d'unités qui ne servent pas directement au rendu 3D classique, et donc à améliorer les performances dans les jeux. Il y a d'un côté les RT Cores pour le ray tracing, et de l'autre les Tensor Cores pour des calculs liés à l'IA. 

Dans le premier cas, la réponse apportée fût le rendu dit hybride, devant mêler rastérisation et ray tracing pour certains éléments de la scène, lorsque cela a du sens : lumière, ombres, reflets, etc. Battlefield V est pour le moment le porte-étendard de cette fonctionnalité qui arrive dans Metro Exodus et l'Unreal Engine dans sa préversion 4.22.

Mais elle reste pour le moment dure à vendre pour l'équipe en charge du marketing car le rendu n'est pas fondamentalement différent ou impressionnant au point de faire tomber le joueur de sa chaise. Ce, alors que la baisse des performances est assez importante malgré les optimisations et l'accélération matérielle. 

C'est là qu'une idée a fait son chemin : utiliser DLSS, qui doit permettre d'améliorer les performances tout en apportant un bon niveau d'anti-aliasing, pour compenser au moins en partie la perte due au ray tracing. Le mode « RTX On » tel qu'il est aujourd'hui présenté était né.

Lorsque l'IA fait sa fine bouche

Pour rappel, le Deep Learning Super Sampling (DLSS) consiste à entrainer un réseau neuronal pour obtenir une image d'une qualité parfaite (un rendu Super Sampling 64x), depuis un rendu classique.

NVIDIA en tire un modèle, propre à chaque jeu. Il peut être diffusé ou mis à jour via GeForce Experience et son dispositif NGX. Utiliser DLSS, c'est appliquer ce modèle en profitant de l'accélération matérielle des Tensor Cores. Tout du moins, c'était la façon dont cela était présenté au départ.

Dans la pratique, il semble que le modèle dépende également de la définition de l'image et que son application soit limitée à certaines cartes graphiques seulement pour le moment. Parfois, le rendu via DirectX Raytracing (DXR) doit également être activé. Pour preuve, la liste des cas d'activation annoncée par NVIDIA dans son billet de blog

DLSS Activation Jeux Tableaux

Comme on peut le voir, cela ne répond à aucune règle précise. Il faut forcément activer le ray tracing pour bénéficier de DLSS sous Battlefield V et Metro Exodus. Ce dernier en est néanmoins exempté dans un cas : si l'on est en 4K. Pour rappel, Anthem proposera DLSS sans gestion du ray tracing, les deux ne sont donc pas intrinsèquement liés.

On peut activer DLSS sur n'importe quelle GeForce RTX, même une RTX 2060, lorsque l'on est en 4K sous Battlefield V... mais pas dans les définitions inférieures. Ainsi, il est impossible d'en profiter sur une RTX 2080 Ti en 1440p. Sous Metro Exodus, la RTX 2060 est exclue en 4K, pas en 1440p. Les 2080 ne peuvent pas utiliser DLSS en 1080p.

Vous y voyez un schéma logique ? Nous non plus. Nos premiers essais confirment le phénomène sous Battlefield V. Ainsi, l'option RTX DLSS ne s'affiche que si DXR (DirectX Raytracing) est activé, et qu'une définition correcte est utilisée. Sinon, ce n'est pas le cas. Un problème pour ceux qui ont une définition atypique, avec plusieurs écrans ou dans des formats de type 21:9 par exemple.

DLSS Battlefield V Option 1080pDLSS Battlefield V Option 4K 2080 Ti
Avec une GeForce RTX 2080 Ti - À gauche, DLSS ne peut être activé en 1080p. À droite, DLSS ne peut être activé dans DXR

Nous avons ainsi vérifié qu'avec un écran dont la définition native était de 2560 x 1080 pixels il était pour le moment impossible d'activer DLSS dans Battlefield V. Nous vérifierons le cas de Metro Exodus une fois le jeu disponible dans sa version publique.

Interrogé sur le sujet, NVIDIA nous a indiqué que DLSS était rendu activable là où un gain de performance pouvait être apporté. Et que cette solution est, par nature, en constante évolution. Ainsi, les combinaisons possibles doivent être complétées avec le temps. Aucune date précise n'a pour le moment pu nous être confirmée.

Si c'est flou, c'est qu'il y a un loup

L'autre problème concernant DLSS, c'est la qualité d'image obtenue. Comme nous l'avions évoqué lors de l'annonce de Turing, NVIDIA jouait sur la façon de présenter les choses, mettant tantôt en avant les gains de performances, tantôt la qualité d'image. Le fonctionnement de l'ensemble étant évoqué de manière assez floue.

Pour la qualité d'image, c'était le mode « 2X » et non le fonctionnement standard qui était vanté. Quelle différence entre les deux ? La définition de l'image utilisée en entrée : elle est inférieure à la définition de sortie dans le cas de DLSS, d'où les meilleures performances. Elle est identique à la définition de sortie pour DLSS 2X.

NVIDIA précisait également utiliser un réseau neuronal « plus large » dans ce second mode, permettant d'obtenir un résultat proche du Super Sampling 64x, utilisé comme rendu de référence. Mais qu'en est-il du mode DLSS classique ? C'est ce que nous permet désormais de vérifier Battlefield V, en attendant d'avoir Metro Exodus sous la main.

Nous avons effectué des captures sur la première scène de la campagne solo en 2160p, les paramètres étant placés en mode Ultra, DLSS actif ou non. Les deux images originales sont disponibles via ce lien. Nous avons effectué plusieurs zooms sur une zone de 450 x 300 pixels, voici le résultat :

  • NVIDIA GeForce RTX DLSS Off
  • NVIDIA GeForce RTX DLSS On
  • NVIDIA GeForce RTX DLSS Off
  • NVIDIA GeForce RTX DLSS On
  • NVIDIA GeForce RTX DLSS Off
  • NVIDIA GeForce RTX DLSS On

La première image est celle sans DLSS, la seconde celle avec DLSS activé

Comme on peut le voir, la perte en détail est notable. Que ce soit la profondeur des pas dans la première zone, les barbelés et la texture de l'arme dans la seconde ou encore simplement la netteté de l'ensemble comme on peut le voir dans la troisième. Bref, activer DLSS c'est perdre en détail.

Certes, les gains de performances, annoncés jusqu'à 40 %, sont appréciables (nous reviendrons sur ce point en détail dans un prochain article), permettant de compenser la perte causée par la mise en place du ray tracing, mais à quel prix ? La promesse de DLSS était de faire plus efficace, à qualité égale, le contrat est loin d'être rempli.

Quid de DLSS 2X ?

Deux questions se posent désormais : NVIDIA saura-t-il faire mieux en rendant DLSS plus efficace avec le temps et disponible sur plus de combinaisons définition/carte graphique ? La société le promet, on ne peut qu'espérer pour ses clients qu'elle y parvienne. Mais on attendra de pouvoir juger sur pièce avant de s'enthousiasmer. 

L'autre sujet est le mode DLSS 2X. Utilisé au départ pour vanter la qualité d'image, il est sans doute la pièce maitresse qui manque à l'ensemble. Malheureusement, aucun jeu ne l'implémente pour le moment et NVIDIA ne pouvait pas nous indiquer de titres sur lequel il était attendu à plus ou moins long terme.

NVIDIA DLSS NGXNVIDIA DLSS NGX

Sera-t-il un jour exploitable ? Quelles seront ses performances ? Impossible à dire là encore. En l'état, DLSS ressemble à une baudruche qui se dégonfle lentement. Problème pour NVIDIA : c'était l'un des grands axes de la communication autour de Turing et de ses nouvelles GeForce.

Il faut donc espérer que la situation s'inverse avec le temps et que ces premières expériences ne soient alors qu'un mauvais souvenir. Les Tensor Cores doivent également montrer leur intérêt dans d'autres situations : utilisation de l'IA dans les jeux vidéos, via des applications exploitant WinML, logiciels de traitement de l'image, etc.

Si cela fini par être le cas, NVIDIA aura réussi son pari, DLSS et Turing pourraient alors faire référence dans le secteur. Mais en l'état, l'expérience présentée dans Battlefield V risque surtout de donner envie de porter un plus grand intérêt aux prochaines GeForce GTX 1660 (Ti), dépourvues de RT Cores et de Tensor Cores.

Ce contenu est désormais en accès libre

Il a été produit grâce à nos abonnés, l'abonnement finance le travail de notre équipe de journalistes.

ou choisissez l'une de nos offres d'abonnement :

20 commentaires
Avatar de xouboudou Abonné
Avatar de xouboudouxouboudou- 14/02/19 à 14:19:10

Mwé... vivement les GTX 1660 :)

Avatar de secouss Abonné
Avatar de secousssecouss- 14/02/19 à 15:12:37

C'est bizarre mais quand on a jamais eu les moyens de se payer une config pour jouer en ultra c'est assez marrant de voir tout le monde se battre pour le poil de pixel dans la main du PNJ ^^

Sinon comme souvent on retombe sur la maladie de l'informatique à ce jour entre annonces fracassantes et réalités déprimante x)

Avatar de Arona Abonné
Avatar de AronaArona- 14/02/19 à 15:16:06

Avec le DLSS vous pouvez jouer en SD à vos titres 4K! :mdr2:

Édité par Arona le 14/02/2019 à 15:16
Avatar de David_L Équipe
Avatar de David_LDavid_L- 14/02/19 à 15:28:52

(quote:39546:Arona) ...

C'est un peu le souci actuellement faudrait comparer le résultat d'un 720p upscalé à un 1080p DLSS, je suis pas sûr du gagnant... :D

Avatar de dk53 INpactien
Avatar de dk53dk53- 14/02/19 à 15:39:12

En vrai, une option logique pour le DLSS, serait qu'il faille entrainer un modèle différent en fonction de la combinaison résolution/activation de DXR/carte.

Ils ont peut être commencé par les combinaisons les plus simple et/ou les moins couteuses

Édité par dk53 le 14/02/2019 à 15:40
Avatar de tazvld Abonné
Avatar de tazvldtazvld- 14/02/19 à 16:23:58

Ce que j'ai l'impression avec ça, c'est que NVidia n'a pas un workflow suffisamment préparé pour une mise en prod. Ca pédale encore pas mal.

(quote:39548:dk53) En vrai, une option logique pour le DLSS, serait qu'il faille entrainer un modèle différent en fonction de la combinaison résolution/activation de DXR/carte.Ils ont peut être commencé par les combinaisons les plus simple et/ou les moins couteuses

Ca serait interressant qu'il exploite le fait qu'un réseau de neurones convolutifs soit l'application d'une même opération sur une fenêtre flottante pour rendre finalement ce réseau générique à la dimension d'entrée (modulo une histoire de multiple).

Avatar de Cqoicebordel Abonné
Avatar de CqoicebordelCqoicebordel- 14/02/19 à 16:32:00

Y'a un truc que j'ai pas compris. DLSS n'est pas entraîné sur des plus hautes résolutions que les résolutions de sorties ? Ca semblerait le plus évident : Entrainement sur du 8K pour faire un beau 4K (ou sur du 4K pour faire un beau 1080)

Je pense qu'il faut du temps à NVidia pour faire les profiles pour chaque définition, chaque configuration, mais quand même, ça devrait aller un poil plus vite...

Avatar de Groupetto Abonné
Avatar de GroupettoGroupetto- 14/02/19 à 17:19:46

(quote:39548:dk53) En vrai, une option logique pour le DLSS, serait qu'il faille entrainer un modèle différent en fonction de la combinaison résolution/activation de DXR/carte.Ils ont peut être commencé par les combinaisons les plus simple et/ou les moins couteuses

Je pense aussi que c'est ce qu'ils ont fait :

  • un modèle 2160p seulement pour la 2080Ti, en partant du principe que c'est la résolution la plus pratiquée avec cette carte.
  • un modèle 1440p + un modèle 2160p pour la 2080...
  • ...et ainsi de suite jusqu'à la 2060, qui du coup est la mieux lotie.

ça coûte peut-être un bras d'entraîner un modèle pour chaque jeu / résolution / carte, d'où le tableau plein de trous?

En espérant qu'on ait l'info un jour ;)

Avatar de Groupetto Abonné
Avatar de GroupettoGroupetto- 14/02/19 à 17:19:59

En tout cas tout ceci est bien décevant...en espérant que la 1660 ait des petites soeurs (mais j'y crois pas)

Édité par Groupetto le 14/02/2019 à 17:23
Avatar de Magyar Abonné
Avatar de MagyarMagyar- 14/02/19 à 18:16:33

C'est bien ma 1070 à encore de beaux jours devant elle du coup

Il n'est plus possible de commenter cette actualité.
Page 1 / 2

2000 - 2019 INpact MediaGroup - SARL de presse, membre du SPIIL. N° de CPPAP 0321 Z 92244.

Marque déposée. Tous droits réservés. Mentions légales et contact