PC pour « créateurs » : derrière l'esbroufe de certains, la stratégie intéressante de NVIDIA avec RTX

Quand matériel et logiciel avancent ensemble
PC pour « créateurs » : derrière l'esbroufe de certains, la stratégie intéressante de NVIDIA avec RTX

Cela fait près de 40 ans que le PC gagne de la place dans les foyers. Et à chaque grande période, sa tendance pour séduire les clients. La dernière en date ? Les machines et solutions destinées aux « créateurs ». Simple astuce marketing pour certains, elle peut avoir du sens si on y met du concret. C'est ce que tend à prouver NVIDIA avec RTX.

Qu'est-ce qu'un produit destiné aux « créateurs » ? C'est la question que l'on se pose de salon en salon ces dernières années. Cela fait en effet quelques CES et Computex que les marques surexploitent ce terme à la signification... variable. Car comme souvent avec les cibles marketing, il s'agit pour beaucoup d'une simple opportunité commerciale.

Ainsi, on a vu nombre de sociétés multiplier les produits classiques dans leur composition, sans fonctionnalité spécifique, mais à la robe blanche et plutôt sobre. Comme si cette tendance n'était née que dans le rejet des produits « Gamers » et du tout RGB. Une attitude risible, et de plus en plus moquée. Heureusement, on trouve des exceptions. 

Les créateurs méritent mieux qu'un coup de peinture blanche

Car il ne faut pas s'y méprendre, cette tendance répond à un besoin. Elle n'est d'ailleurs pas nouvelle. Il y a quelques années, on utilisait l'anglicisme « enthousiastes » pour désigner ces utilisateurs ne regardant pas à la dépense. Si certains cherchent seulement à satisfaire leur ego avec les derniers composants à la mode, pour d'autres il s'agit d'un réel besoin de performances dans leurs différentes activités, sans aller chercher de coûteux composants professionnels.

Un phénomène qui s'est accentué avec la montée en puissance d'Internet et du très haut débit dans nos vies, des plateformes et leurs opportunités. Car si beaucoup d'utilisateurs restent de simples spectateurs, consommateurs de contenus, le réseau des réseaux a joué pour beaucoup son rôle de vecteur créatif.

On peut y gagner en connaissances sur des milliers de sujets, mais également y partager notre savoir, nos expériences, le résultat de notre travail sous des formes variées. De quoi donner des ailes à certains qui n'ont pas hésité à se lancer dans une activité indépendante, nécessitant parfois des outils performants. 

On pense assez rapidement aux quelques youtubeurs professionnels, mais cela concerne un public bien plus vaste : vidéastes au sens large, web designers, concepteurs en tous genre, développeurs, journalistes, etc. Et pourquoi pas un employé de bureau, maker acharné et blogueur à ses heures ?

Pour ceux-là, l'évolution technologique a apporté son lot de bonnes nouvelles. Nous ne sommes désormais plus obligés de choisir entre des machines puissantes et/ou mobiles, entre des composants permettant de travailler et/ou de profiter de nos loisirs. Les solutions pour créateurs étaient nées.

Le PC ne cesse d'évoluer

Il y a quelques années pourtant, certains prévoyaient la mort du PC. Montée en puissance des appareils mobiles, des solutions sur base ARM, etc. Les prophètes étaient aussi nombreux que dans l'erreur. L'ordinateur est plus que jamais personnel et il s'agit toujours d'une plateforme majeure dans nombre d'industries.

Bien que des solutions hybrides telles que l'iPad Pro d'Apple existent, elles restent minoritaires, même là où le besoin de puissance n'est pas très important. Il suffit de regarder l'équipement des étudiants, encore nombreux à prendre leurs notes sur un bon vieux PC, malgré les promesses de Qualcomm et Microsoft avec Windows 10 on ARM.

Microsoft Surface
L'avenir du PC se cherche encore, notamment chez Microsoft et ses Surface

Mais les constructeurs le savent, ce n'est qu'une question de temps, la transition est en marche. Surtout, ce n'est pas sur de tels marchés qu'ils vont construire leur croissance de demain. Ils ont donc cherché à se diversifier, notamment en se tournant vers des usages où la performance est perçue comme une valeur ajoutée.

On pense notamment au secteur professionnel avec les stations de travail et autres serveurs, le HPC, l'intelligence artificielle dans les voitures ou les hôpitaux, etc. Mais aussi au monde des jeux vidéo pour le grand public. C'est peu à peu que la troisième voie des créateurs s'est dessinée, aidée par l'évolution des produits.

Le GPU de plus en plus au cœur de la performance des applications

Du côté des processeurs, on pense souvent aux gammes intermédiaires entre les puces du PC classique et ceux pour serveurs. Il s'agit des Core X chez Intel ou des Threadripper chez AMD. Ils multiplient en général le nombre de cœurs, les canaux mémoires et les E/S, visant des usages spécifiques.

Il est aussi de plus en plus courant de voir chez les passionnés une armoire accueillir des composants réseau à la limite de l'usage professionnel. Elle est en général accompagnée d'un ou plusieurs serveurs, en rack ou au format tour. On parle alors de « Home Lab » aux possibilités multiples.

Les processeurs haut de gamme permettent ainsi de multiplier les services virtualisés, peuvent servir aux développeurs voulant éviter de perdre trop de temps dans leurs phases de compilation, ou à ceux qui ont d'autres traitements gourmands à effectuer : vidéo, rendu 3D, calculs sur de gros volumes de données, etc. 

Un terrain qui n'est plus seulement réservé à l'entreprise, mais de plus en plus accessible à tous. Si AMD a poussé dans ce sens avec ses Ryzen, on voit surtout la carte graphique prendre de plus en plus de place. Une opportunité bien saisie par NVIDIA, qui a fait un gros travail sur le sujet ces dernières années.

NVIDIA : de CUDA à RTX...

Cela a commencé par une petite révolution pour l'entreprise et le secteur tout entier il y a une dizaine d'années : CUDA. Avec cette solution et les outils consacrés aux développeurs qui l'accompagnait, il devenait possible d'utiliser un GPU pour effectuer de simples calculs et non plus seulement des rendus 3D. 

De quoi ouvrir de nombreuses portes au constructeur. Mais ce n'était que le début d'un travail de longue haleine, menant à l'architecture Turing. Lancée mi-2018, il s'agissait d'une forme d'aboutissement de cette synergie. Elle peut en effet être exploitée pour différents types de calculs tant dans le monde des loisirs que dans les besoins professionnels. Une dualité au cœur même de cette gamme.

Cela a poussé NVIDIA à multiplier les partenariats. Avec les éditeurs de jeux, bien entendu, autour de DirectX Raytracing, mais pas seulement. Le constructeur a travaillé avec plusieurs grandes sociétés du monde logiciel pour que les différentes possibilités de ses GeForce RTX soient exploitées via la Studio Stack.

NVIDIA Studio RTX Applications

Cela concerne donc aussi bien son moteur de ray tracing OptiX pour les applications de rendu 3D, NVENC pour la (dé)compression accélérée des vidéos, des Tensor Cores pour différents traitements où l'intervention de l'IA peut devenir un avantage de taille. La liste complète se trouve ici.

Là où AMD s'était contentée d'une Radeon VII avec une puce haut de gamme et 16 Go de mémoire, NVIDIA a montré qu'une implication sur le sujet devait se faire en liant les évolutions logicielles et matérielles. Et pas seulement dans des outils accessibles aux seuls utilisateurs de Quadro.

Le dernier partenariat avec Adobe, pour l'intégration de fonctionnalités exploitant les GPU au sens large et les RTX en particulier le montre bien. Tout comme la mise en place d'un bundle permettant d'obtenir 3 mois d'abonnement à Creative Cloud avec certains produits plutôt que le dernier jeu en date.

... un chemin semé d'embûches

Une situation à laquelle on ne pensait pas arriver il y a un an et demi, au début des GeForce RTX. Si tout le travail avec les éditeurs avait été initié, rien n'était prêt. NVIDIA a décidé de lancer tout de même son produit avec un axe unique sur le grand public : les joueurs au budget conséquent.

Aucune carte n'était proposée à moins de 600 dollars, aucune fonctionnalité avancée n'était exploitable. Il fallait donc payer cher pour n'avoir que des promesses. Un lancement définitivement raté, mais le constructeur a su mettre de l'eau dans son vin par la suite sur différents aspects.

Outre les annonces progressives du côté des éditeurs de jeux et d'applications pour ce qui est de profiter du potentiel des GeForce RTX, la gamme a été complétée, repensée. Elle est désormais plus abordable avec des modèles comme la RTX 2060 dès 300 euros. Elle a également été déclinée en versions pour PC portables.

Avec le recul, on note deux tournants majeurs intervenus l'année dernière. Comme pour l'arrivée de RTX sur le marché, leur accouchement a été difficile mais s'est au final révélé salvateur. On pense tout d'abord au programme Creator, rapidement devenu Studio RTX.

NVIDIA mettait alors surtout en avant ses pilotes optimisés pour des applications professionnelles plutôt que les derniers jeux. Mais en mélangeant les versions de pilotes et en ne proposant pas de passer simplement d'une version optimisée à une autre, le constructeur a raté son effet. Ce qui a complètement nui à l'ensemble de l'initiative.

Car tout le discours évoquant les possibilités des GeForce RTX et les partenariats mis en place a été mis de côté, tout le monde se focalisant sur la question de l'évolution des pilotes. Ce, alors que les avancées étaient concrètes. Désormais, les deux branches continuent de coexister, mais les utilisateurs ne savent pas forcément laquelle choisir lorsqu'ils utilisent leur PC pour jouer et travailler. Espérons que cela finira par s'améliorer.

NVIDIA Studio RTX Laptops

S'en est suivi l'annonce de programmes marketing permettant l'identification de machines portables visant les créateurs, avec des critères techniques (voir ci-dessus) comme la qualité de la dalle, la quantité de mémoire ou de stockage, le niveau du processeur ou du GPU intégré, etc.

Là aussi, la communication avait été assez bancale alors que l'initiative était louable. Le même a été mis en place concernant les stations de travail qui bénéficient également d'une couche logicielle spécifique préinstallée. On continue néanmoins de regretter que ce label ne concerne que le CPU Intel et fasse l'impasse sur ceux d'AMD.

Le second point d'infléchissement vint avec la gamme de RTX Super. Ici, plus qu'un renouvellement technique, il s'agissait de cartes graphiques au rapport performances/prix bien plus attractif. On peut pour cela remercier AMD et le lancement de Navi, qui a sans doute participé au changement de ton chez NVIDIA.

... en passant par Max-Q

Tout le travail fait par NVIDIA autour de RTX ne doit pas faire oublier d'autres initiatives ayant aussi participé au rapprochement des besoins propres à un usage professionnel ou ludique. C'est le cas de Max-Q pour les PC portables, devant allier performances et mobilité, autonomie et capacité « d'envoyer du bois » à la demande.

Ici, le constructeur a travaillé dès 2017 sur des caractéristiques techniques revues à la baisse, mais devant permettre de trouver un « sweet spot » entre les performances et leur effet néfaste sur la consommation, la chauffe et donc les nuisances sonores ou l'autonomie. Les machines certifiées étant testées et validées sur de tels critères.

Ce programme est en bonne partie responsable de la fin d'une segmentation du marché en deux catégories ne se rencontrant presque jamais : les machines ultra-fines d'un côté et les PC « pour Gamer » de l'autre. Les références sachant allier design compact, sobriété (ou non) et composants performants du CPU au GPU sont désormais légion.

NVIDIA Max-Q DesignNVIDIA Max-Q Design

Certains constructeurs se sont d'ailleurs particulièrement engagés sur ce terrain, comme Gigabyte qui a beaucoup développé son offre autour de designs Max-Q ces dernières années. Mais on regrette ici le manque de transparence qui règne encore trop souvent sur les caractéristiques des PC portables, un phénomène amplifié par Max-Q.

NVIDIA proposant des plages de fréquence et de TDP à ses partenaires, qui ne communiquent que rarement leurs choix en la matière, le consommateur ne sait pas toujours à quel niveau de performances s'attendre. Il serait temps que le père des GeForce travaille avec ses partenaires sur ce point.

On apprécie par contre que l'évolution logicielle ait ici aussi accompagné les choix matériels, bien que cela passe essentiellement par GeForce Experience plutôt que le panneau de configuration classique. On pense par exemple à Battery Boost permettant de limiter les performances pour améliorer l'autonomie. Mais aussi au Whisper Mode qui fait de même, tout en optimisant automatiquement les réglages des jeux.

NVIDIA communique peu sur le sujet, mais il propose également sa fonctionnalité Platform Boost, activée par défaut et désactivable dans le panneau de configuration. Elle vise à mieux répartir la puissance entre le CPU et le GPU. Une fonctionnalité qu'AMD est en train d'intégrer à ses produits sous le petit nom de SmartShift

Quels avantages dans la pratique ?

Cela fait donc maintenant près de trois ans que NVIDIA repense le PC, fixe ou portable, pour permettre au GPU d'y jouer un rôle de plus en plus important, ouvrant à un nombre croissant d'utilisateurs des possibilités et un niveau de performances qui n'était jusqu'à maintenant réservés qu'aux professionnels.

Mais derrière la mise en place de Max-Q, du programme Studio, des GeForce RTX et des multiplies fonctionnalités logicielles qui y sont liées, qu'est-ce que l'utilisateur en retire de concret ? C'est tout l'objet du dossier que nous ouvrons aujourd'hui, et qui sera pour nous l'occasion de plonger en détails dans les derniers produits de NVIDIA et ses partenaires, pour en décortiquer les fonctionnalités, les avantages et les limites.

  • Introduction
  • Les créateurs méritent mieux qu'un coup de peinture blanche
  • Le PC ne cesse d'évoluer
  • Le GPU de plus en plus au cœur de la performance des applications
  • NVIDIA : de CUDA à RTX...
  • ... un chemin semé d'embûches
  • ... en passant par Max-Q
  • Quels avantages dans la pratique ?
S'abonner à partir de 3,75 €
6 commentaires
Avatar de DanLo Abonné
Avatar de DanLoDanLo- 21/01/20 à 18:19:38
#1

undefined

J'ai dû manquer un truc. Quand je lis ces deux phrases, elles me semblent antinomiques. La première signifie (si j'ai bien compris) que le programme Max-Q est responsable de la séparation "ultra-fin" et "gamer". La seconde phrase (qui me semble plus correcte) m'indique au contraire que depuis récemment, on a au contraire une multiplication des machines qui allient les 2 aspects.

Une coquille, j'ai mal compris une des deux phrases, ou autre chose ?

Avatar de David_L Équipe
Avatar de David_LDavid_L- 22/01/20 à 07:29:46
#2

undefined

Oui petit bug, corrigé. PS : on a un bouton pour signaler les erreurs plutôt que de passer par les commentaires :chinois:

Avatar de DanLo Abonné
Avatar de DanLoDanLo- 22/01/20 à 12:31:50
#3

D'acc ! :)

Je n'étais pas sûr si c'était une coquille ou pas, d'où le commentaire... Je me suis déjà fait un plaisir de contribuer en signalant diverses coquilles 👼

Avatar de Letron Abonné
Avatar de LetronLetron- 22/01/20 à 19:25:24
#4

Surtout des démos tech ... quand on voit qu'ils ont viré le out-of-core de optix :
Ca va super vite mais quand la mémoire GPU est full et ben ça crash ! Super !

D'ailleurs dans les demos NV je ne vois pas de persos couverts de poils (pull+cheveux etc...) dans des environnement naturel mousses, herbes, écumes, splash, nuages ... Tout ce qu'on fait sans probleme en CPU aujourd'hui. Rendre des assets de jeu avec du smoothing et un bon shading ce n'est pas tout à fait ce qu'on attend.
C'est bien pour une agence qui ne fait que du packshot de pots de yaourt ou qui maîtrise parfaitement son contenu. Celui qui ne peut pas trop se permettre de refuser du boulot il se tournera toujours vers une solution CPU ...

Perso j'attends un renderer unifié GPU+CPU qui me permettent de choisir la tech en fonction du type de scène que je voudrais rendre. Le préalable semble à peut prêt en place avec hydra/usd.

Finalement, en pure CPU, embree fait quand même bien le boulot...

Avatar de David_L Équipe
Avatar de David_LDavid_L- 23/01/20 à 04:57:12
#5

undefined

Si tu as des fichiers de démo que tu veux qu'on teste je suis preneur. Pour info, NV n'en fourni pas de son côté (c'est pour ça que j'utilise plutôt les scènes publiques de Blender dans mon cas).

Pour les solutions CPU/GPU, ça existe déjà dans différents moteurs (OpenCL ou CUDA sous Blender Cycles par exemple) mais ce n'est en général pas plus efficace (ne serait-ce que pour l'échange de données nécessaire entre les deux je pense, bien que ça puisse aussi coincer ailleurs).

M'enfin, sur différents rendus avec des scènes plus ou moins complexes, même si le rapport peut être variable, on note quand même de gros écarts de temps de rendu entre du CPU et du CUDA/Optix. Et ça pousse Intel a renforcer, ce qu'on voit avec le travail sur la 2.81 et OpenImageDenoise par exemple.

Pour Embree, c'est plus mitigé je pense, parce que le projet a quand même un paquet d'années (j'ai souvenir de démos sur Cinema4D il y a 5/6 ans par exemple) sans que ça ne se concrétise réellement sur le fond au-delà de certains projets comme Corona par exemple.

De mémoire il y a des builds Blender, mais je ne sais pas si c'est encore le cas pour des versions récentes). On verra si le travail qui s'est accéléré sur OSPRay depuis 2/3 ans change la donne ou pas. Ils viennent d'ailleurs de sortir la v2.

Par contre je n'ai pas trop compris le passage/rapport avec le fait de pouvoir refuser ou non un job.

Avatar de Letron Abonné
Avatar de LetronLetron- 24/01/20 à 12:02:35
#6

Je n'ai plus de demo sous la main mais je sais que pour avoir voulu rendre des scans 3d sous Optix je me suis vite retrouvé à devoir gérer des problèmes de mémoire ingérable (enfin si...retopology etc...). Idem avec redshift ... alors que ça passait sans probleme sous Arnold.

Oui il y a des écarts de temps de rendu, bien sur, mais le temps humain est coûteux aussi et aujourd'hui je préférerais une WS avec 2 Epyc et 128Go en me passant de RTX juste parce-que c'est bien plus versatile.

Embree date un peu, genre la 2 en 2013 si je me souviens bien ... mais il y a des parties du code qui reste quand même state of the art ama (les structures d'accélération, BVH, entre autre) et je pense que cycles ne s'est pas privé (à raison) pour aller piocher dedans !

Cycles fait en effet du out-of-core (ou hybrid comme ils disent) mais sans l'avoir testé on ne m'a pas reporté des perfs wahou :)

Arnold a fait un truc pas mal niveau CPU/GPU mais la dernière fois que j'ai teste avec les mêmes paramètres je n'avais pas le même grain/motion blur entre GPU et CPU ce qui n'est pas idéal en prod. Le shading lui avait l'air kifkif ... bref, bon pas dans la bonne direction mais reste un peu à faire.

Finalement, les besoins de l'industrie ne matchent pas toujours avec la sauce que les constructeurs essaient de nous vendre :love:

Édité par Letron le 24/01/2020 à 12:03

Il n'est plus possible de commenter cette actualité.

2000 - 2020 INpact MediaGroup - SARL de presse, membre du SPIIL. N° de CPPAP 0321 Z 92244.

Marque déposée. Tous droits réservés. Mentions légales et contact