Blender 2.82 met l'accent sur la physique, accélération du denoising par les GeForce RTX

Adieu le rendu sur CPU ?
Blender 2.82 met l'accent sur la physique, accélération du denoising par les GeForce RTX

On s'y attendait, c'est désormais fait : après avoir intégré le moteur Optix pour accélérer les rendus exploitant du ray tracing, Blender fait de même avec la phase de denoising. Le moteur de NVIDIA sera utilisé pour les GeForce RTX, plutôt que l'OpenImageDenoise d'Intel. Bien entendu, la version 2.82 apporte d'autres nouveautés.

La version 2.80 de Blender a introduit plusieurs évolutions pour l'outil de conception 3D : une interface et un viewport retravaillés, de nouveaux outils, etc. Mais c'est surtout au niveau des moteurs de rendu qu'un gros travail a été fait : arrivée d'Eevee pour le temps réel et Grease Pencil pour la 2D, Cycles étant exploité pour le rendu 3D.

Ce dernier fonctionne depuis un bon moment sur CPU ou GPU via CUDA (NVIDIA) et OpenCL (Intel/AMD). Blender 2.80 avait introduit des optimisations de performances, réduisant la taille des tuiles (tiles) nécessaire pour obtenir de bonnes performances avec CUDA. Mais également la possibilité d'exploiter conjointement CPU et GPU.

Mais il a fallu attendre Blender 2.81 pour deux autres nouveautés importantes. La première est l'intégration du moteur OptiX de NVDIA permettant de tirer parti des GeForce RTX pour l'accélération matérielle du ray tracing. La seconde concernait la phase de denoising, prise en charge par l'outil OpenImageDenoise d'Intel.

La version 2.82 diffusée en fin de semaine dernière vient renforcer ce travail.

OptiX utilisé pour le rendu et le denoising

Cette mouture met l'accent sur les traitements physiques en exploitant MantaFlow pour la gestion des feux, liquides, vêtements, etc. L'export des fichiers au format Pixart USD (Universal Scene Description) est également de la partie, avec des améliorations pour Cycles, le ray tracing et le denoising. 

Les GeForce RTX et leurs Tensor Cores peuvent ainsi être exploités pour cette dernière phase et donc profiter d'une accélération matérielle (sur un ou plusieurs GPU). Les développeurs déconseillent cette solution pour des animations, mais précisent qu'il est plus rapide et tout à fait adapté à du rendu d'image de haute qualité.

Il n'a qu'une limitation pour le moment, à laquelle on s'attendait : il n'est utilisable qu'avec un rendu via OptiX. Des améliorations ont été faites pour améliorer la gestion d'Optix et OpenImageDenoise. Du côté des performances, le traitement des arbres BVH est accéléré sous Windows, devant être plus proche des performances constatées sous Linux ou macOS grâce à une meilleure allocation de la mémoire (exploitant le travail d'Intel sur Threading Building Blocks). 

Ce contenu est en accès libre

Il a été produit grâce à nos abonnés, l'abonnement finance le travail de notre équipe de journalistes.

ou choisissez l'une de nos offres d'abonnement :

5 commentaires
Avatar de horrus INpactien
Avatar de horrushorrus- 18/02/20 à 18:03:38

bonsoir,

" Adieu le rendu sur CPU ? " , c 'est faux il suffit d'avoir les 4 300 euros pour s'offrir le Ryzen Threadripper 3990X et hop plus besoin de gpu ->https://www.generation-nt.com/amd-threadripper-3990x-tourne-crysis-sans-carte-graphique-actualite-1973185.html

:mdr: :mdr: :mdr:

Édité par horrus le 18/02/2020 à 18:04
Avatar de dodo021 INpactien
Avatar de dodo021dodo021- 19/02/20 à 11:06:50

(quote:45833:horrus) bonsoir," Adieu le rendu sur CPU ? " , c 'est faux il suffit d'avoir les 4 300 euros pour s'offrir le Ryzen Threadripper 3990X et hop plus besoin de gpu ->https://www.generation-nt.com/amd-threadripper-3990x-tourne-crysis-sans-carte-graphique-actualite-1973185.html :mdr: :mdr: :mdr:

Le rendu sur GPU sera toujours limité par sa RAM de toute façon. Impossible de faire des rendu GPU sur des scènes complexes.

Avatar de David_L Équipe
Avatar de David_LDavid_L- 19/02/20 à 12:03:16

(quote:45833:horrus) ...

Tu pourrais au moins lire l'article ou celui qu'on fait sur la dispo du 3990X (où on en parle :))

(quote:45840:dodo021) ...

Il faut se méfier des "impossible" ne serait-ce que par la possibilité d'unifier les accès mémoire non ? (après je ne sais pas comment sont implémentés les différents moteurs sur ce point spécifiquement). Mais si tu as des exemples de scène qui posent souci sur GPU, je suis preneur :chinois:

Avatar de Letron Abonné
Avatar de LetronLetron- 21/02/20 à 15:21:33

(quote:45842:David_L) Mais si tu as des exemples de scène qui posent souci sur GPU, je suis preneur :chinois:

https://www.technology.disneyanimation.com/islandscene

good luck sur un GPU :chinois:

Avatar de Letron Abonné
Avatar de LetronLetron- 21/02/20 à 20:12:10

Et c'est une scène relativement légère à comparer de ce avec quoi on fait joujou aujourd'hui. On a de plus en plus d’environnements générés procéduralement avec houdini qu'on a du mal a faire tenir dans 64 voir 128Go malgré de la compression de géométrie et de l’instanciation massive. Le GPU c'est top pour la pub, les series pre-school et l’apprentissage mais pour de la prod un peu lourde on n'y est vraiment pas encore. AMD tente un truc un peu hybride dans son coin (proRender) que je n'ai pas eu l'occase de tester mais qui a l'air de savoir digérer de gros dataset.

Il n'est plus possible de commenter cette actualité.

Votre commentaire

Avatar de lecteur anonyme
Avatar de lecteur anonyme

2000 - 2020 INpact MediaGroup - SARL de presse, membre du SPIIL. N° de CPPAP 0321 Z 92244.

Marque déposée. Tous droits réservés. Mentions légales et contact