GeForce RTX 3070, 3080 et 3090 : Ampere expliqué techniquement et simplement

Garanti sans (trop) d'aspirine
GeForce RTX 3070, 3080 et 3090 : Ampere expliqué techniquement et simplement

Ce mardi, NVIDIA dévoilait sa nouvelle gamme de GeForce RTX basée sur la version grand public de l'architecture Ampere. Depuis, nous avons eu l'occasion d'échanger avec le constructeur à leur sujet. Voici le résumé de ce que nous en savons, sous forme de questions/réponses.

Les GPU, c'est compliqué. Maitriser ce qu'apporte une architecture, sa composition, les différents types d'unités, de mémoire, les TFLOPS et autres CUDA/RT/Tensor Cores (chez NVIDIA) nécessite de s'intéresser longuement au sujet.

Si vous voulez briller dans vos prochains diners entre geeks sans forcément vous retourner le cerveau, voici ce qu'il faut retenir du passage des GeForce série 20 (Turing), lancées en août 2018, aux GeForce série 30 (Ampere) annoncées ce mardi. N'hésitez d'ailleurs pas à nous poser vos questions en commentaires.

Nous compléterons cet article au fil du temps. NVIDIA doit d'ailleurs encore diffuser le fameux whitepaper livrant les derniers secrets de ses nouvelles puces. Vous trouverez celui de l'architecture Turing par ici. Notez que nous avons déjà traité de certains sujets comme RTX IO ou l'évolution du moteur vidéo dans de précédents articles.

Quelles cartes ont été annoncées, quand seront-elles disponibles ?

NVIDIA a annoncé trois nouvelles GeForce RTX. La première à être mise en vente sera la 3080, le 17 septembre pour 719 euros en France. Elle sera suivie de la 3090 le 24 septembre à 1 549 euros puis de la RTX 3070 à 519 euros. Leurs caractéristiques techniques générales sont disponibles ci-dessous, détaillées sur le site de NVIDIA :

GeForce RTX 30 Specs

Ces prix correspondent à ceux recommandés par le constructeur, qui seront appliqués à ses propres modèles au sein de sa boutique en ligne, les fameuses Founders Edition (FE). Selon nos informations, les stocks devraient être limités dans un premier temps, puis être plus fournis courant octobre.

Pour faire partie des premiers servis, il faudra donc sans doute être rapide. On attend également les annonces des partenaires de NVIDIA pour leurs propres cartes et les prix qui seront pratiqués par les revendeurs. Si la demande est forte, il y a fort à parier qu'ils seront revus à la hausse. C'est là que les cartes FE peuvent être intéressantes.

Notez que ces dernières nécessitent un connecteur d'alimentation PCIe à 12 broches spécifique et plus compact (nous y reviendrons). Un adaptateur 8+8 broches est livré dans le bundle. Les partenaires se limitent à 2 ou 3 connecteurs PCIe à 8 broches selon les cas. Un tel adaptateur n'est alors pas nécessaire.

Aucune carte à moins de 520 euros ? Ce n'est pas dans mon budget !

Lorsqu'une nouvelle architecture graphique est mise sur le marché, quelques références de cartes haut de gamme sont annoncées. Au fil des mois, d'autres déclinaisons arrivent. NVIDIA n'a pas encore communiqué officiellement sur le sujet, mais il faut sans doute s'attendre à voir une RTX 3060 arriver dans un second temps.

La question à l'heure actuelle est de savoir si elle sera suivie ou non d'une RTX 3050 et d'une RTX 3030 par exemple. Les très larges écarts tarifaires entre les 3070, 3080 et 3090 laissent aussi entendre que d'autres modèles (Super, Ti ?) viendront s'intercaler. L'arrivée de nouvelles Radeon d'AMD (Big Navi) en octobre/novembre permettra sans doute d'avoir une meilleur idée de ce qui nous attend selon le niveau de « réponse » nécessaire.

Une carte graphique à 1 549 euros, pour quoi faire ?

Avec cette génération, NVIDIA semble avoir décidé de mettre fin à sa gamme de carte située entre l'offre grand public (GeForce) et professionnelle (Quadro) comme la précédente Titan RTX. Proposée en France à 2 900 euros, elle se distinguait par de meilleures performances et 24 Go de mémoire. Plus du double de la RTX 2080 Ti (11 Go).

Désormais, cette position est assurée par la RTX 3090. Bonne nouvelle, elle est bien plus performante pour un peu plus de la moitié du prix. C'est aussi la seule carte à permettre une interconnexion via le pont NVLink, qui permet un échange direct entre deux GPU et d'accéder à leur mémoire de manière unifiée (comme un grand bloc de 48 Go).

NVIDIA ne fait plus vraiment la promotion d'une telle solution pour améliorer les performances dans les jeux (Le fameux SLI). C'est par contre très utile dans les applications professionnelles comme le calcul sur GPU ou le rendu de scènes en 3D. La version 2.90 de Blender, sortie il y a quelques jours supporte d'ailleurs NVLink.

GeForce RTX 30 Series Ampere StudioGeForce RTX 30 Series Ampere Studio

Les plus attentifs auront remarqué que la RTX 3080 ne propose pas de connecteur NVLink. C'est une manière pour NVIDIA d'inciter les professionnels à opter plutôt pour son bébé haut de gamme, ou les futurs modèles Quadro. Mais si la mémoire unifiée et NVLink ne vous intéressent pas, notez que deux RTX 3080 cumulent une puissance de calcul de 60 TFLOPS, contre 36 TFLOPS pour une RTX 3090. Pour un tarif similaire.

Voici d'ailleurs le coût en euro de chaque TFLOPS selon les modèles :

  • RTX 3070 : 25,95 euros par TFLOPS
  • RTX 3080 : 23,97 euros par TFLOPS
  • RTX 3090 : 43,03 euros par TFLOPS

Ainsi, la RTX 3080 apparaît comme le « sweet spot ». La RTX 3070 sera plutôt pour ceux ayant un budget limité et la RTX 3090 pour ceux qui veulent la carte la plus performante, 24 Go de GDDR6X, NVLINK et ont sans doute des besoins professionnels. Un tel coût est alors moins problématique, puisque rentabilisé de par leur activité.

Pour rappel, voici le coût en euro de chaque TFLOPS de cartes actuellement en vente :

  • GTX 1660 Super : 49,73 euros par TFLOPS
  • RTX 2060 Super : 55,70 euros par TFLOPS
  • RX 5700XT : 41,01 euros par TFLOPS
  • RTX 2080 Ti : 89,22 euros par TFLOPS

Le coût par TFLOPS a été réduit presque par deux, même par rapport à la Radeon RX 5700XT qui ne dispose d'aucune des évolutions architecturales des RX série 20/30. Elle se retrouve presque au niveau de la RTX 3090.

GeForce RTX 3090GeForce RTX 3090

C'est quoi un TeraFLOPS ?

Les FLOPS sont l'unité de calcul utilisée communément pour les cartes graphiques. Il s'agit du nombre d'opérations pouvant être effectuées en une seconde sur des nombres à virgule flottante (flottants) en simple précision (32 bits) selon la norme IEEE 754 (voir cette définition). On parle alors de calculs FP32, des opérations très courantes dans le domaine de la 3D. Un TeraFLOPS (ou TFLOPS) correspond à mille milliards d'opérations FP32 par seconde.

Pour savoir quelle est la puissance de calcul maximale théorique d'un GPU, il suffit de multiplier sa fréquence maximale par le nombre d'unités FP32 qui le compose. Chez NVIDIA, ces unités sont nommées CUDA Cores. Dans le cas de la RTX 3090 ils sont 10 496, fonctionnent jusqu'à 1,7 GHz. On obtient le calcul suivant :

10 496 CUDA Cores * 1,7 GHz / 1 000 * 2 = 35,6864 TFLOPS

Pourquoi une multiplication par 2 ? Comme NVIDIA le rappelle dans sa documentation ses CUDA Cores peuvent effectuer une multiplication et une addition, soit deux opérations, par cycle d'horloge (1 Hz). On parle alors d'instructions « fusionnées » : FMA ou Fused Multiply-Add. Cette méthode vaut pour tous les constructeurs.

Attention tout de même avec la notion de TFLOPS. Il s'agit d'une valeur théorique et dans la pratique deux architectures avec une même puissance de calcul peuvent obtenir des résultats différents. Cela dépendra alors de leur niveau d'efficacité, notamment la capacité qu'elles ont à distribuer les opérations à leurs unités. Une architecture à 10 TFLOPS chargée à 50 % en moyenne sera moins performante qu'une de 7 TFLOPS à 90 %.

Pourquoi dites-vous qu'Ampere est un « bi-GPU by design » ?

C'était sans doute l'un des secrets les mieux gardés par NVIDIA sur le lancement de cette génération, celui qui lui a permis de garder un effet de surprises. Même nos contacts les mieux informés étaient incapables de nous confirmer ce que nous avions entendu à ce sujet avec certitude quelques semaines avant l'annonce.

Alors que la carte graphique la plus performante de la génération précédente (Turing) disposait de 4 608 CUDA Cores, la RTX 3090 en a plus de deux fois plus. On passe ainsi de 16,3 TFLOPS à 36 TFLOPS.

GeForce RTX 30 Series Ampere ArchitectureGeForce RTX 30 Series Ampere Architecture

La puce est donc deux fois plus grosse ?

Non, pour deux raisons. La première est qu'elle est désormais gravée en 8 nm, contre 12 nm précédemment. Ensuite, NVIDIA n'a pas doublé tout ce qui compose son architecture. Il s'agit en cela d'une continuité par rapport à Pascal (Série 10) puis Turing (Série 20). Cette dernière avait en effet introduit l'exécution concurrentielle d'instructions FP32 et INT32, alors que Pascal ne permettait de traiter que l'une ou l'autre par cycle.

TuringTuring

Il s'agissait en réalité d'une première étape devant mener à Ampere. Pour rappel, les CUDA Cores sont organisés en groupements nommés Streaming Multiprocessors (SM). Dans Pascal, chacun était composé de 4x 32 unités (soit 128) pouvant effectuer un calcul FP32 ou INT32. Turing avait seulement 64 unités FP32 par SM. Mais elles étaient accompagnées de 64 unités INT32, permettant une exécution concurrentielle (voir ci-dessus).

Pour garder un même nombre de CUDA Cores, et doter les GTX/RTX série 20 d'un niveau de performances supérieur aux GTX série 10, le nombre de SM a été doublé. Voici le tableau comparatif diffusé à l'époque  :

Turing Comparatif NVIDIA sans Volta

Avec Ampere, le constructeur n'a pas doublé toutes ses unités de calcul. Il l'a seulement fait avec ses CUDA Cores (FP32), pas celles en charge du calcul sur les entiers de 32 bits (INT32). Un déséquilibre qui ne pose pas de problème puisqu'il correspond à ce qui est demandé à un GPU dans la plupart des jeux vidéo. Pour cela il a opté pour une approche hybride, mêlant ses deux précédentes architectures.

Ainsi, on reste sur 4x 32 unités par SM, mais dans chaque bloc, 16 peuvent exécuter du code FP32 ou INT32 (comme dans Pascal), 16 autres sont exclusivement FP32. Elles sont organisées sous la forme de datapaths distincts, pouvant fonctionner de manière concurrentielle, comme dans Turing. « Ainsi, chaque SM d'Ampere peut traiter 32 instructions FP32 par cycle ou 16 FP32 et 16 INT 32 par cycle. Chaque combinaison de 4 SM peut traiter 128 instructions FP32 par cycle, soit le double de Turing, ou 64 FP32 et 64 INT32 » précise NVIDIA.

D'autres éléments ont été doublés comme le cache de premier niveau L1 par exemple. Mais le contrôleur mémoire reste à un niveau similaire par rapport aux architectures précédentes par exemple, ce qui permet de contenir l'inflation. Le tout en doublant la puissance de calcul théorique, et donc en bonne partie les performances.

Les Tensor Cores de 3e génération, ça change quoi ?

Dans l'architecture Turing, NVIDIA a introduit de nouvelles unités permettant d'effectuer très rapidement des calculs sur des matrices, avec des niveaux de précisions inférieurs aux habituels FP32/INT32, parfois mélangés (on parle alors de précision mixte). Ils sont très utilisés dans les applications liées à l'intelligence artificielle (IA).

Pour les joueurs, NVIDIA les utilise de différentes manières. Notamment avec sa technologie DLSS, pour calculer une image dans une petite définition (720p, 1080p par exemple) puis l'agrandir (1440p, 4K). Ce qui permet de l'afficher plus vite, tout en ayant une qualité de rendu similaire comme nous l'avons vu lors de récents tests.

L'architecture Volta (réservée aux serveurs) utilisait leur première génération. Turing la seconde génération. Ampere passe donc à la troisième génération. Elle a pour principal avantage d'être quatre fois plus rapide sur les matrices classiques (dites denses), huit fois plus rapide pour les matrices creuses (sparse, voir la définition).

NVIDIA a donc décidé d'en utiliser deux fois moins au sein de sa puce, ce qui lui permet tout de même de doubler sa puissance de calcul sur les matrices denses. Et de la quadrupler avec les matrices creuses. Notez que dans un A100, la version pour serveurs d'Ampere, les Tensor Cores de 3e génération sont encore deux fois plus rapides.

GeForce RTX 30 Series Ampere Tensor CoresGeForce RTX 30 Series Ampere Tensor Cores

Et les RT Cores de 2e génération ?

Jusqu'à 2018, les jeux vidéo utilisaient une méthode de rendu nommée rastérisation (voir la définition). Désormais, les développeurs peuvent utiliser une autre méthode nommée ray tracing, se basant comme son nom l'indique sur le suivi des rayons de lumière. Elle est plus fidèle à la réalité, mais bien plus gourmande en puissance de calcul.

Les développeurs ont deux outils (API) à leur disposition : DirectX Raytracing de Microsoft et son pendant multiplateformes Vulkan. Avec Turing, NVIDIA a introduit les RT Cores qui sont des unités spécialisées visant à effectuer très rapidement certains calculs lorsque l'on veut savoir si un rayon traverse ou se reflète sur une zone de l'image. Celle-ci étant découpée en petits volumes géométriques, on parle de Bounding Volume Hierarchy (BVH).

Les RT Cores de seconde génération sont annoncés comme plus efficaces par NVIDIA, sans plus de détails. Ils gagnent néanmoins une possibilité non négligeable puisqu'ils sont capables d'effectuer des calculs rapides même lorsqu'un effet de flou de mouvement (motion blur) est actif. Les rayons ne sont en effet plus représentés comme des éléments fixes mais comme une fonction, dont la position peut évoluer. Ce serait jusqu'à huit fois plus rapide.

Une accélération qui ne sert pas que dans les jeux, mais aussi dans les applications de rendu 3D.

  • GeForce RTX 30 Series Ampere RT Cores
  • GeForce RTX 30 Series Ampere RT Cores
  • GeForce RTX 30 Series Ampere RT Cores
  • GeForce RTX 30 Series Ampere RT Cores
  • GeForce RTX 30 Series Ampere RT Cores
  • GeForce RTX 30 Series Ampere RT Cores

C'est joli tout ça, mais les performances au final ?

NVIDIA promet que la RTX 3070, la plus petite carte annoncée dans sa nouvelle gamme, obtiendra de meilleurs scores dans les jeux que la RTX 2080 Super, se plaçant ainsi au niveau de la 2080 Ti tout en étant bien moins chère.

De quoi permettre aux RTX 3080 et 3090 de se positionner à des niveaux jamais atteints. C'est aussi pour cela que le constructeur commence à évoquer la possibilité de jouer en 8K. Un nouveau mode a d'ailleurs été créé pour DLSS, qui passe en version 2.1, pour passer d'une image calculée en 2560 x 1400 pixels à de la 8K.

Notez que dans des applications de rendu 3D, les performances de la RTX 3080 sont annoncées comme jusqu'à deux fois supérieures par rapport à la RTX 2080 Super. Ce qui devrait ravir les professionnels. Concernant la vidéo, le moteur de compression NVENC est inchangé. Celui de décompression gère désormais AV1 dans différents navigateurs et VLC. Le connecteur HDMI passe à la version 2.1 de la norme (48 Gb/s). Le DisplayPort reste en 1.4a.

  • NVIDIA Ampere RTX 30 Series Live
  • GeForce RTX 30 Series Ampere 8K
  • GeForce RTX 30 Series Ampere 8K
  • GeForce RTX 30 Series Ampere 8K
  • GeForce RTX 30 Series Ampere 8K
  • GeForce RTX 30 Series Ampere 8K
  • GeForce RTX 30 Series Ampere 8K
  • GeForce RTX 30 Series Ampere 8K

Et avec du ray tracing ?

L'objectif de NVIDIA avec Turing était de permettre d'obtenir un niveau de performances similaire entre une image calculée « normalement » et une profitant du ray tracing. Pour cela, le constructeur misait sur le cumul des quatre avantages que nous venons d'évoquer : l'exécution concurrentielle, DLSS, les Tensor Cores et les RT Cores.

Ainsi, l'image est calculée très rapidement grâce aux unités de calcul classiques et aux RT Cores, mais de manière partielle et dans une définition inférieure à celle affichée, avec des « trous ». Un modèle mathématique issu d'un réseau de neurones est ensuite appliqué en quelques millisecondes grâce aux Tensor Cores pour venir la compléter. Il s'agit de la phase de « denoising ». Elle est ensuite repassée à la définition désirée via DLSS.

Selon les chiffres de NVIDIA, cela permet d'obtenir le rendu d'une image en 13 ms sur Turing (soit 77 ips), contre 12 ms (83 ips) pour la même image avec un rendu classique pour Pascal. Avec Ampere, dont les unités sont plus nombreuses et plus efficaces et qui bénéficie d'une exécution concurrentielle renforcée, on passe à 6,7 ms (149 ips).

On pourrait donc imaginer obtenir de très bonnes performances en ray tracing, même sans DLSS. NVIDIA l'annonce d'ailleurs sans détour : un jeu gourmand, notamment en ray tracing profitera à plein des nouveautés de l'architecture Ampere (doublement FP32, unités de nouvelle génération). Nous le vérifierons lors des tests.

  • GeForce RTX 30 Series Ampere Performances Ray tracing
  • GeForce RTX 30 Series Ampere Performances Ray tracing
  • GeForce RTX 30 Series Ampere Performances Ray tracing
  • GeForce RTX 30 Series Ampere Performances Ray tracing
  • GeForce RTX 30 Series Ampere Performances Ray tracing
  • NVIDIA Ampere RTX 30 Series Live

Deux fois plus performante, deux fois plus gourmande ?

L'autre grande promesse de NVIDIA avec Ampere et son architecture repensée est d'obtenir un GPU dont la performance par watt consommé est presque doublée (1,9x annoncé). C'est ce que semblent pour le moment annoncer ses chiffres, la puissance théorique et la consommation annoncée : 220, 320 et 350 watts.

Mais comme toujours dans ce genre de cas, il faudra le vérifier lors des tests.

Dois-je changer mon alimentation ?

Les RTX 3070 nécessitent un connecteur d'alimentation PCIe à 8 broches, contre 8+8 broches pour les 3080 et 3090, précise NVIDIA. Ses recommandations sont ainsi d'avoir une alimentation de 650 watts pour la première et de 750 watts pour la seconde. Bien entendu, cela dépendra du reste de votre machine (CPU, mémoire, cartes PCIe, stockage, etc.). Cela pourra donc être moins ou plus, optez au moins pour un modèle de 600 watts de qualité.

Il faut ainsi éviter les modèles « no name », préférez plutôt pour une marque reconnue, avec une certification + si possible, pour s'assurer qu'elle dispose d'un bon rendement. Le coût de tels blocs n'est pas très élevé, dans les 80 à 150 euros en général. NVIDIA livre également deux autres recommandations.

NVIDIA RTX 30 Series Ampere Alimentation
Les recommandations de NVIDIA pour une GeForce RTX 3090

La première est de relier chaque connecteur PCIe 8 broches à un port différent de votre alimentation. De quoi permettre de mieux répartir la charge au sein de celle-ci. Certains constructeurs précisent d'ailleurs quels connecteurs utiliser en priorité, n'hésitez donc pas à lire le manuel avant de procéder aux branchements.

Cela ne veut pas dire que vous ne pouvez pas opter pour un câble unique avec un dédoubleur à son bout, puisqu'il est normalement pensé pour faire passer les 2x 150 watts d'un 8+8 broches. Mais cette précaution permet de limiter l'échauffement d'un même câble, surtout si le GPU est souvent très sollicité. Privilégiez-la donc.

Notez que les RTX série 30 Founders Edition de NVIDIA utilisent un connecteur PCIe 12 broches. Celui-ci n'est pas propriétaire, NVIDIA nous ayant précisé qu'il l'avait rendu utilisable par n'importe quel constructeur (même ses concurrents) sans royalties. Il est plus compact que l'habituel 8+8 broches.

Un choix rendu nécessaire en raison du design inhabituel du PCB, de très petite taille. Cela a permis a NVIDIA de développer son ventirad nouvelle génération à deux ventilateurs, dont un traversant.

Ce nouveau ventirad, il fonctionne comment ?

L'objectif de NVIDIA était de repenser complètement le refroidissement de ses cartes. Très efficace sur Turing, il posait quelques problèmes notamment en n'évacuant pas directement la chaleur générée par le GPU. Avec Ampere, l'entreprise voulait arriver au même niveau de température (81°C) avec moins de bruit (32 dBA).

Ses équipes disent y être arrivées avec 78°C pour 30 dBA sur la RTX 3080, malgré ses 320 watts (contre 250 watts auparavant). Pour cela, un premier ventilateur (sur la gauche) aspire de l'air frais sous le GPU puis l'évacue directement à l'arrière de la machine une fois réchauffé. La chambre à vapeur est reliée à un large dissipateur placé sur la partie droite de la carte, via quatre caloducs. Le ventilateur traversant se charge de son refroidissement.

L'air chaud généré est cette fois évacué dans le flux d'air global du boîtier. NVIDIA dit que ce système est également intéressant lorsque deux cartes sont placées l'une en dessous de l'autre. Dans tous les cas, le rapport température/bruit est semble-t-il bien meilleur. Des affirmations qu'il faudra bien entendu vérifier dans la pratique.

  • GeForce RTX 30 Series Ampere Refroidissement
  • GeForce RTX 30 Series Ampere Refroidissement
  • GeForce RTX 30 Series Ampere Refroidissement
  • GeForce RTX 30 Series Ampere Refroidissement
  • GeForce RTX 30 Series Ampere Refroidissement
  • GeForce RTX 30 Series Ampere Refroidissement
  • GeForce RTX 30 Series Ampere Refroidissement

Aura-t-on enfin droit à de nouveaux pilotes ?

Non. NVIDIA a été clair là-dessus. Néanmoins, la couche logicielle va bien évoluer et être complétée par de nouvelles applications. L'overlay, utilisé pour certaines fonctionnalités permet désormais d'activer un relevé de performances avec la consommation, la latence, le nombre d'images par seconde, etc. Un mode d'optimisation doit permettre d'améliorer les résultats, sans que l'on sache encore comment il fonctionne exactement.

L'outil de relevé de performances Frameview vient de passer en version 1.1. Des outils comme Broadcast vont s'adresser aux streamers en permettant le suivi de visage via la webcam, le remplacement de fond ou la réduction du bruit, déjà testée en bêta depuis quelques mois via RTX Voice. Le tout exploitable dans des applications tierces.

Les écrans G-Sync à 360 Hz intègreront un analyseur de latence matériel. Il faudra pour cela brancher la souris sur l'un de ses ports USB, puis indiquer une zone (via l'OSD de l'écran) où l'action est à détecter. De quoi décomposer la latence pour savoir dans quelle mesure, la souris, le système ou l'écran sont responsables.

  • GeForce RTX 30 Series Ampere Reflex Latence
  • GeForce RTX 30 Series Ampere Reflex Latence
  • GeForce RTX 30 Series Ampere Reflex Latence
  • GeForce RTX 30 Series Ampere Reflex Latence
  • GeForce RTX 30 Series Ampere Reflex Latence
  • GeForce RTX 30 Series Ampere Reflex Latence
  • GeForce RTX 30 Series Ampere Reflex Latence
  • GeForce RTX 30 Series Ampere Broadcast

Le SDK NVIDIA Reflex permettra aux développeurs de réduire et mesurer la latence au sein de leurs jeux et de prendre les décisions nécessaires pour la réduire. Plusieurs jeux devraient rapidement le proposer, surtout des Free-to-play : Apex Legends, Destiny 2, Fortnite ou Valorant. Mais aussi les derniers Call of Duty.

NVIDIA va aussi fournir des kits (LDAT/PCAT) à certains journalistes. Ils permettent d'effectuer des relevés matériels de la consommation d'un GPU (NVIDIA ou non) et de la latence des composants (via une caméra spécifique).

  • Introduction
  • Quelles cartes ont été annoncées, quand seront-elles disponibles ?
  • Aucune carte à moins de 520 euros ? Ce n'est pas dans mon budget !
  • Une carte graphique à 1 549 euros, pour quoi faire ?
  • C'est quoi un TeraFLOPS ?
  • Pourquoi dites-vous qu'Ampere est un « bi-GPU by design » ?
  • La puce est donc deux fois plus grosse ?
  • Les Tensor Cores de 3e génération, ça change quoi ?
  • Et les RT Cores de 2e génération ?
  • C'est joli tout ça, mais les performances au final ?
  • Et avec du ray tracing ?
  • Deux fois plus performante, deux fois plus gourmande ?
  • Dois-je changer mon alimentation ?
  • Ce nouveau ventirad, il fonctionne comment ?
  • Aura-t-on enfin droit à de nouveaux pilotes ?
S'abonner à partir de 3,75 €
62 commentaires
Avatar de Soraphirot Abonné
Avatar de SoraphirotSoraphirot- 04/09/20 à 21:24:23
#1

La vraie question que tout le monde se pose est : les fabricants tiers profiteront-ils du travail de nVidia sur la taille du PCB pour enfin concevoir des cartes de tailles correctes, ou bien va-t-on encore se taper des monstres qui pourraient servir d'épée à deux mains ?

Avatar de OlivierJ Abonné
Avatar de OlivierJOlivierJ- 04/09/20 à 21:25:47
#2

Très bel article !
Typiquement ce qui justifie mon abonnement (même si je ne suis pas joueur, mais curieux techniquement).

Avatar de DoWnR Abonné
Avatar de DoWnRDoWnR- 04/09/20 à 21:28:55
#3

Ah merci, juste quand je me disais que j'allais aller dormir tôt aujourd'hui :mdr:

Avatar de chats614 Abonné
Avatar de chats614chats614- 04/09/20 à 21:29:26
#4

Cette nouvelle solution de refroidissement semble vraiment intéressante mais j’ai de vrai doutes pour les utilisateurs de water cooling AIO.
L’air chaud de deuxième ventilateur va venir directement sur la partie entourant le CPU et risque de faire grimper significativement les températures du CPU, des VRM et de tout ce qui se situe autour.
Autant les ventirads tour devraient bien évacuer vers l’arrière du boîtier, autant les water cooling risquent d’avoir plus de mal à pousser tout cet air chaud.
Steve de Gamers Nexus a déjà annoncé tester ça dès la sortie, on saura assez vite si les Founders Edition valent le coup (parce qu’elles sont tellement belles :smack: )

Avatar de David_L Équipe
Avatar de David_LDavid_L- 04/09/20 à 21:36:00
#5

undefined

NVIDIA te dirait sans doute que chaque constructeur est libre d'innover sur son cœur de métier, à savoir l'intégration de ses GPU au sein d'une carte graphique

undefined

Merci, je vais tenter de dormir un peu maintenant :D

undefined

Cette partie est quand même censée être en plein dans le flux d'air devant le ventilo en extraction, sans parler du flux que va ajouter le ventilo de NVIDIA. On verra dans la pratique, mais je doute que ça mène à un problème à ce niveau là.

Tout dépendra de toutes façons toujours du bon flux global au niveau du boîtier (mais ce n'est pas spécifique aux RTX 30) avec l'avantage d'avoir une partie en extraction directe, ce qui n'était pas le cas avant.

Édité par David_L le 04/09/2020 à 21:36
Avatar de DoWnR Abonné
Avatar de DoWnRDoWnR- 04/09/20 à 21:51:30
#6

undefined

C'est pas mieux avec de gros ventirad en air-cooling, la carte va expulser son air chaud directement là où le ventirad du CPU aspire l'air censé être frais, et le CPU va se prendre quelque degrés en plus... j'attends les tests avec impatience sur ce système.

Édité par DoWnR le 04/09/2020 à 21:52
Avatar de Pazns Abonné
Avatar de PaznsPazns- 04/09/20 à 23:24:43
#7

undefined

J'ai cru comprendre que EK signalait bien dans ses communications que le PCB Founders n'est pas le PCB de référence...
Le gap va se creuser un peu plus.
Il faut espérer que les fabricants ne vont pas trop essayer de se démarquer et de customiser le bazar, sinon tout ce qui est waterblock ça va devenir très compliqué.

Avatar de ArKoS Abonné
Avatar de ArKoSArKoS- 05/09/20 à 04:40:27
#8

undefined

Oui c'est clairement le point qui me chiffonne le plus. A vérifier donc.

Avatar de David_L Équipe
Avatar de David_LDavid_L- 05/09/20 à 06:45:49
#9

undefined

J'ai vraiment du mal à comprendre le raisonnement. Dans un refroidissement classique (à la série 10/20), toute la chaleur était conservée dans le boîtier, en partie concentrée dans la backplate placée sous la zone du CPU, sans ajout de ventilation (sauf celle sous le dessus qui disperse la chaleur dans le boîtier).

Je comprends bien que NV conçoive ses dispositifs avec des outils dédiés, de l'IA, toussa... mais en quoi il est difficile de comprendre qu'extraire directement une partie de la chaleur à l'arrière d'une part, et ajouter une ventilation directe dans la direction du flux d'air d'autre part sera un bienfait face à une solution classique ?

Forcément, certains en font leur beurre en mode "hein hein on va décortiquer tout ça en 18 étapes". Mais sérieusement, il n'y a rien de sorcier là-dedans (si ce n'est la conception sans doute). Comme tout le reste il faudra le vérifier, mais il m'est d'avis que c'est un des points sur lequel on aura pas vraiment de surprise.

Édité par David_L le 05/09/2020 à 06:47
Avatar de Jesuisserieux INpactien
Avatar de JesuisserieuxJesuisserieux- 05/09/20 à 07:14:01
#10

undefined

Exactement comme toi.

Il n'est plus possible de commenter cette actualité.

Page 1 / 7

2000 - 2020 INpact MediaGroup - SARL de presse, membre du SPIIL. N° de CPPAP 0321 Z 92244.

Marque déposée. Tous droits réservés. Mentions légales et contact