Nvidia RTX 4090, 4080 et 4070 (Ada Lovelace)

Vorsarius

Yeah well..
Ton analyse technique est correcte, mais tu oublies un point important, la loi du marché :D Si la plupart des joueurs ont des cartes avec 8 ou 12Gb de VRAM, les développeurs de jeux vont devoir s'adapter. Pas le choix que de sortir des packs de texture adaptés. Sûr, il y aura toujours un mode "ultra" qui saturera la VRAM, mais honnêtement, pas sûr que ça change grand chose visuellement.

Personnellement, je pense qu'on arrive au bout des capacités physiques des GPU.
Des cartes de 2kg, 35cm, avec 3 ventilateurs et qui pompent 450W, c'est ridicule.

L'avenir est à l'optimisation logicielle: upscaling et frame generation (donc DLSS 3).
Ca permet de jouer en 1440 - 120 fps ou 4k - 60 fps avec des cartes "modestes".
C'est pas encore parfait, on est d'accord, mais c'est très prometteur.

Là du coup AMD et NVIDIA ont vraiment 2 approches opposées: pousser au max la performance brute des cartes VS limiter volontairement le hardware en compensant par des optimisations logicielles. Choose your side :D
 

Zloup

Badger
Ton analyse technique est correcte, mais tu oublies un point important, la loi du marché :D Si la plupart des joueurs ont des cartes avec 8 ou 12Gb de VRAM, les développeurs de jeux vont devoir s'adapter. Pas le choix que de sortir des packs de texture adaptés. Sûr, il y aura toujours un mode "ultra" qui saturera la VRAM, mais honnêtement, pas sûr que ça change grand chose visuellement.

Personnellement, je pense qu'on arrive au bout des capacités physiques des GPU.
Des cartes de 2kg, 35cm, avec 3 ventilateurs et qui pompent 450W, c'est ridicule.

L'avenir est à l'optimisation logicielle: upscaling et frame generation (donc DLSS 3).
Ca permet de jouer en 4k - 120 fps avec des cartes "modestes".
C'est pas encore parfait, on est d'accord, mais c'est très prometteur.

Là du coup AMD et NVIDIA ont vraiment 2 approches opposées: pousser au max la performance brute des cartes VS limiter volontairement le hardware en compensant par des optimisations logicielles. Chose your side :D
Alors dans un monde parfait je dirai oui, mais dans les faits, on remarque bien que l'optimisation du jeu, c'est pas encore la priorité...
 

Vorsarius

Yeah well..
Alors dans un monde parfait je dirai oui, mais dans les faits, on remarque bien que l'optimisation du jeu, c'est pas encore la priorité...
A la release des jeux, c'est clair.
Après les joueurs gueulent tellement qu'en général 1 ou 2 mois après, tu as un méga patch qui corrige tous les problèmes de performance :p
 
Ton analyse technique est correcte, mais tu oublies un point important, la loi du marché :D Si la plupart des joueurs ont des cartes avec 8 ou 12Gb de VRAM, les développeurs de jeux vont devoir s'adapter. Pas le choix que de sortir des packs de texture adaptés. Sûr, il y aura toujours un mode "ultra" qui saturera la VRAM, mais honnêtement, pas sûr que ça change grand chose visuellement.

Personnellement, je pense qu'on arrive au bout des capacités physiques des GPU.
Des cartes de 2kg, 35cm, avec 3 ventilateurs et qui pompent 450W, c'est ridicule.

L'avenir est à l'optimisation logicielle: upscaling et frame generation (donc DLSS 3).
Ca permet de jouer en 1440 - 120 fps ou 4k - 60 fps avec des cartes "modestes".
C'est pas encore parfait, on est d'accord, mais c'est très prometteur.

Là du coup AMD et NVIDIA ont vraiment 2 approches opposées: pousser au max la performance brute des cartes VS limiter volontairement le hardware en compensant par des optimisations logicielles. Choose your side :D
Niveau technique on est pas encore à la limite; tout en gardant cette envellope thermique tu as un potentiel de folie avec les futurs process 3nm ,2nm.

Je ne serai pas etonné que AMD nous sorte un GPU 3D Cache comme ils ont fait avec les CPU. D'ailleurs lors des premiers scan infrarouge des Navi31 (7900xtx) c'est +- prévu.

"Wassick’s IR investigations saw that the RX 7900 XT had one dummy MCD. However, more interestingly and as per our headline, an MCD studied using IR featured “a linear array of ‘spots’ that look remarkably like the keep out zones on X3D, and that are on the same 17-18 um pitch"

Mais je te rejoins sur l'optimisation, jedi survivor est encore le beau exemple , j'ai payé plein pot et j'y joue pas en attendant les patch :confused:
 

Seiei

Elite
donc pour 600 euros environ vous conseillez de partir vers AMD ?
Et si on va plus haut, aller chez NVIDIA ? Me fait bizarre de changer, doit faire plusieurs gen que je suis only nvidia.

Compte craquer pour un nouveau proc et CG donc je check ^^
 
donc pour 600 euros environ vous conseillez de partir vers AMD ?
Et si on va plus haut, aller chez NVIDIA ? Me fait bizarre de changer, doit faire plusieurs gen que je suis only nvidia.

Compte craquer pour un nouveau proc et CG donc je check ^^
J'ai vu des RX6950XT à 699€.
chez nvidia tu peux avoir des 4070.

La RX6950XT se rapproche + d'une 4070 TI qu'une 4070.

Une vidéo qui compare les deux.

Radeon RX 6950 XT or GeForce RTX 4070, Which $600~ GPU Should You Buy? - YouTube

Maintenant chacun ces préférences et utilisations.

Edit : ici à 699€ AMD Radeon RX 6950 XT, Carte graphique 1x HDMI, 2x DisplayPort, 1x USB-C (alternate.be) et le jeux Last Of Us Offert.
EDIT 2 : Ici à 649€ pour le modele XFX Custom MERC319 XFX – Carte Graphique de Jeu Speedster MERC319 RX 6950XT avec 16 Go GDDR6 HDMI 3:cool:P, AMD RDNA 2 RX-695XATBD9, Noir : Amazon.fr: Informatique , pas de jeux offert
 
Dernière édition:

batto

☢️☢️☢️☢️☢️☢️
donc pour 600 euros environ vous conseillez de partir vers AMD ?
Et si on va plus haut, aller chez NVIDIA ? Me fait bizarre de changer, doit faire plusieurs gen que je suis only nvidia.

Compte craquer pour un nouveau proc et CG donc je check ^^
de mon point de vue, dans tous les cas AMD, sauf si multi screen, apparemment AMD c'est pas top de ce coté là et j'ai lu récemment qu'il fallait éviter les différences de fréquences d'affichage des écrans. Par ex avoir un 60hz & un 144hz c'est pas top.
 
de mon point de vue, dans tous les cas AMD, sauf si multi screen, apparemment AMD c'est pas top de ce coté là et j'ai lu récemment qu'il fallait éviter les différences de fréquences d'affichage des écrans. Par ex avoir un 60hz & un 144hz c'est pas top.
y a aussi qq soucis en vr avec amd.
Je ne sais pas si c'est qq chose qui est temporaire et sera résolu ou si c'est lié à l'archi.
c'est pour celà que j'ai pris 4090. Sinon j'étais pret pour une 7900xtx liquid devil

mais oui amd semble etre le bon choix sauf pour qq cas particuliers
 

Seiei

Elite
mmmh, ouais... je fais du VR et du multi screen, du coup ca peut etre emmerdant XD
 

batto

☢️☢️☢️☢️☢️☢️
mmmh, ouais... je fais du VR et du multi screen, du coup ca peut etre emmerdant XD
mieux de le savoir avant. Après rien ne dit que ce sera pas résolu comme l'inverse, tjs chiant d'avoir une décision à prendre qu'une maj software peut aisément résoudre.
 
Que ce soit le soucis vr ou idle. Ce sera résolu pour la fin du mois niveau driver ;)
 
Attention que le soucis vr et idle touche les 7900. La rx6950 n'a aucun problème à ce niveau
 
Attention que le soucis vr et idle touche les 7900. La rx6950 n'a aucun problème à ce niveau
j'ai pas creuser bcp plus...j'ai regarder sur les forums iracing et ensuite j'ai vu les posts specifiques vr. Et pour iracing amd ne sortait pas vainqueur. Mais je me suis focalisé sur la derniere gen 4xxx et 79xx.
 

[ KL3R ]

#belgium
75 Hz et 144 Hz, ça passe avec AMD? Car bon si pas résolu, le choix sera vite fait ^^
J’ai pas d’excellents souvenirs de mon passage chez AMD, mais bon, ça date un peu…
 

Goforce

Hardcore Gamer
Pour 600€ environ, il n'y a pas photo, la 6950 XT à 599-649€ est de très loin le meilleur choix.

Une 6950 XT undervolt & tuned étant meilleur qu'une 4070 Ti.
Une 6950 XT @stock est largement plus performante qu'une 4070.

La 6950 XT est tellement un bon gpu que même fasse à la 7900 XT le choix est difficile. (une fois le nouveau driver release, ce ne sera plus le cas ^^)

D'ailleurs la 6950 XT a actuellement plus de perf en VR qu'une 7900 XT. (oui ce bug sera corrigé soon ^^)

Le défaut de la 6950 XT, alim recommandée de 850W (pour les pics de conso).

75 Hz et 144 Hz, ça passe avec AMD? Car bon si pas résolu, le choix sera vite fait ^^
J’ai pas d’excellents souvenirs de mon passage chez AMD, mais bon, ça date un peu…
Aucun problèmes de multi screen chez AMD chez moi et j'ai les GPU des 2 constructeurs. (4 écrans sur 7900 XTX, ras, 60-120-120-500hz)

C'est déconseillé de combiner des écrans avec des HZ trop différent que ce soit chez Nvidia, Intel ou AMD et ça ne changera jamais. (il y a parfois des bugs lié à Windows)

Actuellement, Nvidia a beaucoup plus de bug majeure que AMD. (en tout cas des bugs qui me font personnellement bien chié :cool: )

Notamment la latence DPC trop élevée qui fait qu'avec pas mal de setup audio il y a des pertes de signal et du craquement/grésillement pendant ~0.5-1s. (évidemment il fallait que j'aies le problème ... avec 2080 ti, 3090 ti, 4090)

Le dolby ATMOS n'est aussi toujours pas corrigé, ça bug très souvent... :mad::mad::mad: (c'est super d'avoir un setup audio a + de XXXXX€ et d'avoir ces bugs ...& rip les oreilles quand ça arrive :pfrt:)

Le bug est présent avec ampli ou en branchant sur une TV avec dolby atmos.

Je vois déjà venir des défenseurs de nvidia en disant "j'ai aucun pb" mais je vais tout de suite les arrété, le problème étant confirmé par NVIDIA et est même écrit dans le patchnote des drivers. De plus énormément d'utilisateurs reportent des problèmes sur reddit et sur le forum de Nvidia ^^
 

Goforce

Hardcore Gamer
the-lord-of-the-rings-gollum-geforce-rtx-3840x2160-nvidia-dlss-desktop-gpu-performance-scaled[1].jpg


48 FPS @ RTX 4090, ils préparent le terrain pour la 4090 Ti qui aura ~60fps+ : p (elle devrait être release avant octobre 2023)
 

Goforce

Hardcore Gamer




hop, dead on arrival.

Les GPU avec 8GB de vram sont déjà useless : ) (pour jouer en ultra)

Achetez surtout pas une 4060 Ti au MSRP ... :burp::burp::burp:

La 4060 Ti 16GB pourrait être bien ... si le prix est inférieur a 429€. (rip le msrp de 529€)
 
Dernière édition:
La 6950 xt est le meilleur rapport qualité prix, les tests sont unanimes.

J'ai eu l'occasion de tester la 7900 xt xfx qui était dans les 800 balles et elle envoyait pas mal quand même.
 
Haut