Cartes AMD NAVI: la renaissance continue

Goforce

Hardcore Gamer
AMD FSR 2.0 Quality & Performance Review - The DLSS Killer | TechPowerUp

La conclusion est assez enthousiaste! Ca fait plaisir. Faut espérer que beaucoup de jeux suivent rapidement et que ça arrive sur les Xbox Series.
Je l'avais dit : p

" AMD has achieved the unthinkable—the new FidelityFX Super Resolution FSR 2.0 looks amazing, just as good as DLSS 2.0, actually DLSS 2.3 (in Deathloop). Sometimes even slightly better, sometimes slightly worse, but overall this is a huge win for AMD. "

En sachant que le FSR 2.0 ... est open source.

Si des génies (autre que les dev/ingé d'amd) l'améliorent, c'est tout bénéf pour tout le monde : p (et c'est ce qui est déjà arrivé sur le FSR 1.0)

Le DLSS 2.4+ est "théoriquement" toujours supérieur au FSR 2.0 mais la différence est nettement moins visible ... (le DLSS 2.X nécessite beaucoup plus de temps pour être implémenter)

les ps5 sont aussi base sur une archi amd non?
ca va faire un bon gros coup dans le bide de nvidia tt ca...
Il n'y a pas directX sur PS5 et la PS5 n'a pas un "vrai" GPU RDNA2.

Le support du FSR 1.0 n'est que partiel sur PS5 et le FSR 2.0 ne fonctionne pas sur celle-ci. (en tout cas le FSR 2.0 ne peut pas fonctionner nativement sur PS5, après comme la techno est open source, sony peut peut-être l'adapter, notamment sur les jeux sous unreal engine)

FSR 1.0 fonctionne sur DX11, DX12 & Vulkan. https://gpuopen.com/fidelityfx-superresolution/ (et fonctionne sur tous les GPU compatible DX11 minimum)

FSR 2.0 fonctionne sur DX12 & Vulkan. https://gpuopen.com/fidelityfx-superresolution-2/ (et fonctionne sur les GPU RX 500, GTX 10XX et plus récent)

Les FSR 1.X et 2.X fonctionneront aussi sur les GPU Arc de intel.

Il y a déjà minimum 2 jeux avec le FSR 1.0 sur xbox series, Chernobylite et lego builders, les autres jeux seront maj cette année ^^ (et les nouveaux jeux vont directement utiliser le FSR 2.0)

A ma connaissance, il n'y a qu'un seul jeu à utiliser le "FSR 1.0" sur PS5 (via l'unreal engine) : Arcadegeddon (d'autres jeux arrivent)

Mais oui le fait que le FSR 2.0 soit dispo sur les xbox series, steam deck et la totalité des gpu compatible DX12 ultimate (RX 5XX minimum, GTX 10XX minimum, ARC) va faire mal à nvidia puisque les dev vont plutôt se tourner en prio vers le FSR 2.0. (après je penses que pas mal de dev vont choisir de mettre le FSR 2.0 & le DLSS)

Nvidia vient quand même de perdre un argument de poids ... pour ses RTX.

-

Ceux qui ont une RX 6XXX, je vous conseil d'installer les nouveaux drivers preview de mai ...

Le gain en performance est tellement énorme sur la totalité des jeux en DX11, ça touche même certains jeux DX12.

On a rarement vu un driver apporté autant de perf, que ce soit chez AMD ou Nvidia.

C'est simple, les reviews postée sans ce driver sont devenue useless.
 

[ KL3R ]

#belgium
Le réel souci ça sera les partenariats/exclus Nvidia. Quand un jeu n’aura que le DLSS, ça fera toujours mal à AMD, car Nvidia est compatible FSR, mais AMD n’est pas compatible DLSS.
Surtout que le RT est encore bien en retrait sur les cartes AMD. Ça changera sûrement avec les RX 7000 même si Nvidia aura aussi ses RTX 4000 et qu’ils se laisseront sûrement pas faire.
Enfin si ça peut faire baisser les prix cette concurrence, tant mieux :) !
 

Goforce

Hardcore Gamer
Le réel souci ça sera les partenariats/exclus Nvidia. Quand un jeu n’aura que le DLSS, ça fera toujours mal à AMD, car Nvidia est compatible FSR, mais AMD n’est pas compatible DLSS.
Surtout que le RT est encore bien en retrait sur les cartes AMD. Ça changera sûrement avec les RX 7000 même si Nvidia aura aussi ses RTX 4000 et qu’ils se laisseront sûrement pas faire.
Enfin si ça peut faire baisser les prix cette concurrence, tant mieux :) !
Çà n'existe plus les "exclusivités", suffit de voir cyberpunk 2077 ou dying light 2 ... ^^

2 Titres sponsorisé par Nvidia pour servir de vitrine technologique, les 2 ont le FSR et le FSR 2.0 est aussi prévu. (même si ils ont "bridé" (intentionnellement ?) le FSR dans dying light 2 : https://www.tomshardware.fr/dying-l...-rendre-moins-convaincant-que-le-nvidia-dlss/

Un simple changement de paramètres permet d'avoir la qualité maximum sur le FSR. (il y a pas ce "problème" sur Cyberpunk)

Alors oui il y aura peut être encore des exclus temporaire mais les dev n'ont strictement aucun intérêt a ne pas inclure le FSR 2.0 dans leurs jeux ...

Surtout quand ont voit le TOP 10 des GPU sur steam ... :cool:

vGG3nWU.png


28.71% de GTX, 9.61% de RTX ...

En sachant que le FSR 2.0 fonctionne parfaitement sur toute les GTX 10XX.

Le nombre de dev qui mettent que du FSR ne fait qu'augmenter.

Perso je pense que le DLSS dans sa formule actuel, est mort. (je l'avais déjà dis il y a plusieurs mois)

Open Source >>>>>> propriétaire. (on l'a bien vu avec PhysX, GSYNC ...)
 
Dernière édition:

[ KL3R ]

#belgium


En mouvement, on voit quand même que le DLSS 2.3 (celui qui est testé) est quand même mieux, ça reste plus net. Mais bon, de manière générale, le FSR 2.0 reste une bonne alternative.
 

Saga

Et à propos de vieille truie, toi comment ça va ?
Bah on a beau vanter les amd, j ai eu 6900xt et rtx3080ti et rtx 3090 ti. Il n y a pas match, globalement tout est plus joli en rtx nvidia. Il suffit de tester sur red dead redemption 2 pour se rendre compte a quel point l’image est meilleure sur Nvidia. Niveau fps (perf brutes) elles se valent avec avantage pour amd sur certains jeux. Mais la qualité du rendu, perso, c’est et ça reste nvidia pour moi.
 
Dernière édition:

Goforce

Hardcore Gamer
Bah on a beau vanter les amd, j ai eu 6900xt et rtx3080ti et rtx 3090 ti. Il n y a pas match, globalement tout est plus joli en rtx nvidia. Il suffit de tester sur red dead redemption 2 pour se rendre compte a quel point l’image est meilleure sur Nvidia. Niveau fps (perf brutes) elles se valent avec avantage pour amd sur certains jeux. Mais la qualité du rendu, perso, c’est et ça reste nvidia pour moi.
Désolé mais ce que tu racontes est 100% faux.

C'est strictement impossible que l'image soit meilleur chez nvidia ou amd avec les même paramètres. (et ce même sur des gpu de générations différente, tant que les 2 gpu sont capable d'utiliser la même api)

D'ailleurs ça à déjà été prouvé plusieurs fois avec un scan des pixels en 4K, par frames. (avec du matos à plusieurs dizaines de milliers d'euros)

Et pour info, c'est quasiment toujours l'inverse depuis toujours, les gens pensent que la qualité d'image est meilleur chez AMD, même en regardant au pixel près ...





L'explication à ça est toute simple, il s'agit souvent d'un changement au niveau de la sortie vidéo (plage limitée, complète ou auto; couleurs; bits) ou alors des options de sharpening/contraste/AA qui ont été activée dans les drivers ...

(1er com de Tim de hardware unboxed qui dit ce que j'ai dis plus haut)

Et tu penses bien que si ce que tu racontes était réèl et existait ... nvidia ne se gênerait pas pour le faire savoir ... :oops: (déjà qu'ils ont mentit sur leurs propres slide en disant que la 3070 était plus rapide qu'une 2080 Ti ... :D on s'en souviendra de ça)

Hors à ma connaissance, ils n'ont JAMAIS dis que l'image était meilleur sur un GPU Nvidia. (et pourtant j'ai regardé la totalité de leurs conf gratuite ou payante depuis + de 15 ans)

Et même en activant le DLSS en mode qualité, c'est rare d'avoir une meilleur image vs le mode natif. (et c'est clairement pas le cas sur RDR2)



Une derniere vidéo pour la route où AMD est sois-disant supérieur ... (ce qui est vrai si on regarde SA vidéo), il a juste pas utilisé les même paramètres... :rolleyes:

myth busted
 

Saga

Et à propos de vieille truie, toi comment ça va ?
Je te dis que pour moi après avoir testé les deux, c’etait mieux en nvidia. Les effets de lumières etaient mieux. Je veux bien te croire sur tes tests etc mais il n empêche je préfères le rendu de mes cameleons.
J’ai le droit :D

apres si ils « trichent » en driver optimisation (contraste, sharpening) je m’en bats le steak. Au final c’est mon experience utilisateur qui est importante. Pas les tests partout sur le web. Tu comprends quand même ce point de vue non?
 

THiBOo

Elite
Je te dis que pour moi après avoir testé les deux, c’etait mieux en nvidia. Les effets de lumières etaient mieux. Je veux bien te croire sur tes tests etc mais il n empêche je préfères le rendu de mes cameleons.
J’ai le droit :D

apres si ils « trichent » en driver optimisation (contraste, sharpening) je m’en bats le steak. Au final c’est mon experience utilisateur qui est importante. Pas les tests partout sur le web. Tu comprends quand même ce point de vue non?
Ton point de vue utilisateur se base sur quoi ?
T'as testé les deux jeux côte à côte avec exactement les mêmes settings ?
Pcq sinon c'est juste se baser sur un feeling (biaisé) pas grand chose d'objectif.
À moins d'avoir le rt activé par défaut avec NVIDIA et pas AMD ou autre.
 
  • J'aime
Les réactions: 8miles

untuch

GeekSportif
Vous avez rien compris, c etait juste un message subliminal pour dire qu on est tous des prolo ! Il a une 6900xt une 3080ti et 3090ti pendant qu on se la touche avec nos 10xx et parfois 20xx
 

Saga

Et à propos de vieille truie, toi comment ça va ?
Vous avez rien compris, c etait juste un message subliminal pour dire qu on est tous des prolo ! Il a une 6900xt une 3080ti et 3090ti pendant qu on se la touche avec nos 10xx et parfois 20xx
ça colle pas avec ton pseudo ton message :D
 

Saga

Et à propos de vieille truie, toi comment ça va ?
Les cartes amd sont dispos sur leur site en permanence.

ça se vend pas :D

y a des scalpers qui essaient encore sur 2ememain. Certains vendent deja neuve la 6750xt a 600 euros. Dur:rolleyes:
 
M

Membre supprimé 9408

ex membre
Bonjour,

Je cherche une carte graphique pour du 1440p.
Je voudrais y mettre environ € 500 et c'est bien puisque les prix actuels semblent diminuer ( soldes ).

Je trouvais une AMD Radeon™ RX 6750 XT Graphics du site AMD pas mal.
Sinon une XFX Speedster MERC319 Radeon RX 6750XT.

Je vais l'undervolter, c'est sur.

J'ai beaucoup regardé Nvidia, mais je pense que les cartes d'AMD ont encore un beau potentiel caché.
 
1er
OP
Joon

Joon

Squadeur.
Tant que tu n'utilises pas le ray tracing, AMD est meilleur. Et le ray tracing reste lent pour du 1440p dans les cartes graphiques de cette gamme.
 
M

Membre supprimé 9408

ex membre
Vivi, le Ray Tracing je zap. Pas envie de me retrouver à 15 ips dès qu'il y a une flaque d'eau. :)

Je voulais demander quel était les cartes valables en rx 6700 xt où rx 6750 xt, mais j'ai omis de le faire.
 

Goforce

Hardcore Gamer
Les cartes amd sont dispos sur leur site en permanence.

ça se vend pas :D

y a des scalpers qui essaient encore sur 2ememain. Certains vendent deja neuve la 6750xt a 600 euros. Dur:rolleyes:
La production est ~15% supérieur à la demande, ça veut pas dire que ça se vend pas ...

Les gpu se vendent comme des petits pains et AMD est passé devant Nvidia en chiffre de ventes chez pas mal de fournisseurs. (merci le bundle d'AMD et les prix largement inférieur d'AMD)

Asus à même réduit le prix de tout leurs produit, avec des baissent allant jusqu'à 600€ sur les 3080 et 3090 ti.

Même la 3090 Ti est trouvable massivement et 250€ moins cher que son MSRP...

C'est moche mais la guerre et le ban des produits en russie & biélorussie ont permis que les prix chutent très fort en très peu de temps.


Vivi, le Ray Tracing je zap. Pas envie de me retrouver à 15 ips dès qu'il y a une flaque d'eau. :)

Je voulais demander quel était les cartes valables en rx 6700 xt où rx 6750 xt, mais j'ai omis de le faire.
La 6750XT est quand même nettement meilleur et directement dispo sur le site d'AMD. AMD Radeon™ RX 6750 XT Graphics | AMD

615€ c'est vraiment correcte comme prix.

La 6750XT a la puissance d'une 2080 Ti (qui était vendue 1200-1600€) : )

Une 2080 Ti oc reste meilleur mais la conso est pas la même ^^
 
M

Membre supprimé 9408

ex membre
Merci pour le Conseil Goforce,
Elle a vraiment un beau look cette carte.
Je l'ai commandée à l'instant, j'espère qu'elle est bien de stock.
De nos jours, on n'est plus sur de rien !
 
M

Membre supprimé 9408

ex membre
Je peux trouver où des renseignements concernant les réglages fréquence GPU min et max ainsi que la fréquence max VRAM ?
 
Haut