Nvidia RTX 4090, 4080 et 4070 (Ada Lovelace)

Si ils veulent faire mal à nvidia comme ils ont fait mal à Intel, c est le moment où jamais !

Vivement les annonces.
 
  • J'aime
Les réactions: Alpan

THiBOo

Elite
Jsuis hyper hype par le MCC d’AMD
 
  • J'aime
Les réactions: Alpan

Wyverns

Elite
Rendez vous le 3 novembre pour l'annonce d'AMD, j'ai hâte. Même si ma 6800 XT me suffit pour le moment, très très curieux du RDNA3.
 

Zloup

Badger
Je suis impatient des nouveaux CPU AMd perso, ma 6800Xt se sent bridée par mon 8700K
 

Goforce

Hardcore Gamer


Je ne suis pas d'accord avec tout ce qu'il dit et il n'utilise pas forcément les bons termes mais il résume bien la situation :cool:

Pour vous dire à quel point nvidia ment :

Sur Division 2 (et tous les jeux ubisoft en général, les AC, the crew 2, anno etc...), je n'ai même pas 50% de fps en plus vs ma 3090 Ti ... avec la 4090.

FPS fictif mais qui représente la réalité dans pas mal de jeux sans RT :

3090 Ti : 100FPS @ 350W (moins de 1350-1500€, 899-1049$)
4090 : ~146FPS @ 450W (1949-2200€+, 1599$+)

Ce qui donne une conso en hausse de ~30%+ pour un gain en fps de ~46% pour un prix en hausse de ~50% (75%+ avec les prix US) ...

Comme je l'avais dis AVANT l'annonce de nvidia, c'est de la merde et c'est même une regression au niveau perf/conso/prix.

Et si j'en crois les 1er leak concernant la 4080 12GB, celle-ci serait MOINS PUISSANTE que la 3090 TI dans pas mal de jeux normaux "sans RT".
(et oui la 4080 12GB se ferait atomiser par la 6950 XT qui est maintenant vendue 949$, dans les jeux sans RT :cool:)

Pas pour rien que nvidia n'a montré quasi aucun bench sans RT et sans DLSS ...

Et sur flight simulator, ils comparent une 3090 Ti sans DLSS à une 4090 avec DLSS 3.0 ... :D (pour info la différence de fps entre une 3090 Ti avec DLSS 2.4+ et une 4090 avec DLSS 3.0 est pas terrible ...)

Et évidemment le nombre de jeux ayant du DLSS est toujours ridicule, moins de 0.01% des jeux ont du DLSS, idem pour le RT.

Alors que 100% des jeux fonctionnent avec le FSR 1.1 et que le FSR 2.0+ peut fonctionner sur 100% des jeux ayant du DLSS. (suffit de voir tous les mods "DLSS 2.4=> FSR 2.0" release par des joueurs qui fonctionnent très bien)
 

brussli

Elite


Je ne suis pas d'accord avec tout ce qu'il dit et il n'utilise pas forcément les bons termes mais il résume bien la situation :cool:

Pour vous dire à quel point nvidia ment :

Sur Division 2 (et tous les jeux ubisoft en général, les AC, the crew 2, anno etc...), je n'ai même pas 50% de fps en plus vs ma 3090 Ti ... avec la 4090.

FPS fictif mais qui représente la réalité dans pas mal de jeux sans RT :

3090 Ti : 100FPS @ 350W (moins de 1350-1500€, 899-1049$)
4090 : ~146FPS @ 450W (1949-2200€+, 1599$+)

Ce qui donne une conso en hausse de ~30%+ pour un gain en fps de ~46% pour un prix en hausse de ~50% (75%+ avec les prix US) ...

Comme je l'avais dis AVANT l'annonce de nvidia, c'est de la merde et c'est même une regression au niveau perf/conso/prix.

Et si j'en crois les 1er leak concernant la 4080 12GB, celle-ci serait MOINS PUISSANTE que la 3090 TI dans pas mal de jeux normaux "sans RT".
(et oui la 4080 12GB se ferait atomiser par la 6950 XT qui est maintenant vendue 949$, dans les jeux sans RT :cool:)

Pas pour rien que nvidia n'a montré quasi aucun bench sans RT et sans DLSS ...

Et sur flight simulator, ils comparent une 3090 Ti sans DLSS à une 4090 avec DLSS 3.0 ... :D (pour info la différence de fps entre une 3090 Ti avec DLSS 2.4+ et une 4090 avec DLSS 3.0 est pas terrible ...)

Et évidemment le nombre de jeux ayant du DLSS est toujours ridicule, moins de 0.01% des jeux ont du DLSS, idem pour le RT.

Alors que 100% des jeux fonctionnent avec le FSR 1.1 et que le FSR 2.0+ peut fonctionner sur 100% des jeux ayant du DLSS. (suffit de voir tous les mods "DLSS 2.4=> FSR 2.0" release par des joueurs qui fonctionnent très bien)
Le constat est clair. Maintenant il faut passer à l’étape suivante: la sanction, et pour ça on a besoin d’alternative…AMD peut convertir pas mal de gens mécontents. À CONDITION qu’ils sortent un produit valable en terme de prix/performance et disponibilité (Paper launch).

Dommage que Intel ne soit pas encore prêt à rentrer dans la bagarre, ça aiderait à calmer Nvigreedy
 

Goforce

Hardcore Gamer
Le constat est clair. Maintenant il faut passer à l’étape suivante: la sanction, et pour ça on a besoin d’alternative…AMD peut convertir pas mal de gens mécontents. À CONDITION qu’ils sortent un produit valable en terme de prix/performance et disponibilité (Paper launch).

Dommage que Intel ne soit pas encore prêt à rentrer dans la bagarre, ça aiderait à calmer Nvigreedy
Intel comme je l'ai déjà dit dans le post dédié, ils sont bien partis pour défoncer Nvidia & AMD (jeux DX12 & Vulkan) dans l'entrée-milieu de gamme, les GPU à ~99-399€. (si il s'agit bien des prix en euro)

Le gros défaut des GPU intel, ce sont tous les jeux qui ne fonctionnent pas sur DX12 & Vulkan MAIS ça à l'air de s'améliorer avec les drivers, wait and see : p

Mais oui Intel n'a pas encore de GPU pouvant rivaliser avec des 2080 Ti - 3070 Ti + etc..., peut-être en 2023 ^^
 
En même temps peu de chance de faire pire en terme de ratio prix/perf et conso !

Et vu la petite phrase " bigger is not necessary better " ou un truc dans le genre lâché par AMD, je pense que ce sera une option plus qu envisageable pour beaucoup de gens. Nvidia va se prendre le mur que Intel s est prit il y a quelques années, en tout cas je l espère .

Ce ne sera que meilleur pour les consommateurs que nous sommes .

La concurrence n est que bénéfique.
 

brussli

Elite
Intel comme je l'ai déjà dit dans le post dédié, ils sont bien partis pour défoncer Nvidia & AMD (jeux DX12 & Vulkan) dans l'entrée-milieu de gamme, les GPU à ~99-399€. (si il s'agit bien des prix en euro)

Le gros défaut des GPU intel, ce sont tous les jeux qui ne fonctionnent pas sur DX12 & Vulkan MAIS ça à l'air de s'améliorer avec les drivers, wait and see : p

Mais oui Intel n'a pas encore de GPU pouvant rivaliser avec des 2080 Ti - 3070 Ti + etc..., peut-être en 2023 ^^
Oui bien sûr, je suis impatient de les voir rivaliser avec les Rouges et les Verts. Et oui le combo cpu Intel et CG Intel bien intégrés pourrait faire du mal…mais je pense que Nvidia a au moins une ou deux générations d’avance sur la concurrence et du coup 2023, ça me semble totalement illusoire malheureusement
 

[ KL3R ]

#belgium
J’espère qu’on aura dans les prochains mois de bons GPU qui se contenteront d’une alim de 550W ^^. Je compte finalement pas changer ma Seasonic 550W Gold.
En tout cas, côté Nvidia c’est mort ou alors peut-être la 4050, mais à voir ce que ça vaudra aussi.
 

bullrojp

Let's play some GAIMZ !!!
En gros c'est cool en espérant une gamelle et que les prix chutent :)
 

Goforce

Hardcore Gamer
ZOTAC RTX 4090's PCIe Gen5 power cable adapter service life is up to 30 connection cycles - VideoCardz.com

lol.

Ce n'est pas pour rien que je recommandais l'achat d'une alim ATX 3.0 pour les 4080 16GB et surtout pour la 4090 ..., il semblerait que ce soit pire que prévu.

C'est quand même scandaleux de release des câbles/adaptateur qui ne sont pas prévu pour durer, surtout que les tests montrent que les câbles peuvent finir par ne plus fonctionner voir fondre ...

Un câble 8pin de 16 AWG (en cuivre) accepte en général max ~168W @12V (avec une température correcte @70° max). (le problème c'est que toutes les alims n'ont pas des câbles 16 AWG pour les 6/8pin GPU/CPU ..., parfois c'est du 18 AWG et j'ai même vu 20 AWG sur des alim "cheap" ...)

Un adaptateur 3*8pin n'est pas suffisant pour la 4090 et même avec un adaptateur 4*8pin, lest tests montrent que trop de Watt passent dans les 2 1er câbles.

=> au mieux les câbles ne vont pas durer longtemps et cesser de fonctionner. (fort heureusement c'est souvent ça qui arrive)
=> au pire, ça peut finir par fondre si les câbles ne sont pas de bonne qualité.

(C'est le même problème que d'utiliser un 8Pin split en 2 sur les GPU consommant plus de 225W)

La solution serait de release des câbles/adaptateur 8pin avec un AWG de 10, 12 ou 14 comme ça les câbles pourraient supporter 336, 240 ou 192W @12V. (perso j'ai que du 14, c'est pas le même prix non plus malheureusement ...)
 
Dernière édition:

khios

Bac+10 en procrastination
Entre les prix pour la nouvelle génération et la surtaxe G-Sync sur les écrans :eek:
 

Wyverns

Elite
@Goforce Quand on lit 30 cycles, il faut bien comprendre 30 démarrages du PC ? Je ne me trompe pas ? Donc tous les mois on peut prévoir un nouveau câble ?
 
  • Haha
Les réactions: Alpan

khios

Bac+10 en procrastination
@Goforce Quand on lit 30 cycles, il faut bien comprendre 30 démarrages du PC ? Je ne me trompe pas ? Donc tous les mois on peut prévoir un nouveau câble ?
Nah, tu peux monter et démonter 30x le câble. C'est pas très important pour nous, utilisateurs lambda
 

Wyverns

Elite
Nah, tu peux monter et démonter 30x le câble. C'est pas très important pour nous, utilisateurs lambda
Ouf enfin c'est pas le top quand même, je fais encore fréquemment les poussières du PC. Malgré les filtres, avec des animaux et des enfants qui courent tout le temps, la poussière ça valse. Ce genre de cable ne tiendrait pas 2 ans au final chez moi ... mais bon pas de risque que je prenne ce genre de carte total hors budget.
 

Goforce

Hardcore Gamer
@Goforce Quand on lit 30 cycles, il faut bien comprendre 30 démarrages du PC ? Je ne me trompe pas ? Donc tous les mois on peut prévoir un nouveau câble ?
C'est 30 branchements, ce qui n'est franchement pas terrible pour quelqu'un qui nettoie le pc/gpu régulièrement ...

Allé chez moi ça ne tiendrait pas bcp plus que 2 ans ... :rolleyes: OU 3-4 mois sur la table de bench, MDR.
 
Haut