Nvidia RTX 4090, 4080 et 4070 (Ada Lovelace)

THiBOo

Elite
Ou bien, ils ont pas les moyens de les concurrencer dans cette catégorie...
T'es sérieux dans ta réponse ?

Tu compares une carte qui bouffe 600W et fait fondre les connecteurs, et une qui consomme la moitié en disant "ils sont p-e pas capables de concurrencer" ?
Faudrait ramener la 4090 au même wattage et comparer. Ou alors comme ils le font, comparer avec la 4080 qui a un wattage identique.
 
Je sais pas. Je suppose lol.
De tt façon, les deux fabricants essayent de nous la m*****.
Des cartes à minimum 1000 balles :-(
 
Dernière édition:

elliot

Elite
La 4090 c'est uniquement pour la vitrine de la marque, si tu veux vraiment être rentable tu sors un produit performant à bats coût et tu explose le marché. Quand tu regarde msrp de la 3080 ça c'était un bon produit. Evidement si tu sors une unité de calcul de 80 kg alimenté par 15000w qui peut servir de chauffage pour ton entrepôt ce sera performant mais tu fais une croix sur les consommateurs.


Le meilleur calcul d'amd ce serait d'avoir un produit qui se rapproche des rtx 4080 mais à la moitié du prix et là c'est le succès assuré.
 
Pardon ? Les gars faut redescendre...
Je vous donne mon avis...pour moi les deux marques se fichent de nous.
Le prix de la 4080 est beaucoup trop élevé, la 4090 j'en parle même pas...
AMD qui joue le gentil alors que la carte c'est minimum 1000€ :beuh:
 

THiBOo

Elite
Pardon ? Les gars faut redescendre...
Je vous donne mon avis...pour moi les deux marques se fichent de nous.
Le prix de la 4080 est beaucoup trop élevé, la 4090 j'en parle même pas...
AMD qui joue le gentil alors que la carte c'est minimum 1000€ :beuh:
La carte high-end c'est 1000€, tu achètes la CG que tu veux après.

Tout augmente, inflation machin. Les CG high-end à 500 balles c'est fini c'est sûr.
Comme un iPhone à 500 balles aussi.
 

YvaN

👾 👾 👾 👾 👾
ou alors ils décident de dire que taper 600W c'est stupide et restent réalistes?
C'est bizarre mais je ne trouve pas de tests qui mentionnent une conso normale de 600W sur des 4090, si tu prends le bench posté ci-dessus par @Jamalmaycry p.ex. elle ne tape même pas 400W. Sa conso max est d'approximativement 450W SANS OC. Mais il semblerait que la mauvaise foi soit la norme chez certains fanboys AMD :D

Alors certes elle peut taper 600W voir même un peu plus en OC de compet, mais ce n'est pas vraiment son utilisation première imho. Toi qui aime bien les comparaisons pourries (cf. ton steak brulé), c'est un peu comme si tu comparais une BMW M3 Stage 3 qui consomme 20L/100km à une M3 d'origine qui boit moitié moins ;)

Et puis si une CG est capable de supporter une conso 30% supplémentaire à son max théorique sans broncher, c'est plutôt bon signe quant à la qualité de ses composants non?
 

THiBOo

Elite
Et puis si une CG est capable de supporter une conso 30% supplémentaire à son max théorique sans broncher, c'est plutôt bon signe quant à la qualité de ses composants non?
Effectivement ...

"fanboy" amusant de voir ces termes chez des gens qui sont supposés avoir passé 30 piges ... C'est sérieux ?
Pr ma part, j'étais plutôt teamNvidia avant les RTX3xxx et le foutage de gueule qui se poursuit de la part de Nvidia vis à vis des joueurs.
Je vois pas trop où AMD se fout des joueurs par contre, au contraire. Après chacun choisit ce qu'il préfère évidemment.
 

YvaN

👾 👾 👾 👾 👾
"fanboy" amusant de voir ces termes chez des gens qui sont supposés avoir passé 30 piges ... C'est sérieux ?
Pr ma part, j'étais plutôt teamNvidia avant les RTX3xxx et le foutage de gueule qui se poursuit de la part de Nvidia vis à vis des joueurs.
Je vois pas trop où AMD se fout des joueurs par contre, au contraire. Après chacun choisit ce qu'il préfère évidemment.
Mmhhh on dirait que j'ai touché une corde sensible, tu te sens également visé p-ê? :D

C'était juste un clin d'œil parce que je trouve ça dommage de casser du sucre sur la concurrence en utilisant de faux prétextes, surtout quand ça devient une habitude de la part de certains. Et je ne parle pas de AMD si tu as remarqué, pas la peine de me faire un laïus à ce sujet ;)

D'ailleurs j'étais encore dernièrement chez AMD, j'ai switché suite à une opportunité et je ne le regrette pas même si je n'ai pas grand chose à reprocher à la marque. Comme tu le dis chacun choisis ce qu'il préfère, tant que tout le monde y trouve son compte.
 

Zloup

Badger
C'est bizarre mais je ne trouve pas de tests qui mentionnent une conso normale de 600W sur des 4090, si tu prends le bench posté ci-dessus par @Jamalmaycry p.ex. elle ne tape même pas 400W. Sa conso max est d'approximativement 450W SANS OC. Mais il semblerait que la mauvaise foi soit la norme chez certains fanboys AMD :D

Alors certes elle peut taper 600W voir même un peu plus en OC de compet, mais ce n'est pas vraiment son utilisation première imho. Toi qui aime bien les comparaisons pourries (cf. ton steak brulé), c'est un peu comme si tu comparais une BMW M3 Stage 3 qui consomme 20L/100km à une M3 d'origine qui boit moitié moins ;)

Et puis si une CG est capable de supporter une conso 30% supplémentaire à son max théorique sans broncher, c'est plutôt bon signe quant à la qualité de ses composants non?
ta M3 stage 3 avec des freins qui brulent, quelle superbe conception.
on peut jouer longtemps.

la 4090 est l'équivalent des Titan du passé, une vitrine techno pas sensée se retrouver dans un pc, juste pour dire on à sorti un truc de fou, mais pas optimisé pour un usage "normal"
 
Vous fatiguez pas les gars...on est là pour parler de tech.
Acheter c'est une autre histoire...
 
  • J'aime
Les réactions: YvaN

YvaN

👾 👾 👾 👾 👾
ta M3 stage 3 avec des freins qui brulent, quelle superbe conception.
on peut jouer longtemps.

la 4090 est l'équivalent des Titan du passé, une vitrine techno pas sensée se retrouver dans un pc, juste pour dire on à sorti un truc de fou, mais pas optimisé pour un usage "normal"
Je n'ai pas envie de jouer avec toi, ta mauvaise foi est tellement crasse :D

Pq utilises tu la 4090 pour des comparaisons douteuses dans tes posts alors si elle ne devrait pas être dans un pc? Encense les perfs des CG AMD vu que tu as l'air de les apprécier tant que ça, mais stp arrête de cracher sur la concurrence (et ses utilisateurs) dès que tu le peux, c'est vraiment désagréable à lire pour une partie de la plèbe qui est sur NVidia ;)
 

Zloup

Badger
en soi, qu'on achetes à gauche ou a droite on s'en fout, ce qui est à mes yeux dommage, c'est de sortir des arguments du passé pour justifier une préférence qui n'est plus d'actualité.
 

THiBOo

Elite
Je n'ai pas envie de jouer avec toi, ta mauvaise foi est tellement crasse :D

Pq utilises tu la 4090 pour des comparaisons douteuses dans tes posts alors si elle ne devrait pas être dans un pc? Encense les perfs des CG AMD vu que tu as l'air de les apprécier tant que ça, mais stp arrête de cracher sur la concurrence (et ses utilisateurs) dès que tu le peux, c'est vraiment désagréable à lire pour une partie de la plèbe qui est sur NVidia ;)
J'capte pas en vrai.
J'pense pas que qqn ici te crache personnellement dessus. Si tu prends les choses ainsi c'est pas notre faute.

Factuellement maintenant, Nvidia sort des GPU sans cohérence, en annonce, en cancel. "mens" sur ce qu'il sort (la 4080 12go vs la 16go qui en fait n'est pas une 4080 niveau du die, renommée 4070Ti) et n'innove pas vraiment avec cette génération en sortant "juste" un GPU plus gros avec une carte plus grosse qui consomme plus.

Ca me fait penser à Intel qui a rincé, poncé et reponcé son CPU dans tous les sens.

Là où, AMD a innové avec Ryzen, en inventant une architecture qui scale et avec une feuille de route toute tracée qu'ils suivent religieusement.
Avec les GPU maintenant, les 7090 sont assez excitantes car ce sont des MCM avec une nouvelle architecture donc qui potentiellement pourra scaler aussi bien que le font leurs CPU.
A côté de ça, ils ont l'air plutôt réglo dans leurs annonces & prix. (rappel les versions AMD stock de la 6800XT à 700€ (de mémoire) pendant la vague de scalping) quand NVIDIA gonflait les prix ou créait artificiellement la pénurie en limitant les stock. Là où AMD sortait les GPU "au plus vite".

Là ce sont des faits, et chacun est libre de les apprécier ou non, considérer ou non.

Pr ma part, je préférais Nvidia grâce au DLSS, mais au vu de tous ces événements, je préfère passer du côté AMD.
 
Dernière édition:

Zloup

Badger
J'capte pas en vrai.
J'pense pas que qqn ici te crache personnellement dessus. Si tu prends les choses ainsi c'est pas notre faute.

Factuellement maintenant, Nvidia sort des GPU sans cohérence, en annonce, en cancel. "mens" sur ce qu'il sort (la 4080 12go vs la 16go qui en fait n'est pas une 4080 niveau du die, renommée 4070Ti) et n'innove pas vraiment avec cette génération en sortant "juste" un GPU plus gros avec une carte plus grosse qui consomme plus.

Ca me fait penser à Intel qui a rincé, poncé et reponcé son CPU dans tous les sens.

Là où, AMD a innové avec Ryzen, en inventant une architecture qui scale et avec une feuille de route toute tracée qu'ils suivent religieusement.
Avec les GPU maintenant, les 7090 sont assez excitantes car ce sont des MCM avec une nouvelle architecture donc qui potentiellement pourra scaler aussi bien que le font leurs GPU.
A côté de ça, ils ont l'air plutôt réglo dans leurs annonces & prix. (rappel les versions AMD stock de la 6800XT à 700€ (de mémoire) pendant la vague de scalping).

Là ce sont des faits, et chacun est libre de les apprécier ou non, considérer ou non.

Pr ma part, je préférais Nvidia grâce au DLSS, mais au vu de tous ces événements, je préfère passer du côté AMD.
Merci...
 
Calmez-vous lol


Voici un test pour la carte, le titre résume bien la situation :
 
Haut