NV40 = 12535 3DMarks ?

Statut
N'est pas ouverte pour d'autres réponses.

SpY_

Trolololololololo
The Inquirer, toujours à la pointe de la rumeur, nous apporte quelques informations sur le NV40. Première chose, les NV40 et NV40U auraient les noms commerciaux respectifs de GeForce 6800 et GeForce 6800 Ultra. Deuxième chose, NVIDIA aurait fait la démonstration de 3DMark03 sur une NV40 de pré-production, et le score final serait de 12535, soit un peu moins du double d’une 5950 Ultra. On ne sait toutefois pas si ce score est obtenu avec ou sans remplacement de shader ...


source: www.hardware.fr

wow , si ca fait vraiment 12000 pts , je sens que je vais redevenir nvidien :D
 

Esta

Boy's dream
c'est tt bon mais le prix....
 
T

ttt3566

ex membre
Le prix oui ... puis rumeur quoi! On commence à connaitre le coups des drivers 'optimisés' version nVidia! :wink:
 

Fish

Bouillant même !
[Head a dit:
]Le prix oui ... puis rumeur quoi! On commence à connaitre le coups des drivers 'optimisés' version nVidia! :wink:
chez eux en labo ils n utilisent pas de drivers optimisé :wink:
 

Gh0$T

Elite
Bah le prix il doit faire +- 500 € je suppose.

sinon, qd la version FX6800 ultra en pci express sortire je pense que je vais aller la prendre :D
 

b3nSs

Elite
Jy crois pas des masses ...

nvidia sont loin du temps la geforce 3 ... :roll:
 
1er
OP
SpY_

SpY_

Trolololololololo
oué , jme rappelle quand on disait ke les geforce fx allaient tout peter , que ca serais une revolution ...
pour avoir finalement une carte relativement pourrite
 

medleouf

Touriste
nul part il n est specifie la machine sur laquelle le bench tournait...

comme a chaque sortie d un nouveau gpu , les perf annoncées sont bien superieures a celle qu on a au final...
 

Karto

Pas Dieu
Lors de l'annonce de la sortie des GeForceFX 5800, ils annoncaient aussi de 27.000 à 35.000 points sur 3DMark2001SE. On était loin du compte... :p

Les rumeurs vont bon train en ce moment avec les 220 millions de transistors, deux connecteurs molex, 16 Pixel Pipelines, GDDR3@1200MHz etc. Comme d'hab, on va se retrouver avec une carte de 10 à 20% plus performante.

Attendont qu'une carte de référence soit en test sur un site indépendant.
 

Bartdude

Touriste
Elkilla le Kinf a dit:
dire que pour jouer a doom 3, il faudra une de ces cartes, alors que y'a 1 an, les videos etaient de ce meme jeu faites avec quel carte graphique? =)
Sur une station de travail par exemple, ou simplement parce que de la 3D précalculée c'est extrêmement moins couteux que de la 3D temps-réel ...


Elkilla le Kinf a dit:
apres ca, je me demande pk le jeu tournerai bien sur une Xbox, mais pas bien sur un pc armé d'un 2600 xp et une 9800 pro :)
- parce que la résolution d'une télé n'a rien à voir avec la résolution d'un PC (déjà rien que ca ca fait bcp)
- Parce qu'un jeu X-box est optimisé pour les fonctions limitées de celle-ci , tandis qu'nu jeu PC doit tenir compte des multiples résolutions
- parce que l'OS de la XBOX est moins gourmand que celui de ton PC (?)

enfin bref, y'a un tas de bonnes raisons. Mais c vrai que la plupart des jeux actuels sont programmés à la truelle.
 

Gh0$T

Elite
Karto a dit:
Lors de l'annonce de la sortie des GeForceFX 5800, ils annoncaient aussi de 27.000 à 35.000 points sur 3DMark2001SE. On était loin du compte... :p

Les rumeurs vont bon train en ce moment avec les 220 millions de transistors, deux connecteurs molex, 16 Pixel Pipelines, GDDR3@1200MHz etc. Comme d'hab, on va se retrouver avec une carte de 10 à 20% plus performante.

Attendont qu'une carte de référence soit en test sur un site indépendant.
Pour ma part je pense que Volaris a de beau jours devant eux.

Leur poit faible c'est seulement l'AGP qui ne sais pas gerer plusieur GPU, ce qui sera aux oubliettes avec le PCI express donc :D
 

medleouf

Touriste
petit compllement d infos , meme si j continue a pense que les perfs ne seront jms ce qui est annoncé :

Numerous sources have confirmed that a Futuremark 3DMark 2003 score of12,535 has apparently been demonstrated by Nvidia on its pre-production engineering samples.

To put this in perspective, this story is brought to you by a tweaked AMD Athlon 64 FX system based on a Gigabyte GA-K8NNXP-940 mainboard with 1GB of Corsair XMS DDR, and is equipped with the current king of 3D gaming cards, an ATI Radeon 9800XT. This rock steady, real-world system benches a strong 7382 under 3DMark 2003 Build 340 at default settings, and indeed anything that can deliver a score over 7000 is pretty rapid.

Squatting on top of Futuremark's Top 20 'Hall of Fame'ous willy wavers is a heavily overclocked 4.5GHz P4 – seeming to need freezing to -85ºC to attain this frequency - with a well overclocked ATi Radeon 9800XT. This system, apparently, marks up a score of 10,008.

So, if what we're hearing about Nvidia's NV40 is true, then its sixth generation desktop 3D graphics accelerator is shaping up to be mighty.

Of course we can hear the critics cry "how come the last Futuremark 'Approved Drivers' to be used with Build 340 of 3DMark03 with Nvidia 3D accelerators are the ageing version ForceWare 52.16?"

That's a good question as these were released way back in October 2003, and the current Nvidia Forceware 56.72 was released just last week on April 1st., and the fourth driver release since the 52.16's which Futuremark have not approved for 3DMark03.

And we agree – this does cast some doubts on the validity of any 3DMark03 score achieved with any later Nvidia device driver, but today's news sure is more than interesting.

In back rooms at the CeBIT Messe, we heard talk of 3DMark03 scores of "over 10,000 3DMarks" for both ATI's R420 and Nvidia's NV40 but, for various reasons, we weren't particularly confident in our source. However, in light of today's news, we'll mention that that same source said that the ATI R420 was somewhat slower, though "not by much".

Sources close to ATI have said that a score of 10,000 3DMarks for ATi R420 "would be a dream", indicating that R420 Revision: CeBIT 2K4 wasn't pulling this level of numbers.

Perhaps we should all now be expecting briefings by Nvidia's competitors that 3DMark03 isn't now a valid indicator of 3D graphics performance?
 

Bingo

Beer Addict
Elkilla le Kinf a dit:
Jvousle dit =) tout ca c question de fric, les jeux sont mal optimisées specialement pour faire vendre des cartes tout les 6 mois... Sortir des nouvelles cartes alors que nos cartes actuelles sont exploitées a 35%...
Chui d'accord avec ça ! A 100% !
Quand je vois les jeux du style Call of Duty et autres battlefield qui se traînent lamentablement avec ma Radeon 32Mo (la première, sans même un numéro, c'est à dire une 7000 en fait), ça me fait pitié. Surtout quand j'essaye UT2003 après, et qu'il est magnifique et super fluide !
Ils nous emm... avec leurs nouvelles cartes à la fin !
Enfin je vais pas jusqu'à dire que les jeux sont mal optimisés "exprès" pour faire vendre des cartes, mais ils sont clairement mal optimisés. Il n'y a qu'à voir, à la belle époque des Atari et Amiga : comparez les productions de 1986 et celles de 1992, la différence est hallucinante : avec le même matos, on passe de pauvres jeux en 16 couleurs avec 20 sprites à l'écran à des jeux en 3d (pas texturée) hyper fluides en 32 couleurs (voir plus avec des "fausses" couleurs).

Si ils sortent des nouvelles cartes, ils pourraient au moins se mouiller un minimum avec des fonctions pour faire du vrai raytracing en temps réel, ou des trucs dans le genre, plutôt que de demultiplier à l'infini le nombre de vecteurs par seconde ! :roll:
Honnêtement, depuis 8 ans et la sortie des premiers quake-like, il n'y a rien de nouveau dans le jeu video... C'est dommage. :evil:
 
1er
OP
SpY_

SpY_

Trolololololololo
bah oué , et en plus , ya plein de pub sur les jeux et les boite , tout ca c est pour faire vendre

(exemple , ut2004 avec le logo nvidia, far cry avec le logo athlon64 dans le manuel ...)
 

Karto

Pas Dieu
Bingo a dit:
Si ils sortent des nouvelles cartes, ils pourraient au moins se mouiller un minimum avec des fonctions pour faire du vrai raytracing en temps réel, ou des trucs dans le genre, plutôt que de demultiplier à l'infini le nombre de vecteurs par seconde ! :roll:
On est encore très loin du raytracing temps réel. Ce n'est pas une question d'optimisation du code. Cette technologie est extrèmement gourmande en ressources et existe depuis très longtemps. Les CPU/GPU actuels ne sont pas capables de calculer des images a la volée. Le raytracing est actuellement utilisé dans le cinéma (c'est très récent d'ailleurs) et requière pour le rendu, des systèmes hallucinants du genre 500 Bi-Processeur (renderfarm) pour pouvoir faire un rendu en une semaine de quelques minutes de film en 25images/seconde. Même pour le lowpoly des jeux (plus si "low" que ca de nos jours), tu n'obtiendrais, par exemple, qu'une image toutes les 3 minutes, soit 0,0056fps.

Le fait est, évidemment, que les jeux PC ne seront jamais réelement optimisés pour un type de CG précis. D'un coté il y a l'évolution continuelle, de l'autre, il y a aussi beaucoups de marques différentes et les problèmes que ca entraine. Les consoles ont un avantage de ce coté. Maintenant je n'irai pas jusqu'à dire que lors du dévelopement d'un jeu, ils ne recherchent pas a utiliser au mieux les ressources disponibles. Il faut relativiser. La programmation/optimisation du moteur 3D est dans la majorité des cas, l'étape la plus importante du dévelopement, celle qui va déterminer le succès ou non d'un jeu face à la concurrence. Et malgré tout, souvent ils éssayent d'atteindre un public aussi large que possible et par concéquent, les plus petites configs. Encore a ce jours, la plupart des jeux tournent honorablement sur une simple GeForce2 MX. Ce sont donc aussi les utilisateurs que veulent absolument du 100fps en 1600x1200 avec les détails a fond, de l'antialiasing à 4X et de l'anisotropic filtering à 8X.

Personnelement, je trouve que l'évolution (en qualité) des jeux PC est bien plus interessante que celle des consoles. Ce qui justifie en partie, l'évolution technologique. Ca pourrait être mieux, mais ca pourrait également être bien pire.
 
Statut
N'est pas ouverte pour d'autres réponses.
Haut