Le SLI c'est démodé ..

Statut
N'est pas ouverte pour d'autres réponses.
T

ttt3566

ex membre
faut voir dans quelle mesure les progres en terme de miniaturisation permettront de caser autant d'unités de calcul sur une carte aussi :? on arrive tout doucement aux limites physiques côté taille! la preuve, au lieu de continuer à utiliser des finesses de gravure de plus en plus petites, les constructeurs se dirigent vers des solutions multi cpu/gpu :)
 

Marco

[HOONIGAN]
Là tu te trompes miniaturisation on est loin d'avoir atteint les limites, on a atteint des limites avec les architectures et les méthodes actuelles, mais IBM travaille depuis longtemps sur des procos à électrons libres bcp plus petits et bcp moins consommateurs...

Les "bio-ordinateurs" devraient également être bcp plus compact au terme de leur déceloppement bien sur....

Pour te répondre Jereck, à mon avis le BUS limite la communication entre les cartes, don on atteindra jamais la puissance d'une carte multi-GPU
 

Lagwagon

Jésus
Staff
Ca me fait quand même rire les gens quio se pensent plus intelligents que des ingénieurs de grandes firmes ... Bien sûr ces mêmes ingénieurs ne sont pas non plus des génies, mais faut pas exagérer, ils savent ce qu'ils font hein :roll:
 
T

ttt3566

ex membre
Lagwagon a dit:
Ca me fait quand même rire les gens quio se pensent plus intelligents que des ingénieurs de grandes firmes ... Bien sûr ces mêmes ingénieurs ne sont pas non plus des génies, mais faut pas exagérer, ils savent ce qu'ils font hein :roll:
tain t'es chiant fx, à toujours venir faire ton pseudo cassage! :pfiou:

on te parle pas d'ingénieurs ou d'inventions ici, mais de connerie marqueting, démonstration de force par l'inutil! la course aux cartes graphiques de plus en plus puissantes est STUPIDE, parce qu'aucun pc actuel n'est assez puissant pour en tirer parti, et aucune application PUBLIQUE non plus! seulement on te fait miroiter des MHz à la pelle, du multi-gpu, du sli, de la ram à ne plus savoir quoi en faire, alors comme un bon mouton, tu achetes, parce que tu crois que ça sera mieux... laissez moi rire! :roll:

les jeux actuels sont optimisés pour les cartes ayant 128Mo de ram, alors franchement, ou est l'interet de faire des cartes de 512Mo? quand je vois que la majorité des derniers jeux sortis tournent sans problement sur une ti4200 64Mo :roll: j'ai pitié des gens qui se saignent pour acheter une carte de fou, qui sera sous-exploitée, et qui sera dépassée dans 6 mois!
 

Marco

[HOONIGAN]
J'adhère à ton point de vue head_

ils savent ce qu'ils font POUR GAGNER DU FRIC ca c'est sur...

On dit pas que c'est merdique, on dit que c'est 100% inutile, OUah nVidia sait faire ca, je vais acheter une nVidia, primitif, mais mine de rien c'est comme les pubs ca rentre dans le cerveau des gens
 

Lagwagon

Jésus
Staff
Eho mais moi je prefere le progrès désolé, ok c'est vrai on s'en sers pas encore mais qui dit que ca viendras pas un jour :?

Je fais pas mon pseudo casseur non, mais ca me saoule les gens qui ralent ou crie au massacre dés qu'on sort du nouveaux matos.

Bien sûr les nouveaux jeux actuels tournent sans problème sur une bonne vieille ti4200 ou encore sur une 5900 xt et j'en sais quelque chose, mais moi j'aime bien voir les tantank arrivés et pouvoir lire la plaque d'immatriculation des voitures qui le bourrent dedans :?
Puis y a pas que dans les jeux que ca peut être interessant, faut voir plus loin :?
Ca fait un bout de temps qu'on en fait et pourtant les images de synthèses ont encore du mal à être totalement crédibles, petit à petit ca devient potable et preseque intégrable à de l'image réelle mais l'oeil humain n'est pas longtemps grugé. C'est pas avec ta Ti4200 et ton Amd 1800 mhz que tu fera tourner des programmes capables de fournir autant de puissance de calcul. Ou alors j'ai vraiment un problème de compréhenssion :?
 

Recon

Elite
Bah je vais mettre mon grain de sel aussi alors :D

Perso je prend un point de vue un peu différent.

Je reconnais que 4 Cg en Sli sa devient abusé.

Surtous en terme de place et de consomation.

Mtn une carte 6600 GT PCIE achetée mtn reviens +- à 125€

D'ici quelque temps le prix des 6600 Gt vas chuté.

Et certain, n'auront tjrs pas plus la possibilité de suivre l'évolution et donc l'achat d'une nouvelle Cg.

Par contre une 6600 Gt d'occasion à 50€ permettra de remonté sensiblement les perf de la machine sans se ruiner.

Le Sli devient donc une valeur sur pour un petit upgrade pas trop chère si l'occasion se présente.
 

Lagwagon

Jésus
Staff
Mais oui bien sûr, 100 % inutiles, c'est cela. Et tu crois qu'il y a 20 ans, quand les pc se résumaient à un processeur de moins de 500 mhz, 4mo de mémoire vive et 800 Mo de disque dur, on pensait posséder un jour des cartes graphiques séparées de la carte mère, voire carrément autonomes. Nan car c'était inutile tout simplement. Dos tournait très bien sur ce genre de pc.

Avec le HD coté vidéo et les écrans qui vont bientôt prendre des pans de murs entiers, il faut des solution graphiques de malade.
Bien sûr pour jouer à ton petit Hl2 chez toi sur ton tft 17 voir 19 pouces, c'est totalement inutile. Mais essaye de faire la même chose ne fût-ce que sur un 30" de chez Apple ...
 

Lagwagon

Jésus
Staff
Recon a dit:
Bah je vais mettre mon grain de sel aussi alors :D

Perso je prend un point de vue un peu différent.

Je reconnais que 4 Cg en Sli sa devient abusé.

Surtous en terme de place et de consomation.

Mtn une carte 6600 GT PCIE achetée mtn reviens +- à 125€

D'ici quelque temps le prix des 6600 Gt vas chuté.

Et certain, n'auront tjrs pas plus la possibilité de suivre l'évolution et donc l'achat d'une nouvelle Cg.

Par contre une 6600 Gt d'occasion à 50€ permettra de remonté sensiblement les perf de la machine sans se ruiner.

Le Sli devient donc une valeur sur pour un petit upgrade pas trop chère si l'occasion se présente.
C'est surtout qu'a mon avis, il faudra faire le calcul, 2 cartes en sli reviennent moins cher qu'une seule carte aussi puissante que le couplage des deux autres. Enfin ca serait logique, il faudrait calculer :)
Même si on est toujours limité par le taux de transfert cg - reste du pc.
 

Gatchan77

Met Romana op de scooter
Et dire que je connais quelqu'un qui tourne sous Windows XP pro avec une carte graphique S3 de 1 mo de ram :D
 
T

ttt3566

ex membre
que ça soit un 17", un 30" ou meme un écran de 17km de diagonale, tout dépend de la résolution que tu veux afficher! la encore, les jeux ne permettent pas de monter extremement haut! généralement on ne dépasse pas le 1600*1200!

Ok pour la vidéo, mais bon, le CPU importe tout autant que la carte graphique, donc à quoi bon avoir un monstre d'affichage si l'unité centrale ne suit pas! je ne suis pas contre l'évolution du matos, loin de la! je suis contre l'évolution asynchrone du matériel!

allé allé, soyons honnêtes, à part 3 tondus qui perdent tout leur fric à renouveller leur matos tous les mois pour avoir le top du top, qui peut se permettre d'acheter 4 cartes graphiques, rien que pour le plaisir du regard? tout ça, c'est la course à l'armement! c'est l'innovation par le vide! :roll:
 

Marco

[HOONIGAN]
Lagwagon a dit:
Mais oui bien sûr, 100 % inutiles, c'est cela. Et tu crois qu'il y a 20 ans, quand les pc se résumaient à un processeur de moins de 500 mhz, 4mo de mémoire vive et 800 Mo de disque dur, on pensait posséder un jour des cartes graphiques séparées de la carte mère, voire carrément autonomes. Nan car c'était inutile tout simplement. Dos tournait très bien sur ce genre de pc.

Avec le HD coté vidéo et les écrans qui vont bientôt prendre des pans de murs entiers, il faut des solution graphiques de malade.
Bien sûr pour jouer à ton petit Hl2 chez toi sur ton tft 17 voir 19 pouces, c'est totalement inutile. Mais essaye de faire la même chose ne fût-ce que sur un 30" de chez Apple ...
toi tu sais pas de quoi tu parles parce que de un, il y a 20 ans c'était surement pas du 500MHz, de deux les premières cartes 3d étaient des cartes filles comme les premières 3dfx, il fallait les rajouter à la carte 2d d'affichage. Cette solution a vité été abandonnée, et aujourd'hui les cartes sont 2d/3d.

2 cartes en parallèle j'ai jamais rien dit, pq pas, y'a de l'idée, mais 4 c'est R-I-D-I-C-U-L-E, je changerai pas de position, meme si les perfs déchirent ( ce qui m'étonnerait) ca n'en reste pas moins débile, surtout que le BUS ne permet pas de faire transiter les infos aussi vite que 2 procos sur une carte.

Fo déjà être ben débile pour jouer sur un Cinema Display 30" à sa résolution maxi, 2560*1600..... :roll:
 

Lagwagon

Jésus
Staff
Muerf comme d'hab jvais abandonner les dialogues de sourds. Sinon on va encore me coller le sobriquet de batman du peuple :roll: ( Gee go to hell fss :D)
 
T

ttt3566

ex membre
tete de mule! :mrgreen: tu dis toi meme que t'utilises pas assez ton pc par rapport à l'investissement que tu as fait... tsss
 

Lagwagon

Jésus
Staff
head _ a dit:
tete de mule! :mrgreen: tu dis toi meme que t'utilises pas assez ton pc par rapport à l'investissement que tu as fait... tsss
Mué si tu le dis :roll:

JE suis pas une tête de mule, mais comme tu le dis, le moutonnise c'est mal dans les deux sens, c'est tout. ;)
 

Akutama

Sex, Drug and Rock'n Roll
head _ a dit:
tete de mule! :mrgreen: tu dis toi meme que t'utilises pas assez ton pc par rapport à l'investissement que tu as fait... tsss
Il a un gros Pc? :D
 

Lagwagon

Jésus
Staff
Akutama a dit:
head _ a dit:
tete de mule! :mrgreen: tu dis toi meme que t'utilises pas assez ton pc par rapport à l'investissement que tu as fait... tsss
Il a un gros Pc? :D
Buarf j'ai la configuration actuelle du kikitoudur si tu veux :)
a64 3000+, 1go de ram, 6800gt rien de bien méchant
 

Marco

[HOONIGAN]
matbe.com a dit:
"NVIDIA nous a affirmé que cette carte mère et ces cartes graphiques ne seraient pas vendues séparément mais étaient exclusivement réservées à Dell. La firme au caméleon ajoute cependant que d'autres partenaires pourraient bientôt se doter d'une telle solution."
Bah la discussion est close pour moi :D ce sera impayable, surtout si c'est réservé à Dell :p Ce sera surement pour une workstation, et encore, quelle WS utilise la 3d temps réel au point d'avoir besoin de 4 cg?
 

Bince

Elite
c'est décidé, j'OC mon PII 200mhz@300mhz et je m'achète ces 4 7800gtx :D comme ca je pourrai lancer 2 fenêtres IE tranquil!
 
Statut
N'est pas ouverte pour d'autres réponses.
Haut