S'identifier / Créer un compte
  • Actualités
  • Dossiers
  • Tests
  • Commentaires
  • INpactiens
Publicité

Flash Info : Fêtons la TVA à 2,1 % : abonnez-vous dès 17 € par an !

GeForce GTX 690 : NVIDIA annonce son monstre bi-GPU à 999 $

Pour les tests ? Il y a le site maison

Comme certains l'attendaient, NVIDIA vient d'annoncer sa nouvelle carte bi-GPU : la GeForce GTX 690. Celle-ci est équipée de deux puces GK104 qui étaient utilisées dans la GTX 680 (voir notre dossier), ce qui est sans doute à l'origine de l'évocation des 7 milliards de transistors pour Kepler (2x 3,5 milliards). Elle ne sera disponible que le 3 mai, en quantité réduite, mais à un tarif record : 999 $.

GeForce GTX 690

Pour le moment, aucun test de la bête n'est d'ailleurs disponible, même nos confrères d'Anandtech indiquent qu'ils ne publieront pas leur dossier avant cette fameuse date de jeudi, NDA oblige, sans doute. Le caméléon cherche en effet à créer le buzz plus qu'à entendre des critiques (positives ou négatives), il a donc décidé de réserver l'exclusivité à son propre site de propagande maison qui trouve tout parfait, bien entendu, une attitude que l'on ne peut que déplorer, une fois de plus.

La presse ? Pas besoin, il y a l'analyse maison

On notera d'ailleurs que, de notre côté, le constructeur s'est contenté de nous fournir les images via un FTP dans la matinée, avec un communiqué de presse plutôt léger, sans le moindre détail technique. Il faut donc croire que NVIDIA préfère se cantonner à l'analyse de ses propres équipes, espérant que cela suffira aux acheteurs qu'il espère séduire avec ses produits.

GeForce GTX 690

Quoi qu'il en soit, on se retrouve au final avec une bête dotée de deux GK104 reliés par un pont PLX, qui embarque donc le double des unités d'une GeForce GTX 680, mais avec des fréquences légèrement réduites. Ainsi, le CPU reste sous la barre du GHz (915 MHz) pour sa fréquence de base, mais peut néanmoins atteindre 1019 MHz en fréquence « Boost ». Pour rappel, il était question de 1006 / 1058 MHz pour la version mono-GPU, soit une baisse de 9 et 4 % environ, ce qui est plutôt raisonnable.

Deux GeForce GTX 680 en une... ou presque

Pour le reste, rien ne change : on passe à 2x 2 Go de GDDR5 à 256 bits pour chaque GPU, fonctionnant à 3 GHz. On notera d'ailleurs que l'analyste NVIDIA n'hésite d'ailleurs pas à doubler ces chiffres qui ne s'additionnent pas, comme c'est souvent le cas que dans les documents marketing des constructeurs :

GeForce GTX 690

L'étage d'alimentation se contentera de deux connecteurs PCIe à 8 broches, pour un TDP global annoncé de 300 watts. Au niveau du système de refroidissement, il est bien plus massif que sur la GeForce GTX 680 et se compose de deux blocs type chambre à vapeur ainsi que d'un gros ventilateur central :


Reste à voir s'il sera silencieux dans la pratique, ce qui était l'un des gros points forts de la GTX 680. Le caméléon indique qu'il a particulièrement soigné les matériaux utilisés : aluminium chromé, et un alliage à base de magnésium.

Côté performances ? Promis, elle est super !

Bien entendu le SLi est de la partie, et NVIDIA promet que les gains de performances seront au rendez-vous, même dans ce mode. On nous affiche d'ailleurs des résultats dans quelques jeux qui se veulent impressionnants :

GeForce GTX 690GeForce GTX 690

Sorties vidéo : NVIDIA fait dans le largement compatible. Tarif de la bête ? 999 $

Pour les sorties vidéo, NVIDIA fait une fois de plus le choix de la compatibilité avant tout et propose trois connecteurs DVI-DL, ainsi qu'un Mini-DP 1.2.

GeForce GTX 690

Reste maintenant à attendre de voir ce que vaut cette nouvelle carte graphique haut de gamme dans la vraie vie, hors des labos de NVIDIA et ses analyses forcément complaisantes. La presse devrait pouvoir commencer à donner son avis jeudi prochain, à son arrivée dans les magasins.

Le constructeur annonce que la disponibilité sera réduite, mais plus forte d'ici la semaine suivante, nous vérifierons bien entendu ce qu'il en est dans les faits, et quelle sera la conversion en euros du tarif de 999 $.

GeForce GTX 690
Publiée le 29/04/2012 à 10:30

Soutenez l'indépendance de Next INpact en devenant Premium

  • Tout le contenu de Next INpact sans pub
  • Et bien plus encore...

Il y a 148 commentaires

Avatar de Nolifegeek INpactien
Nolifegeek Le dimanche 29 avril 2012 à 21:41:50
Inscrit le samedi 9 octobre 10 - 370 commentaires

Pas lu les commentaires ,mais c est abusé le prix...
Avoir une carte pareille pour les jeux actuellement...Faut arreter!
Pour les critiques, "ouaih mais tu comprends les hautes résolutions" j' ai un sli de 580 et c'est plus que suffisant...



Je roule en Porsche, à quoi bon une Rolls ?

Edité par Nolifegeek le dimanche 29 avril 2012 à 21:42
Avatar de marty91 INpactien
marty91 Le dimanche 29 avril 2012 à 21:45:23
Inscrit le samedi 14 novembre 09 - 117 commentaires




Je roule en Porsche, à quoi bon une Rolls ?


Plus de gonzesses à l'arrière!!!
Avatar de ano_634726298070965238 INpactien
ano_634726298070965238 Le dimanche 29 avril 2012 à 21:51:38
Inscrit le mercredi 25 mai 11 - 1721 commentaires

parce que des arguments tu en as ? non

la gtx à l'époque était bien trop puissantes pour 99% des gens, c'est toi qui ne comprends pas ce que l'on dit mais c'estpas grave comme d'hab tu veux faire croire que t'as raison, bien restes dans ton incompréhension, qu'est-ce ça peut me foutre en vrai ?

la GTX, à son époque, comme la 690 aujourd'hui n'ont une utilité pour quoi 1% de la clientèle ... chouette, privilégions ce 1% pendant que notre concurrent vend ces cartes moyen de gamme aux autres.

moi j'ai insulter nvidia ? je penses que tu devrais relire ou peut être apprendre à lire ... ce que je critique c'est leur stratégie pourrave, comme tout le monde d'ailleurs (un indice la chose que tu ne comprends dans nos commentaires ce trouve dans cette phrase) ...

c'est pas parce qu'ils ont toujours fait comme ça que c'est une bonne stratégie, hein.

Et oui BF3 n'est pas optimisé pour PC, mais pour ton bon souvenir, comme 90% des jeux du marché, et je suis gentil. Donc oui la carte est largement trop puissante et ce n'est clairement pas une priorité que de la sortir. En attendant j'ai une 570, et y'a pas ou très peu de jeu qui la mettrait à genoux.

Bête que tu es, tu ne comprend même pas ce que je critique et tu essais de débattre la dessus. encore une fois je vais t'expliquer, je ne critique pas le fait qu'elle soit trop puissante et qu'il n'y ai aucun intérêt à avoir une nouvelle gen de carte, au contraire, n'importe quel abrutis est capable de comprendre l'intérêt d'une nouvelle gen, regarde même toi tu l'as compris ... je critique le fait qu'ils sortent cette carte alors que la priorité c'est de sortir les cartes qui sont attendue par la masse ... surtout lorsque la concurrence est déjà positionnée sur ce segment. Mais peut être qu'en ayant réfléchit dix secondes tu l'aurais compris mais bon mieux vaut pavané que réfléchir, surtout en ce qui te concerne ...

Alors oui y'a 3 pauvres gars qui ont besoin d'une carte ultra top puissantes, en attendant pour ces trois gars y'en a au bas mots 100000 qui voudrait acheter des cartes de la gamme en dessous qui ce font attendre ...

et encore sur les 3 gars y'en a au moins 2 qui aiment juste dépenser leur fric dans des trucs qu'ils pensent avoir besoin car avoir la plus grosse c'est trop cool ...
Avatar de ano_634726298070965238 INpactien
ano_634726298070965238 Le dimanche 29 avril 2012 à 21:54:16
Inscrit le mercredi 25 mai 11 - 1721 commentaires
Ce qui m'étonne avec cette carte c'est le fait qu'il y ait un seul ventilateur !

999$ restons calme, combien vaudra-t-elle dans un an : rien obsolète !

Il y aura des clients pour ça mais pas moi en tous cas :p




La 680 n'a qu'un blower même pas de ventilos donc rien d'étonnant en vrai ... mais pour un vrai refroidissement en général mieux vaut attendre les versions OC et customisée des constructeurs. M'enfin parait-il que la 680 avec son blower est silencieuse, ce que j'ai assez de mal à croire vu mon expérience avec une GTX285 ... mais bon qui sait ...
Avatar de jezus INpactien
jezus Le dimanche 29 avril 2012 à 21:56:58
Inscrit le mercredi 17 septembre 03 - 3620 commentaires
Bon mis à part le prix dément, quel effet voulaient-ils donc créer avec ce produit, puisque du coup le GK110 en haut de gamme risque de faire moins grosse impression.

Un peu pareil qu'avec les 9800GX2, GTX295 et GTX590 je suppose.. A chaque fois ils les ont sorties à peu près en même temps que le modèle haut de gamme simple core (même avant pour la 9800 !).
Avatar de jezus INpactien
jezus Le dimanche 29 avril 2012 à 22:11:02
Inscrit le mercredi 17 septembre 03 - 3620 commentaires
parce que des arguments tu en as ? non

Si plein mais tu n'en a sorti aucun, et faire l'effort de les décrire ne servirait strictement à rien puisque tu t'es enfermé dans ton discours obtus, en plus d'insulter tes interlocuteurs plusieurs fois. Ca donne pas vraiment envie de se fatiguer...
TU ne vois pas à quoi ça peut servir. TU peux rester tranquille dans ton coin et économiser TES sous. C'est TON avis...

la gtx à l'époque était bien trop puissantes pour 99% des gens

Marrant, j'ai eu une GTX, elle m'a bien servi pendant tout juste 2 ans. Je fais partie des 1%...

bien restes dans ton incompréhension, qu'est-ce ça peut me foutre en vrai ?

Ouaip c'est moi qui ne comprend pas à quoi peuvent servir ces nouvelles cartes, vas-y tente de retourner la situation

chouette, privilégions ce 1% pendant que notre concurrent vend ces cartes moyen de gamme aux autres.

TU ne comprends toujours pas comment ils fonctionnent... TU n'a même pas lu ma réponse comme quoi ils déclinaient les modèles moyenne gamme à partir du haut de gamme (parfois à partir de la même lithographie !!! CF les 480 et 460..) et c'est moi l'ignorant qui ne comprend rien ?

(un indice la chose que tu ne comprends dans nos commentaires ce trouve dans cette phrase) ...

C'est pas parce que la première page est remplie de posts de boulets (à de rares exceptions près) qu'il faut te croire en bonne position à ce niveau...

n'importe quel abrutis est capable de comprendre l'intérêt d'une nouvelle gen, regarde même toi tu l'as compris ...

Et à part ça, tu n'insultes donc jamais les gens. (CF posts précédents aussi..)

la priorité c'est de sortir les cartes qui sont attendue par la masse ...

Ils ont bien joué avec la 680, vu la vitesse à laquelle les stocks disparaissent.. Vu que celle-ci réutilise le même GPU exactement, c'était quasiment gratuit pour eux de sortir ce modèle.

Alors oui y'a 3 pauvres gars qui ont besoin d'une carte ultra top puissantes, en attendant pour ces trois gars y'en a au bas mots 100000 qui voudrait acheter des cartes de la gamme en dessous qui ce font attendre ...

Danisk le gourou du marché des GPU va expliquer le code de la route à Jen-Hsun Huang

et encore sur les 3 gars y'en a au moins 2 qui aiment juste dépenser leur fric dans des trucs qu'ils pensent avoir besoin car avoir la plus grosse c'est trop cool ...

Ahhhhh ben voilà, fallait y venir dès le début: t'es un frustré ! On aurait économisé pas mal de temps si tu l'avais sortie plus tôt celle-là.
Avatar de sioowan INpactien
sioowan Le dimanche 29 avril 2012 à 22:14:35
Inscrit le jeudi 23 mars 06 - 3187 commentaires
Je vais tous vous mettre d'accord, ma GTX260 se porte comme un charme jusqu'à présent.

Je n'ai pas BF3.
Avatar de jezus INpactien
jezus Le dimanche 29 avril 2012 à 22:16:17
Inscrit le mercredi 17 septembre 03 - 3620 commentaires
Je n'ai pas BF3.

Tu ne manques pas grand chose
Avatar de darkey INpactien
darkey Le dimanche 29 avril 2012 à 22:20:20
Inscrit le vendredi 13 mai 05 - 262 commentaires
petit interlude musical
le SLI DE 690 c'est Fouuuuuuuuuux du fafa !
Avatar de Enyths INpactien
Enyths Le dimanche 29 avril 2012 à 22:27:20
Inscrit le vendredi 31 août 07 - 1615 commentaires

Tu ne manques pas grand chose

Graphiquement parlant, si. Le moteur FrostByte 2 est l'un des plus efficaces à ce jour (les effets de lumière sont tout bonnement magnifiques).
Après concernant le scénario ça reste totalement subjectif, on peut aimer cette "simplicité" dans l'approche.

Edité par Enyths le dimanche 29 avril 2012 à 22:27
;