PDA

Afficher la version complète : carte graphique



AlexFly
05/01/2004, 10h21
salut et bonne année
je viens d'acheter prince of persia et comme beaucoup de monde ma carte graphique ne convient pas .
j'ai une carte mère TORTUGA.quel carte graphique pas trop chere puis-je metre.

AlexFly
05/01/2004, 10h21
salut et bonne année
je viens d'acheter prince of persia et comme beaucoup de monde ma carte graphique ne convient pas .
j'ai une carte mère TORTUGA.quel carte graphique pas trop chere puis-je metre.

AlexFly
05/01/2004, 11h15
Ca dépend de ce que tu veux y mettre. MAIS, il semble qu'avec quelques programmes tiers, on puisse désactiver les pixels shaders et ainsi profiter du jeu sur des cartes graphiques plus anciennes que les GeForce 3 et autres.
Donc, essaie 3DAnalyser avant de te payer du nouveau matos. Si ça ne marche toujours pas, tu pourras alors réfléchir à t'acheter une nouvelle carte graphique.

AlexFly
05/01/2004, 11h25
deja essayer 3Danalyser mais sa ne marche toujours pas.

AlexFly
05/01/2004, 11h34
Ca dépend de combien tu veux y mettre.
Une GeForce FX 5200 est le plus économique, coutant entre 75 et 100?. Si tu veux quelque chose de plus durable et performant, il faut plutôt penser à un Radeon 9600 Pro ou XT ou une GeForce FX 5700 Ultra, dont les prix doivent varier alors entre 180 et 250?.
Donc, soit sur et certain que cela ne fonctionne vraiment pas avec 3D Analyser.

AlexFly
05/01/2004, 21h46
Je suis pas vraiment d accord avec toi Mark Havel: on est pas obligés de mettre de telles sommes pour ce genre de cartes

Ex: moi ayant acheté PoP et ayant une profonde haine enver les developpeurs, je me suis rendu sur ce site pour comprendre k'il existait un logiciel dennomé 3D Analyzer. Manque de pot, malgré tt mes eforts ca n'a ppas marché. j avais "un peu" d argent et g donc regardé les prix de differtentes cartes graph. resulatat:


Je me suis acheté un ATI Radeon 9200 128MB pour seulement 79?.

Quand je dit "seulement" c est passke je crois ke c moins chere ke le prix des cartes ke tu vien d ennoncer

AlexFly
05/01/2004, 22h28
Oui, mais la Radeon 9200 est une carte génération direct x 8, et pas 9, contrairement à une FX 5200.
Et comme je ne savais pas combien notre ami était prêt à mettre, j'ai préféré voir large, après tout, c'est peut-être pour lui l'occasion de changer de carte vidéo et de s'en payer une pour les deux ans à venir, et dans ce cas, ce n'est pas du bas de gamme que je conseille(rais), tout comme ça peut être juste pour faire tourner le jeu et quelques autres jeux à venir dans l'année.
Sinon, relativise un peu, parce qu'il y a trois quatre ans, les bonnes cartes vidéo, ça coutait dans les 300-400?, et ce qu'il y avait en dessous était dépassé et n'allait pas durer beacoup plus qu'un an. Personnellement, je trouve que 200-250? dans une GF FX 5700 Ultra ou une Radeon 9600 XT, c'est plutôt bon marché pas très cher payé.

AlexFly
06/01/2004, 01h43
Lut...désolé de te contredire sur 1 point Mark Havel mais auc1 Nvidia existante sauf les FX5900 Ultra et autres FX5950 ne sont compatibles DX9...oui oui je sais c pourtant indiqué comme cela sur les boîtes.....etc mais il n'en est rien...car lorsqu'elles doivent faire tourner une vraie application DX9...c plus la même chose...en, fait ces cartes émulent la compatibilité DX9 par le biais des pilotes...mais seul ATI (en plus, ils ont été les premiers à en fabriquer) produit des chipsets réellement compatibles DX9.....

C facile dans les benchs utilisant les DX9, les Nvidia s'effondrent....

Je dois dire que je ne sais pas si justement la FX5700 n'est pas elle aussi compatible DX9....car basée sur le chip 5900 je crois...

D'ailleurs tu noteras qu'on utilise le terme de "compatible" et non pas "certifié"...ainsi cela protége tous les concepteurs de cartes des futures variations de DX9 de la part de Microsoft...et du fonctionnement de leurs cartes avec ces changements...

Bye!!

No joy...no pain....no pleasure!!!

AlexFly
06/01/2004, 07h13
Mais je reste sûr que le type qui a une FX5200 dans un an il peut s acheter une autre carte pour pouvoir faire tourner ses jeux. Avec une FX5200 on poura plus faire tourner les jeux qui sortiront meme ds un an.

AlexFly
06/01/2004, 11h39
louveane wrote:
- Lut...désolé de te contredire sur 1 point Mark Havel
- mais auc1 Nvidia existante sauf les FX5900 Ultra et
- autres FX5950 ne sont compatibles DX9...oui oui je
- sais c pourtant indiqué comme cela sur les
- boîtes.....etc mais il n'en est rien...car
- lorsqu'elles doivent faire tourner une vraie
- application DX9...c plus la même chose...en, fait
- ces cartes émulent la compatibilité DX9 par le biais
- des pilotes...mais seul ATI (en plus, ils ont été
- les premiers à en fabriquer) produit des chipsets
- réellement compatibles DX9.....
-
- C facile dans les benchs utilisant les DX9, les
- Nvidia s'effondrent....

Nan, regarde le résultat dans Unreal Tournamant. Avec l'Athlon 64, c'est le couple gagnant. Oui, ce n'est qu'un exemple et Epic a un peu optimisé nVIDIA son moteur graphique...

- Je dois dire que je ne sais pas si justement la
- FX5700 n'est pas elle aussi compatible DX9....car
- basée sur le chip 5900 je crois...

Ben si.

- D'ailleurs tu noteras qu'on utilise le terme de
- "compatible" et non pas "certifié"...ainsi cela
- protége tous les concepteurs de cartes des futures
- variations de DX9 de la part de Microsoft...et du
- fonctionnement de leurs cartes avec ces
- changements...
-
- Bye!!
-
- No joy...no pain....no pleasure!!!

Cette histoire, c'est qu'en fait, c'est Ati et plus nVIDIA qui a servi de référence à MS pour faire Direct X 9. Du coup, ils ont sortis leurs cartes avant DX9. Et pour cela, les canadiens ont choisi une précision de 24bits pour leurs pixels shaders, alors que nVIDIA, n'oubliant pas le marché des professionnels sur lequel il semble s'être bien implanté, a choisi de faire du 16bits ou du 32bits, et que pour se conformer au directx, ça fout la merde et plombe les performances, parce qu'il faut bien bricoler le driver quelque part. De toutes façons, Ati lui-même semble vouloir utiliser une précision de 32 bits pour les pixels shaders de ses futures cartes.
Après, ce fut querelles de clocher, polémiques et mauvaise foi de part et d'autre.
Mais il est vrai qu'il semble bien que seules les FX59x0 Ultra et 5700 soient réellement performantes avec des applis DX9 (pour l'OpenGL, ça doit déjà être le cas fut-ce avec les anciennes FX) et puissent concurrencer les Ati. En tout cas, sur le moyen de gamme, il semble que la nVIDIA soit un poil plus rapide que les Ati.

AlexFly
06/01/2004, 16h33
Pour te répondre, je dirais que la FX5700, trés bonne carte au demeurant, d'ailleurs comme toutes les cartes Nvidia série FX, s'écroule dés qu'il s'agit de faire tourner des applications réellement DX9 (il n'y a pas de jeux encore en vrai DX9)....ce qui signifie que les ATI ont d'office 1 plus grande longévité.....et je ne te parle même pas des FSAA et AA...car si on active ces fonctions (utiles que pour des résolutions inférieures à 1280*1024), les cartes Nvidia s'écroulent encore 1 fois...mais il est vrai que ces fonctions seront amenées à ne plus être utilisables avec les futurs jeux toujours plus gourmands....

Je dirais donc que en milieu de gamme le meilleur rapport qualité-prix c'est 1 9600 XT car moins chère de plusieurs dizaines d'euros qu'1 FX5700....

Voilà, voilou.....

Quand au probléme de la précision...et du soi-disant choix de Nvidia de toucher le marché professionnel dans la foulée.....excuse bidon de Nvidia...qui, ne l'oublions pas, a 1 certaine tendance à la triche.....pour preuve, ils optimisent leurs drivers pour falsifier les résultats de leur cartes dans certains benchs et ainsi rattraper les résultats des ATI.....ils ont été pris la main dans le sac à 2 reprises rien qu'en la fin d'année dernière......

Alors, je dis Bravo Nvidia....qui sent son monopole sacrément basculé par l'énorme pas en avant de ATI dans le domaine des drivers.....ainsi ces 2 géants se trouvent sur 1 pied d'égalité car les pilotes ne sont plus 1 souci....et, là, ce sont les chips qui font le différence....et il n'y a pas photo....

Pourtant crois-moi, j'ai adoré ma GeForce 2 Ti mais force est de reconnaitre que Radeon c autre chose.....même avec 1 jeu comme POP optimisé pour Nvidia....


Bye!!
Mark_Havel wrote:
-
- louveane wrote:
-- Lut...désolé de te contredire sur 1 point Mark Havel
-- mais auc1 Nvidia existante sauf les FX5900 Ultra et
-- autres FX5950 ne sont compatibles DX9...oui oui je
-- sais c pourtant indiqué comme cela sur les
-- boîtes.....etc mais il n'en est rien...car
-- lorsqu'elles doivent faire tourner une vraie
-- application DX9...c plus la même chose...en, fait
-- ces cartes émulent la compatibilité DX9 par le biais
-- des pilotes...mais seul ATI (en plus, ils ont été
-- les premiers à en fabriquer) produit des chipsets
-- réellement compatibles DX9.....
--
-- C facile dans les benchs utilisant les DX9, les
-- Nvidia s'effondrent....
-
- Nan, regarde le résultat dans Unreal Tournamant.
- Avec l'Athlon 64, c'est le couple gagnant. Oui, ce
- n'est qu'un exemple et Epic a un peu optimisé nVIDIA
- son moteur graphique...
-
-- Je dois dire que je ne sais pas si justement la
-- FX5700 n'est pas elle aussi compatible DX9....car
-- basée sur le chip 5900 je crois...
-
- Ben si.
-
-- D'ailleurs tu noteras qu'on utilise le terme de
-- "compatible" et non pas "certifié"...ainsi cela
-- protége tous les concepteurs de cartes des futures
-- variations de DX9 de la part de Microsoft...et du
-- fonctionnement de leurs cartes avec ces
-- changements...
--
-- Bye!!
--
-- No joy...no pain....no pleasure!!!
-
- Cette histoire, c'est qu'en fait, c'est Ati et plus
- nVIDIA qui a servi de référence à MS pour faire
- Direct X 9. Du coup, ils ont sortis leurs cartes
- avant DX9. Et pour cela, les canadiens ont choisi
- une précision de 24bits pour leurs pixels shaders,
- alors que nVIDIA, n'oubliant pas le marché des
- professionnels sur lequel il semble s'être bien
- implanté, a choisi de faire du 16bits ou du 32bits,
- et que pour se conformer au directx, ça fout la
- merde et plombe les performances, parce qu'il faut
- bien bricoler le driver quelque part. De toutes
- façons, Ati lui-même semble vouloir utiliser une
- précision de 32 bits pour les pixels shaders de ses
- futures cartes.
- Après, ce fut querelles de clocher, polémiques et
- mauvaise foi de part et d'autre.
- Mais il est vrai qu'il semble bien que seules les
- FX59x0 Ultra et 5700 soient réellement performantes
- avec des applis DX9 (pour l'OpenGL, ça doit déjà
- être le cas fut-ce avec les anciennes FX) et
- puissent concurrencer les Ati. En tout cas, sur le
- moyen de gamme, il semble que la nVIDIA soit un poil
- plus rapide que les Ati.
-
-
-
-
-



No joy...no pain....no pleasure!!!

AlexFly
06/01/2004, 16h38
Au fait UT 2003 c du DX8.1....

No joy...no pain....no pleasure!!!