Ein Unterschied zwischen Ati X1950 XTX Default x 16 AF und Nvidia 8800 GTX Default x 16 AF siehst du. Oder? Bei Ati X1950 XTX HQ x 16 AF und Nvidia 8800 GTX Default x 16 AF ist es gleich,aber ich schätze mal wenn man HQ x16 AF bei der 8800 GTX einschaltet sieht es besser aus als Ati HQ x 16 AF.Originally posted by DoomDoctor20@08.11.06, 18:14
So Leid es mir tut, ich seh beim besten Willen keinen Unterschied bei dem Halflife Shot. Solange Nvidia mal mit ATIs Bildqualität mithalten kann bin ich glücklich.
Es ist wohl eher so, dass Nvidia bei der GTX by default HQ fährt, während man es bei ATI erst aktivieren muss (was man mit einer High-End-Karte aber in jedem Fall machen sollte, die Geschwindigkeitseinbußen liegen im Fall von ATI bei vielleicht 5%).Originally posted by RedTitanBoik@08.11.06, 19:36
Bei Ati X1950 XTX HQ x 16 AF und Nvidia 8800 GTX Default x 16 AF ist es gleich,aber ich schätze mal wenn man HQ x16 AF bei der 8800 GTX einschaltet sieht es besser aus als Ati HQ x 16 AF.
Es ist wohl eher so, dass Nvidia bei der GTX by default HQ fährt, während man es bei ATI erst aktivieren muss (was man mit einer High-End-Karte aber in jedem Fall machen sollte, die Geschwindigkeitseinbußen liegen im Fall von ATI bei vielleicht 5%). [/b][/quote]Originally posted by Spasstiger+08.11.06, 19:06--></div><table border='0' align='center' width='95%' cellpadding='3' cellspacing='1'><tr><td>QUOTE (Spasstiger @ 08.11.06, 19:06)</td></tr><tr><td id='QUOTE'> <!--QuoteBegin-RedTitanBoik@08.11.06, 19:36
Bei Ati X1950 XTX HQ x 16 AF und Nvidia 8800 GTX Default x 16 AF ist es gleich,aber ich schätze mal wenn man HQ x16 AF bei der 8800 GTX einschaltet sieht es besser aus als Ati HQ x 16 AF.
Ich dachte wenn von HQ die Rede ist geht es um die Grafikeinstellungen im Spiel, aber wenn es um die Einstellungen der Graka geht ist natürlich der Vorteil klar zu erkennen. War mir nicht ganz klar. Doch beachtlichOriginally posted by DoomDoctor20+08.11.06, 19:11--></div><table border='0' align='center' width='95%' cellpadding='3' cellspacing='1'><tr><td>QUOTE (DoomDoctor20 @ 08.11.06, 19:11)</td></tr><tr><td id='QUOTE'>Originally posted by Spasstiger@08.11.06, 19:06
<!--QuoteBegin-RedTitanBoik@08.11.06, 19:36
Bei Ati X1950 XTX HQ x 16 AF und Nvidia 8800 GTX Default x 16 AF ist es gleich,aber ich schätze mal wenn man HQ x16 AF bei der 8800 GTX einschaltet sieht es besser aus als Ati HQ x 16 AF.
Es ist wohl eher so, dass Nvidia bei der GTX by default HQ fährt, während man es bei ATI erst aktivieren muss (was man mit einer High-End-Karte aber in jedem Fall machen sollte, die Geschwindigkeitseinbußen liegen im Fall von ATI bei vielleicht 5%).
Ich glaube das trifft es ganz gut."Ob es sinnvoll ist, jetzt schon 450,- bis 600,- Euro in eine Grafikkarte zu investieren, deren Funktionen vielleicht erst in fünf Monaten mit den ersten DirectX-10-Spielen genutzt werden können, erscheint angesichts des Wertverlustes immerhin zweifelhaft." golem.de
Das hängt wohl davon ab, wann und wie schlagkräftig ATI kontert.Originally posted by UlcerousVomitus@09.11.06, 00:58
Und eine EXTREME EDITION ist natürlich auch wieder in der Planung, ne?
entweder bin ich blind oder blöd..sehe fast garkeinen unterscheid bei den hl shoots...lolOriginally posted by Spasstiger@08.11.06, 16:42
Mal was zum Thema Bildqualität, genauer gesagt zum Thema "anisotropes Filtern":
Der oberste Ausschnitt entspricht auch ungefähr der besten AF-Qualität, die mit GeForce-7-Karten möglich ist.
Hier noch was Nettes:
Die Bildqualitätskrone geht damit wieder an Nvidia zurück. Schön, dass Nvidia nicht nur mit ATI gleichgezogen hat, sondern sogar noch neue Maßstäbe setzt.