HL2 Benchmark

oglu

Knight
hui das sieht ja nicht gerade gut aus für ältere grafikkarten oder nVidia...

am besten gefällt mir aber dieses satz in dem bericht...


Nichts desto trotz sollte man diese Zahlen nicht wahnwitzig überbewerten. Immerhin ist Half-Life 2 zwar ein wichtiges, aber auch nur ein Spiel - im Gegensatz zu Doom III, dessen Engine in dutzenden anderer Spiele verwendet werden wird.

http://www.3dcenter.de/#2003-09-11


...
 

CruSAdeR

Maledict
Es gibt hier ein Hl2 Forum...

Die SourceEngine wird sehr wahrscheinlich auch für andere Spiele benutzt werden...
Ich find geil, dass die FX5900 grade mal halb so viele Frames hat wie die ATI :D

Und bei Doom3 ist der Unterschied nur minimal :P
 
Hehe, jetzt toben die Nvidia-Anhänger. :lol:

Aber sie waren gewarnt (spätestens seit Tomb Raider 6) und außerdem können alle Besitzer eine GeForce FX Karte auch in DX8.1 spielen, was nicht so viel schlechter aussieht (irgendwann jucken einen die kleinen Details eh nicht mehr).

Ich freu micht trotzdem, dass ich mit meiner Radeon 9700 in vollen Details mit DX9-Features flüssig spielen kann.

hui das sieht ja nicht gerade gut aus für ältere grafikkarten oder nVidia...

Man kann die Details offenbar für eine große Bandbreite an Systemen anpassen, so dass HL2 auch auf älteren Systemen und Karten flüssig läuft.
 

CruSAdeR

Maledict
Aber wer will schon, wenn er sich ne extra teure FX gekauft hat, auf mittleren Details spielen :hammer: HAHA ;)
 

lost soul

Knight
Half-Life2:
Dort gibt es ein brandneues ca. 120 MB großes Video zum Downloaden, dass die Effekte zeigt, die speziell über DirectX 9 erzeugt wurden.
Mittlerweile hat nVidia auch auf die Benchmarks von Half-Life2 reagiert, bei denen ATI deutlich die Nase vorne hat. Durch neuere Treiber möchte man dort wieder aufholen.

Quelle: quake.de

Hmm mal sehen wie es dann mit den neuen Detonator aussieht!? :evilgrin:
 
Originally posted by [Crusader]@12.09.03, 14:11
Aber wer will schon, wenn er sich ne extra teure FX gekauft hat, auf mittleren Details spielen :hammer: HAHA ;)
Besitzer von GeForce FX Karten müssen nur mit DX8.1 bzw. dem DX "nicht ganz 9" spielen und schon läuft das Game mit allen Details flüssig. Die Effekte sehen dann nur nicht mehr so brilliant aus wie in DX9, weniger Effekte hat man dadurch aber (noch) nicht.
 
Falls hr diese Screens noch net gesehen habt....
Bei diesen Pics kann man den Unterschied der Qualität zwischen DX8, 8.1 und 9 sehen
DirectX 8

dx_8_water_b.jpg


DirectX 8.1

dx_81_water_b.jpg


DirectX 9

dx_9_water_b.jpg



Quelle:PcGames und GamersDepot
 
ich bin begeistert :hmm: das einzige was ich erkennen kann ist, dass DX9 bissle heller ist.

oder hab ich was an den augen? klärt mich mal auf was da der unterschied sein soll
 
Ich weiss auch nicht so recht... Ich habs nämlich nur gepostet, habe gedacht, dass ihr solche Kleinigkeiten erkennen würdet.

:zweifel:
 

Freakman

Crash
Ein erst gestern von Valve präsentierter Half-Life 2-Leistungsvergleich zwischen ATI- und Nvidia-Grafikchips soll ungültig sein. Dies gab Nvidia in einer Mitteilung bekannt. In den von Gabe Newell (Valve) veröffentlichten Ergebnissen schneiden Nvidia-Chips teilweise erheblich schlechter ab als die Konkurrenz von ATI.

»Wir fragen uns, warum Valve die 45er-Treiber (Anm. d. Red.: Hier sind Detonator-Treiber mit Versionsnummer 45 gemeint) als Testgrundlage nutzt -- noch bis vor zwei Wochen haben wir eng mit Valve am 50er-Treiber gearbeitet […]«
, sagt Nvidia. Die laut Nvidia stark überarbeiteten 50er-Treiber sollen deutliche Leistungszuwächse, besonders in Hinblick auf Shader-Effekte, erreichen. Weiter heißt es in dem Schreiben:
»Die im Internet veröffentlichten Benchmarks, basierend auf den 45er-Teibern, sind ungültig, weil sie nicht die 50er-Treiber nutzen«.
Schließlich, so Nvidia, werde die nächste Detonator-Version noch vor Half-Life 2 veröffentlicht. Eigene Benchmark-Ergebnisse nennt der Chipgigant allerdings nicht.

Zudem fragt man sich bei Nvidia, warum Entwickler Valve »nicht auf mögliche Probleme hingewiesen hat« -- eine legitime Frage. Denn wie wir bereits vor einem Monat berichtet haben, steckt anscheinend eine strategische Partnerschaft zwischen ATI und Valve hinter Ereignissen wie diesen. Zusätzlich gehen wir davon aus, dass ATIs nächste Radeon-Generation die jüngst präsentierten Benchmark-Ergebnisse verbessern wird. Interessant: Der Half-Life 2-Benchmark erscheint am 30. September, was mit dem Erscheinen des neuen Silizium-Bündels von ATI zusammenpassen könnte.


http://www.gamestar.de/news/pc-spiele/action/13825/ :fuck:
 
wenn es stimmt dass die ATI grafikkarten mit HL2 verkauft werden sollen dann ist ja klar dass sie wollen dass ATI besser aussieht wie NVIDIA, denn dann haben sie natürlich höhere verkaufszahlen.

also des könnte ein grund sein. :zweifel:
 
"Falscher Detonator"...was schreibst du denn da für einen Unsinn...

Gebencht wurde mit den aktuellen veröffentlichten Treibern beider Karten.

Diese benchmarkergebnisse represäntieren den derzeitigen Stand, was die neuen Detonatoren bringen werden steht auf einem ganz anderen Blatt...aber eine Leistungssteigerung um 100% ist doch arg unrealistisch...

Ich bin darüberhinaus gespannt was für Optimierungen Nvidia vorgenommen hat, gerade im Bezug auf die Bildqualitaet...

Erste veröffentlichte Test ina nderen DX9 Spielen zeigen eine Leistungssteigerung von 5-11% in Spielen und 20% in 3D Murks...okay, sagen wir die FX Karten würden 20% Leistung zulegen, das ist immer noch schwach...

Und den schwarzen Peter nur bei Valve zu suchen ist ja nun auch nicht richtig, die schlechte DX9 Performance war ja schon in Tests von dem neuen Tomb Raider (Immerhin mit Nvidia Werbung drin ;))und der Halo 1.5 Beta zu sehen...
 
Ich kenne diese Meldung, und ich kenne auch die Gamestar...Das ist Bildzeitungsniveau, und nichts weiter...

Ich will hier nicht Nvidia schlecht und ATi gut reden, aber es ist bekannt das die FX Karten Probleme haben...

ich habe da in einem anderen Forum ein nettes Posting gefunden...

-----------------------------------------------------------------------------------------------

Ganz interessanter Artikel :
Quelle : http://www.gamersdepot.com/hardware/video_...desktop/001.htm



--------------------------------------------------------------------------------

Update 09/09: Even the folks at Gas Powered Games have chimed in regarding this issue. Here's a quote from James Loe head-tech-pimp-daddy over at GPG:
“Precision has a pretty big impact on the current nVidia chips, so it’s important to use half precision data types and the nVidia specific 2.0a HLSL compiler when running on NV3X hardware. Keeping those limitations in mind, it hasn’t been too difficult for us to maintain an acceptable level of performance.”

James Loe



--------------------------------------------------------------------------------

Update 09/06: We also emailed Gabe Newell from Valve Software about his experience with Pixel Shader Performance:
GD: We've started some initial DX9 Shader tests, and have seen, so far that NVIDIA NV3x hardware has a hard time.. Will it'll be similar w/ the HL2 Benchmark?

"Yep."

Gabe Newell



--------------------------------------------------------------------------------

Update 09/05: We emailed id Software guru, John Carmack about his experience with NV3x hardware on Pixel Shading performance, and this was his reply:
GD: John, we've found that NVIDIA hardware seems to come to a crawl whenever Pixel Shader's are involved, namely PS 2.0..

Have you witnessed any of this while testing under the Doom3 environment?

"Yes. NV30 class hardware can run the ARB2 path that uses ARB_fragment_program, but it is very slow, which is why I have a separate NV30 back end that uses NV_fragment_program to specify most of the operations as 12 or 16 bit instead of 32 bit."

John Carmack



--------------------------------------------------------------------------------


We asked ATI about how their cards do so well, and this was our reply:

"The R300 architecture was built from the ground up for performance in DirectX 9. DX9 instructions map naturally to our hardware, without any tweaking or driver optimizations. This is important, because the vast majority of games out there won't have the benefit of driver optimizations from anyone (unlike certain game benchmarks), because no-one has the engineering resources to spare. Whether you look at brute force (our 8 pipes versus the competitor's 4) or elegance (we can run many shader operations in parallel that our competitor can't) we have a fundamental advantage with our hardware. With more and more DirectX 9 games coming onto the market, the battle will be all about who can run shaders faster and more efficiently. And our shader performance is hugely better. ShaderMark and other tests show shader performance that is three to six times better on ATI's hardware than Nvidia's. This architectural advantage is evident in shipping games like Tomb Raider: Angel of Darkness. You will also see this in Half-Life 2 and every DX9 game coming out before the holiday season."



-----------------------------------------------------------------------------------------------


Ok, wer glauben will das NVIDIA einen Zauberdetonator auf den Tisch legt der ohne Verlust von Bildqualitaet eine 100%ige Leistungssteigerung bringt meinetwegen, ist da das gute Recht eines jeden Nutzers...Aber man sollte nicht versuchen überall die Fehler zu suchen, nur bei NVIDIA nicht...Es wird Zeit das die an ihrer Technik arbeiten, und nicht nur versuchen durch Marketingmassnahmen zu bestehen.

Okay, ich selber bin ATi Nutzer, aber ich bin kein Fanboy...Mir tut es leid für alle Nutzer die sich eine FX Karte für teures Geld kaufen und die dann nicht so bei den DX9 Spielen performt wie man es eigentlich erwartet haette. Ich hoffe für die Nutzer ja auch das der Treiber ungeahnte Leistungen freisetzt, aber ich glaube nicht daran...

Und bitte, ordentlich informieren, und nicht die Gamestar Halbwarheiten glauben...

Es stimmt ja das Valve verboten hat den neuen Detonator bei den Benchmarks einzusetzen, und es ist auch klar das dieser mehr Leistung bringen wird (wenn auch nicht genau wieviel), aber es ist genau so wenig klar mit welchen Mittel der Treiber das erreicht. Laut Valver sind da einige etwas zu weit gehende Optimierungen drin, auch Valve gesteht einen Bug ein...So fanden die Test mit den derzeit offiziell erhältlichen Treibern statt, und genau so muss man sie auch sehen und interpretieren...Kommende Tests mit dem 51.75 und dem Catalyst 3.8 (der ja auch irgendwann kommen soll und mehr performance bringen soll) werden mehr Licht in das Dunkel bringen, aber ich bin mir ganz sicher das sich an dem Bild was jetzt entstanden ist nicht wirklich viel Ändert...Der Abstand wird geringer werden, das glaube ich, aber zu welchen Kosten (Bildqualitaet) ist noch nicht klar, und alle Aussagen diesbezüglich sind Spekulation...
 

CruSAdeR

Maledict
Tjo man muss früh genug vom sinkenden Boot abspringen :) Es war von vornerein klar, dass die FX Karten kacke sind. Das hat man schon ganz am Anfang gesehen. Ich mein, früher hatte ich auch ma ne Geforce2, aber jetzt ist ATI numal besser :D Ich kenn einige Leute, die Hardware von genau der Firma kaufen, von der ich vorher gekauft hab (in diesem Fall eben Nvidia), sich aber nicht informieren, dass ATI mittlerweile besser ist...

Ich kann nur allen Leuten raten, die sich bald eine neue Karte zulegen wollen: Kauft euch ne ATI ;)
 
Top