Nvidia Geforce Thread

Die Eckdaten der GeForce 8800 GTX und der GeForce 8800 GTS sind ja seit wenigen Tagen bekannt und auch bestätigt worden, weshalb die Zeit für diesen Thread gekommen ist.
Am 8. November ist der offizielle Release der GeForce-8800-Karten, allerdings soll eine breite Verfügbarkeit erst ab Januar erreicht werden. Bis dahin genießen OEMs wie Dell den Vorzug. Erste Shops listen die GeForce 8800 GTX auch noch mit 800 Euro. Da heißt es also abwarten und Tee trinken, bis die Karten auf breiter Ebene verfügbar sind und sich angemessene Preise einstellen.

Eckdaten

g80g71r580pg9.png


Im Folgenden werde ich diese Spezifikationen im Detail erklären und hierbei insbesondere auf die architektonischen Unterschiede zu den Vorgängergenerationen eingehen. Zunächst beziehe ich mich auf die GeForce 8800 GTX, weiter unten gehe ich dann noch auf die GeForce 8800 GTS ein.

Der Grafikchip (G80)

Wer den G80 - das ist der Grafikchip der GeForce-8800-Karten - verstehen will, muss sich vom Konzept der Pipelines verabschieden. Der G80 verfügt über ein Array von 128 Skalarprozessoren/"streaming processors" (auch ALUs genannt), die als Unified-Shader-Einheiten arbeiten. Sie sind also flexibel als Pixel-Shader, Vertex-Shader oder Geometry-Shader einsetzbar und erfüllen natürlich auch die Anforderungen für Direct3D-10-Support.
Bisher wurde bei Grafikchips noch zwischen den Pixel-Shader-Einheiten und den Vertex-Shader-Einheiten unterschieden. Die Pixel-Shader-Einheiten waren auch als Vektorprozessoren ausgelegt mit 4 Kanälen für rot, grün, blau und z-Werte (Tiefeninformationen).
Skalarprozessoren, wie sie im G80 eingesetzt werden, besitzen allerdings nur einen Kanal. D.h. bei Pixelberechnungen mit z-Werten müssen vier Skalarprozessoren verwendet werden, um einen klassischen Vektorprozessor zu ersetzen.
Bei reinem Pixel-Shading entsprechen die 128 Skalarprozessoren des G80 also ungefähr 32 Pixel-Shader-Einheiten eines klassischen Grafikchips. Allerdings muss man noch berücksichtigen, welche Befehle jeder Skalarprozessor gleichzeitig abarbeiten kann.
Interessant ist auch, dass beim G80 das Array mit den Skalarprozessoren deutlich höher taktet als der Rest des Chips. 1,35 GHz Shadertakt besitzt die GeForce 8800 GTX. Dieser Shadertakt wird sich auch unabhängig vom Chiptakt erhöhen lassen, Übertakter haben jetzt also drei verschiedene Taktfrequenzen einzustellen (Chiptakt, Speichertakt, Shadertakt).
Ganz konkret in Zahlen ausgedrückt kommt der G80 auf eine Rechenleistung der Shadereinheiten von maximal 518,4 GFlops/s. Die GeForce 7900 GTX bringt es auf 305 GFlops/s. Wenn man nur die Rechenleistung bei MADD-Anweisungen - der Standardfall bei Pixel-Shading - berücksichtigt, kommt man beim G80 auf 345,6 GFlops/s und bei der GeForce 7900 GTX auf 249,6 GFlops/s.
Bei der theoretischen Leistung bringt es der G80 also auf eine Steigerung um einen Faktor 1,7. Allerdings kann der G80 wesentlich effizienter arbeiten, da sich Skalarprozessoren im Gegensatz zu Vektorprozessoren immer voll auslasten lassen.
In der Praxis kann der G80 also in vielen Fällen mehr als doppelt so schnell sein wie die GeForce 7900 GTX.

Immer noch sehr wichtig sind die Texture-Mapping-Einheiten, auch TMUs genannt. Diese ermöglichen die Texturierung und sind auch für die Texturfilterung (z.B. anisotrope Filterung) zuständig. Der G80 besitzt 64 TMUs, die GeForce 7900 GTX nur 24 TMUs. Die Radeon X1950 XTX bringt es gar nur auf 16 TMUs. Allerdings hat der G80 nur 32 Textur-Adressierungseinheiten TAs, mehr als 32 Texturkoordinaten können also nicht gleichzeitig bearbeitet werden. Dennoch bringt die doppelte Zahl an TMUs Vorteile, wenn man z.B. anisotrope Filterung einsetzt. Die Texelfüllrate muss hier aber mit der Zahl der TAs berechnet werden anstatt mit der Zahl der TMUs.

Die Skalarprozessoren und die TMUs sowie die TAs sind in Blöcke zusammengefasst. Der G80 verfügt über 8 solcher Blöcke mit je 16 Skalarprozessoren, 4 TAs und 8 TMUs.

Eine weitere wichtige Komponente eines Grafikchips sind die ROPs, die Raster Operation Units, die quasi die letzte Renderstufe eines Grafikchips darstellen und auch mit dem Speicherinterface verbunden sind. Beim G80 sind 6 ROP-Cluster vorhanden, angebunden an ein je 64 Bit breites Speicherinterface. Damit kommt man auf eine Speicherbusbreite von 384 Bit. Bisher waren 256 Bit bei den High-End-Karten üblich. Jedes ROP-Cluster kann vier Pixel parallel schreiben. Insgesamt können also 24 Pixel gleichzeitig geschrieben werden. Bei der GeForce-7900-GTX und der Radeon-X1900-Reihe sind es 16 Pixel. Aus der Zahl der Pixel, die gleichzeitig geschrieben werden können und dem Chiptakt ergibt sich die Pixelfüllrate. Die Pixelfüllrate ist inzwischen aber kein besonders relevanter Wert mehr, wenn man die Leistung eines Grafikchips abschätzen möchte.

Die Karte

Jetzt noch zum Drumherum bei der GeForce 8800 GTX. Wie oben geschrieben verfügt sie über ein 384 Bit breites Speicherinterface. Dieses wird mit 12 Speicherchips versorgt, die insgesamt 768 MB GDDR3-Speicher bereitstellen. Bisher waren 8 Speicherchips üblich. Da die Speicherchips natürlich Platz wegnehmen, fällt die GeFore 8800 GTX sehr groß aus, satte 26,7 cm misst sie in der Länge!
Der zum Einsatz kommende Kühler erinnert an den GeForce-6800-Kühler, jedoch hat der Lüfter ähnlich einem Schaufelrad die Lüfterblätter auf einem außen laufenden Rad angebracht. Mal abwarten, ob diese Konstruktion für ein akkzeptables Laufgeräusch sorgen kann oder ob wir wieder einen Terrorlüfter a la GeForce FX 5800 ertragen müssen. ;)

Bildqualität

Um noch einen sehr wichtigen Punkt anzusprechen: Bei der Bildqualität scheint Nvidia in jeder Hinsicht punkten zu wollen.
Da wäre zunächst mal die anisotrope Filterung, die jetzt auf wahlweise - wie bei ATI seit der X1K-Serie - weitestgehend winkelunabhängig ausfällt. Damit dürfte sich die Bildqualität bei Einsatz von AF in einigen Fällen deutlich verbessern.
Außerdem führt Nvidia neue AntiAliasing-Modi ein. Da wären zum einem 8-faches und gar 16-faches Multisampling-AntiAliasing (ATI bietet maximal 6-fach) und zum anderen ein sogenanntes "Coverage Sampling AA", das zusätzlich zum normalen AA zugeschalten werden kann und so gut wie keine Leistungen kosten soll. Wie es genau wirkt, muss man noch abwarten, auf jeden Fall wird es im Gegensatz zum normalen AA z.B. nicht die Stencil-Schatten in Doom-3-Engine-Spielen zusätzlich glätten, sondern nur die Polygonkanten.
Und beim Thema HDR-Rendering gibt es auch Verbesserungen. So wird nun auf HDR-Rendering mit einer Rechengenauigkeit von fp32 (32 Bit je Kanal = 128 Bit insgesamt) unterstützt, bisher war nur fp16-HDR-Rendering möglich. Außerdem kann nun fp16- und fp32-HDR-Rendering mit jedem beliebigen AntiAliasing-Modus kombiniert werden. Bisher war fp16-HDR mit MSAA nur bei ATIs X1K-Serie möglich.

GeForce 8800 GTS

Jetzt noch was zur GeForce 8800 GTS, der Sparversion mit G80-Chip. Die GeForce 8800 GTS ist gegenüber der GeForce 8800 GTX an vielen Stellen abgespeckt. So bestitzt die 8800 GTX nur 5 ROP-Arrays und damit auch nur ein 320 Bit breites Speicherinterface. Außerdem werden zwei Streamprozessor/Skalarprozessor-Gruppen gestrichen, so dass noch 96 Skalarprozessoren, 48 TMUs und 24 TAs verbleiben. Der Shadertakt wird auf 1,2 GHz gesenkt, der Chiptakt auf 500 MHz (statt 575 MHz). Der Speichertakt beträgt 800 MHz statt 900 MHz. Die Rechenleistung der 8800 GTS beläuft sich auf theoretisch maximal 345,6 GFlops/s (518,4 GFlops/s bei der 8800 GTX).
Da ein ROP-Array gestrichen wird, genügen auch 10 Speicherchips mit zusammen 640 MB Grafikspeicher.
Die ganzen Einsparungen bedeuten jedoch auch einen niedrigeren Preis (449 US-$ statt 599 US-$) sowie eine geringere Kartenlänge von rund 22 cm. Der Kühler scheint identisch mit der 8800 GTX zu sein.

Stromverbrauch

Zum Stromverbrauch gibt es leider noch keine verlässlichen Angaben, aber bis zu 200 Watt wurden noch nicht ausgeschlossen. Die GeForce 8800 GTX verfügt auch über 2 PCIe-Stromanschlüsse, die jeweils 75 Watt liefern können. Weitere 75 Watt könnten über die PCIe-Schnittstelle geliefert werden. Die GeForce 8800 GTS verfügt nur über einen zusätzlichen Stromanschluss.

Ich bereite jetzt noch eine Tabelle mit den wichtigsten Daten im Überblick vor, ich hoffe, dass meine technischen Erklärungen nicht zu unverständlich ausfielen. Aber eine genauere Betrachtung der GeForce 8800 GTX lohnt sich, da eben eine neuartige Chiparchitektur vorliegt, die sich endgültig vom Pipeline-Konzept verabschiedet hat.
Bilder werden auch noch nachgereicht.

/EDIT: Tabelle eingefügt.
/EDIT: Erstes Review online: http://www.pconline.com.cn/diy/graphics/re...611/898744.html
 

eLuSiVe

Baron
Anhören tut sich sowas immer gut ;) Jedoch bin ich da ganz zuversichtlich.
Ich denk jetz is die Zeit gekommen meine alte Graka in Rente zu schicken.
 

Saliva

Orbb
Was wird wohl so ein Intel Quad Core ~7000 mit zwei GeForce 8800 GTX SLI reissen können? Werde ich endlich meinen 3007WFP mit 2560 x 1600 in aktuellen Games auf UHQ flüssig betreiben können? ...Fragen über Fragen...
 

FaKe

The Altered
wenn die endlich mal das asus board mit dem 680 sli chipsatz bringen würden, hätte ich schon lange aufgerüstet !
bin mir aber irgenwie nicht sicher, weil ja schon quad cores kommen sollen und neue conroes !

warten is wohl das beste !!!
 

Saliva

Orbb
Warten ist immer das Beste. Der beste Zeitpunkt für den Kauf eines Rechners lautet täglich aufs neue: "übermorgen". Hat man seine Kohle erstmal investiert, gehts rapide bergab mit dem Wert, insbesondere da heutzutage die nächste Generation unmittelbar nach der letzten in den Startlöchern steht.
 
Originally posted by oglu@29.10.06, 20:54
8800GTS owned... :yeah:
Man muss aber bedenken, dass die 8800 GTS - zumindest was die Eckdaten angeht - viel deutlicher hinter 8800 GTX zurückliegt als es z.B. beim Vergleich 7800 GT vs. 7800 GTX oder 6800 GT vs. 6800 Ultra der Fall war.
Bei der 8800 GTS hat wirklich an jeder Stelle Einsparungen gegenüber der 8800 GTX, bei den Taktraten, beim Speicherinterface, bei der Zahl der Shadereinheiten, bei der Zahl der TMUs, bei der Zahl der ROPs und auch bei der Speichermenge.
Die Pixelshaderleistung der 8800 GTS ist z.B. theoretisch sogar leicht hinter einer 7900 GTX, zumindest bei MADD-Anweisungen.
Natürlich wird die bessere Effizienz durch die Skalarprozessoren dennoch für höhere Leistungen sorgen. Und bei Physik- und Geometrieberechnungen sollte die 8800 GTS sehr deutlich überlegen sein.

Ich persönlich habs bisher auf die 8800 GTX abgesehen, wollte aber eh erst in den Semesterferien im März/April nen neuen Rechner kaufen. Bis dahin sollte die 8800 GTX doch ein Stück im Preis gefallen sein.
 

FaKe

The Altered
auf gamestar.de steht das die ersten 65 nm karten auch schon nächstes jahr kommen sollen, also evtl direkt warten, denn die ganzen geilen games kommen ja sowieso nicht sofort anfang des jahres raus !!
 

oglu

Knight
Originally posted by Spasstiger@29.10.06, 21:04


Ich persönlich habs bisher auf die 8800 GTX abgesehen, wollte aber eh erst in den Semesterferien im März/April nen neuen Rechner kaufen. Bis dahin sollte die 8800 GTX doch ein Stück im Preis gefallen sein.
da müssen wir dann nochmal reden... genau da steht auch mein neues system an...
mir geht es nicht umbedingt um volle grafikpower bei games...
da ich recht wenig zocke... würd das geld lieber in ram und CPU investieren...
 

bot

Chthon
Ich werd dann wieder bei der 9800 oder besser 10800GT zuschlagen. Meine 6600er ist ja noch nicht so alt. :prost:
 

josefYY

Demon
Originally posted by bot@30.10.06, 13:11
Ich werd dann wieder bei der 9800 oder besser 10800GT zuschlagen. Meine 6600er ist ja noch nicht so alt. :prost:
Die 9800 gibt's doch schon längst zu kaufen.
Nun gut zwar nur bei Ati aber was soll's. ;)
 

FaKe

The Altered
also mir stellt sich verstärkt die frage

ob man zuschlagen soll, oder lieber warten, weil ja die ersten 65 nm karten folgen sollen und dann siehts vlt so aus wie bei den 7800 er serie, das nach kürzester zetit ne neue serie kommt :??:
 

DeZomB

Orbb
Wie sieht das aus , bringt euch die Karte unter Win Xp was?
Wegen ner karte würd ich nti auf Vista umsteigen...
 
Originally posted by DeZomB@30.10.06, 19:23
Wie sieht das aus , bringt euch die Karte unter Win Xp was?
Wegen ner karte würd ich nti auf Vista umsteigen...
Die höhere Rechenleistung kann sie natürlich auch unter WinXP umsetzen. Nur die speziellen Möglichkeiten von Direct3D 10 stehen dir dann nicht offen.
 
Top