Zockerkisten selbstgebaut

Saliva

Orbb
Überleg mal wie lange es gedauert hat bis DX9 damals von dem Games unterstützt worden ist und wie lange es jetzt dauert bis 64Bit und Mehrkernprozessoren unterstützt werden.
...da würde ich mir keinen Kopf drum machen.
 

FaKe

The Altered
Originally posted by Saliva@25.02.06, 14:06
Überleg mal wie lange es gedauert hat bis DX9 damals von dem Games unterstützt worden ist und wie lange es jetzt dauert bis 64Bit und Mehrkernprozessoren unterstützt werden.
...da würde ich mir keinen Kopf drum machen.
stimme ich dir voll und ganz zu !
auch ind er gamestar steht das eine schnelle dx9 karte locker für alles reichen wird !

und 2 dx 9 karten im sli sowieso !!!

:D


@ tuf-fan

der fx 60 is ja eind ual core, war bei dir ein bios update nötig ???
weil bei alternate steht, das evtl eines von nöten wäre.......

ansonsten werde ich mir das board wohl montag mal bestellen !
 
G

Grobblin

Guest
Warum willst du dir jetzt noch einen PC holen, wenn doch im Juni Intel's neue Architktur rauskommt und AMD dann auch schneller wird oder aber im Preis runtergeht? Und erste DX10/D3d10 kommen im Oktober.
 

Saliva

Orbb
So schnell geht der Preis nicht runter, schon garnicht bei Einführung neuer High-End karten. Wenn Mittelklasse Karten rauskommen sieht das schon ganz anders aus. Einziges Argument wäre da für mich der Release der GeForce 7600 und der equivalenten Radeon.
Und intels neue Architektur wird gerade bei der Markteinführung übermäßig teuer sein. Warum sollte AMD mit dem Preis runtergehen, wenn intel eine neue CPU rausbringt?
Den Preisvorteil von ein paar Euro kann man sich dann auch schenken, wenn man dafür jetzt schon einen schnelleren Rechner sein eigen nennen darf.
 
Originally posted by Saliva@25.02.06, 22:21
Warum sollte AMD mit dem Preis runtergehen, wenn intel eine neue CPU rausbringt?
Die Preise der nächsten Intel-Generation sind schon bekannt und im Vergleich zu AMD sehr niedrig angesetzt. Das vorerst schnellste neue Modell von Intel mit 2,66 GHz soll nichtmal 600 Euro kosten und wird von der Pro-Megahertzleistung wohl mit einem Athlon 64 X2 mithalten können. Damit muss AMD auf jeden Fall die Preise senken.
Außerdem soll nur kurze Zeit später ein Extreme Edition Modell mit 3,33 GHz und FSB1333 erscheinen, wobei AMD mit ziemlicher Sicherheit den Anschluss verlieren wird, da AMD nur in 90nm fertigen kann, während Intel schon erfolgreich 65nm einsetzt.
Und deshalb wird AMD nur mit günstigen Preisen konkurrieren können.

Intel wird dieses Jahr wieder die Performancekrone zurückerobern, da bin ich mir sehr sicher.
 

FaKe

The Altered
intel is sowieso überteuert und meist schlechter als amd, allerding könnte sich das diesmal ändern !
ausserdem würde ich nicht sofort losrennen und mir die erste dx10 karte holen, zumal man dazu angeblich auch windows vista brach (keien ahnung obs stimmt, habe ich nur öfters ma gelesen)
 

DeZomB

Orbb
Windoof Vista unterstützt dx10 aber man benötigt keine extra dx10 karte dafür, es wurde aber gesagt das man für vista ne besser graka brauch da es sehr grafik aufwenig ist.... was suxt. [Wurde gesagt min. 128MB , lieber 256MB ... was eigentlich scheisse ist für ne menge user die den PC nur zum surfen haben und windows sich holen weil sie die neu version für toll halten.]
 

FaKe

The Altered
Originally posted by DeZomB@25.02.06, 22:02
Windoof Vista unterstützt dx10 aber man benötigt keine extra dx10 karte dafür, es wurde aber gesagt das man für vista ne besser graka brauch da es sehr grafik aufwenig ist.... was suxt. [Wurde gesagt min. 128MB , lieber 256MB ... was eigentlich scheisse ist für ne menge user die den PC nur zum surfen haben und windows sich holen weil sie die neu version für toll halten.]
ja, wollte nu sagen das xp angeblich kein dx 10 macht, sprich wer sich ne dx 10 holt sollte sich auch vista holen, obs stimmt kA !!!

die vorstellung vom neuen intel würde ich auch nicht überbewerten !
gerade bei intel is immer großer hype ausserdem ist son quad core alles andere als markttauglich finde ich, wer braucht das?


aber das ist wieder die berühmte geldmacherrei !!!
sofort neues zeug aufn markt werfen ohne das alte mal zu nutzen !!

kotzt irgendwie an, aber was soll man machen, man kanns nur kaufen oder lassen, aber dann guckt man fürher oder später in die röhre

:(
 
Originally posted by DeZomB+25.02.06, 23:02--></div><table border='0' align='center' width='95%' cellpadding='3' cellspacing='1'><tr><td>QUOTE (DeZomB @ 25.02.06, 23:02)</td></tr><tr><td id='QUOTE'> Windoof Vista unterstützt dx10 aber man benötigt keine extra dx10 karte dafür, es wurde aber gesagt das man für vista ne besser graka brauch da es sehr grafik aufwenig ist.... was suxt. [Wurde gesagt min. 128MB , lieber 256MB ... was eigentlich scheisse ist für ne menge user die den PC nur zum surfen haben und windows sich holen weil sie die neu version für toll halten.] [/b]

Es gibt in Windows Vista nur DirectX 9 und Direct3D10. Ältere Grafikkarten bis DirectX 7 werden unter DirectX 9 mit eingeschränktem Funktionsumfang laufen. Für volle Details der grafischen Benutzeroberfläche wird eine DirectX-9-fähige Grafikkarte benötigt.
Direct3D10 wird nicht mehr abwärtskompatibel zur Direct3D9 sein. Ein Spiele, das nur Direct3D10 einsetzt, wird mit älteren Grafikkarten nicht lauffähig sein.
Das neue Schnittstellenkonzept in Windows Vista für Direct3D wird dazu führen, dass die CPU-Last von D3D gesenkt wird (so wie es bei OpenGL jetzt schon ist) und gleichzeitig Totalabstürze des Systems durch Fehlfunktionen in der Treiberschnittstelle ausgeschlossen werden (Hardwarefehler können aber immer noch zu einem Totalabsturz führen). D3D10 wird dazu noch deutlich entschlackt sein gegenüber D3D9, weil die Altlasten von D3D7 bis 9 nicht mehr mitgeschleppt werden müssen. Dies bedeutet wiederum eine geringere CPU-Last.

Über kurz oder lang wird man also als Zocker zu einer Direct3D10-fähigen Grafikkarte gezwungen werden. Microsoft wagt dabei afaik als erster mit Halo 2 (PC) diesen Schritt.

Originally posted by FakeBitchKillah.inc@

ja, wollte nu sagen das xp angeblich kein dx 10 macht, sprich wer sich ne dx 10 holt sollte sich auch vista holen, obs stimmt kA !!!
Wer Direct3D10 nutzen möchte, muss auf Windows Vista umsteigen. Das liegt am neuen Treibermodell von Windows Vista, welches deutlich ausgereifter als bei WinXP ist. Bei WinXP müsste man den Kernel komplett umschreiben, um D3D10 da reinzupacken.
DirectX10 wird es unter diesem Namen übrigens nicht in der Kaufversion von Windows Vista geben, das ist nur so eine "Krankheit" in der aktuellen Beta-Version von Win Vista. ;)

<!--QuoteBegin-FakeBitchKillah.inc

die vorstellung vom neuen intel würde ich auch nicht überbewerten !
gerade bei intel is immer großer hype ausserdem ist son quad core alles andere als markttauglich finde ich, wer braucht das?
[/quote]
Die neuen Intels sind Dual-Cores. Im übrigen hat soweit ich das sehe zuerst AMD Quad-Cores angekündigt für Anfang 2007. Allerdings auch nur für den Serverbereich.
 

FaKe

The Altered
Originally posted by Spasstiger+25.02.06, 22:23--></div><table border='0' align='center' width='95%' cellpadding='3' cellspacing='1'><tr><td>QUOTE (Spasstiger @ 25.02.06, 22:23)</td></tr><tr><td id='QUOTE'> <!--QuoteBegin-DeZomB@25.02.06, 23:02
Windoof Vista unterstützt dx10 aber man benötigt keine extra dx10 karte dafür, es wurde aber gesagt das man für vista ne besser graka brauch da es sehr grafik aufwenig ist.... was suxt. [Wurde gesagt min. 128MB , lieber 256MB ... was eigentlich scheisse ist für ne menge user die den PC nur zum surfen haben und windows sich holen weil sie die neu version für toll halten.]
Es gibt in Windows Vista nur DirectX 9 und Direct3D10. Ältere Grafikkarten bis DirectX 7 werden unter DirectX 9 mit eingeschränktem Funktionsumfang laufen. Für volle Details der grafischen Benutzeroberfläche wird eine DirectX-9-fähige Grafikkarte benötigt.
Direct3D10 wird nicht mehr abwärtskompatibel zur Direct3D9 sein. Ein Spiele, das nur Direct3D10 einsetzt, wird mit älteren Grafikkarten nicht lauffähig sein.
Das neue Schnittstellenkonzept in Windows Vista für Direct3D wird dazu führen, dass die CPU-Last von D3D gesenkt wird (so wie es bei OpenGL jetzt schon ist) und gleichzeitig Totalabstürze des Systems durch Fehlfunktionen in der Treiberschnittstelle ausgeschlossen werden (Hardwarefehler können aber immer noch zu einem Totalabsturz führen). D3D10 wird dazu noch deutlich entschlackt sein gegenüber D3D9, weil die Altlasten von D3D7 bis 9 nicht mehr mitgeschleppt werden müssen. Dies bedeutet wiederum eine geringere CPU-Last.

Über kurz oder lang wird man also als Zocker zu einer Direct3D10-fähigen Grafikkarte gezwungen werden. Microsoft wagt dabei afaik als erster mit Halo 2 (PC) diesen Schritt. [/b][/quote]
so is das also, thx spasstiger wie immer gut informiert !!
:daumen:


naja, ich werde mir höchstwarscheinlich so oder so den g80 holen !!

meint ihr der g80 wird wesentlich schneller?
ich denke er wird schon um einiges schneller sein, aber hauptsächlich neue features bringen !!!

habe mal gelesen das sie für den g80 gddr 4 ram von samsumg mit nur 0.4 sek zugriffszeit und 2.5 ghz takt verbauen wollen, das wir den preis der karte enorm in die höhe treiben..........
 
Originally posted by FakeBitchKillah.inc@25.02.06, 23:31
meint ihr der g80 wird wesentlich schneller?
ich denke er wird etwas schneller sein, aber hauptsächlich neue features bringen !!!

habe mal gelesen das sie für den g80 gddr 4 ram von samsumg mit nur 0.4 sek zugriffszeit und 2.5 ghz takt verbauen wollen, das wir den preis der karte enorm in die höhe treiben..........
Wie schnell der G80 wird, weiß im Moment noch niemand.
Er wird auf jeden Fall das ShaderModell 4.0 unterstützen, genauso wie der nächste Chip von ATI, der R600.
Im Gegensatz zu ATI will Nvidia aber noch kein Unified-Shader-Modell einsetzen, sondern Pixelshader und Vertexshader weiterhin getrennt laufen lassen. Neu beim Shader Modell 4.0 ist der Geometry Shader, welcher neue Vertices und damit neue Polygone selbstständig erzeugen kann. Bisher war das Aufgabe der CPU. Auf dem Chip werden Vertex-Shader und Geometry-Shader dabei mit den gleichen Funktionseinheiten abgearbeitet. Shader 4.0 wird übrigens erst mit Direct3D10 genutzt werden können oder über OpenGL.
Mir ist noch zu Ohren gekommen, dass der G80 wohl 48 vollwertige Pixelshader-Einheiten haben wird. Dies bietet zur Zeit auch schon ATIs R580 (Radeon X1900).

Dass bereits GDDR4 Speicher eingesetzt werden wird, ist imo sehr wahrscheinlich, allerdings wäre ich mir mit den 1,25 GHz real noch nicht so sicher. 0,4 Sekunden Zugriffszeit sind übrigens extrem viel, man befindet sich hier im Nanosekundenbereich. ;)

Übrigens wird Nvidia zur Cebit den G71 vorstellen mit 32 Pipelines und beim Topmodell vermutlich über 600 MHz Chiptakt. Allerdings wird der G71 keine neuen Funktionen bringen, die über den Funktionsumfang von DirectX 9 hinausgehen.
 

FaKe

The Altered
Originally posted by Spasstiger+25.02.06, 22:44--></div><table border='0' align='center' width='95%' cellpadding='3' cellspacing='1'><tr><td>QUOTE (Spasstiger @ 25.02.06, 22:44)</td></tr><tr><td id='QUOTE'> <!--QuoteBegin-FakeBitchKillah.inc@25.02.06, 23:31
meint ihr der g80 wird wesentlich schneller?
ich denke er wird etwas schneller sein, aber hauptsächlich neue features bringen !!!

habe mal gelesen das sie für den g80 gddr 4 ram von samsumg mit nur 0.4 sek zugriffszeit und 2.5 ghz takt verbauen wollen, das wir den preis der karte enorm in die höhe treiben..........
Wie schnell der G80 wird, weiß im Moment noch niemand.
Er wird auf jeden Fall das ShaderModell 4.0 unterstützen, genauso wie der nächste Chip von ATI, der R600.
Im Gegensatz zu ATI will Nvidia aber noch kein Unified-Shader-Modell einsetzen, sondern Pixelshader und Vertexshader weiterhin getrennt laufen lassen. Neu beim Shader Modell 4.0 ist der Geometry Shader, welcher neue Vertices und damit neue Polygone selbstständig erzeugen kann. Bisher war das Aufgabe der CPU. Auf dem Chip werden Vertex-Shader und Geometry-Shader dabei mit den gleichen Funktionseinheiten abgearbeitet. Shader 4.0 wird übrigens erst mit Direct3D10 genutzt werden können oder über OpenGL.
Mir ist noch zu Ohren gekommen, dass der G80 wohl 48 vollwertige Pixelshader-Einheiten haben wird. Dies bietet zur Zeit auch schon ATIs R580 (Radeon X1900).

Dass bereits GDDR4 Speicher eingesetzt werden wird, ist imo sehr wahrscheinlich, allerdings wäre ich mir mit den 1,25 GHz real noch nicht so sicher. 0,4 Sekunden Zugriffszeit sind übrigens extrem viel, man befindet sich hier im Nanosekundenbereich. ;)

Übrigens wird Nvidia zur Cebit den G71 vorstellen mit 32 Pipelines und beim Topmodell vermutlich über 600 MHz Chiptakt. Allerdings wird der G71 keine neuen Funktionen bringen, die über den Funktionsumfang von DirectX 9 hinausgehen. [/b][/quote]
wenn man mal bedenkt das die heutigen guten karten alle so um 1ns zugriffszeit haben is das doch recht gut !!
und die neue nvidia is überflüssig wie ein kropf, die kommt nur weil die x1900xtx schneller is als die 512 mb nvidia damit nvidia im singlekarten bereich wieder die nase vorn hat !

das mit den pipes finde ich seltsam, die neue ati hat wesentlich mehr is aber nur unwesentlich schneller !
 
Originally posted by FakeBitchKillah.inc@26.02.06, 00:09
das mit den pipes finde ich seltsam, die neue ati hat wesentlich mehr is aber nur unwesentlich schneller !
Der R580 hat 16 Pipelines genauso wie der R520. Allerdings stehen dem R580 auf jeder Pipeline drei Pixelshadereinheiten zur Verfügung, insgesamt also 48 Pixelshadereinheiten.
Der G70 auf der GeForce 7800 GTX hat 24 Pipelines mit zwei Shadereinheiten je Pipeline. Allerdings können beide Shadereinheiten nur bei bestimmten Rechenoperationen gleichzeitig genutzt werden. Bei einigen Rechenoperationen stellt der Chip also 24 Pixelshadereinheiten zur Verfügung, bei einigen anderen aber auch 48.
Die GeForce 7900 GTX wird mit dem G71 je nach Rechenoperation 32 oder 64 Pixelshadereinheiten zur Verfügung stellen.

Die endgültige Pixelausgabe erfolgt am Ende der Pipelines mithilfe der ROPs (Rasterizer Operation Units). Der R580 hat davon 16, der G70 ebenfalls. Der G71 wird 24 ROPs haben, also bei voller Auslastung der Pipelines und bei gleichem Takt mehr Pixel durchjagen können als die anderen beiden Chips.

Ganz entscheidend ist derzeit auch noch die Texelfüllrate. Texel sind die Pixel einer Textur und die Texturierung der Polygone erfolgt in den TMUs (Texture Mapping Units). Davon besitzt der R580 16 Stück, der G70 24 Stück und der G71 satte 32 Stück.
Zukünftig wird aber die Zahl der Pixelshadereinheiten wichtiger werden als die Zahl der TMUs. Der R580 ist also vom Aufbau her (48 Pixelshadereinheiten, 16 ROPs, 16 TMUs) schon eher für sehr shaderlastige Spiele entwickelt worden und braucht hohe Taktraten, um auch in aktuellen Spielen mithalten zu können, während der G70 (24-48 Pixelshadereinheiten, 16 ROPs, 24 TMUs) als Allrounder zu betrachten ist, der aktuell auch mit geringeren Taktraten auskommt, bei sehr shaderlastigen Spielen aber klar den kürzeren zieht (siehe z.B. Fear).
Der G71 wird dieses Manko ausgleichen durch mehr Pipelines und höheren Taktraten.
 

FaKe

The Altered
Originally posted by Spasstiger+25.02.06, 23:27--></div><table border='0' align='center' width='95%' cellpadding='3' cellspacing='1'><tr><td>QUOTE (Spasstiger @ 25.02.06, 23:27)</td></tr><tr><td id='QUOTE'> <!--QuoteBegin-FakeBitchKillah.inc@26.02.06, 00:09
das mit den pipes finde ich seltsam, die neue ati hat wesentlich mehr is aber nur unwesentlich schneller !
Der R580 hat 16 Pipelines genauso wie der R520. Allerdings stehen dem R580 auf jeder Pipeline drei Pixelshadereinheiten zur Verfügung, insgesamt also 48 Pixelshadereinheiten.
Der G70 auf der GeForce 7800 GTX hat 24 Pipelines mit zwei Shadereinheiten je Pipeline. Allerdings können beide Shadereinheiten nur bei bestimmten Rechenoperationen gleichzeitig genutzt werden. Bei einigen Rechenoperationen stellt der Chip also 24 Pixelshadereinheiten zur Verfügung, bei einigen anderen aber auch 48.
Die GeForce 7900 GTX wird mit dem G71 je nach Rechenoperation 32 oder 64 Pixelshadereinheiten zur Verfügung stellen.

Die endgültige Pixelausgabe erfolgt am Ende der Pipelines mithilfe der ROPs (Rasterizer Operation Units). Der R580 hat davon 16, der G70 ebenfalls. Der G71 wird 24 ROPs haben, also bei voller Auslastung der Pipelines und bei gleichem Takt mehr Pixel durchjagen können als die anderen beiden Chips.

Ganz entscheidend ist derzeit auch noch die Texelfüllrate. Texel sind die Pixel einer Textur und die Texturierung der Polygone erfolgt in den TMUs (Texture Mapping Units). Davon besitzt der R580 16 Stück, der G70 24 Stück und der G71 satte 32 Stück.
Zukünftig wird aber die Zahl der Pixelshadereinheiten wichtiger werden als die Zahl der TMUs. Der R580 ist also vom Aufbau her (48 Pixelshadereinheiten, 16 ROPs, 16 TMUs) schon eher für sehr shaderlastige Spiele entwickelt worden und braucht hohe Taktraten, um auch in aktuellen Spielen mithalten zu können, während der G70 (24-48 Pixelshadereinheiten, 16 ROPs, 24 TMUs) als Allrounder zu betrachten ist, der aktuell auch mit geringeren Taktraten auskommt, bei sehr shaderlastigen Spielen aber klar den kürzeren zieht (siehe z.B. Fear).
Der G71 wird dieses Manko ausgleichen durch mehr Pipelines und höheren Taktraten. [/b][/quote]
wenn ich das jetz so lese bin ich nun doch einw enig gespannt auf die neue 7900 !!
würde gern mal benches sehen
lohnt es sich wohl zu einer oder zwei 7900 zu greifen, wenn man schon 2 x 7800 gtx im sli hat?
 
Originally posted by Saliva@26.02.06, 02:59
Ich weiss das da zwar kein Geschwindigkeitsunterschied zu 8x AGP ist, aber der Grund würde mich dennoch interessieren. Hat es evtl was mit der Stromversorgung zu tun?
Handelt sich um einen Druckfehler, die GeForce 7800 GS ist voll kompatibel zu AGP 8x.
 

tux-fan

B.J. Blazkowicz
@ FaKeBiTchKiLLaH

ja, BIOS Update ist notwendig, da sonst der FX60 nicht richtig erkannt wird. (Das Board läuft aber trotzdem.) Mit dem Update-Tool auf der Support-CD und dem BIOS 1009 ist aber dann alles OK.
 

FaKe

The Altered
Originally posted by tux-fan@26.02.06, 12:16
@ FaKeBiTchKiLLaH

ja, BIOS Update ist notwendig, da sonst der FX60 nicht richtig erkannt wird. (Das Board läuft aber trotzdem.) Mit dem Update-Tool auf der Support-CD und dem BIOS 1009 ist aber dann alles OK.
also werde ich wohl bei meinem x2 auch bios update machen müssen........
wie genau funzte das mit dem update tool ?



danke schonma :)
 

Diego

Tank
Mal eine kleine Zwischenfrage:

Ich möchte demnächst auf AMD umsteigen, was würdet ihr mir für ein System für 1200 ¤ empfehlen ?

PS: Kommt jetzt bitte nicht mit Sprüchen, dass mein System noch gut ist (ist es ja auch), mein Vater will meinen
Rechner aber unbedingt haben (kann er ja auch :D ) und ich kaufe mir dann 'ne neue Rübe für die paar Euronen.
 

tux-fan

B.J. Blazkowicz
@ FaKeBiTchKiLLaH

so ganz genau kann ich's im Moment nich sagen (müsst ich nachgucken); aber es war in etwa so:

Eine MSDOS Bootdiskette erstellen (ohne das himem Zeugs)
Eine Diskette mit dem Updatetool und dem BIOS File

Mit der MSDOS Diskette booten, dann die Tooldiskette einschieben und Kommando ausführen.
updatetool -iBIOS1009.rom

Fertig

p.s. das -i und der Name der BIOS-Datei ohne Leerzeichen, das Updatetool von der CD auf Diskette kopieren
 
Top