• Aktualisierte Forenregeln

    Eine kleine Änderung hat es im Bereich Forenregeln unter Abschnitt 2 gegeben, wo wir nun explizit darauf verweisen, dass Forenkommentare in unserer Heftrubrik Leserbriefe landen können.

    Forenregeln


    Vielen Dank

Erste angebliche Daten zum G92 - Geforce 9 durchgesickert *8800 Ultra wegschmeiss*

grossesmannes

Spiele-Novize/Novizin
Mitglied seit
02.06.2007
Beiträge
176
Reaktionspunkte
0
Im 4. Quartal diesen Jahres sollen erste Grafikkarten mit dem neuen G92 Chip veröffentlicht werden.
Und zwar um genau zu sein im November in Form der 9800 Serie.

Laut X-bit labs sind für die 9800GTX folgende Spezifikationen zu erwarten:

- 65nm process technology at TSMC.
- Over one billion transistors.
- Second Generation Unified Shader Architecture.
- Double precsion support (FP64).
- GPGPU native.
- Over one TeraFLOPS of shader processing power.
- MADD+ADD configuration for the shader untis (2+1 FLOPS=3 FLOPS per ALU)
- Fully Scalar design.
- 512-bit memory interface.
- 1024MB GDDR4 graphics memory.
- DirectX 10.1 support.
- OpenGL 3.0 Support.
- eDRAM die for "FREE 4xAA".
- built in Audio Chip.
- built in tesselation unit (in the graphics core"
- Improved AA and AF quality levels

Interessant scheint der integrierte Audio chip.
Soundkarten werden sowieso bald überflüssig, besonders mit Vista.


Der Strombedarf soll durch 65nm Technologie nochmals niedriger sein als bei der 8800 Serie.

=)

Zudem soll die 9800GTX mehr als doppelt so schnell sein, als eine 8800 ULTRA.
Viele Kritiker zweifeln das jedoch stark an.


Die beiden HighEnd Modelle sollen mit diesem Preis an den Start gehen:

GeForce 9800 GTX = 549-649 USD.
GeForce 9800 GTS = 399-449 USD.

Auf das hier ist jemand gestossen, der Websiten vermutlich zu genau durchforstet: http://www.computerbase.de/forum/attachment.php?attachmentid=72333&d=1185651801


Fazit von GrossesMannes:

Wenn das stimmt kann ich meine 8800 GTS gleich in die Tonne kloppen :$

Fragt sich nur welches Spiel braucht das??? :confused:
Warscheinlich sind die nur für nen ordentlich laufenden 3D MArk 07 gut.
Würde mich nicht wundern wenn ein 8800 Ultra beim 3D Mark 07 nur ruckelige Frames liefern würde :B

Das mit "mehr als doppelt so schnell wie 8800 Ultra"
finde ich garnicht so abwegig. War ja zwischen Geforce 6 und 7 auch so ;)
 
grossesmannes am 29.07.2007 13:15 schrieb:
- 65nm process technology at TSMC.
- Over one billion transistors.
- Second Generation Unified Shader Architecture.
- Double precsion support (FP64).
- GPGPU native.
- Over one TeraFLOPS of shader processing power.
- MADD+ADD configuration for the shader untis (2+1 FLOPS=3 FLOPS per ALU)
- Fully Scalar design.
- 512-bit memory interface.
- 1024MB GDDR4 graphics memory.
- DirectX 10.1 support.
- OpenGL 3.0 Support.
- eDRAM die for "FREE 4xAA".
- built in Audio Chip.
- built in tesselation unit (in the graphics core"
- Improved AA and AF quality levels
Sieht nach einem Mittelweg aus neuer Generation und Redsign aus. Z.T. gehen die Veränderungen schon recht weit, aber eine komplett neue Architektur ist es ja dann auch nicht.
Obs das 512-Bit Speicherinterface wirklich bringt weiß ich nicht, aber hab so den Eindruck, dass die 384(?) des G80 schon ordentlich genug Bandbreite liefern. Der eDram ist interessant.
 
Harlekin am 29.07.2007 13:28 schrieb:
grossesmannes am 29.07.2007 13:15 schrieb:
- 65nm process technology at TSMC.
- Over one billion transistors.
- Second Generation Unified Shader Architecture.
- Double precsion support (FP64).
- GPGPU native.
- Over one TeraFLOPS of shader processing power.
- MADD+ADD configuration for the shader untis (2+1 FLOPS=3 FLOPS per ALU)
- Fully Scalar design.
- 512-bit memory interface.
- 1024MB GDDR4 graphics memory.
- DirectX 10.1 support.
- OpenGL 3.0 Support.
- eDRAM die for "FREE 4xAA".
- built in Audio Chip.
- built in tesselation unit (in the graphics core"
- Improved AA and AF quality levels
Sieht nach einem Mittelweg aus neuer Generation und Redsign aus. Z.T. gehen die Veränderungen schon recht weit, aber eine komplett neue Architektur ist es ja dann auch nicht.
Obs das 512-Bit Speicherinterface wirklich bringt weiß ich nicht, aber hab so den Eindruck, dass die 384(?) des G80 schon ordentlich genug Bandbreite liefern. Der eDram ist interessant.

Ich denke schon dass es eine weitgehend neue Archictektur sein wird
"Second Generation Unified Shader Architecture."
"built in tesselation" "Fully Scalar design"
klingt schon sehr danach. Ausserdem ist der g80 ja schon eine ganze Weile auf dem Markt, also "wirds ja auch Zeit" :B
Asserdem wie würde es aussehen, wenn der Geforce 9 eine kleiner Speicherbandbreite hätte als der r600 :B Ich denke sogar, der g92 wird die 512Mbit dringend benötigen, damit nix gebremst wird.

Zuerst hieß es ja, es würde ein mittelklasse chip werden.
Wie z.b. hier auf CB berichtet wurde oder hier: http://www.hardware-infos.com/news.php?news=1149

Mittlerweile soll ja schon fast feststehen, dass es ein highend Chip wird:
http://www.hardware-infos.com/news.php?news=1237
http://de.theinquirer.net/2007/05/24..._teraflop.html
http://www.xbitlabs.com/discussion/3953.html
 
Der eDram und das rechnen mit doppelter Präzision(FP64 statt der für DX10.1 nötigen FP32) hören sich sehr interessant an, der Rest ist eigentlich selbstverständlich.
Beim Audio Chip und der "tesselation unit" gleicht man ja gerade mal den Rückstand zu ATI aus(ich spreche von einem Feature und nicht von einem Leistungsrückstand!).
Wie stark der Chip im Endeffekt wirklich ist wird sich erst zeigen müssen.
 
grossesmannes am 29.07.2007 13:35 schrieb:
Ich denke schon dass es eine weitgehend neue Archictektur sein wird
"Second Generation Unified Shader Architecture."
"built in tesselation" "Fully Scalar design"
Das trifft zu 100% auf ATIs R600 zu :finger: .
Trotzdem ist der G80 stärker...

Natürlich ist es die zweite Generation und es würde mich auch wundern wenn man plötzlich wieder vom skalaren System abweicht. die Tesselation Unit ist(so weit ich das von Die-Diagrammen des R600 im Kopf habe) eine komplett eigenständige Einheit die sich relativ problemlos integrieren lassen sollte.
 
olstyle am 29.07.2007 13:47 schrieb:
Wie stark der Chip im Endeffekt wirklich ist wird sich erst zeigen müssen.

Also seit der Geforce 6 hatt Nvidia immer für offene Münder bei realese des Grafikchips gesorgt. Die Leistung der Geforce 6 hatt umgehauen, die Leistung der Geforce 7 hatt umgehauen, die Leistung der Geforce 8 hatt umgehauen, die Leistung der Geforce 9 haut um..
Ist aber kein Wunder, wenn Nvidia den NextGen Grafikkarten immer als ersters rausbringt. Würde ATI den r700 zuerst rausbringen, dann würde der g92 niemand umhauen und umgekehrt.


Aber stellt auch mal 2 9800 GTX im SLI Modus vor :S
Einfach pervers, was für eine CPU bracuht mann da um alles auszuschöpfen :B
 
grossesmannes am 29.07.2007 14:35 schrieb:
olstyle am 29.07.2007 13:47 schrieb:
Wie stark der Chip im Endeffekt wirklich ist wird sich erst zeigen müssen.

Also seit der Geforce 6 hatt Nvidia immer für offene Münder bei realese des Grafikchips gesorgt. Die Leistung der Geforce 6 hatt umgehauen, die Leistung der Geforce 7 hatt umgehauen, die Leistung der Geforce 8 hatt umgehauen, die Leistung der Geforce 9 haut um..
Ist aber kein Wunder, wenn Nvidia den NextGen Grafikkarten immer als ersters rausbringt. Würde ATI den r700 zuerst rausbringen, dann würde der g92 niemand umhauen und umgekehrt.


Aber stellt auch mal 2 9800 GTX im SLI Modus vor :S
Einfach pervers, was für eine CPU bracuht mann da um alles auszuschöpfen :B


ja würde ja passen nächstes jahr mit den penryn quad cores..

denke mal diese sys leistung wird aber erst ein neues ID game fordern denke für crysis reicht noch ne 8800 und nen dualcore^^
 
*sabber*.....ehm sorry.
Wird ja dann wohl wieder ein Hammerteil, hoffentlich verbaut aber Nvidia auch gute Kühler, denn das war ja bei High End Grakas immer so ne Sache, auch wenns eher nur bei ATI so is.

Ich würde mich aber lieber über eine Mid Range Karte freuen, denn zwischen der 8600GTS und 8800GTS 320 liegt ja doch schon einiges. Sozusagen ein Konkurrent gegen ATI's beliebte X1950Pro und XT. Die auf dem Preissegment platzierte 8600er Reihe kann man wirklich vergessen.
Und kommt schon Leute, wer hat hier schon das Geld für so ne Karte übrig, die nach 1/2 Jahr eh schon wieder zum alten Eisen gehört und 50% Wertverfall hat. Am meisten Geld bringt halt doch die Mittelklasse, da sollte Nvidia drauf bauen.
 
Wieso nicht gleich 55nm wie ATIs zukünftiger Chip?
 
olstyle am 29.07.2007 13:52 schrieb:
29.07.200713:35]
Trotzdem ist der G80 stärker...

Das würde nicht sagen, die 2900XT it das Gegenstück zur 8800 Gts und zum jetzigen Zeitpunkt in so gut wie jedem Spiel schneller als ne 8800 Gts.

In den Meisten Spielen überholt sie jetzt auch ne 8800 GTX und of auch ne Ultra.
Naja, über die Bildquali lässt sich streiten...
 
grossesmannes am 29.07.2007 17:23 schrieb:
olstyle am 29.07.2007 13:52 schrieb:
29.07.200713:35]
Trotzdem ist der G80 stärker...

Das würde nicht sagen, die 2900XT it das Gegenstück zur 8800 Gts und zum jetzigen Zeitpunkt in so gut wie jedem Spiel schneller als ne 8800 Gts.

In den Meisten Spielen überholt sie jetzt auch ne 8800 GTX und of auch ne Ultra.
Naja, über die Bildquali lässt sich streiten...
Ich rede hier von einem puren Chipvergleich zwischen R600 und G80 also ungeachtet des Preises.
Ein unbeschnittener G80 am Limit (also 8800Utra) ist nunmal trotz etwas schlechterem Featureset stärker als ein R600 unter gleichen Bedingungen(also 2900XT 1gb).

Dass die 2900XT preislich in der Nähe der 8800GTS liegt und diese schlagen kann und es oft auch tut bestreite ich garnicht. Nicht umsonst habe ich mir ja selbst eine 2900XT zugelegt ;) .
 
grossesmannes am 29.07.2007 18:00 schrieb:
Naja, aber vorher klopp ich meinen Uralt Prozzi in die Tonne ;(
:B :hop: ich hab noch nen XP 2600+ Barton !! :B und du meckerst hier über deinen X2... :rolleyes:
hoffe mal das war auch ironie...
 
DoktorX am 29.07.2007 20:11 schrieb:
grossesmannes am 29.07.2007 18:00 schrieb:
Naja, aber vorher klopp ich meinen Uralt Prozzi in die Tonne ;(
:B :hop: ich hab noch nen XP 2600+ Barton !! :B und du meckerst hier über deinen X2... :rolleyes:
hoffe mal das war auch ironie...

Auf so ein Post hab ich gewartet :rolleyes:
Es muss noch gesagt werden, dass mein uralt-Prozi selbst meine 8800 GTS enorm ausbremst :hop: ;( Nur 77xx 3D Marks beim 06er sagen alles. Auch in der Praxis, also bei Spielen das gleiche Bild.
 
grossesmannes am 29.07.2007 22:32 schrieb:
Auf so ein Post hab ich gewartet :rolleyes: .
Warum? Weil du genau solche Posts mit deiner Formulierung provozieren wolltest?

Oder war das doch ironie? Ach kacke, ich geh glaub ich besser pennen... -.-
 
das mit dem
eDRAM die for "FREE 4xAA".
hat Ati aber verpennt.
Ich hab mich schon beim release des r600 gefragt warum sie den eDRAM nicht eingebaut haben, zumal sie ihn schon bei der xbox360 verwendeten.
 
Harlekin am 29.07.2007 22:53 schrieb:
grossesmannes am 29.07.2007 22:32 schrieb:
Auf so ein Post hab ich gewartet :rolleyes: .
Warum? Weil du genau solche Posts mit deiner Formulierung provozieren wolltest?

Oder war das doch ironie? Ach kacke, ich geh glaub ich besser pennen... -.-
Vermutlich versucht er nur ein bischen anzugeben, dass er es sich leisten kann, so über ein mittellklassen Prozessor zu reden. Dazu würde auch die äusserung "oh nein es gibt was schnelleres als meine 8800gts, ich brauch das" passen.
Du jammerst hier auf sehr hohen niveau, oder gibt es irgendein spiel das du nicht gut spielen kannst?

ps. sry für Offtopic
 
so will hier nich jammern hab keine problem mit irgendwelchen games. aber mir is das auch schon aufgefallen mein x2 4800+ bremst meine karte auch sehr stark aus
 
Zurück