• Aktualisierte Forenregeln

    Eine kleine Änderung hat es im Bereich Forenregeln unter Abschnitt 2 gegeben, wo wir nun explizit darauf verweisen, dass Forenkommentare in unserer Heftrubrik Leserbriefe landen können.

    Forenregeln


    Vielen Dank

Wan kommt die R600?

Rabowke am 15.03.2007 12:54 schrieb:
jediknight1 am 15.03.2007 12:51 schrieb:
Bei der Cebit soll die R600 gezeigt werden.

http://winfuture.de/news,30644.html
Soll ist aber nicht wird,

'Eiertanz um AMDs Grafikprozessor R600 auf der CeBIT' auf Golem.de


Ich kaufe mir grundsätzlich auch immer die schnelleren Karten, da dies aber meiner Meinung nach bei der älteren 9xxx radeon reihe zu 5xxx gf der fall war wie jetzt bei gf 70 (nich die g80) gegenüber r580, ich mein 7900gt war der x1900xt eigentlich immer unterlegen und wurde bis ende 2006 fast mit dem gleichen Preis gehandelt, vor allem sind /waren die nvidia karten eigentlich immer unter aa/af langsamer als ati, das nvidia früher die besseren karten bringt verschafft Ihnen jedoch wieder einen Vorteil. Doch auch dann ist ATI (AMD) meist besser. Die Gf 6 Generation war eine Ausnahme, bis auf die noch spät nachgereichte x850xt, die zwar kein sahder 3.0 beherrschte aber dafür eine 6800ultra topte. Bei den meisten Grafikkarten dieser Generationen passt das P-L Verhältnis im Verhältnis zu AA/AF auf SEiten ATI meist besser, allerdings refreshte Nvidia dann früher eine bessere Karte oder brachte gleich eine neue Generation raus oder verringerte die Preise. Dennoch hab ich bei der g70/580 lieber zur ATI gegriffen (für 240-250 euro im september, gabs für 270eur eine 7950gt ? oder 7900gto ich weiß es nimmer auf jeden fall sind beide in den meisten benchmarks trotzdem (mit aa/af ) knapp unterlegen gewesen. Wobei auch hier eine Nvidia kein Fehlkauf gewesen wäre. Jetzt ists schon bisschen her, das es die g80 gibt und wenn man sich bisschnen umsieht gibts die 8800gts 320mb schon für 250 Euro (oder mehr, weniger?!), meist aber um die 300, eine x1950xtx die der 8800gts ja eigentlich fast das wasser reichen kann (r580 topmodell) kostet mindestens genau so viel.
Die R600 wird schon um ne Stange schneller sein, aber warten wir die refreshte g80 ab, dann wirds wieder ein heißer Kampf, nur wie lange? Bis dorthin könnte bereits der g90 anstehen , doch bis dahin könnte ATI wieder knapp vorne liegen in Sachen Preis/Leistung Verhältnis. Kann sein, muss nicht...
 
Mahni am 15.03.2007 23:31 schrieb:
Rabowke am 15.03.2007 12:54 schrieb:
jediknight1 am 15.03.2007 12:51 schrieb:
Bei der Cebit soll die R600 gezeigt werden.

http://winfuture.de/news,30644.html
Soll ist aber nicht wird,

'Eiertanz um AMDs Grafikprozessor R600 auf der CeBIT' auf Golem.de


Ich kaufe mir grundsätzlich auch immer die schnelleren Karten, da dies aber meiner Meinung nach bei der älteren 9xxx radeon reihe zu 5xxx gf der fall war wie jetzt bei gf 70 (nich die g80) gegenüber r580, ich mein 7900gt war der x1900xt eigentlich immer unterlegen und wurde bis ende 2006 fast mit dem gleichen Preis gehandelt, vor allem sind /waren die nvidia karten eigentlich immer unter aa/af langsamer als ati, das nvidia früher die besseren karten bringt verschafft Ihnen jedoch wieder einen Vorteil. Doch auch dann ist ATI (AMD) meist besser. Die Gf 6 Generation war eine Ausnahme, bis auf die noch spät nachgereichte x850xt, die zwar kein sahder 3.0 beherrschte aber dafür eine 6800ultra topte. Bei den meisten Grafikkarten dieser Generationen passt das P-L Verhältnis im Verhältnis zu AA/AF auf SEiten ATI meist besser, allerdings refreshte Nvidia dann früher eine bessere Karte oder brachte gleich eine neue Generation raus oder verringerte die Preise. Dennoch hab ich bei der g70/580 lieber zur ATI gegriffen (für 240-250 euro im september, gabs für 270eur eine 7950gt ? oder 7900gto ich weiß es nimmer auf jeden fall sind beide in den meisten benchmarks trotzdem (mit aa/af ) knapp unterlegen gewesen. Wobei auch hier eine Nvidia kein Fehlkauf gewesen wäre. Jetzt ists schon bisschen her, das es die g80 gibt und wenn man sich bisschnen umsieht gibts die 8800gts 320mb schon für 250 Euro (oder mehr, weniger?!), meist aber um die 300, eine x1950xtx die der 8800gts ja eigentlich fast das wasser reichen kann (r580 topmodell) kostet mindestens genau so viel.
Die R600 wird schon um ne Stange schneller sein, aber warten wir die refreshte g80 ab, dann wirds wieder ein heißer Kampf, nur wie lange? Bis dorthin könnte bereits der g90 anstehen , doch bis dahin könnte ATI wieder knapp vorne liegen in Sachen Preis/Leistung Verhältnis. Kann sein, muss nicht...

Ich schätze, das wird nicht anders werden als bei der letzten Generation. ATI refresht solange bis man wieder vorn liegt und vergisst total die Entwicklung der nächsten Generation. Vermutlich hat NV schon mit der Entwicklung des G80 begonnen, nachdem man alle Marktsegmente bedient hat (Office, Midrange, Highrange) während ATI die alten Karten immer und immer wieder refresht hat um Nvidias Karten zu toppen.
Jetzt bekommen die die Quittung für ihre verkackte Firmenpolitik, weil man einfach viel zu spät mit der Entwicklung des R600 begonnen hat, als NV anscheinend schon halb fertig war.
 
GR-Thunderstorm am 16.03.2007 09:00 schrieb:
Mahni am 15.03.2007 23:31 schrieb:
Rabowke am 15.03.2007 12:54 schrieb:
jediknight1 am 15.03.2007 12:51 schrieb:
Bei der Cebit soll die R600 gezeigt werden.

http://winfuture.de/news,30644.html
Soll ist aber nicht wird,

'Eiertanz um AMDs Grafikprozessor R600 auf der CeBIT' auf Golem.de

Ich schätze, das wird nicht anders werden als bei der letzten Generation. ATI refresht solange bis man wieder vorn liegt und vergisst total die Entwicklung der nächsten Generation. Vermutlich hat NV schon mit der Entwicklung des G80 begonnen, nachdem man alle Marktsegmente bedient hat (Office, Midrange, Highrange) während ATI die alten Karten immer und immer wieder refresht hat um Nvidias Karten zu toppen.
Jetzt bekommen die die Quittung für ihre verkackte Firmenpolitik, weil man einfach viel zu spät mit der Entwicklung des R600 begonnen hat, als NV anscheinend schon halb fertig war.
Es könnte aber auch noch andere Gründe haben und wenn das stimmt
wird es interessant. Der R600 der im Mai in Massenproduktion geht und zu kaufen ist. Wird in 65nm hergestellt und nicht in 80nm. Das bedeutet weniger
Stromverbrauch und höherer Takt und größere Wirtschaftlichkeit, könnte sein
das die Verschiebung doch was gutes für sich hat.
 
UrmelMT am 16.03.2007 22:59 schrieb:
GR-Thunderstorm am 16.03.2007 09:00 schrieb:
Mahni am 15.03.2007 23:31 schrieb:
Rabowke am 15.03.2007 12:54 schrieb:
jediknight1 am 15.03.2007 12:51 schrieb:
Bei der Cebit soll die R600 gezeigt werden.

http://winfuture.de/news,30644.html
Soll ist aber nicht wird,

'Eiertanz um AMDs Grafikprozessor R600 auf der CeBIT' auf Golem.de

Ich schätze, das wird nicht anders werden als bei der letzten Generation. ATI refresht solange bis man wieder vorn liegt und vergisst total die Entwicklung der nächsten Generation. Vermutlich hat NV schon mit der Entwicklung des G80 begonnen, nachdem man alle Marktsegmente bedient hat (Office, Midrange, Highrange) während ATI die alten Karten immer und immer wieder refresht hat um Nvidias Karten zu toppen.
Jetzt bekommen die die Quittung für ihre verkackte Firmenpolitik, weil man einfach viel zu spät mit der Entwicklung des R600 begonnen hat, als NV anscheinend schon halb fertig war.
Es könnte aber auch noch andere Gründe haben und wenn das stimmt
wird es interessant. Der R600 der im Mai in Massenproduktion geht und zu kaufen ist. Wird in 65nm hergestellt und nicht in 80nm. Das bedeutet weniger
Stromverbrauch und höherer Takt und größere Wirtschaftlichkeit, könnte sein
das die Verschiebung doch was gutes für sich hat.

naja wirtschaftlichkeit kannst du bei 65nm wieder streichen - da is die chipausbeute wieder geringer
 
Es ist heute aus mehreren Quellen bestätigt worden, dass alle chips der r600 in 0.65 nano gefertigt wird unter andem hier zu lesen:

http://de.theinquirer.net/2007/03/16/cebit_alle_r6xxchips_von_ati_g.html

Möglicherweise wird auch die Die-Größe verkleinert wodurch auf einem Waver mehrere Chips hergestellt werden können. Das kann auch zu kleineren Preisen führen.

1/3 weniger strom,verbrauch, bis zu 1 Ghz Gpu Takt und eventuell günstiger, da hatt Nvida mit g80 wohl keine gute Karten mehr :-D

Naja, whr jetzt schon (noch) 80 nm Grakas kauft ist selbst Schuld, ich persnlich warte auf den g90 ;)
 
gothic3mezger am 17.03.2007 17:49 schrieb:
Es ist heute aus mehreren Quellen bestätigt worden, dass alle chips der r600 in 0.65 nano gefertigt wird unter andem hier zu lesen:

http://de.theinquirer.net/2007/03/16/cebit_alle_r6xxchips_von_ati_g.html

Möglicherweise wird auch die Die-Größe verkleinert wodurch auf einem Waver mehrere Chips hergestellt werden können. Das kann auch zu kleineren Preisen führen.

1/3 weniger strom,verbrauch, bis zu 1 Ghz Gpu Takt und eventuell günstiger, da hatt Nvida mit g80 wohl keine gute Karten mehr :-D

Naja, whr jetzt schon (noch) 80 nm Grakas kauft ist selbst Schuld, ich persnlich warte auf den g90 ;)
Also das mit den 65nm scheint immer mehr realität zu werden. Mal schauen was der R600 noch an so unerwarteten Dingen mit sich bringt. http://uk.theinquirer.net/?article=38300
 
gothic3mezger am 17.03.2007 17:49 schrieb:
1/3 weniger strom,verbrauch, bis zu 1 Ghz Gpu Takt und eventuell günstiger, da hatt Nvida mit g80 wohl keine gute Karten mehr :-D
Extrem unwahrscheinlich, dass die Ausbeute am Anfang schon sehr groß sein wird bei 65nm. TSMC hat wohl noch keine große Erfahrung mit dem Herstellungsverfahren. Und das gleich bei so einem komplexen Chip...
Zumal afaik das meiste der Chipfläche bei Grafik-Chips für Recheneinheiten drauf geht. Bei CPUs hauptsächlich für Cache. Und Cache-Lines lassen sich leichter deaktivieren, bzw. sind extra in höherer Anzahl vorhanden, als es nötig wäre, um die Ausbeute zu steigern. Glaube nicht, dass Recheneinheiten so einfach ist.
Deswegen ist die Gefahr eines unbrauchbaren Chips bei Grakas bei gleicher Chip-Fläche im Vergleich zu CPUs höher.
 
Harlekin am 17.03.2007 20:48 schrieb:
gothic3mezger am 17.03.2007 17:49 schrieb:
1/3 weniger strom,verbrauch, bis zu 1 Ghz Gpu Takt und eventuell günstiger, da hatt Nvida mit g80 wohl keine gute Karten mehr :-D
Extrem unwahrscheinlich, dass die Ausbeute am Anfang schon sehr groß sein wird bei 65nm. TSMC hat wohl noch keine große Erfahrung mit dem Herstellungsverfahren. Und das gleich bei so einem komplexen Chip...
Zumal afaik das meiste der Chipfläche bei Grafik-Chips für Recheneinheiten drauf geht. Bei CPUs hauptsächlich für Cache. Und Cache-Lines lassen sich leichter deaktivieren, bzw. sind extra in höherer Anzahl vorhanden, als es nötig wäre, um die Ausbeute zu steigern. Glaube nicht, dass Recheneinheiten so einfach ist.
Deswegen ist die Gefahr eines unbrauchbaren Chips bei Grakas bei gleicher Chip-Fläche im Vergleich zu CPUs höher.
Aber ATI/AMD blieb wohl keine andere Wahl als die 65nm um zu verhindern ein
270Watt fressendes Monster in die Welt zu setzen. So kann man davon ausgehen das der R600 ca 160Watt brauchen wird bei einen Takt zwischen 800 und 900 MHz.
 
UrmelMT am 17.03.2007 21:07 schrieb:
Aber ATI/AMD blieb wohl keine andere Wahl als die 65nm um zu verhindern ein
270Watt fressendes Monster in die Welt zu setzen. So kann man davon ausgehen das der R600 ca 160Watt brauchen wird bei einen Takt zwischen 800 und 900 MHz.
Nur die Frage, ob das den Stromverbrauch auch wirklich senkt. Nicht das ich schwarzmalen mag, aber Intel hat es z.B. geschafft, die Verlustleistung durch einen kleineren Fertigungsprozess zu erhöhen. Aber ich denke mal, dass AMD sich nicht darauf einlässt, wenn es nichts bringt.
Wäre auf jedenfall wünschenswert, wenn die Karte weniger Verbrauchen würde.
 
Schon in naher Zukunft werden sowohl Nvidia als auch Ati gezwungen sein, auf immer kleiner Fertigungstechnologien zuzugreifen, sonst endet das noch alles in einem Stromverbrauch-Wahnsinn :B Vor einiger Zeit hies es ja noch, das Spizenmodell des r600 hatt ein eigenes Nezteil :B

Leute kaufen 1000 Watt Netzteile, nur um eine möglichst hohe 3D Mark Score zu erzielen, wo soll das noch hinführen? Für mich sind diese Leute Krank, auch solche die 500 Euros und mehr für ne Graka ausgeben - wo wir doch am PC im Endeffekt keine entsprechenden Spiele haben.

Für ne 8880 GTX kreigt mann fast 2 XBox 360, die Konsole, die Shader 4.0 schon seit geraumer Zeit beherrscht und mit Spizentitel wie Gears of Wars aufwarten kann. Während PC User auf ihrer teuren Graka sitzen und den 3d Mark score bewundern, aber kein gescheites Spiel haben, dann 16 Fach AA und AF aktiviern und die Graka ob der unausgereiftheit schon baldigst abraucht.
 
gothic3mezger am 18.03.2007 00:15 schrieb:
Schon in naher Zukunft werden sowohl Nvidia als auch Ati gezwungen sein, auf immer kleiner Fertigungstechnologien zuzugreifen, sonst endet das noch alles in einem Stromverbrauch-Wahnsinn :B Vor einiger Zeit hies es ja noch, das Spizenmodell des r600 hatt ein eigenes Nezteil :B

Leute kaufen 1000 Watt Netzteile, nur um eine möglichst hohe 3D Mark Score zu erzielen, wo soll das noch hinführen? Für mich sind diese Leute Krank, auch solche die 500 Euros und mehr für ne Graka ausgeben - wo wir doch am PC im Endeffekt keine entsprechenden Spiele haben.

Für ne 8880 GTX kreigt mann fast 2 XBox 360, die Konsole, die Shader 4.0 schon seit geraumer Zeit beherrscht und mit Spizentitel wie Gears of Wars aufwarten kann. Während PC User auf ihrer teuren Graka sitzen und den 3d Mark score bewundern, aber kein gescheites Spiel haben, dann 16 Fach AA und AF aktiviern und die Graka ob der unausgereiftheit schon baldigst abraucht.

Ich denke, man kann PCs kaum mit Konsolen vergleichen.
Beide haben ihre Vorzüge.

Übrigens verkaufen sowohl MS als auch Sony ihre Konsolen ohne jeglichen Gewinn, da die Produktionskosten weit über den Verkaufspreisen liegen sollen.
Der eigentliche Gewinn soll dann durch Spiele erwirtschaftet werden.
 
moin erstmal
also zu der Frage wie groß der R600 werden soll hab ich hier mal was gefunden http://www.computerbase.de/news/hardware/grafikkarten/ati/2007/januar/samples_atis_r600_28_februar/
und was das release date angeht ist das wie bereits gesagt ins 2. Quartal verschoben worden.
Naja ich denke ich werde eh so schnell kein geld haben mir nen neuen pc zuzulegen... :( kommt schenkt mir alle geld dann kaufe ich mir nen neuen pc mit ner x2900xtx :P
achja nochwas von Nvidia ist eine 8800Ultra in Entwicklung ( http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2007/maerz/nvidia_geforce_8800_ultra/
) finde ich interessant... vielleicht wollte man ja an die 6er reihe anknüpfen und mit einer "Ultra"-Karte wiedermals die Performancekrone zurückschnappen wenn ati(amd) seinen r600 draußen hat
 
GreenSnake am 18.03.2007 08:03 schrieb:
moin erstmal
also zu der Frage wie groß der R600 werden soll hab ich hier mal was gefunden http://www.computerbase.de/news/hardware/grafikkarten/ati/2007/januar/samples_atis_r600_28_februar/
und was das release date angeht ist das wie bereits gesagt ins 2. Quartal verschoben worden.
Naja ich denke ich werde eh so schnell kein geld haben mir nen neuen pc zuzulegen... :( kommt schenkt mir alle geld dann kaufe ich mir nen neuen pc mit ner x2900xtx :P
achja nochwas von Nvidia ist eine 8800Ultra in Entwicklung ( http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2007/maerz/nvidia_geforce_8800_ultra/
) finde ich interessant... vielleicht wollte man ja an die 6er reihe anknüpfen und mit einer "Ultra"-Karte wiedermals die Performancekrone zurückschnappen wenn ati(amd) seinen r600 draußen hat
Es könnte sein das NV gemeint hat ATI bringt den R600 in 80nm und nicht in 65nm, somit dürfte es NV bei einer 90nm gefertigten Ultra schwer fallen die Performenskrone zu holen.
 
Zurück