• Aktualisierte Forenregeln

    Eine kleine Änderung hat es im Bereich Forenregeln unter Abschnitt 2 gegeben, wo wir nun explizit darauf verweisen, dass Forenkommentare in unserer Heftrubrik Leserbriefe landen können.

    Forenregeln


    Vielen Dank

R600 mit 512 BIT Speicherinerface!!!

ETWOLF

Spiele-Novize/Novizin
Mitglied seit
01.10.2006
Beiträge
133
Reaktionspunkte
0
Hi , sorry wenn es so einen Thread schon gibt aber ich hätte da mal ne frage:
Ist das wirklich sooooo gut das 512 Bit Speicheninterface??????
Bei der G80 sind ja "nur" 384 Bit da oder so, wenn ich mich nicht täusche. :-D

http://www.pc-erfahrung.de/
 
ETWOLF am 25.10.2006 23:00 schrieb:
Hi , sorry wenn es so einen Thread schon gibt aber ich hätte da mal ne frage:
Ist das wirklich sooooo gut das 512 Bit Speicheninterface??????
Bei der G80 sind ja "nur" 384 Bit da oder so, wenn ich mich nicht täusche. :-D

http://www.pc-erfahrung.de/

boa das ist das ende für den g80 wenn der r600 chip ansich nicht das lezte ist kann nv einpacken


das wurde hier doch aber schon mal gepostet das wenn der r600 ein 512bit interface hat nv dem nicht viel endgegenzusetzen hat und auch nur desshalb die karten jezt schon verkaufen will (muss)

R600 :X :X :X :X :X :X :X :X :X :X :X :X :X :X :X :X :X :X :X :X
 
ETWOLF am 25.10.2006 23:00 schrieb:
Hi , sorry wenn es so einen Thread schon gibt aber ich hätte da mal ne frage:
Ist das wirklich sooooo gut das 512 Bit Speicheninterface??????
Bei der G80 sind ja "nur" 384 Bit da oder so, wenn ich mich nicht täusche. :-D

http://www.pc-erfahrung.de/
Würde bei 512 Bit Speicherinterface und GDDR4-Speicher die doppelte Speicherbandbreite einer x1950xtx bedeuten (64GB/s) der R600 (ca.128GB/s)
Der G80 kommt mit 384Bit bei GDDR3 Speicher auf ca 80GB/s
Hier noch ein Zitat aus CB:
"Um aber den Vergleich zu bisherigen Grafikchips wahren zu können: Die hier und da genannten "8 TCPs" deuten auf 8 Quad-Textureneinheiten hin, welche also pro Takt 32 Pixel texturieren können und damit als Äquivalent zu 32 Rendering-Pipelines angesehen werden können. Aber wie gesagt kann man derzeit über die Rechenkraft des G80-Chips eher nur spekulieren (was beispielsweise auch über die teilweise genannten deutlich vom Referenztakt abweichenden Taktraten der Recheneinheiten gilt, die derzeit einfach noch zu utopisch klingen), exakte Informationen werden wohl noch ein paar Tage brauchen, ehe jene ins Netz fließen - und spätestens Anfang November wird nVidia zum G80-Launch sowieso den Schleier über dem ersten Direct3D10-Chip lüften müssen."

Der R600 soll 64Unifaidshaderpiplines haben bei 128GB/s Speicherbandbreite.
 
Ohne die entsprechend hohen Taktraten wird der GDDR4 RAM nix bringen. Und dazu ist eigentlich noch nix bekannt! Also freut euch nicht zu früh und denkt daran, dass heutige 128bit Grakas schneller als damalige 256bit Grakas sind. ;)
Man sollte sich also nicht zu sehr auf solche Zahlen verlassen...
 
ETWOLF am 25.10.2006 23:00 schrieb:
Hi , sorry wenn es so einen Thread schon gibt aber ich hätte da mal ne frage:
Ist das wirklich sooooo gut das 512 Bit Speicheninterface??????
Bei der G80 sind ja "nur" 384 Bit da oder so, wenn ich mich nicht täusche. :-D

http://www.pc-erfahrung.de/
*ausgrab*


Könnte es möglich sein, dass mit den 512-Bit der Ringbus-Controller gemeint ist? Der wird afaik schon seit seiner Vorstellen als 512-Bit breit angepriesen (bei den High-End-Modellen), obwohl es im Endeffekt nur 256 sind.
 
selbst wenn es ein 512Bit breites Interface ist, ist damit nicht gesagt, dass die rsechshundert wirklich automatisch schneller ist. Die Grafikkarte besteht schließlich aus mehr, als nur ein paar Ramklötzchen.

Ich warte einfach ab, welche von beiden sich in DX10 besser schlägt. Schließlich ist nur diese dann die wirklich bessere. Jetzt schon eine der beiden in den Himmel zu loben wäre albern. Man denke nur an die 5800Ultra. Die war auf dem Papier der 9700pro meilenweit voraus. Trotzdem waren selbst ihre Nachfolger dem Atipendant nie gewachsen. Also Ruhe bewahren.
 
Zubunapy am 26.11.2006 16:03 schrieb:
selbst wenn es ein 512Bit breites Interface ist, ist damit nicht gesagt, dass die rsechshundert wirklich automatisch schneller ist. Die Grafikkarte besteht schließlich aus mehr, als nur ein paar Ramklötzchen.
Naja, wollte einfach mal diesen Gedanken einstreuen, dass ATi auch nur mit Wasser kochen könnte. :-o


Soll deine Sig lustig sein? :confused:
 
Nakir am 26.11.2006 16:12 schrieb:
Zubunapy am 26.11.2006 16:03 schrieb:
selbst wenn es ein 512Bit breites Interface ist, ist damit nicht gesagt, dass die rsechshundert wirklich automatisch schneller ist. Die Grafikkarte besteht schließlich aus mehr, als nur ein paar Ramklötzchen.
Naja, wollte einfach mal diesen Gedanken einstreuen, dass ATi auch nur mit Wasser kochen könnte. :-o


Soll deine Sig lustig sein? :confused:

Nein. Sie soll zum nachdenken anregen.
Heutzuorbit denkt keiner mehr an Kinderkriegen. "Die machen Dreck, krach und sie stinken!"
Aber nen doofen Pudel, der immer stinkt und nie lernt aufs Töpfchen zu gehen, kauft sich jeder Trottel!!!!
 
Zubunapy am 26.11.2006 16:20 schrieb:
Nakir am 26.11.2006 16:12 schrieb:
Zubunapy am 26.11.2006 16:03 schrieb:
selbst wenn es ein 512Bit breites Interface ist, ist damit nicht gesagt, dass die rsechshundert wirklich automatisch schneller ist. Die Grafikkarte besteht schließlich aus mehr, als nur ein paar Ramklötzchen.
Naja, wollte einfach mal diesen Gedanken einstreuen, dass ATi auch nur mit Wasser kochen könnte. :-o


Soll deine Sig lustig sein? :confused:

Nein. Sie soll zum nachdenken anregen.
Heutzuorbit (? :B )denkt keiner mehr an Kinderkriegen. "Die machen Dreck, krach und sie stinken!"
Aber nen doofen Pudel, der immer stinkt und nie lernt aufs Töpfchen zu gehen, kauft sich jeder Trottel!!!!

Weil der weniger Geld kostet, nicht ständig neue Klamotten haben will, man muss sich nicht um seine Zukunft sorgen...

Ich allerdings würde ein Kind einem Hund jederzeit vorziehen, ich kann diese Kläffer nicht leiden. Jeder der Zeitungen oder dergleichen in Einfamilienhausgegenden austrägt wird mir zustimmen können...

@ Topic: Wieso hast du das wieder rausgekramt?
 
Nakir am 26.11.2006 15:43 schrieb:
Könnte es möglich sein, dass mit den 512-Bit der Ringbus-Controller gemeint ist? Der wird afaik schon seit seiner Vorstellen als 512-Bit breit angepriesen (bei den High-End-Modellen), obwohl es im Endeffekt nur 256 sind.

Kann es nicht ;)

Diesmal soll ein "externer" 512Bit Controller aktiv werden.
Problem: Extremer Kostensprung nach oben, bei der Herstellung.
So kann es sein, dass "ATI/AMD" Karten in Zukunft zwar deutlich leistungsfähiger sind, aber auch sehr viel teurer.... Nicht wegen dem Chip alleine, sondern auch wegen dem nötigen Layout der Platine.
 
IXS am 26.11.2006 17:08 schrieb:
Nakir am 26.11.2006 15:43 schrieb:
Könnte es möglich sein, dass mit den 512-Bit der Ringbus-Controller gemeint ist? Der wird afaik schon seit seiner Vorstellen als 512-Bit breit angepriesen (bei den High-End-Modellen), obwohl es im Endeffekt nur 256 sind.

Kann es nicht ;)

Diesmal soll ein "externer" 512Bit Controller aktiv werden.
Problem: Extremer Kostensprung nach oben, bei der Herstellung.
So kann es sein, dass "ATI/AMD" Karten in Zukunft zwar deutlich leistungsfähiger sind, aber auch sehr viel teurer.... Nicht wegen dem Chip alleine, sondern auch wegen dem nötigen Layout der Platine.

naja ob ich nun einen großen chip produziere oder viele kleine ist an und für sich egal, das hat nur den vorteil, dass ich bei low end grakkas wenieger weglasern muss umd die auch entsprechent zu kastireren ;D so muss ich nur n chip weglassen und gut ist....
auch bei der entwicklung ist das einfacher, so muss amd nicht immer komplett neue chips entickeln sondern nur teile...
ich denke, anfangs wie immer teuer und später dann gleich oder billiger
 
maxi2290 am 26.11.2006 17:18 schrieb:
IXS am 26.11.2006 17:08 schrieb:
Nakir am 26.11.2006 15:43 schrieb:
Könnte es möglich sein, dass mit den 512-Bit der Ringbus-Controller gemeint ist? Der wird afaik schon seit seiner Vorstellen als 512-Bit breit angepriesen (bei den High-End-Modellen), obwohl es im Endeffekt nur 256 sind.

Kann es nicht ;)

Diesmal soll ein "externer" 512Bit Controller aktiv werden.
Problem: Extremer Kostensprung nach oben, bei der Herstellung.
So kann es sein, dass "ATI/AMD" Karten in Zukunft zwar deutlich leistungsfähiger sind, aber auch sehr viel teurer.... Nicht wegen dem Chip alleine, sondern auch wegen dem nötigen Layout der Platine.

naja ob ich nun einen großen chip produziere oder viele kleine ist an und für sich egal, das hat nur den vorteil, dass ich bei low end grakkas wenieger weglasern muss umd die auch entsprechent zu kastireren ;D so muss ich nur n chip weglassen und gut ist....
auch bei der entwicklung ist das einfacher, so muss amd nicht immer komplett neue chips entickeln sondern nur teile...
ich denke, anfangs wie immer teuer und später dann gleich oder billiger

Nur dass du dann sehr viel mehr Waver pro Graka benötigst.
Die Daten müssten auf der Karte so erstmal wesentlich längere Wege zurücklegen und die Karte würde auch mehr Strom fressen> noch ineffizienter als ATI Grakas ohnehin schon sind... Außerdem stelle man sich extreme Hitzeentwicklung vor! Nun könnte man wirklich von Heizleiste sprechen... ^^
 
GR-Thunderstorm am 26.11.2006 17:36 schrieb:
maxi2290 am 26.11.2006 17:18 schrieb:
IXS am 26.11.2006 17:08 schrieb:
Nakir am 26.11.2006 15:43 schrieb:
Könnte es möglich sein, dass mit den 512-Bit der Ringbus-Controller gemeint ist? Der wird afaik schon seit seiner Vorstellen als 512-Bit breit angepriesen (bei den High-End-Modellen), obwohl es im Endeffekt nur 256 sind.

Kann es nicht ;)

Diesmal soll ein "externer" 512Bit Controller aktiv werden.
Problem: Extremer Kostensprung nach oben, bei der Herstellung.
So kann es sein, dass "ATI/AMD" Karten in Zukunft zwar deutlich leistungsfähiger sind, aber auch sehr viel teurer.... Nicht wegen dem Chip alleine, sondern auch wegen dem nötigen Layout der Platine.

naja ob ich nun einen großen chip produziere oder viele kleine ist an und für sich egal, das hat nur den vorteil, dass ich bei low end grakkas wenieger weglasern muss umd die auch entsprechent zu kastireren ;D so muss ich nur n chip weglassen und gut ist....
auch bei der entwicklung ist das einfacher, so muss amd nicht immer komplett neue chips entickeln sondern nur teile...
ich denke, anfangs wie immer teuer und später dann gleich oder billiger

Nur dass du dann sehr viel mehr Waver pro Graka benötigst.
Die Daten müssten auf der Karte so erstmal wesentlich längere Wege zurücklegen und die Karte würde auch mehr Strom fressen> noch ineffizienter als ATI Grakas ohnehin schon sind... Außerdem stelle man sich extreme Hitzeentwicklung vor! Nun könnte man wirklich von Heizleiste sprechen... ^^

dann kann ATI ja demnächst einfach n anschluss an die heizung der wohnung mitverkaufen :B stellt euch mal vor:
"mir is klat, ich lass ma eben Aquamark laufen..."
 
Servus,
auch wenns nichts mit Hardware zu tun hat:
Einen Pudel bzw. Hund kann man schneller und "besser" erziehen, als ein
Kind.
Mit den Trotteln hast Du recht, denn leider machen sich viele Leute KEINE Gedanken, bevor sie sich ein Tier kaufen, oder Kind zeugen.
Das ist beides mit viel Arbeit und VERANTWORTUNG verbunden.
mfg
 
GR-Thunderstorm am 26.11.2006 17:36 schrieb:
maxi2290 am 26.11.2006 17:18 schrieb:
IXS am 26.11.2006 17:08 schrieb:
Nakir am 26.11.2006 15:43 schrieb:
Könnte es möglich sein, dass mit den 512-Bit der Ringbus-Controller gemeint ist? Der wird afaik schon seit seiner Vorstellen als 512-Bit breit angepriesen (bei den High-End-Modellen), obwohl es im Endeffekt nur 256 sind.

Kann es nicht ;)

Diesmal soll ein "externer" 512Bit Controller aktiv werden.
Problem: Extremer Kostensprung nach oben, bei der Herstellung.
So kann es sein, dass "ATI/AMD" Karten in Zukunft zwar deutlich leistungsfähiger sind, aber auch sehr viel teurer.... Nicht wegen dem Chip alleine, sondern auch wegen dem nötigen Layout der Platine.

naja ob ich nun einen großen chip produziere oder viele kleine ist an und für sich egal, das hat nur den vorteil, dass ich bei low end grakkas wenieger weglasern muss umd die auch entsprechent zu kastireren ;D so muss ich nur n chip weglassen und gut ist....
auch bei der entwicklung ist das einfacher, so muss amd nicht immer komplett neue chips entickeln sondern nur teile...
ich denke, anfangs wie immer teuer und später dann gleich oder billiger

Nur dass du dann sehr viel mehr Waver pro Graka benötigst.
Die Daten müssten auf der Karte so erstmal wesentlich längere Wege zurücklegen und die Karte würde auch mehr Strom fressen> noch ineffizienter als ATI Grakas ohnehin schon sind... Außerdem stelle man sich extreme Hitzeentwicklung vor! Nun könnte man wirklich von Heizleiste sprechen... ^^
Wie wäe es wenn du diesen Artikel lesen würdest http://www.3dcenter.org/
bevor du irgendwelchen Mist schreibst!
 
Der-Aggro am 27.11.2006 08:53 schrieb:
GR-Thunderstorm am 26.11.2006 17:36 schrieb:
maxi2290 am 26.11.2006 17:18 schrieb:
IXS am 26.11.2006 17:08 schrieb:
Nakir am 26.11.2006 15:43 schrieb:
Könnte es möglich sein, dass mit den 512-Bit der Ringbus-Controller gemeint ist? Der wird afaik schon seit seiner Vorstellen als 512-Bit breit angepriesen (bei den High-End-Modellen), obwohl es im Endeffekt nur 256 sind.

Kann es nicht ;)

Diesmal soll ein "externer" 512Bit Controller aktiv werden.
Problem: Extremer Kostensprung nach oben, bei der Herstellung.
So kann es sein, dass "ATI/AMD" Karten in Zukunft zwar deutlich leistungsfähiger sind, aber auch sehr viel teurer.... Nicht wegen dem Chip alleine, sondern auch wegen dem nötigen Layout der Platine.

naja ob ich nun einen großen chip produziere oder viele kleine ist an und für sich egal, das hat nur den vorteil, dass ich bei low end grakkas wenieger weglasern muss umd die auch entsprechent zu kastireren ;D so muss ich nur n chip weglassen und gut ist....
auch bei der entwicklung ist das einfacher, so muss amd nicht immer komplett neue chips entickeln sondern nur teile...
ich denke, anfangs wie immer teuer und später dann gleich oder billiger

Nur dass du dann sehr viel mehr Waver pro Graka benötigst.
Die Daten müssten auf der Karte so erstmal wesentlich längere Wege zurücklegen und die Karte würde auch mehr Strom fressen> noch ineffizienter als ATI Grakas ohnehin schon sind... Außerdem stelle man sich extreme Hitzeentwicklung vor! Nun könnte man wirklich von Heizleiste sprechen... ^^

dann kann ATI ja demnächst einfach n anschluss an die heizung der wohnung mitverkaufen :B stellt euch mal vor:
"mir is klat, ich lass ma eben Aquamark laufen..."

Hast du die Geforce FX 5800, FX 5800 Ultra und 6600 GT vergessen. Diese sind durch die Hitze immer ausgefallen. neuerdings auch die 7900 GT.

Zum Glück ist meine Karte vom anderen Hersteller.
 
UrmelMT am 27.11.2006 11:24 schrieb:
Wie wäe es wenn du diesen Artikel lesen würdest http://www.3dcenter.org/
bevor du irgendwelchen Mist schreibst!
nun, da geht's aber nicht mehr um den R600 sondern bereits um den R700.
 
HanFred am 27.11.2006 12:21 schrieb:
UrmelMT am 27.11.2006 11:24 schrieb:
Wie wäe es wenn du diesen Artikel lesen würdest http://www.3dcenter.org/
bevor du irgendwelchen Mist schreibst!
nun, da geht's aber nicht mehr um den R600 sondern bereits um den R700.
Nur wurde vom eigentlichen Thema abgewichen und man streitet sich schon über spezifikationen des R700. Verfolge den Thread mal bitte genau!!
Für mich sind der G80 und der R600 die letzten Singlecorechips.
 
jediknight1 am 27.11.2006 11:42 schrieb:
Hast du die Geforce FX 5800, FX 5800 Ultra und 6600 GT vergessen. Diese sind durch die Hitze immer ausgefallen. neuerdings auch die 7900 GT.

Zum Glück ist meine Karte vom anderen Hersteller.

Ich habe irgendwann aufgehört zu zählen, wieviele 9700/9800 Pro Karten in meinem Bekanntenkreis wärend diverser LAN Parties aufgrund von Hitzeproblemen mit Grafikfehlern abgeschmiert sind. Bei der 6600GT kann ich das auch bestätigen. Bei der 5800 und 7900GT aber überhaupt nicht.

Was meinst du dann mit anderem Hersteller? XGI? S3? :-D
 
Zurück