• Aktualisierte Forenregeln

    Eine kleine Änderung hat es im Bereich Forenregeln unter Abschnitt 2 gegeben, wo wir nun explizit darauf verweisen, dass Forenkommentare in unserer Heftrubrik Leserbriefe landen können.

    Forenregeln


    Vielen Dank

Stromverbrauch diverser Karten

T

The-GeForce

Gast
Hallo zusammen,

ich stehe (wie so viele) vor folgendem Problem:
Ich möchte meine GeForce 7900GTSonic (512MB) von Xpertvision in Rente schicken.

Eigentlich wollte ich mir gleich zwei 8800GT Karten kaufen, in der Hofnung hohe Leistung mit akzeptablen Stromverbrauch zu bekommen.
Nun steht heute in den News dass angenommen wird, dass so eine Karte satte 110 Watt schluckt.

Mein Ziel ist einfach: Ich will Crysis unter XP mit hohen Details in 1280x1024 spielen können. Als "must Have" dafür wurde heute in den News eine GeForce 8800GTS mit 640 MB Speicher genannt.

Meine Frage: Gibt es irgendwo verlässliche Angaben über den Stromverbrauch der momentan gängigen Karten?
z.B. 8800GTS, GTX, ULTRA und HD2900XT/Pro?

Den dann lässt sich ein guter Vergleich ziehen: SLI aus zwei GT Karten oder doch nur eine "alte" 8800GTS.

Hoffe es kann mir jemand weiter helfen.

Anbei:
Der RV670 liest sich ja eigentlich auch ganz gut. Nur bringt er trotz seines höheren Verbrauchs (135Watt) nicht SO viel mehr Leistung gegenüber der Konkurenz von Nvidia. Ich habe ernste Zweifel dass mit nur einer RV670 Karte Crysis flüssig spielbar sein wird (mit hohen Settings).
 
The-GeForce am 09.10.2007 20:02 schrieb:
Hallo zusammen,

ich stehe (wie so viele) vor folgendem Problem:
Ich möchte meine GeForce 7900GTSonic (512MB) von Xpertvision in Rente schicken.

Eigentlich wollte ich mir gleich zwei 8800GT Karten kaufen, in der Hofnung hohe Leistung mit akzeptablen Stromverbrauch zu bekommen.
Nun steht heute in den News dass angenommen wird, dass so eine Karte satte 110 Watt schluckt.

Mein Ziel ist einfach: Ich will Crysis unter XP mit hohen Details in 1280x1024 spielen können. Als "must Have" dafür wurde heute in den News eine GeForce 8800GTS mit 640 MB Speicher genannt.

Meine Frage: Gibt es irgendwo verlässliche Angaben über den Stromverbrauch der momentan gängigen Karten?
z.B. 8800GTS, GTX, ULTRA und HD2900XT/Pro?

Den dann lässt sich ein guter Vergleich ziehen: SLI aus zwei GT Karten oder doch nur eine "alte" 8800GTS.

Hoffe es kann mir jemand weiter helfen.

Anbei:
Der RV670 liest sich ja eigentlich auch ganz gut. Nur bringt er trotz seines höheren Verbrauchs (135Watt) nicht SO viel mehr Leistung gegenüber der Konkurenz von Nvidia. Ich habe ernste Zweifel dass mit nur einer RV670 Karte Crysis flüssig spielbar sein wird (mit hohen Settings).
Vermute die ULTRA ist im Singlebetrieb Schneller als GTS SLI und der Stromverbrauch dürfte auch günstiger sein. Am besten wäre natürlich ULTRA SLI, aber nur wenn Du jede Menge Solarmodule aufm Dach hast und den Saft teuer ins Stromnetz einspeist! (SLI wird stark überschätzt, is ja auch besser für die Hersteller gleich 2 Grakas zu verkaufen.
 
The-GeForce am 09.10.2007 20:02 schrieb:
Ich habe ernste Zweifel dass mit nur einer RV670 Karte Crysis flüssig spielbar sein wird (mit hohen Settings).
Ich geh zwar davon aus, daß Du für meinen Vorschlag viiieeel zu ungeduldig bist, aber trotzdem:
Kauf Dir erst eine Karte plus Crysis, und wenn Dir das dann nicht flüssig genug läuft bei Deinen Lieblings-Einstellungen, dann hol Dir noch ne zweite Karte dazu.

Wenn das dann immernoch nicht flüssig läuft, ist wohl die CPU für SLI zu schwach oder Du hast zuwenig RAM. :-D ;)
 
Ich weiß nicht so recht ob die Ultra nicht doch mehr Strom will als zwei GT Karten.
Okay, es sind gleich zwei, aber ne Ultra is auch schon ein ziemlich stromfressendes Monster.

Deswegen wäre es gut mal von allen Karten ein paar konkrete Angaben zu haben. Ich glaube nicht so recht an 185Watt (siehe Alternate) bei der 8800Ultra.
 
AndreasMarkert am 09.10.2007 20:53 schrieb:
The-GeForce am 09.10.2007 20:02 schrieb:
Hallo zusammen,

ich stehe (wie so viele) vor folgendem Problem:
Ich möchte meine GeForce 7900GTSonic (512MB) von Xpertvision in Rente schicken.

Eigentlich wollte ich mir gleich zwei 8800GT Karten kaufen, in der Hofnung hohe Leistung mit akzeptablen Stromverbrauch zu bekommen.
Nun steht heute in den News dass angenommen wird, dass so eine Karte satte 110 Watt schluckt.

Mein Ziel ist einfach: Ich will Crysis unter XP mit hohen Details in 1280x1024 spielen können. Als "must Have" dafür wurde heute in den News eine GeForce 8800GTS mit 640 MB Speicher genannt.

Meine Frage: Gibt es irgendwo verlässliche Angaben über den Stromverbrauch der momentan gängigen Karten?
z.B. 8800GTS, GTX, ULTRA und HD2900XT/Pro?

Den dann lässt sich ein guter Vergleich ziehen: SLI aus zwei GT Karten oder doch nur eine "alte" 8800GTS.

Hoffe es kann mir jemand weiter helfen.

Anbei:
Der RV670 liest sich ja eigentlich auch ganz gut. Nur bringt er trotz seines höheren Verbrauchs (135Watt) nicht SO viel mehr Leistung gegenüber der Konkurenz von Nvidia. Ich habe ernste Zweifel dass mit nur einer RV670 Karte Crysis flüssig spielbar sein wird (mit hohen Settings).
Vermute die ULTRA ist im Singlebetrieb Schneller als GTS SLI und der Stromverbrauch dürfte auch günstiger sein. Am besten wäre natürlich ULTRA SLI, aber nur wenn Du jede Menge Solarmodule aufm Dach hast und den Saft teuer ins Stromnetz einspeist! (SLI wird stark überschätzt, is ja auch besser für die Hersteller gleich 2 Grakas zu verkaufen.
Sorry, hab mich verlesen. GT SLI vs GTS Solo. Hm, weiß nich, ist die GT überhaupt schon draußen ?
 
Nein, die 8800GT ist noch nicht drausen, aber der Stromverbrauch wurde heute mit 110Watt beziffert. Daher bin ich am überleben was mein nächstes Brett im Rechner ist.

Ich bin am Rätzeln was weniger Saft schluckt:
Ein 8800GT SLI Gespann oder eine 8800GTX Karte.

Ziel ist eigentlich Crysis mit allen Settings auf hoch und in 1280x1024 spielen zu können (siehe mein erster Post). Wenns auch nur mit einer Karte gehen würde, wäre mir das auch recht.
 
keithcaputo am 09.10.2007 21:02 schrieb:
The-GeForce am 09.10.2007 20:02 schrieb:
Ich habe ernste Zweifel dass mit nur einer RV670 Karte Crysis flüssig spielbar sein wird (mit hohen Settings).
Ich geh zwar davon aus, daß Du für meinen Vorschlag viiieeel zu ungeduldig bist, aber trotzdem:
Kauf Dir erst eine Karte plus Crysis, und wenn Dir das dann nicht flüssig genug läuft bei Deinen Lieblings-Einstellungen, dann hol Dir noch ne zweite Karte dazu.

Wenn das dann immernoch nicht flüssig läuft, ist wohl die CPU für SLI zu schwach oder Du hast zuwenig RAM. :-D ;)


Öhm ja, ich fürchte dafür bin ich wirklich etwas zu ungeduldig :rolleyes:

Mein System müsste ansonsten aber für Crysis gut genug sein:
CPU: C2D E6420 @ 2,4GHz
Ram: 2GB G.E.I.L 4-4-4-12
Grafik: ???? (zur Zeit: GeForce 7900GTSonic)
 
The-GeForce am 09.10.2007 21:12 schrieb:
Nein, die 8800GT ist noch nicht drausen, aber der Stromverbrauch wurde heute mit 110Watt beziffert. Daher bin ich am überleben was mein nächstes Brett im Rechner ist.

Ich bin am Rätzeln was weniger Saft schluckt:
Ein 8800GT SLI Gespann oder eine 8800GTX Karte.

Ziel ist eigentlich Crysis mit allen Settings auf hoch und in 1280x1024 spielen zu können (siehe mein erster Post). Wenns auch nur mit einer Karte gehen würde, wäre mir das auch recht.
Nimm die GTX dann gibt es wenigstens keine Treiberprobleme und alles ist einfacher zu konfigurieren. Mehr Platz im Gehäuse hast Du dann auch und die Luft kann besser zirkulieren. Wie ist der Preis von 2x GT im Verhältnis zur GTX und wie sieht es mit dem Wiederverkaufswert aus? Das musst Du bei deiner Stromverbrauchüberlegung auch mit einbeziehen denn irgendwann kommt auch Crysis II !!!
 
Die 8800GTX kostet momentan mehr, als 2 8800GT Karten (sollte der Preis von 200€ stimmen).
Bleibt nur die Frage vom Stromverbrauch. Braucht die GTX mehr Saft als 220 Watt unter Volllast oder nicht? Den ich nehme mal schwer an, dass ein SLI 8800 GT Gespann mindestens zur Leistung einer Ultra kommen würde.
 
kurz mal bei alternate die herstellerangaben der evga-versionen gemopst:

Ultra: ca. 185 W bei vollast
GTX: ca. 155 W bei vollast
GTS: ca. 143 W bei vollast

wenn eine GT 110W verbrauchen soll, wäre sie extrem sparsamer

da die angaben alle herstellerangaben sind, sidn die natürlich nicht 100% genau
 
Chris-W201-Fan am 09.10.2007 22:17 schrieb:
kurz mal bei alternate die herstellerangaben der evga-versionen gemopst:

Ultra: ca. 185 W bei vollast
GTX: ca. 155 W bei vollast
GTS: ca. 143 W bei vollast

wenn eine GT 110W verbrauchen soll, wäre sie extrem sparsamer

da die angaben alle herstellerangaben sind, sidn die natürlich nicht 100% genau
die können gar nicht stimmen denn ich glaube kaum das eine takterhöhung (gtx > ultra) 30 watt mehr abwärme verursachen.

die 110 watt dürfen hinkommen da ja der g92 kern afaik in 55nm gefertigt wird und somit weniger abwärme produziert.
 
ich hab die werte von dne evga-modellen, inwieweit da evtl. übertaktete varianten dabei sidn weiß ich nicht, sorry, aber als anhaltspunkte denk ich mal is das brauchbar

übrigens:
eine erhöhung des taktes zieht eine exponentiell wachsende verlustleistung nach sich,
auch sowas kann steilere anstiege erklären

EDIT:
der verlust wächst nur um 19,35%
benutz mal nen rechner ;)
 
Dann bleibt dann wohl wirklich nur das warten auf Benchmarks der 8800GT.

Sollte die 110Watt stimmen und die 155 der GTX stimmen, dann wäre ein SLI Gespann aus 2 GT Karten für mich nicht von Interesse, den mehr Saft wie für eine GTX will ich nicht loswerden für eine Grafikkarte.

Und das mit den steigenden Verlustleistungen:
Das kennen wir doch auch von den CPUs. Eine übertaktete CPU lässt sich meist mit einer enormen Steigerung der Spannung weiter übertakten. Das wird wohl hier nicht anders sein. Die Ultra ist ja nix anderes als eine übertaktete GTX.
 
The-GeForce am 09.10.2007 20:02 schrieb:
Meine Frage: Gibt es irgendwo verlässliche Angaben über den Stromverbrauch der momentan gängigen Karten?

gibt es nicht, womit sich auch sämtliche diskussionen über die bislang genannten werte erübrigen.
die hersteller lassen zwar gelegentlich eine tdp fallen, aber die gehen z.t. fast genauso nach dem mond, wie die netzteilempfehlungen.
das gilt erst recht für den g92, bei dem ja nicht mal der name immer der gleiche blieb.
solange man keine messungen von zwei karten auf ein und demselben system hat, kann man nicht genau sagen, welche mehr strom schluckt.

Den dann lässt sich ein guter Vergleich ziehen: SLI aus zwei GT Karten oder doch nur eine "alte" 8800GTS.

vom stromverbrauch her dürfte eine karte mit ziemlicher sicherheit die bessere lösung sein, strom/leistung ist schon wieder ne ganz andere frage.


Nur bringt er trotz seines höheren Verbrauchs (135Watt) nicht SO viel mehr Leistung gegenüber der Konkurenz von Nvidia.

würde mich jetzt mal interessieren, woher du weißt, wieviel leistung ein rv670 im vergleich zu einer karte hat, bei der vor 2 tagen noch zwei verschiedene seiten zwei verschiedene "finale" taktraten gemeldet haben.

meine meinung: den einen monat kann man auch noch warten, die gerüchteküche hat selten soviel mist gekocht, wie in den letzten monaten - und was davon richtig ist und was nicht lässt sich imho immer noch nicht sagen.
(ich sach nur: 112shader?)
 
ich weiß nicht so recht, irgendwie schenke ich nach wie vor der News Glauben, in der Stand, dass der RV670 im Benchmark einer GeForce 8800GT überlegen sein soll. Aber eigentlich hast du ja recht, den einen Monat muss ich noch rumkriegen. Falls ich mich für den HD2950XT entscheide sogar 2 Monate.

Habe übrigens etwas im Internet gefunden bezüglich der Stromwerter einiger bekannter Karten. Aber auch hier weiß ich nicht, ob dass den für den ganzen Rechner oder nur die Karte gilt.
Link http://www.tomshardware.com/de/stromfresser-energiesparen-grafikkarten,testberichte-239763-3.html
 
The-GeForce am 10.10.2007 12:59 schrieb:
ich weiß nicht so recht, irgendwie schenke ich nach wie vor der News Glauben, in der Stand, dass der RV670 im Benchmark einer GeForce 8800GT überlegen sein soll. Aber eigentlich hast du ja recht, den einen Monat muss ich noch rumkriegen. Falls ich mich für den HD2950XT entscheide sogar 2 Monate.

Habe übrigens etwas im Internet gefunden bezüglich der Stromwerter einiger bekannter Karten. Aber auch hier weiß ich nicht, ob dass den für den ganzen Rechner oder nur die Karte gilt.
Link http://www.tomshardware.com/de/stromfresser-energiesparen-grafikkarten,testberichte-239763-3.html

zuviel für einzelne grafikkarten, aber das restsystem muss zumindest idle recht sparsem sein.
computerbase hat auch immer recht umfangreiche tests mit verbrauchsmessungen (auch ganzes system - alles andere geht halt nicht, weil man zwischen slot und graka nicht messen kann)
 
Hmmm....

so ein Mist. Was ist aus den Zeiten geworden als eine Karte noch mit 70Watt ausgekommen ist und dennoch brachiale Leistung gebracht hat.
Meine geliebte GeForce7900GTSonic wirds nur leider nicht mehr lange machen...
 
Soviel zum Stromverbrauch der aktuellen Karten, 8800 gt ist natürlich noch nicht dabei

Allerdings komplett mit Testsystem... man kann aber trotzdem erkennen, welche wieviel Prozent mehr verbrauchen, da gleiches Testsystem =)
 
% kann man da garantiert nicht erkennen - bei nem ansonsten 100w system macht der wechsel von einer 50w auf eine 100w karte 25% im gesamtverbrauch aus, dass entspricht aber nicht ganz dem unterschied zwischen den karten.
etwas besser klappt es beim absoluten verbrauchsunterschied, nur spielen da noch sachen wie netzteileffizienz und cpuauslastung mit rein.
(in kombination mit einer 6200 verbraucht ein qx6850 sicherlich nicht soviel, wie in kombination mit 4 hd2900xt)
 
Zurück