Herbboy
Spiele-Gott/Göttin
- Mitglied seit
- 22.03.2001
- Beiträge
- 78.769
- Reaktionspunkte
- 5.985
Mal eine Frage, weil ich es wirklich weiß: ist es denn wirklich möglich, dass man heute noch Komponenten kauft, die absolute Stromfresser sind?
CPU - taktet sich massiv runter
GPU - genauso, neue Generationen von Grafikkarten sogar deutlich besser, Kumpel hat eine GTX 670 und diese ist im Idle sparsamer als meine GTX 570
Festplatten - 7400 oder 5400rpm macht wenig Unterschied, denn diese gehen im Leerlauf auch in den Ruhemodus
Was bleibt da noch großartig?
Das täuschst Du Dich! Deine GTX 570 braucht im IDLE 24W, eine GTX 670 22W - das merkst Du am Ende des Jahres nicht auf der Rechnung... da macht es mehr aus, wenn Du nen Lüfter mehr oder weniger im PC hast... man muss aber auch sagen: die GTX 670 ist deutlich stärkler als die GTX 570, und bei Last braucht sie dann doch bis zu 40W weniger als die GTX 570, aber eben nur bei Last. Eine übertaktete AMD 7950 zB ist fast so schnell wie eine GTX 670 und braucht im IDLE je nach Modell 12-17W, also prozentual deutlich weniger als die beiden Nvidias - aber selbst da: sagen wir mal der ist jeden Tag 12 Std an für Office/IDLE, dann sind das auch nur 8-12€ bei 24Cent/KWh...
Die GTX 580 wiederum, DIE ist/war für ihre Leistung ein Stromfresser... 320W im maximum. Im IDLE aber jetzt auch nicht DER Grund für eine höhere Stromrechnung (32W) im Vergleich zu einer gleichguten oder besseren (GTX 670; AMD 7950) moderneren Gamer-Karte.
Die Stromwerte sind von hier ASUS GeForce GTX 670 DirectCU II TOP im Test - Index 3D-Spiele-Performance (Seite 3 - HT4U.net die messen das sehr genau.
Wirklich sparen kann man eher, wenn der PC sehr lange am Tag an ist und man KOMPLETT auf einer Gamerkarte verzichtet - aber wer hier will das schon? wobei die AMD-Karten - falls man den PC auch mal nur "an" lässt und nicht nutzt - quasi komplett abschalten, wenn auch die Monitor-Standby-Wartezeit erreicht ist. Wer also Strom sparen will, nimmt ne AMD-Karte - man spart da ja eh schon beim Kauf, da die aktuell zu einem merkbar geringeren Preis die gleiche Leistung wie Nvidia bieten oder schalten die Nvidias inzwischen auch ganz ab? AMD ist zZt trotzdem besser bei Preis-Leistung...
Und sparsame Festplatten lohnt sich nur für Server, wenn überhaupt, und dann auch eher für Firmen mit mehreren Platten.
Standby wird aber auch überschätzt und als so unglaublich schlimm dargestellt - natürlich kann man bei Vermeiden von Standby (das soll jetzt nicht heißen, dass man die Geräte GANZ an lassen soll ) immer was sparen und sollte das auch tun, aber pro Gerät sagen wir mal 5W (viele zb LCD-TVs usw. haben unter 1W) und das bei 6 Geräten: das wären dann auch "nur" 260KWh und damit nur ein kleinerer Teil einer 2000Wkh-Rechnung. Aber vor allem bei Familien mit 1-2 Kindern hat halt oft JEDER im Haus 3 Geräte, die er auf Standby lässt - das macht dann schon viel eher wirklich was aus, vor allem weil am Ende die Summe aller "Verfehlungen" sich idR bei EINEM sammelt, der das Schlamassel als gesamtheit präsentiert bekommt, nämlich dem Hauptverdiener
Zuletzt bearbeitet: