• Aktualisierte Forenregeln

    Eine kleine Änderung hat es im Bereich Forenregeln unter Abschnitt 2 gegeben, wo wir nun explizit darauf verweisen, dass Forenkommentare in unserer Heftrubrik Leserbriefe landen können.

    Forenregeln


    Vielen Dank

R600 saustark

jediknight1

Gesperrt
Mitglied seit
03.01.2005
Beiträge
1.483
Reaktionspunkte
0
Es neue Infos von der neuen Grafikkarte mit R600. Das wird ein Hammer.

http://winfuture.de/news,29963.html
 
Wenn die Daten zutreffend sind(was ich nicht glaube), wird Ati/AMD nicht sehr viele Exemplare verkaufen können.

Ich bin jedenfalls nicht bereit mir eine Karte in den Rechener zu bauen die so viel Energie verbrät, zumal das ding mit sicherheit nicht Billig sein wird.

Ich schau mir das Teil auf der CeBit an, wenn es bis dahin Fertig ist.

Mfg Nex
 
Nun viel gebe ich auf diese Meldung noch nicht. erstens ist der bericht noch sehr zurückhaltend und zweitens eher ein Marketingschahzug.
Denn diese aussage sagt schon einiges:
Die bisher unbekannte Hardware-Seite Level505 hatte jetzt offenbar die Möglichkeit, ATIs ersten DirectX10-tauglichen Grafikprozessor vorab zu testen.
Wenn ati wirklich druck auf nvidia machen will, dann gibt sie ein Testmuster einer wirklich renommierten Hadwareseite und keiner no-nameseite .
Wie hatte Amdmitarbeiter die ersten Testmuster von Intels C2D kommentiert: Ich glaub nicht das sie so schnell sind ….
 
cbw249 am 10.02.2007 10:09 schrieb:
Wie hatte Amdmitarbeiter die ersten Testmuster von Intels C2D kommentiert: Ich glaub nicht das sie so schnell sind ….
Waren sie aber *gg*

Naja, das sind wohl Brancheninsider die auch in entsprechenden Firmen arbeiten. Könnte mir schon vorstellen, dass die mal an das ein oder andere Produkt kommen. Dem Test auf LvL505 würde ich aber trotzdem net unbedingt glauben. Gibt immerhin keine Bilder. Coolaler (gibts den eigentlich noch? Warum hab ich noch nichts von einem Test des neuen Intel-QCs in 45nm gelesen? :-D ) hat damals immerhin genug Bilder vom Conroe ins INternet gestellt.
 
jediknight1 am 09.02.2007 21:53 schrieb:
Es neue Infos von der neuen Grafikkarte mit R600. Das wird ein Hammer.

http://winfuture.de/news,29963.html

auf die technik kommt es an, nicht auf die länge.


p.s.:
wer hatte den thread in graka&monitore verschoben? das forum ist tot...
 
ruyven_macaran am 10.02.2007 21:07 schrieb:
auf die technik kommt es an, nicht auf die länge.
http://www.computerbase.de/news/hardware/grafikkarten/ati/2007/februar/r600_315_270_watt_verbrauch/
31,5cm in der OEM Fassung @270Watt
Normale Version 24,1cm @240Watt

Groß und vor allem sehr Strom gierig. Wieso bekommen die das nicht in den Griff? AMD und Intel haben es doch auch geschafft.
p.s.:
wer hatte den thread in graka&monitore verschoben? das forum ist tot...

ich war es nicht :-D (inkl. Alibi) :P
 
Abhaken..... nicht gekauft. 100W ... mehr kommt in meinen Rechner nicht 'rein.
:hop:

Mal sehen, es wird bestimmt auch "light" Versionen geben.
Die 1800GTO braucht ja auch keine 120W, sondern nur knappe 50W.
Ebenso wird es wohl auch DX 10 Karten von ATI geben, die höchstens ca. 100W benötigen.
 
Harlekin am 10.02.2007 10:36 schrieb:
cbw249 am 10.02.2007 10:09 schrieb:
Wie hatte Amdmitarbeiter die ersten Testmuster von Intels C2D kommentiert: Ich glaub nicht das sie so schnell sind ….
Waren sie aber *gg*

Naja, das sind wohl Brancheninsider die auch in entsprechenden Firmen arbeiten. Könnte mir schon vorstellen, dass die mal an das ein oder andere Produkt kommen. Dem Test auf LvL505 würde ich aber trotzdem net unbedingt glauben. Gibt immerhin keine Bilder. Coolaler (gibts den eigentlich noch? Warum hab ich noch nichts von einem Test des neuen Intel-QCs in 45nm gelesen? :-D ) hat damals immerhin genug Bilder vom Conroe ins INternet gestellt.


Bilder sagen nicht viel aus und man kann immernoch alles wichtige verdecken, die neuen Grafikkarten sind ja schon so gebaut das der lüfter 90% der karte abdeckt.
 
Servus,
ich finde diese Watt-Argumentation immer etwas seltsam.
Wenn ich auf High-End -Hardware stehe und diese wegen der Leistung nutzen will und kann (Preis), warum sollte ich mir dann einen Kopf um ein paar Euro mehr für den Strom im Jahr machen.
Das ist doch genauso absurd, wie wenn ich mir einen Porsche kaufen will, weil der geil aussieht und SAUSCHNELL ist und außerdem eine klasse Straßenlage hat, dann aber rumnörgel, weil es keinen 3Liter Porsche gibt.
Alte Regel von mir: Spaß kostet !!!
Ich glaube, wer wegen 10€ im Jahr an Mehrkosten rumheult, der kauft so ein Superboard für 500-800,-€ eh nicht.
So jetzt könnt Ihr auf mir rumhacken, denn meine X1900XT war ja genauso verrufen, wegen Strom und Abwärme.
Ein High-End-Prozessor braucht auch mehr Strom als ein Einsteiger- oder Mobileprozessor.
mfg
 
Crymuffin am 12.02.2007 12:34 schrieb:
Servus,
ich finde diese Watt-Argumentation immer etwas seltsam.
Wenn ich auf High-End -Hardware stehe und diese wegen der Leistung nutzen will und kann (Preis), warum sollte ich mir dann einen Kopf um ein paar Euro mehr für den Strom im Jahr machen.
Das ist doch genauso absurd, wie wenn ich mir einen Porsche kaufen will, weil der geil aussieht und SAUSCHNELL ist und außerdem eine klasse Straßenlage hat, dann aber rumnörgel, weil es keinen 3Liter Porsche gibt.
Alte Regel von mir: Spaß kostet !!!
Ich glaube, wer wegen 10€ im Jahr an Mehrkosten rumheult, der kauft so ein Superboard für 500-800,-€ eh nicht.
So jetzt könnt Ihr auf mir rumhacken, denn meine X1900XT war ja genauso verrufen, wegen Strom und Abwärme.
Ein High-End-Prozessor braucht auch mehr Strom als ein Einsteiger- oder Mobileprozessor.
mfg
Kleine Rechnung:
Sagen wir mal die Karte verbraucht um 100W mehr als eine x1900xt.
Wenn man jeden tag eine halbe stunde damit spielt: 100W*0,5h = 50Wh
Das mal 365 Tage = 18250Wh = 18,25kWh das mal 21cent = 3,8€ mehr im Jahr im vergleich zur x1900xt bei einer Nutzung von 1/2h am Tag.

mfg Chat2
 
Crymuffin am 12.02.2007 12:34 schrieb:
Servus,
ich finde diese Watt-Argumentation immer etwas seltsam.

Ich finde deine Denkweise seltsam.
Schonmal genauer über die Energieversorgungslage nachgedacht?

Mittlerweile denken Leute sogar darüber nach, dass Glühlampen zu viel Energie verbraten, deswegen gibt es Gas-Lampen, oder gar LED Leuchtmittel.
Selbst die Autos sollen demnächste erheblich in den Emissionsauscheidungen, per Gesetz, gedämpft werden.


Im krassen Unterschied steht dazu die "neue" Fernsehwelt, wo ein Fernseher nicht mehr 60W 8Röhre) verbrät, sondern 400-600W (Plasma).
PC werden im Schnitt demnächst nicht mehr 300W Verbrauchen, sondern 800W.
Rechne das mal auf "alle" Haushalte um..... Und das, wo Energie sparen heute ein Top Thema ist, weil herkömmliche Energierquellen am Rande der Erschöpfung sind.
Ich denke(hoffe), dass demnächst entsprechende Erlasse von der (EU-)Regierung kommen.
 
Natürlich ist es nicht gerade gut für die Umwelt wenn immer mehr Energie verbraucht wird. Aber es wird sich nicht jeder Haushalt so eine Karte kaufen. Und es ist immer so, dass wenn man mehr Leistung will, dass dann auch viel Energie verschwendet wird. Wie das beispiel vom Porsche.
Ich werde mir die Karte warscheinlich auch nicht kaufen. Die karte wird warscheinlich sehr schnell, aber für die paar fps wird der Energeiverbrauch mehr als verdoppelt. Wie du schon sagst vom ganzen System 300W -> 700W.
Und die ganzen "Stand-bye Geräte" verbrauchen auch zusammen ganz schön viel strom. Bei der Grafikkarte wird die Energie wenigstens "sinnvoll" genutz.

Und mit den Energiesparlampen kann man das auch schon sehr schnell wieder ausgleichen.

mfg Chat2
 
Die Karten gibt es in mehreren Variationen.

http://winfuture.de/news,29991.html


Bald fragt keiner "Wer hat den Längsten" , sondern wer die längste Grafikkarte hat.
 
Servus,
versteh mich nicht falsch, mir liegt sehr viel an der Umwelt.
Aber nur, weil zur Zeit einige Zeitschriften in deiser Richtung propagieren, werde ich meine Kaufentscheidung nicht vom "angekündigten" Stromverbrauch abhängig machen.
Eine 8800 soll ja auch 200Watt verbraten, aber ien PC mit Quadcore und 8800GTX braucht "nur" 300.
Also erst mal abwarten.
Man kann ja auch mit einer Geforce 6600 oder ATI X1600 zocken, wenn man will.
Ich mache Feierabend und fahre mit meinem Auto 50Km nach Hause, da fragt mich keiner, ob das toll ist für die Umwelt.
mfg
 
Crymuffin am 13.02.2007 18:22 schrieb:
Eine 8800 soll ja auch 200Watt verbraten
Sagt wer?
Glaube kaum, dass wenn im Rechner ein Quad-Core arbeitet man einfach mal 100 Watt abziehen kann und man dann den Verbrauch der 8800GTX hat. Alleine die CPU dürfte 100 Watt unter Last verbrauchen, ohne Mainboard und andere HW.
 
eine ASUS EN8800 verbrauchtin der Gtx version max. : 145.5 Watt und als gts max. : 116.6 Watt (asus angaben).
 
IXS am 10.02.2007 21:29 schrieb:
Abhaken..... nicht gekauft. 100W ... mehr kommt in meinen Rechner nicht 'rein.
:hop:

Mal sehen, es wird bestimmt auch "light" Versionen geben.
Die 1800GTO braucht ja auch keine 120W, sondern nur knappe 50W.
Ebenso wird es wohl auch DX 10 Karten von ATI geben, die höchstens ca. 100W benötigen.

und warum gerade 100W?
die wattzahlen sind sowieso übertrieben. eine 8800GTX läuft auch mit aktueller cpu mit einen 420W NT, obwohl die graka irgendwas mit 300W benötigen soll.

und du kannst eine 1800GTO wohl kaum mit einer DX10 graka vergleichen.

ach ja. meine s3 mirage (oder wie das ding hieß) mit 4 MB speicher hat auch nur 2 W verbraucht. UND???
 
Also hier gibt es neue Details zur Karte:

http://winfuture.de/news,30162.html



Der das Dokument rausgegeben hat, braucht bestimmt einen neuen Job. So wie es in der Überschrift steht.
 
Und das gleich dazu:
http://www.computerbase.de/news/hardware/grafikkarten/ati/2007/februar/offiziell_atis_r600-gpu_quartal/

*g*
 
Mal eine Frage : Sind wir hier in einem PC-Forum oder bei Greenpeace???
Wenn ich beim zocken kaum Strom verbrauchen will kauf ich mir ne Playstation.
 
Zurück