R600 saustark

jediknight1

Gesperrt
Mitglied seit
03.01.2005
Beiträge
1.483
Reaktionspunkte
0
Es neue Infos von der neuen Grafikkarte mit R600. Das wird ein Hammer.

http://winfuture.de/news,29963.html
 

Nexus76

Bekanntes Gesicht
Mitglied seit
11.03.2005
Beiträge
467
Reaktionspunkte
0
Wenn die Daten zutreffend sind(was ich nicht glaube), wird Ati/AMD nicht sehr viele Exemplare verkaufen können.

Ich bin jedenfalls nicht bereit mir eine Karte in den Rechener zu bauen die so viel Energie verbrät, zumal das ding mit sicherheit nicht Billig sein wird.

Ich schau mir das Teil auf der CeBit an, wenn es bis dahin Fertig ist.

Mfg Nex
 

cbw249

Bekanntes Gesicht
Mitglied seit
12.05.2001
Beiträge
1.772
Reaktionspunkte
22
Nun viel gebe ich auf diese Meldung noch nicht. erstens ist der bericht noch sehr zurückhaltend und zweitens eher ein Marketingschahzug.
Denn diese aussage sagt schon einiges:
Die bisher unbekannte Hardware-Seite Level505 hatte jetzt offenbar die Möglichkeit, ATIs ersten DirectX10-tauglichen Grafikprozessor vorab zu testen.
Wenn ati wirklich druck auf nvidia machen will, dann gibt sie ein Testmuster einer wirklich renommierten Hadwareseite und keiner no-nameseite .
Wie hatte Amdmitarbeiter die ersten Testmuster von Intels C2D kommentiert: Ich glaub nicht das sie so schnell sind ….
 

Harlekin

Bekanntes Gesicht
Mitglied seit
18.12.2006
Beiträge
984
Reaktionspunkte
0
cbw249 am 10.02.2007 10:09 schrieb:
Wie hatte Amdmitarbeiter die ersten Testmuster von Intels C2D kommentiert: Ich glaub nicht das sie so schnell sind ….
Waren sie aber *gg*

Naja, das sind wohl Brancheninsider die auch in entsprechenden Firmen arbeiten. Könnte mir schon vorstellen, dass die mal an das ein oder andere Produkt kommen. Dem Test auf LvL505 würde ich aber trotzdem net unbedingt glauben. Gibt immerhin keine Bilder. Coolaler (gibts den eigentlich noch? Warum hab ich noch nichts von einem Test des neuen Intel-QCs in 45nm gelesen? :-D ) hat damals immerhin genug Bilder vom Conroe ins INternet gestellt.
 
R

ruyven_macaran

Gast
jediknight1 am 09.02.2007 21:53 schrieb:
Es neue Infos von der neuen Grafikkarte mit R600. Das wird ein Hammer.

http://winfuture.de/news,29963.html

auf die technik kommt es an, nicht auf die länge.


p.s.:
wer hatte den thread in graka&monitore verschoben? das forum ist tot...
 
I

ich98

Gast
ruyven_macaran am 10.02.2007 21:07 schrieb:
auf die technik kommt es an, nicht auf die länge.
http://www.computerbase.de/news/hardware/grafikkarten/ati/2007/februar/r600_315_270_watt_verbrauch/
31,5cm in der OEM Fassung @270Watt
Normale Version 24,1cm @240Watt

Groß und vor allem sehr Strom gierig. Wieso bekommen die das nicht in den Griff? AMD und Intel haben es doch auch geschafft.
p.s.:
wer hatte den thread in graka&monitore verschoben? das forum ist tot...

ich war es nicht :-D (inkl. Alibi) :P
 

IXS

Bekanntes Gesicht
Mitglied seit
29.05.2005
Beiträge
2.666
Reaktionspunkte
0
Abhaken..... nicht gekauft. 100W ... mehr kommt in meinen Rechner nicht 'rein.
:hop:

Mal sehen, es wird bestimmt auch "light" Versionen geben.
Die 1800GTO braucht ja auch keine 120W, sondern nur knappe 50W.
Ebenso wird es wohl auch DX 10 Karten von ATI geben, die höchstens ca. 100W benötigen.
 

cbw249

Bekanntes Gesicht
Mitglied seit
12.05.2001
Beiträge
1.772
Reaktionspunkte
22
Harlekin am 10.02.2007 10:36 schrieb:
cbw249 am 10.02.2007 10:09 schrieb:
Wie hatte Amdmitarbeiter die ersten Testmuster von Intels C2D kommentiert: Ich glaub nicht das sie so schnell sind ….
Waren sie aber *gg*

Naja, das sind wohl Brancheninsider die auch in entsprechenden Firmen arbeiten. Könnte mir schon vorstellen, dass die mal an das ein oder andere Produkt kommen. Dem Test auf LvL505 würde ich aber trotzdem net unbedingt glauben. Gibt immerhin keine Bilder. Coolaler (gibts den eigentlich noch? Warum hab ich noch nichts von einem Test des neuen Intel-QCs in 45nm gelesen? :-D ) hat damals immerhin genug Bilder vom Conroe ins INternet gestellt.


Bilder sagen nicht viel aus und man kann immernoch alles wichtige verdecken, die neuen Grafikkarten sind ja schon so gebaut das der lüfter 90% der karte abdeckt.
 

Crymuffin

Erfahrener Benutzer
Mitglied seit
03.12.2005
Beiträge
269
Reaktionspunkte
0
Servus,
ich finde diese Watt-Argumentation immer etwas seltsam.
Wenn ich auf High-End -Hardware stehe und diese wegen der Leistung nutzen will und kann (Preis), warum sollte ich mir dann einen Kopf um ein paar Euro mehr für den Strom im Jahr machen.
Das ist doch genauso absurd, wie wenn ich mir einen Porsche kaufen will, weil der geil aussieht und SAUSCHNELL ist und außerdem eine klasse Straßenlage hat, dann aber rumnörgel, weil es keinen 3Liter Porsche gibt.
Alte Regel von mir: Spaß kostet !!!
Ich glaube, wer wegen 10€ im Jahr an Mehrkosten rumheult, der kauft so ein Superboard für 500-800,-€ eh nicht.
So jetzt könnt Ihr auf mir rumhacken, denn meine X1900XT war ja genauso verrufen, wegen Strom und Abwärme.
Ein High-End-Prozessor braucht auch mehr Strom als ein Einsteiger- oder Mobileprozessor.
mfg
 

Chat2-Second

Erfahrener Benutzer
Mitglied seit
01.01.2006
Beiträge
121
Reaktionspunkte
0
Crymuffin am 12.02.2007 12:34 schrieb:
Servus,
ich finde diese Watt-Argumentation immer etwas seltsam.
Wenn ich auf High-End -Hardware stehe und diese wegen der Leistung nutzen will und kann (Preis), warum sollte ich mir dann einen Kopf um ein paar Euro mehr für den Strom im Jahr machen.
Das ist doch genauso absurd, wie wenn ich mir einen Porsche kaufen will, weil der geil aussieht und SAUSCHNELL ist und außerdem eine klasse Straßenlage hat, dann aber rumnörgel, weil es keinen 3Liter Porsche gibt.
Alte Regel von mir: Spaß kostet !!!
Ich glaube, wer wegen 10€ im Jahr an Mehrkosten rumheult, der kauft so ein Superboard für 500-800,-€ eh nicht.
So jetzt könnt Ihr auf mir rumhacken, denn meine X1900XT war ja genauso verrufen, wegen Strom und Abwärme.
Ein High-End-Prozessor braucht auch mehr Strom als ein Einsteiger- oder Mobileprozessor.
mfg
Kleine Rechnung:
Sagen wir mal die Karte verbraucht um 100W mehr als eine x1900xt.
Wenn man jeden tag eine halbe stunde damit spielt: 100W*0,5h = 50Wh
Das mal 365 Tage = 18250Wh = 18,25kWh das mal 21cent = 3,8€ mehr im Jahr im vergleich zur x1900xt bei einer Nutzung von 1/2h am Tag.

mfg Chat2
 

IXS

Bekanntes Gesicht
Mitglied seit
29.05.2005
Beiträge
2.666
Reaktionspunkte
0
Crymuffin am 12.02.2007 12:34 schrieb:
Servus,
ich finde diese Watt-Argumentation immer etwas seltsam.

Ich finde deine Denkweise seltsam.
Schonmal genauer über die Energieversorgungslage nachgedacht?

Mittlerweile denken Leute sogar darüber nach, dass Glühlampen zu viel Energie verbraten, deswegen gibt es Gas-Lampen, oder gar LED Leuchtmittel.
Selbst die Autos sollen demnächste erheblich in den Emissionsauscheidungen, per Gesetz, gedämpft werden.


Im krassen Unterschied steht dazu die "neue" Fernsehwelt, wo ein Fernseher nicht mehr 60W 8Röhre) verbrät, sondern 400-600W (Plasma).
PC werden im Schnitt demnächst nicht mehr 300W Verbrauchen, sondern 800W.
Rechne das mal auf "alle" Haushalte um..... Und das, wo Energie sparen heute ein Top Thema ist, weil herkömmliche Energierquellen am Rande der Erschöpfung sind.
Ich denke(hoffe), dass demnächst entsprechende Erlasse von der (EU-)Regierung kommen.
 

Chat2-Second

Erfahrener Benutzer
Mitglied seit
01.01.2006
Beiträge
121
Reaktionspunkte
0
Natürlich ist es nicht gerade gut für die Umwelt wenn immer mehr Energie verbraucht wird. Aber es wird sich nicht jeder Haushalt so eine Karte kaufen. Und es ist immer so, dass wenn man mehr Leistung will, dass dann auch viel Energie verschwendet wird. Wie das beispiel vom Porsche.
Ich werde mir die Karte warscheinlich auch nicht kaufen. Die karte wird warscheinlich sehr schnell, aber für die paar fps wird der Energeiverbrauch mehr als verdoppelt. Wie du schon sagst vom ganzen System 300W -> 700W.
Und die ganzen "Stand-bye Geräte" verbrauchen auch zusammen ganz schön viel strom. Bei der Grafikkarte wird die Energie wenigstens "sinnvoll" genutz.

Und mit den Energiesparlampen kann man das auch schon sehr schnell wieder ausgleichen.

mfg Chat2
 
TE
J

jediknight1

Gesperrt
Mitglied seit
03.01.2005
Beiträge
1.483
Reaktionspunkte
0
Die Karten gibt es in mehreren Variationen.

http://winfuture.de/news,29991.html


Bald fragt keiner "Wer hat den Längsten" , sondern wer die längste Grafikkarte hat.
 

Crymuffin

Erfahrener Benutzer
Mitglied seit
03.12.2005
Beiträge
269
Reaktionspunkte
0
Servus,
versteh mich nicht falsch, mir liegt sehr viel an der Umwelt.
Aber nur, weil zur Zeit einige Zeitschriften in deiser Richtung propagieren, werde ich meine Kaufentscheidung nicht vom "angekündigten" Stromverbrauch abhängig machen.
Eine 8800 soll ja auch 200Watt verbraten, aber ien PC mit Quadcore und 8800GTX braucht "nur" 300.
Also erst mal abwarten.
Man kann ja auch mit einer Geforce 6600 oder ATI X1600 zocken, wenn man will.
Ich mache Feierabend und fahre mit meinem Auto 50Km nach Hause, da fragt mich keiner, ob das toll ist für die Umwelt.
mfg
 

Harlekin

Bekanntes Gesicht
Mitglied seit
18.12.2006
Beiträge
984
Reaktionspunkte
0
Crymuffin am 13.02.2007 18:22 schrieb:
Eine 8800 soll ja auch 200Watt verbraten
Sagt wer?
Glaube kaum, dass wenn im Rechner ein Quad-Core arbeitet man einfach mal 100 Watt abziehen kann und man dann den Verbrauch der 8800GTX hat. Alleine die CPU dürfte 100 Watt unter Last verbrauchen, ohne Mainboard und andere HW.
 

cbw249

Bekanntes Gesicht
Mitglied seit
12.05.2001
Beiträge
1.772
Reaktionspunkte
22
eine ASUS EN8800 verbrauchtin der Gtx version max. : 145.5 Watt und als gts max. : 116.6 Watt (asus angaben).
 

michi-oss

Erfahrener Benutzer
Mitglied seit
22.05.2005
Beiträge
165
Reaktionspunkte
0
IXS am 10.02.2007 21:29 schrieb:
Abhaken..... nicht gekauft. 100W ... mehr kommt in meinen Rechner nicht 'rein.
:hop:

Mal sehen, es wird bestimmt auch "light" Versionen geben.
Die 1800GTO braucht ja auch keine 120W, sondern nur knappe 50W.
Ebenso wird es wohl auch DX 10 Karten von ATI geben, die höchstens ca. 100W benötigen.

und warum gerade 100W?
die wattzahlen sind sowieso übertrieben. eine 8800GTX läuft auch mit aktueller cpu mit einen 420W NT, obwohl die graka irgendwas mit 300W benötigen soll.

und du kannst eine 1800GTO wohl kaum mit einer DX10 graka vergleichen.

ach ja. meine s3 mirage (oder wie das ding hieß) mit 4 MB speicher hat auch nur 2 W verbraucht. UND???
 
TE
J

jediknight1

Gesperrt
Mitglied seit
03.01.2005
Beiträge
1.483
Reaktionspunkte
0
Also hier gibt es neue Details zur Karte:

http://winfuture.de/news,30162.html



Der das Dokument rausgegeben hat, braucht bestimmt einen neuen Job. So wie es in der Überschrift steht.
 

Hyperhorn

Bekanntes Gesicht
Mitglied seit
08.05.2004
Beiträge
2.283
Reaktionspunkte
10
Und das gleich dazu:
http://www.computerbase.de/news/hardware/grafikkarten/ati/2007/februar/offiziell_atis_r600-gpu_quartal/

*g*
 

Goliath110

Bekanntes Gesicht
Mitglied seit
15.02.2007
Beiträge
1.538
Reaktionspunkte
0
Mal eine Frage : Sind wir hier in einem PC-Forum oder bei Greenpeace???
Wenn ich beim zocken kaum Strom verbrauchen will kauf ich mir ne Playstation.
 
R

ripitall

Gast
Goliath110 am 21.02.2007 21:07 schrieb:
Mal eine Frage : Sind wir hier in einem PC-Forum oder bei Greenpeace???
Wenn ich beim zocken kaum Strom verbrauchen will kauf ich mir ne Playstation.

Wenn ich beim zocken kein Strom verbrauchen will spiel ich nich mitn Rechner... von alleine läuft der nunmal nicht. ;)
Und wenn ich 100000 Hamster ins Laufrad packe, der Rechner läuft ^^

@Topic: ich finds geil dass die neue Ati doch später kommt... um Lieferengpässe zu vermeiden... na dann träumt mal weiter...
<<< Noch-ATI-Besitzer ^^
 

Hyperhorn

Bekanntes Gesicht
Mitglied seit
08.05.2004
Beiträge
2.283
Reaktionspunkte
10
ripitall am 21.02.2007 21:15 schrieb:
Goliath110 am 21.02.2007 21:07 schrieb:
Mal eine Frage : Sind wir hier in einem PC-Forum oder bei Greenpeace???
Wenn ich beim zocken kaum Strom verbrauchen will kauf ich mir ne Playstation.

Wenn ich beim zocken kein Strom verbrauchen will spiel ich nich mitn Rechner... von alleine läuft der nunmal nicht. ;)
Meiner Meinung nach muss das halt in sich schlüssig sein: Eine sehr schnelle Graka darf auch ordentlich Strom fressen. Wenn der Stromverbrauch allerdings nicht in Mehrleistung resultiert (Netburst), dann ist die Architektur wohl einfach unvorteilhaft.
Dazu sollte man auch andere Nebeneffekte nicht ignorieren: Bei mir hat sich damals nach dem Wechsel von einer 7800GT auf eine 7950GX2 der restliche PC so aufgeheizt, dass der AMD boxed-Kühler am Limit lief und ausgetauscht werden musste. Die Chipsatz-Temp stieg zusätzlich an, obwohl es sich um einen geräumigen Big Tower handelt.
Insofern hat es durchaus praktische Gründe auf stromsparende und effizente Hardware zu setzen, fernab von "Öko-Spinnereien".
 
Oben Unten