• Aktualisierte Forenregeln

    Eine kleine Änderung hat es im Bereich Forenregeln unter Abschnitt 2 gegeben, wo wir nun explizit darauf verweisen, dass Forenkommentare in unserer Heftrubrik Leserbriefe landen können.

    Forenregeln


    Vielen Dank

Der Sinn hinter Multi-Core-GPUs

vinD

Anwärter/in
Mitglied seit
06.05.2006
Beiträge
49
Reaktionspunkte
0
hi leute,

mitlerweile wirds öde es jeden einzeln zu erzählen, deshalb mal an alle =)

Ich habe lange überlegen müssen ehe ich dahinter stieg wieso NVIDIA,ATI und Co...
(co nur damit sich niemand hintergangen oder unterdrückt fühlt)
... auf einmal auf Multi-Core-GPUs abfahren, da sie doch sowieso seit Jahren nur ihre Einheiten im Chip verdoppeln...
Bis mir einfiel das es doch einfacher ist einzelne Kerne abzuschalten als einzelne ALUs im Core.
Was SICHER das Problem über das viele User k... *hust* ... >Stromverbrauch< zumindest im Idle-Mode gelöst hätte.

Kleiner Kristallkugelblick: im WindowsXY-betrieb überlegt sich gerade UserVW ein spiel zu starten... bevor er dies tut, geht er in den Garten und startet einen Dampfkessel, der einen simplen Generator antreibt... zurück im Zimmer steckt er einen weiteren Stromstecker seines PCs in eine Steckdose und startet ein Spiel. ... Sofort bemerken die 256-GPUs das sie in Crysis12 gebraucht werden und in just diesen Moment flackert das Licht und die Turbine im Garten macht lärm...

geil oda? :B :B :B

Naja wenigstens brauch man die Turbine nicht im 2DModus von Windows- , Linux- (wasweißichfüreineversion) oda MacOSbetrieb(LM oda so^^) ..... :B :B :B

was ich noch loswerden wollte war eine Verwutung: die Spez vom R700 sehen aus wie eine R570 ... von den einheiten her ... und nun bestätigt sich meine Vermutung mit dem Sinn der Multi-Core-GPUs und der betriebseinsparung der Dampfturbine

MFG: VinD
 
vinD am 07.01.2008 19:16 schrieb:
hi leute,

mitlerweile wirds öde es jeden einzeln zu erzählen, deshalb mal an alle =)

Ich habe lange überlegen müssen ehe ich dahinter stieg wieso NVIDIA,ATI und Co...
(co nur damit sich niemand hintergangen oder unterdrückt fühlt)
... auf einmal auf Multi-Core-GPUs abfahren, da sie doch sowieso seit Jahren nur ihre Einheiten im Chip verdoppeln...
Bis mir einfiel das es doch einfacher ist einzelne Kerne abzuschalten als einzelne ALUs im Core.
Was SICHER das Problem über das viele User k... *hust* ... >Stromverbrauch< zumindest im Idle-Mode gelöst hätte.

Kleiner Kristallkugelblick: im WindowsXY-betrieb überlegt sich gerade UserVW ein spiel zu starten... bevor er dies tut, geht er in den Garten und startet einen Dampfkessel, der einen simplen Generator antreibt... zurück im Zimmer steckt er einen weiteren Stromstecker seines PCs in eine Steckdose und startet ein Spiel. ... Sofort bemerken die 256-GPUs das sie in Crysis12 gebraucht werden und in just diesen Moment flackert das Licht und die Turbine im Garten macht lärm...

geil oda? :B :B :B

Naja wenigstens brauch man die Turbine nicht im 2DModus von Windows- , Linux- (wasweißichfüreineversion) oda MacOSbetrieb(LM oda so^^) ..... :B :B :B

was ich noch loswerden wollte war eine Verwutung: die Spez vom R700 sehen aus wie eine R570 ... von den einheiten her ... und nun bestätigt sich meine Vermutung mit dem Sinn der Multi-Core-GPUs und der betriebseinsparung der Dampfturbine

MFG: VinD


Verstehe ich nicht
 
also, stromsparen ist sicher ein positiver nebeneffekt, sofern denn in der tat ein kern abgeschaltet wird bei 2D. aber das ist auf keinen fall der grund, warum die hersteller "plötzlich" (geforsvht wird da sicher schon ein paar jahre...) auf 2core gehen. für büroanwender gibt es eh schon leistungsschwache karten mit wenig stromverbrauch, die brauchen keinen 2core. und dem gamer, der eh >250-300€ für ne karte und nochmal 500-600€ für CPU+RAM+board ausgibt, dürfte es scheissegal sein, ob die karte unter 2D nun 30 oder 60W braucht. sicher, einzelnen usern wird das schon nicht unwichtig sein, aber was bei den spielefähigen karten zählt ist: leistung pro euro. kein gamer wird zB 20% mehr zahlen für ne karte, nur weil die zB 30% weniger strom verbaucht. dazu müßte man den PC schon täglich stundelang am tag auch bei 2D anhaben, damit sich das vielleicht nach 2-3 jahren rentiert (und welcher gamer hat schon 3 jahre die gleiche karte und 6 stunden am tag den PC einfach nur in 2D an... ? :B )

wenn die hersteller nun auf 2c umsteigen, dann sicher nur, weil es inzwischen leichter und preiswerter oder gleichteuer ist, eine 2core-karte zu bauen als zum gleichen preis eine gleichschnelle singlecore.
 
MSIX38 am 07.01.2008 19:28 schrieb:
vinD am 07.01.2008 19:16 schrieb:

Kannst du es etwas unkomplzierter machen?

okayokay... in Form einer einfachen Tabelle:

Vorteile von Multi-Core-GPU:
-einzelne Cores können separat abgeschaltet werden <-- stromverbrauch wird im Idle-Mode vermindert
-da sich Render unendlich (fast bis) Paralelisieren lässt ist es egal ob du die Corezahl erhöst oda die Funktionseinheiten im einzelnen Schritt

Nachteile:
- viele sehen es offenbar als böses Ohmen :S
- viele denken dann immer: "Toll verdopplung der Cores... *nicht überzeugt gucks* "
- wenn man dann mal die vielen Cores verwenden will brauch man trotzdem ne menge Stom und ein Netztteil (oda zweitnetzteil)

PS: mir sind nicht wirklich Nachteile eingefallen, deshalb entschuldige ich dies

MFG und in der hoffnung es ist einfacher zu verstehen: VinD
 
Herbboy am 07.01.2008 19:33 schrieb:
also, stromsparen ist sicher ein positiver nebeneffekt, sofern denn in der tat ein kern abgeschaltet wird bei 2D. aber das ist auf keinen fall der grund, warum die hersteller "plötzlich" (geforsvht wird da sicher schon ein paar jahre...) auf 2core gehen. für büroanwender gibt es eh schon leistungsschwache karten mit wenig stromverbrauch, die brauchen keinen 2core. und dem gamer, der eh >250-300€ für ne karte und nochmal 500-600€ für CPU+RAM+board ausgibt, dürfte es scheissegal sein, ob die karte unter 2D nun 30 oder 60W braucht. sicher, einzelnen usern wird das schon nicht unwichtig sein, aber was bei den spielefähigen karten zählt ist: leistung pro euro. kein gamer wird zB 20% mehr zahlen für ne karte, nur weil die zB 30% weniger strom verbaucht. dazu müßte man den PC schon täglich stundelang am tag auch bei 2D anhaben, damit sich das vielleicht nach 2-3 jahren rentiert (und welcher gamer hat schon 3 jahre die gleiche karte und 6 stunden am tag den PC einfach nur in 2D an... ? :B )

wenn die hersteller nun auf 2c umsteigen, dann sicher nur, weil es inzwischen leichter und preiswerter oder gleichteuer ist, eine 2core-karte zu bauen als zum gleichen preis eine gleichschnelle singlecore.

1. weiß selber das das Konzept bzw auch die umsetztung soalt ist wie die 3d-Karte selber... aber es herscht ja ein regelrechter zwang zum besagten
2.ich wette selbst ein Hardcoregamer ist darüber das seine Graka ihn nicht die Haut vom Leib reist (haare wären schon zu wenig)
3.das mit dem rentieren war jetzt irgendwie naja... einerseits stimmts was du sagst... dem Gamer ist es ja doch egal warum sein Geld so schnell weg ist, aber das geht net in MEINEN Kopf :-o
4. ich hab den halben Tag den PC an.... *pfeif*
 
vinD am 07.01.2008 19:41 schrieb:
4. ich hab den halben Tag den PC an.... *pfeif*

so was ist aber eher die ausnahme.

und halber stromverbauch bei 2D wird es ja so oder so nicht. was braucht ne moderne karte bei 2D? AFAIK braucht ne 8800GTs um die 60W bei 2D, ne "gute" ATI etwas weniger. mal angenommen, du würdest eine multicore bauen, die ganz optimistisch gerechnet nur halbsoviel strom in 2D braucht wie eine singlecore. dann spartst du 30W. das ist ein stromverbrauchunterschied von 0,03 KWh. bei 8 stunden 2D-betrieb am tag und 20cent strompreis wären das dann ca. 18€ pro jahr, aber wirklich 365 tage im jahr immer 8std. wenn diese karte nun aber 50€ teurer wäre... dann kauft sie keiner. bei dir würd sich das dann aber schon lohnen, wenn du den PC wirlich 24/7 an hast.

klar: wenn die hersteller die gleiche leistung für nicht mehr geld hinkriegen, dann ist das logischerweise toll.
 
Warum die Firmen auf einmal auf Multicore abfahren?

Weil sie gemerkt haben, dass es mit den altbekannten Mittel, wie z.B. immer mehr Ghz, langsam aus ist, damit immer mehr Leistung zuerreichen. Denn die Physik hat auch ihre Grenzen.

Die Problematik wurde schon tausendmal erwähnt.
 
@Herbboy

sry wir haben uns missverstanden ... mit Multi-Core-GPU habe ich bewusst die zahl weggelassen weil sich das mit dem Stromverbrauch eh erst ab ca. 8 KERNEN (nicht Karten) rentiert ... bei 2 Kernen geb ich dir recht da ist es momentan Spagetti wie Nudel ... aber ab einer bestimmten zahl von Kernen macht das dann auch sinn ;)

und bissle weiter gesponnen wegen dem, das heutzutage eh netmehr aus dem 3DModus rausgegangen wird (WindowsVista usw.)... ein Core mit Spizialeinheiten und schluss ;)
 
vinD am 07.01.2008 19:59 schrieb:
@Herbboy

sry wir haben uns missverstanden ... mit Multi-Core-GPU habe ich bewusst die zahl weggelassen weil sich das mit dem Stromverbrauch eh erst ab ca. 8 KERNEN (nicht Karten) rentiert ... bei 2 Kernen geb ich dir recht da ist es momentan Spagetti wie Nudel ... aber ab einer bestimmten zahl von Kernen macht das dann auch sinn ;)
is ja egal, den meisten usern isses egal, wieviel kerne da sind. wenn die karte nur wegen 20% weniger strombedarf dann 300€ statt 250€ bei gleicher leistung kostet, dann kaufen die trotzdem lieber die 250€ karte. außer die stromsparende wäre zusätzlich noch DEUTLICH leiser... dann würd's auch bei vielen 0815-usern schon "kritisch"... ;)

nur wegen leuten wie dir, die den PC nicht schlafen lassen, stellen die firmen sicher nicht auf multicore um :-D die gründe sind halt eben, dass die leistung pro euro mit multicpre besser ist oder erwartet wird, oder dass leistungsschübe so oder so mit single kaum mehr möglich sind.
 
Verstehe ich das richtig? SLI auf einem Chip? Klingt doch toll!!
 
nochmal an alle:

wenn man einen relativ kleinen Chip (R520) bei 45nm herstellt und auf einen DIE 8 Solche Teile hat ... kommt man schon an die Heutige Leistung... und wenn man jetzt im Idle 7Cores abschaltet hat man so ca. eine Stomaufnahme einer x1250 heutzutage ... ERST DANN ist der Stomsparvorteil überhaupt spürbar

MFG: VinD in der hoffnung das alles so stimmt
 
vinD am 07.01.2008 20:42 schrieb:
nochmal an alle:

... ... ERST DANN ist der Stomsparvorteil überhaupt spürbar

aber worauf willst du hinaus? stromspargründe sind wie gesagt nicht der beweggrund, dass in sachen multicore geforscht und produziert wird.
 
Herbboy am 07.01.2008 20:47 schrieb:
aber worauf willst du hinaus? stromspargründe sind wie gesagt nicht der beweggrund, dass in sachen multicore geforscht und produziert wird.

kennst mich ja mittlerweile (fast) und weißt wie ich den Rechner im Idle laufen habe ... könnte man auch anders lösen... zb wenn mein rechner soschnell hochgefahren wäre wie ein Kassettenrekorder ... :B

Nein ... ich wollte nur darauf hinaus das es in meinen Augen eine supi entscheidung ist mehrere Cores zu verwenden um einfach mal besser mit Elektronen umzugehen und dabei auch die Leistung hochzuhalten .. habs versucht so gut wie möglich zu erklären damit es nachvollziehbar ist...
was offebar schief ging :B :B *zu kompliziert geschrieben hat*

ich kann es net leiden das die Watts nach oben schießen als gäbs keine Stratosphäre :haeh: :haeh:
 
vinD am 07.01.2008 20:55 schrieb:
Herbboy am 07.01.2008 20:47 schrieb:
aber worauf willst du hinaus? stromspargründe sind wie gesagt nicht der beweggrund, dass in sachen multicore geforscht und produziert wird.

kennst mich ja mittlerweile (fast) und weißt wie ich den Rechner im Idle laufen habe ... könnte man auch anders lösen... zb wenn mein rechner soschnell hochgefahren wäre wie ein Kassettenrekorder ... :B

Nein ... ich wollte nur darauf hinaus das es in meinen Augen eine supi entscheidung ist mehrere Cores zu verwenden um einfach mal besser mit Elektronen umzugehen und dabei auch die Leistung hochzuhalten .. habs versucht so gut wie möglich zu erklären damit es nachvollziehbar ist...
was offebar schief ging :B :B *zu kompliziert geschrieben hat*

ich kann es net leiden das die Watts nach oben schießen als gäbs keine Stratosphäre :haeh: :haeh:
Wird sich nicht umgehen lassen. Abba wenn es, wie ich denke, SLI auf einem Chip wäre, dann wäre es doch Stromsparender, als zwei Karten! Und leistungstechnisch würde es doch auch sinn machen. Die ASUS Karte seinerzeit (2x 7800gt auf einer Karte) war ja auch schneller, als zwei einzelne Karte im SLI-Betrieb.
 
Zurück