• Aktualisierte Forenregeln

    Eine kleine Änderung hat es im Bereich Forenregeln unter Abschnitt 2 gegeben, wo wir nun explizit darauf verweisen, dass Forenkommentare in unserer Heftrubrik Leserbriefe landen können.

    Forenregeln


    Vielen Dank
  • Kritk / Fragen / Anregungen zu Artikeln

    Wenn ihr Kritik, Fragen oder Anregungen zu unseren Artikeln habt, dann könnt ihr diese nun in das entsprechende Forum packen. Vor allem Fehler in Artikeln gehören da rein, damit sie dort besser gesehen und bearbeitet werden können.

    Bitte beachtet dort den Eingangspost, der vorgibt, wie der Thread zu benutzen ist: Danke!

GeForce GTX 970 und GTX 980 - Neuer Preis-Leistungs-Sieger?

Für die Xeons mit 8 Threads erwarte ich wiederum in einiger Zeit Vorteile. Nicht dass die ein "Muss" sind, aber dass es halt vlt. nochmal 10-20% mehr FPS sind als mit einem gleichgetakteten core i5.

Das hoffe ich doch mal auch ganz stark :top:
Ich habe mich für einen Xeon und gegen einen i5 entschieden.

Der Trend geht eindeutig immer mehr richtung Multi Core CPUs und vor allem Source 2.0 soll richtig stark darauf ausgelegt sein.
Aber auch ohne SMT-Support für Spiele sind das echt tolle CPUs und ich bereue den Kauf nicht im geringsten.
 
ja ne is klar
nur unterschlägst da so auch ein dezenztes Detail:
Wie viele Spiele haben schon PhysX? Und vorallem, wie viele davon sind überhaupt gut und wie viele davon setzen den Effekt auch wirklich gut um?
außerdem, wo, super Optimierung wenn der Unterschied zu einer gleichstarken ATI 3 Frames betragen

Ich würde allerdings immer noch auf die ATIs warten, alleine schon deswegen um einen Vergleich zu haben

Kann da nur zustimmen, warten zahlt sich bei sowas immer aus!
Zumindest bis weihnachten sollte man warten dann werden die preis schlachten sowieso wieder losgehen.
 
[...]
Der Trend geht eindeutig immer mehr richtung Multi Core CPUs und vor allem Source 2.0 soll richtig stark darauf ausgelegt sein.
[...]
Welcher Trend? :confused:

Nenn mir doch mal bitte fünf aktuelle Spiele, die vier Kerne sinnvoll nutzen ... von HT will ich ja an dieser Stelle garnicht sprechen. :B

Genauso Source 2.0: woher stammt deine Information, dass die Engine wunderbar mit vier, sechs oder acht Kernen skaliert bzw. diese richtig ausnutzt? Denkst du dir das, oder gibt es dazu auch handfeste Aussagen, Whitepaper etc.?

Ich hab wirklich keine aktuelle CPU, sondern einen i7 2600K - d.h. 2nd Gen, und dieser wird in keinem Spiel wirklich max. beansprucht.
 
Nenn mir doch mal bitte fünf aktuelle Spiele, die vier Kerne sinnvoll nutzen ...
Was wäre denn eine sinnvolle Nutzung? Ich glaub das ist nicht so einfach umzusetzen wie man sich das vorstellen und wünschen würde.
Das Problem ist, dass Videospiele extrem von serieller Abarbeitung abhängig sind. Man kann zwar einzelne Aufgaben (z.B. Physik, KI, Sound, usw.) von eigenen CPUs bzw. Kernen berechnen lassen, letztendlich muss aber doch wieder alles an einem Punkt zusammenlaufen, d.h. bei der/m CPU/Kern, der den "Main Thread" bearbeitet. Deswegen wird meist ein Kern besonders beansprucht während die restlichen Kerne bei 10%-40% dahin dümpeln.


Neeeeee... Das Geld sollte man wenn in was Lohnenswerteres investieren. [emoji6]
Ganz im ernst, für mich haben sich die 400 EUR für die PS4 schon jetzt gelohnt.
Killzone: Shadow Fall hat mir sehr gut gefallen, Last of Us Remastered ist sowieso superb und gerade spiele ich Oddworld New 'n' Tasty.
Allein diesen Klassiker in schöner HD Grafik zu spielen -> genial. Und für gerade mal 15 EUR. :]
Den PS4 Controller benutz ich jetz auch dauernd am PC, der liegt einfach super in der Hand.
Und wenn ich dran denke was da noch für tolle Spiele für die PS4 kommen... lohnt sich für mich mehr als jede neue Grafikkarte. ;)
 
Zuletzt bearbeitet:
Ganz im ernst, für mich haben sich die 400 EUR für die PS4 schon jetzt gelohnt.
Killzone: Shadow Fall hat mir sehr gut gefallen, Last of Us Remastered ist sowieso superb und gerade spiele ich Oddworld New 'n' Tasty.
Allein diesen Klassiker in schöner HD Grafik zu spielen -> genial. Und für gerade mal 15 EUR. :]
Den PS4 Controller benutz ich jetz auch dauernd am PC, der liegt einfach super in der Hand.
Und wenn ich dran denke was da noch für tolle Spiele für die PS4 kommen... lohnt sich für mich mehr als jede neue Grafikkarte. ;)
Ist vollkommen ok wenn es sich in deinem Falle lohnt, mich persönlich schrecken nach wie vor die Vollpreise der Spiele ab. Und wie schon bei der Last-Gen gibt es zu wenige Must-Have-Titel die mich zum Konsolen-Kauf bewegen könnten.

Nur für ein MGS4 und "Heavy Rain" hab ich mir schon keine PS3 geholt, ebenso wenig eine X360 wegen der "Halo"-Sequels. Lohnt sich absolut Net. ;)
 
Zuletzt bearbeitet:
Stimmt, die 400 Euro für die Playsi waren echt in Ordnung. Obwohl ich eigentlich außer FIFA & GTA nicht viel gespielt habe :-D
 
Was wäre denn eine sinnvolle Nutzung? Ich glaub das ist nicht so einfach umzusetzen wie man sich das vorstellen und wünschen würde.
Das Problem ist, dass Videospiele extrem von serieller Abarbeitung abhängig sind. Man kann zwar einzelne Aufgaben (z.B. Physik, KI, Sound, usw.) von eigenen CPUs bzw. Kernen berechnen lassen, letztendlich muss aber doch wieder alles an einem Punkt zusammenlaufen, d.h. bei der/m CPU/Kern, der den "Main Thread" bearbeitet. Deswegen wird meist ein Kern besonders beansprucht während die restlichen Kerne bei 10%-40% dahin dümpeln.
Mir ist durchaus bewusst, dass 'threading' mit zum schwierigsten Teil der Programmierung gehört. Allerdings meinte doomkeeper, dass sich die Optimierung für mehrere Kerne immer mehr durchsetzt ( = Trend ) und genau das bezweifel ich eben, u.a. aus den von dir genannten Gründen. ;)

Ich hab ja nicht behauptet, dass ich es besser könnte ... sondern ich meinte lediglich, dass ich diese Entwicklung halt nicht beobachten konnte. ;)
 
Ich denke es dauert noch ein bisschen, aber spätestens wenn sich Dx12 aufm PC etabliert hat, wird es Vorteile bringen.
Aktuell ist das noch nicht der Fall, das stimmt. Mehr als sechs Kerne werden auf absehbarer Zeit aber nicht ausgereizt (da die Konsolen zwei Kerne für das Betriebssystem reservieren).
Letztendlich hängt das aber auch stark vom Spiel ab. Manche limitieren eher durch die GPU, andere eher durch die CPU. Um die CPU auszureizen benötigt man dann auch eine starke GPU.
 
Zuletzt bearbeitet:
Was wäre denn eine sinnvolle Nutzung? Ich glaub das ist nicht so einfach umzusetzen wie man sich das vorstellen und wünschen würde.
Das Problem ist, dass Videospiele extrem von serieller Abarbeitung abhängig sind. Man kann zwar einzelne Aufgaben (z.B. Physik, KI, Sound, usw.) von eigenen CPUs bzw. Kernen berechnen lassen, letztendlich muss aber doch wieder alles an einem Punkt zusammenlaufen, d.h. bei der/m CPU/Kern, der den "Main Thread" bearbeitet. Deswegen wird meist ein Kern besonders beansprucht während die restlichen Kerne bei 10%-40% dahin dümpeln.
es gibt andere Parallelisierung Strategien wie k-d Tree Dekomposition, wo das gibt Gebiet für die jeweiligen Prozessoren nicht spatial oder zufällig einteilst sondern zusammengehörigen Gruppen bildest umso Locks innerhalb der gebildete Gruppe zu vermeiden, bei allen anderen Strategien brauchst du immer einen gemeinsame Synchronisierung, was garnicht vom Main Thread ausgeht sondern von allen Threads und somit ein Overhead ist, das Problem ist das wenn du über alle Objekte iterierst musst du den zugriff auf eine Objekten sperren, was die Skalierbarkeit verringert.

Physik Engines lassen sich in der Regel sehr gut parallelisieren weil alle Objekte im Grunde unabhängig sind und daher auch unabhängig berechnet werden können nur das Update muss gemeinsam gemacht werden was aber nicht so das Problem ist.
 
Ich hab mir auch Nvidia eingebildet,de-facto hab ich Physx fast nie gebraucht und wird in nur einen Bruchteil von Spielen unterstützt solange man nicht auf ein spezielles Spiel abzielt wo PhysX unterstützt wird ist diese Argument einfach lächerlich. AMD ist ziemlich ebenbürtig was Nvidia angeht, mich würde mal interessieren ob Nvidia die TDP wirklich einhält oder ob mit TDP hier der Durchschnittswert angibt , AMD gibt nämlich mit TDP die Obergrenze an, also die maximal abgeführte Wärmeleistung wenn Nvidia mit TDP die durchschnittliche abgeführte Wärmeleistung meint sind es vielleicht 50 Watt, was kaum einen Unterschied macht. Es sei denn die Karte läuft 5h am Tag, dann ist man in 2 bis 3 Jahren im plus gegenüber einer Radeon 290R sonst ist die Verbrauchsleistung nur ein Werbegeck und macht sich kaum bemerkbar ausgenommen ist die Geräuschbildung natürlich.

Für Leute die sich eine neue Karte kaufen wollen, ich würde mir das Ding kaufen, werde mir aber vorher einen neuen CPU+Motherboard+RAM holen,dann kommt sicher in einem Jahr später eine Generation von Grafikarten raus.
 
Ich denke allein die Wärme und Lautstärke, die man gg.über einem AMD Modell einspart, ist ein Grund auf so eine GPU umzusteigen. ;)

Natürlich muss man sich immer fragen, braucht man das 'bissle' mehr Leistung für einen gehörigen Aufpreis? Herb argumentiert ja gern, dass 15% Leistung für 200 EUR es nicht wert sind. Die Preise werden aber sicherlich fallen und 15% mehr Leistung kann eben schon den Unterschied zwischen 'stockt' <> 'läuft gut' ausmachen.
 
Ich denke allein die Wärme und Lautstärke, die man gg.über einem AMD Modell einspart, ist ein Grund auf so eine GPU umzusteigen. ;)

Natürlich muss man sich immer fragen, braucht man das 'bissle' mehr Leistung für einen gehörigen Aufpreis? Herb argumentiert ja gern, dass 15% Leistung für 200 EUR es nicht wert sind. Die Preise werden aber sicherlich fallen und 15% mehr Leistung kann eben schon den Unterschied zwischen 'stockt' <> 'läuft gut' ausmachen.

höchstens von einer alten Generation auf eine Neue , aber nicht von Radeon 290 auf GTX 970
 
Ich denke allein die Wärme und Lautstärke, die man gg.über einem AMD Modell einspart, ist ein Grund auf so eine GPU umzusteigen. ;)
Also, ich versteh gar nicht, was so viele immer von wegen "Wärme" haben ^^ Die Wärme ist doch scheissegal, solange es nicht ZU warm für die jeweilige Spezifikation des Chips wird ;) Zumal bei AMD nur der eigentliche Kern "heißer" wird als bei Nvidia, aber davon wird doch nicht gleich im PC 5 Grad wärmer oder so... und Lautstärke: die Karten von AMD mit Custom-Kühlung sind auch sehr leise, an sich gibt es da - bei gleichem Kühlkonzept (zB Asus Direct CU II oder Gigabyte Windforce 3x) - keinen Unterschied zu Nvidia. Das ist eigentlich also auch kein Argument.

Bei der GTX 970 ist es aber in der Tat NOCH einfacher, die leise und kühl zu halten, weil sie wenig Strom verbraucht. Aber ein klarer Vorteil ist das halt nicht ^^ Der Strombedarf wiederum, DAS ein sehr gutes Argument bei nem Neukauf.


Natürlich muss man sich immer fragen, braucht man das 'bissle' mehr Leistung für einen gehörigen Aufpreis? Herb argumentiert ja gern, dass 15% Leistung für 200 EUR es nicht wert sind. Die Preise werden aber sicherlich fallen und 15% mehr Leistung kann eben schon den Unterschied zwischen 'stockt' <> 'läuft gut' ausmachen.
Du musst da aber bedenken: wenn die GTX 980 im Preis fällt, dann die anderen ja sicher auch - und am Ende bleibt es halt bei ca. 200€ Unterschied bzw. vlt irgendwann "nur" 150€ Unterschied, aber trotzdem " plus 60% Kosten" - das kann man drehen und wenden wie man will :-D Ob es einem dann das WERT ist, muss halt jeder selber entscheiden. Die aktuellen Karten, die 10-15% langsamer sind, sind ja trotzdem absolute Top-Karten, da wird es eine ganze Weile dauern, bis die +15% eine entscheidende Rolle spielen - sagen wir mal vlt in 1-2 Jahren für hohe Detailstufen: wenn Du DANN einfach die gesparten 200€ plus den Gebrauchtwert der 300€-Karte nimmst und eine neue Karte kaufst, dann wird diese neue Karte vermutlich schneller sein als eine GTX 980. ;)

Aktuell gibt es ja nur die GTX980er mit Referenzkühlung für 200€ "mehr" - die mit Custom-Kühlung sind noch nicht zu haben und sogar mit weiteren mind 50€ mehr gelistet.

Die GTX 980 müsste da schon ordentlich im Preis fallen, ohne dass die anderen Karten mitziehen, damit die sich wirklich Preis-Leistungsmäßig gut einordnet. zB die GTX 780 Ti ist inzwischen mit Preisen ab 400€ ein wahres Schnäppchen, WENN man sie mit den Preisen der GTX 780 und GTX 780 Ti von vor 4 Wochen vergleicht und angesichts der Tatsache, dass die GTX 980 25% mehr kostet bei nur 10% mehr Leistung. Aber wenn man aber wiederum sieht, dass die GTX 780 Ti nur 10% schneller als eine AMD R9 290 ist, aber 140€ mehr kostet (50% Aufpreis) dann isses doch kein Schnäppchen mehr. Mit anderen Worten: trotz Preisverfall immer noch kein gutes Preis-Leistungs-Verhältnis, zumal die R9 290 (genau wie die GTX 780) ja derzeit immer noch Oberklasse bis HighEnd ist.
 
Zuletzt bearbeitet:
Also, ich versteh gar nicht, was so viele immer von wegen "Wärme" haben ^^ Die Wärme ist doch scheissegal, solange es nicht ZU warm für die jeweilige Spezifikation des Chips wird ;) Zumal bei AMD nur der eigentliche Kern "heißer" wird als bei Nvidia, aber davon wird doch nicht gleich im PC 5 Grad wärmer oder so... und Lautstärke: die Karten von AMD mit Custom-Kühlung sind auch sehr leise, an sich gibt es da - bei gleichem Kühlkonzept (zB Asus Direct CU II oder Gigabyte Windforce 3x) - keinen Unterschied zu Nvidia. Das ist eigentlich also auch kein Argument.
Die Wärme muss ja irgendwie auch abtransportiert werden ... weniger Wärmeentwicklung = weniger Geräuschentwicklung bzw. Aufwand den man mit seinem PC treiben muss, um das effizient zu gestalten.

Ich vergleich das immer gern mit meiner GTX 780 OC <> GTX 570.

Da sind Welten bei Stromverbrauch und Geräuschentwicklung ...

Du musst da aber bedenken:
[...]
Du hast ja recht ... ich hab meine GTX 780 OC relativ günstig erworben, um die 330 EUR inkl. drei nVidia Spielen und dank einem netten Verkäufer auch drei AMD Spiele. ;)

500 EUR und mehr für eine Grafikkarte würde ich auch nicht mehr ausgeben (wollen).
 
Vorbereitung auf viel besseren Multi Core Support der neuesten Engines.

Nenn mir doch mal bitte fünf aktuelle Spiele, die vier Kerne sinnvoll nutzen ... von HT will ich ja an dieser Stelle garnicht sprechen. :B
Sehr viele Spiele profitieren von 4 Kerne und in einigen spezifizierten Tests sogar HT ganz deutlich.
Da die neuen Konsolen jetzt mehrere CPUs haben, werden die neuen Spiele allesamt besser für mehrere Kerne optimiert - das ist logisch.

Genauso Source 2.0: woher stammt deine Information, dass die Engine wunderbar mit vier, sechs oder acht Kernen skaliert bzw. diese richtig ausnutzt? Denkst du dir das, oder gibt es dazu auch handfeste Aussagen, Whitepaper etc.?
Valve hat sogar schon mit der Source Engine sehr früh damit angefangen auf besseren Multi Core Support zu achten seit 2007 ungefähr :B
Was das Thema Source 2 angeht: Ich dachte ich hätte da was handfestes gesehen aber kann dir hier keinen "Beweis" abliefern.

Da sie aber auf die neueste OpenGL Version setzen, und schon seit Jahren bemüht sind Multithreading zu supporten, wird
dieser Support mit Sicherheit noch weiter ausgebaut werden.
Zumal sie jetzt eine hauseigene Physik Engine erstellt haben = Vollste Kontrolle über die Technik.

Ich hab wirklich keine aktuelle CPU, sondern einen i7 2600K - d.h. 2nd Gen, und dieser wird in keinem Spiel wirklich max. beansprucht.
Aus welchem Grund sollten die Entwickler es denn auch tun?

Jahrelang ist man gut mit Xbox360 bzw. PS3 Ports ausgekommen und es gab selten ein Spiel dass den PC ausgereizt hat.
Aber es gab auch, bis auf wenige Außnahmen, selten richtig schöne Spiele die letzten Jahre.

Mantle / DX 12 / OpenGL werden ebenfalls jetzt ganz stark auf besseren Multicore Support getrimmt => logischer Schlussfolgerung dass Multcore Unterstützung endlich effektiv in Angriff genommen wird.
 
Die Wärme muss ja irgendwie auch abtransportiert werden ... weniger Wärmeentwicklung = weniger Geräuschentwicklung bzw. Aufwand den man mit seinem PC treiben muss, um das effizient zu gestalten.
Ja sicher, aber spätestens seit GTX 600er / AMD 7000er sind die Kühler bei den Grafikkarten sehr ausgereift und auch sehr sehr leise, da ist nix mehr mit "laut". Zudem ist es oft so, dass nur ein ganz winziger Teil richtig heiß wird und andere Stellen der Karte nicht. Dann ist dabei eine leise Kühlung ggf. sogar einfacher umzusetzen als bei einer Karte, die per Messtool gemessen 10 Grad kühler ist, aber bei der mehrere anderen Stellen auch RELATIV heiß werden.

Aber im Schnitt gibt es bei AMD und Nvidia genug sehr leise Modelle, selbst die OC-Versionen. Da kann man auf keinen Fall sagen, dass die AMD-Karten klar "lauter" sind, nur weil die auf dem Papier höhere Maximal-Werte bei der Temp und mehr Strombedarf haben


Und überhaupt der Strombedarf: da war bei der GTX 400er und 500er-Serie, vlt noch bei der 600er-Serie Nvidia recht hungrig, AMD wiederum in Relation sparsamer. Bei der GTX 700er wiederum sind idR die Nvidias sparsamer. Aber all das - bis auf die High-End-Modelle - mit Abständen, die nicht wirklich der Rede wert sind. Früher war das viel krasser, da hatte ne gute Oberklassekarte zB 150W Verbrauch bei Last, und die nächstbessere direkt 250W :B

Man muss natürlich auch bedenken: sowohl bei einigen AMD- als auch bei einigen Nvidia-Karten gibt es die Möglichkeit, dass die Karte quasi "unbegrenzt" hochtaktet und/oder bis zu einer Stromverbrauchsgrenze geht, die man sehr hoch einstellen kann - natürlich ist DANN die Sache mit der Kühlung oder Strombedarf etwas kritischer. Aber wenn man die normalen Standard-Werte benutzt, auch eine "normale" ab-Werk-Übertaktung von idR um die 10%, dann ist das mit Kühlung und Strom kein relevantes Thema.
 
Schönen Guten Abend zusammen :)

Toller Test, vielen Herzlichen Dank aufgrund dieser Leistung hab ich mir heute die MSI Geforce GTX 970 Gaming 4G vorbestellt, wollte mich eh von der GTX 660 trennen :) dieses Geld hatte ich noch Übrig, nunja das ist meine erste karte die über 300 gekostet hatte Oo
 
Vorbereitung auf viel besseren Multi Core Support der neuesten Engines.
Das klingt jetzt irgendwie nach PR Geschwafel ... sorry. Du sprichst von einem Trend, hast aber keine Spiele die du als Beispiel benennen kannst, sondern erzählst etwas von "vorbereitung support neueste engines". :B

Sehr viele Spiele profitieren von 4 Kerne und in einigen spezifizierten Tests sogar HT ganz deutlich.
Dann nenn mir doch fünf Spiele, die für vier Kerne + HT optimiert sind. :)

Da die neuen Konsolen jetzt mehrere CPUs haben, werden die neuen Spiele allesamt besser für mehrere Kerne optimiert - das ist logisch.
Logisch? Eher nicht. Die neuen Konsolen haben zwar mehr Kerne, aber es sind keine CPU Kerne, sondern APU ... CPU & GPU auf einer Die vereint. D.h. es mag zwar eine x86 Struktur sein, aber dennoch kannst du hier nicht 1:1 portieren oder gar optimieren.

Mantle / DX 12 / OpenGL werden ebenfalls jetzt ganz stark auf besseren Multicore Support getrimmt => logischer Schlussfolgerung dass Multcore Unterstützung endlich effektiv in Angriff genommen wird.
Auch das versteh ich nicht ... Mantle und DX12 sollen 'low level api' Zugriffe auf die GPU Hardware gestatten. D.h. so wie man früher mit Assembler direkt auf die Hardware zugegriffen hat ohne störende Softwarelayer dazwischen.

Warum sollen jetzt hier Multicore System davon profitieren? :confused:

Richtig ist, dass man mit Mantle mit einer schwächeren CPU die gleichen Frameraten bei gleicher Grafikkarte erreicht als wie ohne Mantle mit einer schnelleren CPU, aber das ist genau der Grund bzw. Erklärung, die ich oben gegeben habe: DirectX erfordert zuviel CPU Rechenkraft, die eigentlich nicht benötigt wird, wenn man direkt auf die GPU zugreifen könnte. Denn Mantle profitiert z.B. nicht von sehr starken CPUs ... ganz im Gegenteil. ;)

Das mal vllt. als kleiner Exkurs was Mantle und dann DX12 wirklich bringen ... alles, nur keine Multicore Optimierung! :B :-D
 
Zuletzt bearbeitet:
Zurück