sauerlandboy79
Spiele-Guru
Jutt... Dann kann mein Prozzi ja noch etwas länger in seinem Zuhause bleiben. ^^
Für die Xeons mit 8 Threads erwarte ich wiederum in einiger Zeit Vorteile. Nicht dass die ein "Muss" sind, aber dass es halt vlt. nochmal 10-20% mehr FPS sind als mit einem gleichgetakteten core i5.
ja ne is klar
nur unterschlägst da so auch ein dezenztes Detail:
Wie viele Spiele haben schon PhysX? Und vorallem, wie viele davon sind überhaupt gut und wie viele davon setzen den Effekt auch wirklich gut um?
außerdem, wo, super Optimierung wenn der Unterschied zu einer gleichstarken ATI 3 Frames betragen
Ich würde allerdings immer noch auf die ATIs warten, alleine schon deswegen um einen Vergleich zu haben
Xbox One????Guter Witz. [emoji1]
Neeeeee... Das Geld sollte man wenn in was Lohnenswerteres investieren. [emoji6]
Welcher Trend?[...]
Der Trend geht eindeutig immer mehr richtung Multi Core CPUs und vor allem Source 2.0 soll richtig stark darauf ausgelegt sein.
[...]
Was wäre denn eine sinnvolle Nutzung? Ich glaub das ist nicht so einfach umzusetzen wie man sich das vorstellen und wünschen würde.Nenn mir doch mal bitte fünf aktuelle Spiele, die vier Kerne sinnvoll nutzen ...
Ganz im ernst, für mich haben sich die 400 EUR für die PS4 schon jetzt gelohnt.Neeeeee... Das Geld sollte man wenn in was Lohnenswerteres investieren. [emoji6]
Ist vollkommen ok wenn es sich in deinem Falle lohnt, mich persönlich schrecken nach wie vor die Vollpreise der Spiele ab. Und wie schon bei der Last-Gen gibt es zu wenige Must-Have-Titel die mich zum Konsolen-Kauf bewegen könnten.Ganz im ernst, für mich haben sich die 400 EUR für die PS4 schon jetzt gelohnt.
Killzone: Shadow Fall hat mir sehr gut gefallen, Last of Us Remastered ist sowieso superb und gerade spiele ich Oddworld New 'n' Tasty.
Allein diesen Klassiker in schöner HD Grafik zu spielen -> genial. Und für gerade mal 15 EUR.
Den PS4 Controller benutz ich jetz auch dauernd am PC, der liegt einfach super in der Hand.
Und wenn ich dran denke was da noch für tolle Spiele für die PS4 kommen... lohnt sich für mich mehr als jede neue Grafikkarte.
Mir ist durchaus bewusst, dass 'threading' mit zum schwierigsten Teil der Programmierung gehört. Allerdings meinte doomkeeper, dass sich die Optimierung für mehrere Kerne immer mehr durchsetzt ( = Trend ) und genau das bezweifel ich eben, u.a. aus den von dir genannten Gründen.Was wäre denn eine sinnvolle Nutzung? Ich glaub das ist nicht so einfach umzusetzen wie man sich das vorstellen und wünschen würde.
Das Problem ist, dass Videospiele extrem von serieller Abarbeitung abhängig sind. Man kann zwar einzelne Aufgaben (z.B. Physik, KI, Sound, usw.) von eigenen CPUs bzw. Kernen berechnen lassen, letztendlich muss aber doch wieder alles an einem Punkt zusammenlaufen, d.h. bei der/m CPU/Kern, der den "Main Thread" bearbeitet. Deswegen wird meist ein Kern besonders beansprucht während die restlichen Kerne bei 10%-40% dahin dümpeln.
es gibt andere Parallelisierung Strategien wie k-d Tree Dekomposition, wo das gibt Gebiet für die jeweiligen Prozessoren nicht spatial oder zufällig einteilst sondern zusammengehörigen Gruppen bildest umso Locks innerhalb der gebildete Gruppe zu vermeiden, bei allen anderen Strategien brauchst du immer einen gemeinsame Synchronisierung, was garnicht vom Main Thread ausgeht sondern von allen Threads und somit ein Overhead ist, das Problem ist das wenn du über alle Objekte iterierst musst du den zugriff auf eine Objekten sperren, was die Skalierbarkeit verringert.Was wäre denn eine sinnvolle Nutzung? Ich glaub das ist nicht so einfach umzusetzen wie man sich das vorstellen und wünschen würde.
Das Problem ist, dass Videospiele extrem von serieller Abarbeitung abhängig sind. Man kann zwar einzelne Aufgaben (z.B. Physik, KI, Sound, usw.) von eigenen CPUs bzw. Kernen berechnen lassen, letztendlich muss aber doch wieder alles an einem Punkt zusammenlaufen, d.h. bei der/m CPU/Kern, der den "Main Thread" bearbeitet. Deswegen wird meist ein Kern besonders beansprucht während die restlichen Kerne bei 10%-40% dahin dümpeln.
Ich denke allein die Wärme und Lautstärke, die man gg.über einem AMD Modell einspart, ist ein Grund auf so eine GPU umzusteigen.
Natürlich muss man sich immer fragen, braucht man das 'bissle' mehr Leistung für einen gehörigen Aufpreis? Herb argumentiert ja gern, dass 15% Leistung für 200 EUR es nicht wert sind. Die Preise werden aber sicherlich fallen und 15% mehr Leistung kann eben schon den Unterschied zwischen 'stockt' <> 'läuft gut' ausmachen.
Also, ich versteh gar nicht, was so viele immer von wegen "Wärme" haben ^^ Die Wärme ist doch scheissegal, solange es nicht ZU warm für die jeweilige Spezifikation des Chips wird Zumal bei AMD nur der eigentliche Kern "heißer" wird als bei Nvidia, aber davon wird doch nicht gleich im PC 5 Grad wärmer oder so... und Lautstärke: die Karten von AMD mit Custom-Kühlung sind auch sehr leise, an sich gibt es da - bei gleichem Kühlkonzept (zB Asus Direct CU II oder Gigabyte Windforce 3x) - keinen Unterschied zu Nvidia. Das ist eigentlich also auch kein Argument.Ich denke allein die Wärme und Lautstärke, die man gg.über einem AMD Modell einspart, ist ein Grund auf so eine GPU umzusteigen.
Du musst da aber bedenken: wenn die GTX 980 im Preis fällt, dann die anderen ja sicher auch - und am Ende bleibt es halt bei ca. 200€ Unterschied bzw. vlt irgendwann "nur" 150€ Unterschied, aber trotzdem " plus 60% Kosten" - das kann man drehen und wenden wie man will Ob es einem dann das WERT ist, muss halt jeder selber entscheiden. Die aktuellen Karten, die 10-15% langsamer sind, sind ja trotzdem absolute Top-Karten, da wird es eine ganze Weile dauern, bis die +15% eine entscheidende Rolle spielen - sagen wir mal vlt in 1-2 Jahren für hohe Detailstufen: wenn Du DANN einfach die gesparten 200€ plus den Gebrauchtwert der 300€-Karte nimmst und eine neue Karte kaufst, dann wird diese neue Karte vermutlich schneller sein als eine GTX 980.Natürlich muss man sich immer fragen, braucht man das 'bissle' mehr Leistung für einen gehörigen Aufpreis? Herb argumentiert ja gern, dass 15% Leistung für 200 EUR es nicht wert sind. Die Preise werden aber sicherlich fallen und 15% mehr Leistung kann eben schon den Unterschied zwischen 'stockt' <> 'läuft gut' ausmachen.
Die Wärme muss ja irgendwie auch abtransportiert werden ... weniger Wärmeentwicklung = weniger Geräuschentwicklung bzw. Aufwand den man mit seinem PC treiben muss, um das effizient zu gestalten.Also, ich versteh gar nicht, was so viele immer von wegen "Wärme" haben ^^ Die Wärme ist doch scheissegal, solange es nicht ZU warm für die jeweilige Spezifikation des Chips wird Zumal bei AMD nur der eigentliche Kern "heißer" wird als bei Nvidia, aber davon wird doch nicht gleich im PC 5 Grad wärmer oder so... und Lautstärke: die Karten von AMD mit Custom-Kühlung sind auch sehr leise, an sich gibt es da - bei gleichem Kühlkonzept (zB Asus Direct CU II oder Gigabyte Windforce 3x) - keinen Unterschied zu Nvidia. Das ist eigentlich also auch kein Argument.
Du hast ja recht ... ich hab meine GTX 780 OC relativ günstig erworben, um die 330 EUR inkl. drei nVidia Spielen und dank einem netten Verkäufer auch drei AMD Spiele.Du musst da aber bedenken:
[...]
Vorbereitung auf viel besseren Multi Core Support der neuesten Engines.Welcher Trend?
Sehr viele Spiele profitieren von 4 Kerne und in einigen spezifizierten Tests sogar HT ganz deutlich.Nenn mir doch mal bitte fünf aktuelle Spiele, die vier Kerne sinnvoll nutzen ... von HT will ich ja an dieser Stelle garnicht sprechen.
Valve hat sogar schon mit der Source Engine sehr früh damit angefangen auf besseren Multi Core Support zu achten seit 2007 ungefährGenauso Source 2.0: woher stammt deine Information, dass die Engine wunderbar mit vier, sechs oder acht Kernen skaliert bzw. diese richtig ausnutzt? Denkst du dir das, oder gibt es dazu auch handfeste Aussagen, Whitepaper etc.?
Aus welchem Grund sollten die Entwickler es denn auch tun?Ich hab wirklich keine aktuelle CPU, sondern einen i7 2600K - d.h. 2nd Gen, und dieser wird in keinem Spiel wirklich max. beansprucht.
Ja sicher, aber spätestens seit GTX 600er / AMD 7000er sind die Kühler bei den Grafikkarten sehr ausgereift und auch sehr sehr leise, da ist nix mehr mit "laut". Zudem ist es oft so, dass nur ein ganz winziger Teil richtig heiß wird und andere Stellen der Karte nicht. Dann ist dabei eine leise Kühlung ggf. sogar einfacher umzusetzen als bei einer Karte, die per Messtool gemessen 10 Grad kühler ist, aber bei der mehrere anderen Stellen auch RELATIV heiß werden.Die Wärme muss ja irgendwie auch abtransportiert werden ... weniger Wärmeentwicklung = weniger Geräuschentwicklung bzw. Aufwand den man mit seinem PC treiben muss, um das effizient zu gestalten.
Das klingt jetzt irgendwie nach PR Geschwafel ... sorry. Du sprichst von einem Trend, hast aber keine Spiele die du als Beispiel benennen kannst, sondern erzählst etwas von "vorbereitung support neueste engines".Vorbereitung auf viel besseren Multi Core Support der neuesten Engines.
Dann nenn mir doch fünf Spiele, die für vier Kerne + HT optimiert sind.Sehr viele Spiele profitieren von 4 Kerne und in einigen spezifizierten Tests sogar HT ganz deutlich.
Logisch? Eher nicht. Die neuen Konsolen haben zwar mehr Kerne, aber es sind keine CPU Kerne, sondern APU ... CPU & GPU auf einer Die vereint. D.h. es mag zwar eine x86 Struktur sein, aber dennoch kannst du hier nicht 1:1 portieren oder gar optimieren.Da die neuen Konsolen jetzt mehrere CPUs haben, werden die neuen Spiele allesamt besser für mehrere Kerne optimiert - das ist logisch.
Auch das versteh ich nicht ... Mantle und DX12 sollen 'low level api' Zugriffe auf die GPU Hardware gestatten. D.h. so wie man früher mit Assembler direkt auf die Hardware zugegriffen hat ohne störende Softwarelayer dazwischen.Mantle / DX 12 / OpenGL werden ebenfalls jetzt ganz stark auf besseren Multicore Support getrimmt => logischer Schlussfolgerung dass Multcore Unterstützung endlich effektiv in Angriff genommen wird.