• Aktualisierte Forenregeln

    Eine kleine Änderung hat es im Bereich Forenregeln unter Abschnitt 2 gegeben, wo wir nun explizit darauf verweisen, dass Forenkommentare in unserer Heftrubrik Leserbriefe landen können.

    Forenregeln


    Vielen Dank
  • Kritk / Fragen / Anregungen zu Artikeln

    Wenn ihr Kritik, Fragen oder Anregungen zu unseren Artikeln habt, dann könnt ihr diese nun in das entsprechende Forum packen. Vor allem Fehler in Artikeln gehören da rein, damit sie dort besser gesehen und bearbeitet werden können.

    Bitte beachtet dort den Eingangspost, der vorgibt, wie der Thread zu benutzen ist: Danke!

Aufrüst-Experten - Folge 1: PS4 und Xbox One "schuld" an massiven gestiegenen Hardware-Specs

Das war doch klar, dass die Hardwareanforderungen nach Release der ersten richtigen Next-Gen-Titel steigen werden. Die Hardwareanforderungen waren doch schon bei den Last-Gen-Titeln übertrieben hoch. Ich wusste auch schon dass der Vramverbrauch mit Sicherheit sehr viel höher sein wird. Eben weil die Current-Gen theoretisch über 8 GB-Vram verfügt. Aber natürlich muss auch Arbeitsspeicher für das System übrigbleiben. Wie viel das ist, darüber kann man nur spekulieren. In der Last Gen hatten die Konsolen nur lächerliche 512 MB Sharedmemory zur Verfügung. Die jeweiligen PC-Versionen zu den Multiplattformspielen benötigten aber 1 GB Vram oder sogar mehr. Da ist es doch nur logisch, dass die Current-Gen-Multiplattformspiele mittlerweile noch mehr Vram benötigen.

Ich kann nur hoffen, dass ich mit meiner GTX 970 zukunftssicher genug bin um zumindest in den nächsten zwei Jahren die meisten Spiele in Full HD und hohen bis Ultradetails spielen zu können. Aber der ansteigende Vramverbrauch macht mir da auch Sorgen. Ich werde aber eventuell nicht um ein Prozessorupgrade herumkommen. Allerdings hat sich mein Prozessor bei Dead Rising 3 sehr gut geschlagen und das obwohl dort wirklich beeindruckende Zombiemassen auf den Bildschirm dargestellt werden. Ich hoffe nur, dass mein Core I5 3450 noch mit GTA V klarkommt. Wenn nicht, muss ein neues Mainboard mit Sockel 1150 und ein neuer Prozessor her.
 
Ich kann nur hoffen, dass ich mit meiner GTX 970 zukunftssicher genug bin um zumindest in den nächsten zwei Jahren die meisten Spiele in Full HD und hohen bis Ultradetails spielen zu können. Aber der ansteigende Vramverbrauch macht mir da auch Sorgen.
immer dieses bescheuerte "Ultra", also sorry: da würd ich mich nicht von verunsichern lassen. Nur weil es einen Modus GIBT, der zb 6GB "braucht" oder zb die Leistung eines GTX 980 SLI-Verbundes heißt das nicht, dass Deine Karte nicht mehr gut ist, wenn sie nur 3-4GB hat. Texturen reinpacken, die mehr Speicher brauchen als jede Oberklassekarte bietet, und das dann "Ultra" nennen, könnte man theoretisch bei jedem, auch grafisch völlig veralteten Game... das heißt nicht, dass es auf "nur" hohen Details statt Ultra merkbar schlechter aussieht.
 
immer dieses bescheuerte "Ultra", also sorry: da würd ich mich nicht von verunsichern lassen. Nur weil es einen Modus GIBT, der zb 6GB "braucht" oder zb die Leistung eines GTX 980 SLI-Verbundes heißt das nicht, dass Deine Karte nicht mehr gut ist, wenn sie nur 3-4GB hat. Texturen reinpacken, die mehr Speicher brauchen als jede Oberklassekarte bietet, und das dann "Ultra" nennen, könnte man theoretisch bei jedem, auch grafisch völlig veralteten Game... das heißt nicht, dass es auf "nur" hohen Details statt Ultra merkbar schlechter aussieht.

ja
Ultra kann man echt als Grafikblender bezeichnen und man sollte auch bedenken, nur weil man etwas hochdrehen kann, bedeutet nicht das es auch wirklich merklich besser aussieht, außer die FPS können runter gehen
 
Ich meinte mit Ultradetails die grafisch bestaussehendste Option. Ich meinte nicht solch Grafikoptionen wie das Über-Sampling aus The Witcher 2. Das einfach nur dazu da erschien um jede Grafikkarte in die Knie zu zwingen. Bei Crysis 3 habe ich mich mit meiner GTX 560 ti auch mit mittleren Details zufriedengegeben da die Unterschiede zwischen den Detailstufen kaum bis gar nicht sichtbar waren.

Auch bin ich keiner der immer AA bis zum Anschlag aufdreht. Bei den meisten Spielen aktiviere ich 2 faches AA. Das reicht mir dann meistens in Verbindung mit einer 1080p-Auflösung. Ich möchte nur nicht auf schöne gut sichtbare Grafikeffekte verzichten. Früher bei Crysis waren es z.b. die in Echtzeit berechneten Lichtstrahlen, bei Mafia 2 und Mirror's Edge waren es die PhysX-Effekte und bei Tomb Raider das Tress-FX. Ich bin halt ein Grafikenthusiast.
 
Zuletzt bearbeitet:
Als nächstes kommt dann die Aussage: „Um mit einer PS4 mithalten zu können benötigt ihr mindestens eine Titan Z mit 12 GB." alles darunter geht nicht (Trollgesichtermitdonutschokoladeumdenmund)
Ich frag mich wie viel Kohle über den Tisch geht das Entwickler so einen Schwachsinn erzählen, die sollen ihre Spiele gescheit portieren .
Mit solchen specs ist da nur Ärger vorprogrammiert, und das ganze soll dann noch 60 Euros kosten.
Die sind doch ohne Schutzhelm aus dem zweiten oder dritten Stockwerk katapultiert worden als sie klein waren anders kann ich mir die Aussagen nicht erklären.
Quote: "Ji?í Rýdl von Warhorse (Kingdom Come Deliverance)
Die Konsolen bieten stärkere Prozessoren, mehr Hauptspeicher, größere Festplatten und DirectX11-Unterstützung. Daher müssen PC-Spiele vergleichbaren Anforderungen genügen, um ähnlich beeindruckende Grafik bieten zu können."
Lieber Ji?í Rýdl, die PS4 hat den "Jaguar aka Pussycat" eingebaut was soll daran bitte so gut sein?
Und die AMD BrechsübersknieGPU mit 1,84 TFLOPS. was rechtfertigt da Anforderung wie beispielsweise bei ACUnity mit 680GTX als minimum?
Kann jedem nur raten die Finger von Konsolen spielen zu lassen die solche Anforderungen an den PC stellen.
 
Ich habe mir vor zwei Jahren einen neuen Rechner mit Core i5 3570K geholt, selbst die schnellsten i7 CPUs heute sind nur unwesentlich schneller, früher waren zwei Jahre Welten, da hat die CPU 100 Prozent Mehrleistung gehabt.

Damals kam nur eine Radeon HD 6770 für 120 Euro da rein, eigentlich dachte ich, viel zu lahm, ging aber nicht anders. Der Witz ist, die Grafikkarte reicht für fast alle aktuellen Titel immer noch. Klar, die ganz großen Hardwarefresser wie Ryse werden da nicht mehr mit maximalen Details sondern nur noch Mittel laufen, nur, das sind halt wirklich nur ganz wenige Spiele. Und ja, ich liebäugle sicherlich mit einer schnelleren, besseren Karte. Nur solange die nicht wirklich einen Mehrwert bringt.

Und oh mein Gott, wenn ich da so in manche Grafikkartendiskussionen (insbesondere bei anderen Seiten) schaue, da geht unter GeForce 970 ja gar nichts mehr, alle Spiele völlig unspielbar! Da kann ich echt immer nur mit dem Kopf schütteln. Grafikkarte als P*nisverlängerung?

Gleiches Spiel übrigens bei Monitoren. Unter 4k und 144Hz, gibt es nicht ... das ist der g*ile Scheiß und alles andere ist Mist.

Ne, zum Glück spiele ich um Spaß zu haben. Und mir ist es egal, ob ein Spiel mit 62 FPS oder 65 FPS läuft, mein Monitor hat eh nur 60 Hz und Full HD (dafür aber ein gutes MVA Panel und dadurch sieht das Bild eh besser aus als auf den Spielemonitoren mit den blassen TN Panels ^^ ).
 
Ich meinte mit Ultradetails die grafisch bestaussehendste Option. Ich meinte nicht solch Grafikoptionen wie das Über-Sampling aus The Witcher 2. Das einfach nur dazu da erschien um jede Grafikkarte in die Knie zu zwingen.

Nein; da man nur mit SSAA/DSR auch wirklich jede Kante geglättet bekommt.
Herkömmliche AA Techniken scheitern an zu wenig Bildinformation (1080P) um Gräser und Zäune und feinste Details zu glätten.
Da kann man nur mit billigen Post-Effekten arbeiten die jedoch die Bildschärfe reduzieren.

SSAA/DSR sind sehr wichtige Modi für Enthusiasten und High-End Hardware.
Insbesondere ältere Spiele profitieren enorm davon da man ein GTA IV zum Beispiel mittlerweile auf einer 200€ GPU in 4K spielen kann. In dieser Auflösung flimmert absolut nichts mehr und das Bild ist schärfer und wesentlich ruhiger (weniger Aliasing).

dsr-step-3-640px.png
dsr-step-2-640px.png
 
Zuletzt bearbeitet:
Sry, da muß ich Dir widersprechen. Es liegt ja wohl auf der Hand, dass die Hardwareanforderungen mit jeder neuen Konsolen-Generation steigen.

Das habe ich nicht bestritten. Das ändert aber nichts daran, dass ich den technischen Sprung nicht sehe, der mich jetzt dazu bewegen soll, 300+ Euro in eine neue Grafikkarte zu investieren. Für mich ist das Ganze nur ein bequemer Umstand für Nvidia und co. neue Karten an den Mann zu bringen, obwohl der grafische Fortschritt auf dem PC in den letzten Jahren auch nicht unbedingt explodiert ist. Dass Assassins Creed: Unity dann noch eng mit Nvidia entwickelt wurde, ist natürlich ein super Zufall. Diese ganze Grafikkarten-Psychologie ist sowieso sehr interessant. Vor kurzem hatte ich doch tatsächlich kurz das Gefühl, meine 760 wäre unheimlich veraltet, weil es ja schon die 900er Reihe gibt, obwohl das natürlich eigentlich erst die 800er Reihe wäre. Diesen Umstand macht sich Nvidia sicherlich gerne zu Nutze, dem Kunden das Gefühl zu geben, aufrüsten zu müssen, obwohl das vielleicht gar nicht unbedingt notwendig wäre.

Die GTX 760 kostet übrigens immer noch über 200 Euro und wird nach wie vor von Nvidia als "leistungsfähige Grafikkarte" mit "umfangreichen, technologischen PC-Gaming-Technologien" beworben. Ein tolles BlaBla, das Nvidia wohl vergessen hat, als sie mit Ubisoft Hand in Hand gearbeitet haben.

Zudem gibt der PC Spiele in höherer Auflösung wieder, mit höherem Anti-Aliasing, mit mehr Bildern pro Sekunde. Wo soll denn die Leistung dafür herkommen?

Eine Frage des Anspruchs. Welche Auflösung und grafischen Einstellungen man spielen will, kann ja jeder für sich entscheiden. Dafür gibt es ein Einstellungsmenü. Ich verzichte auch gerne auf Antialiasing und 60 FPS, um ein tolles Spiel zum Laufen zu bringen. Wenn aber künstlich Barrieren geschaffen werden, werde ich etwas stinkig. Ich glauba aber nicht, dass sich die Entwickler jetzt an Ubisoft ein Beispiel nehmen, von daher behalte ich meine Karte auch erstmal.

Ist schon witzig. Die letzten Jahre wurde von PC-Only Gamern immer kritisiert, die Konsolen (insbesondere als Leading Platform) würden die Entwicklung am PC ausbremsen und unter den Möglichkeiten bleiben, und nu?

Hast du dir damals die Namen dieser PC-Only-Gamer aufgeschrieben? Durchaus möglich, dass es diesmal ganz andere PC-Only-Gamer sind, die sich beklagen... :] Wenn die Konsolen nun (indirekt, die werden ja nur als Aufhänger verwendet) dafür sorgen, dass es noch schlechter optimierte Spiele herauskommen und die Hardwareanforderungen absolut grundlos explodieren, wird das nicht unbedingt besser. Wieso für WD noch mindestens eine GTX 460 notwendig war und für AC:U ein halbes Jahr später plötzlich die GTX 680 gerade ausreicht, müsste mir mal jemand erklären. Grafisch sehe ich da keinen himmelweiten Unterschied, außer, dass AC:U durch sein Setting prunkvoller anmutet. Die enormen Gegnermassen sollten eigentlich eine CPU-Angelegenheit sein.
 
Zuletzt bearbeitet:
In den nächsten Jahren werden die Konsolen ihre Retourkutsche Dank skalierbare Grafik-Engines noch bekommen. Ich sehe dieses Thema ziemlich gelassen.
 
"Rasant wachsend"?

Ich würds eher so bezeichnen:

"ENDLICH geht mal was weiter" :)
 
Ich versteh das auch nicht schon ewig kein Spiel mehr gehabt das meinen Pc gefordert hat? ^^ Hab ich da was verpasst oder Spiele die Leute noch auf eine 486er? ^^
 
Ich versteh das auch nicht schon ewig kein Spiel mehr gehabt das meinen Pc gefordert hat? ^^ Hab ich da was verpasst oder Spiele die Leute noch auf eine 486er? ^^

in Anbetracht von so Sachen wie Star Citizen, Project Cars, The Witcher 3:

JA,

du hast garantiert was verpasst
 
Wobei diese hohen Anforderungen oft einfach ungerechtfertigt sind. Da wird hier und da mal ein i7 3770 empfohlen oder sogar eine GTX 780, wobei die neuen Konsolen definitiv damit nicht zu vergleichen sind.
In manchen Fällen sind solche Anforderungen einfach nur ein Vorwand, denn eigentlich sind die Spiele dann einfach nur schlecht auf den PC portiert und sind deshalb so hardwarehungrig.
Trifft nicht auf alle Spiele zu, aber bei manchen erkennt man einfach sofort, dass da einfach kaum wert auf eine gute Portierung gelegt wurde und deshalb einfach die Anforderungen angehoben werden.
 
Das habe ich nicht bestritten. Das ändert aber nichts daran, dass ich den technischen Sprung nicht sehe, der mich jetzt dazu bewegen soll, 300+ Euro in eine neue Grafikkarte zu investieren. Für mich ist das Ganze nur ein bequemer Umstand für Nvidia und co. neue Karten an den Mann zu bringen, obwohl der grafische Fortschritt auf dem PC in den letzten Jahren auch nicht unbedingt explodiert ist. Dass Assassins Creed: Unity dann noch eng mit Nvidia entwickelt wurde, ist natürlich ein super Zufall. Diese ganze Grafikkarten-Psychologie ist sowieso sehr interessant...

Die grafischen Sprünge werden immer kleiner. Große Unterschiede sieht man nur wenn man ein Spiel von 2008 mit einem heutigen Spiel direkt vergleicht. Trotzdem fressen sie immer mehr Leistung, im Hintergrund finden immer komplexere Berechnungen statt, welche aber eben nur einen kleinen Beitrag zur besseren Grafik geben. Trotzdem gebe ich nicht viel Geld für Grafikkarten aus, weil es schlichtweg nicht nötig ist. Spiele sehen in einem Mittel-Hoch-Mix immer noch gut genug aus. Und ich werde auch nicht für AC: Unity aufrüsten, solche Titel lasse ich erst einmal liegen. Ich sehe da kein Problem. Wer sich da belabern läßt muß eben blechen. Werden die Anforderungen zu hoch, spiele ich halt ein paar Indie-Spiele und warte bis sich die Hardware eingependelt hat und bezahlbar geworden ist.
Hier versuchen die Entwickler ja auch die Hardware zu puschen, weil sie ansonsten in den Regalen liegen bleibt und sie zu sehr optimieren müssen, bzw der Fortschritt stagniert, auch wenn er nicht merklich ist. ;)
 
Zuletzt bearbeitet:
in Anbetracht von so Sachen wie Star Citizen, Project Cars, The Witcher 3:

JA,

du hast garantiert was verpasst

Bisher nicht. Die genannten Spiele sind alle drei noch nicht erschienen. Und der (vielleicht) größte genannte Hardwarefresser, Star Citizen, kommt erst in ein bis zwei Jahren.
Und ob man Witcher 3 und Project Cars nicht auch problemlos in Full HD mit maximalen Grafikdetails aber statt 16x AA dann 8x AA, deaktiviertem SSAA und mit 30 + FPS dann nicht auch problemlos auf Mittelklasse Rechnern spielen kann, sehen wir dann. Da bin ich nämlich absolut optimistisch, dass selbst meine Möhre das noch hinkriegt (und dabei immer noch erheblich besser aussieht als PS4 und XBox One).
 
Das die Anforderungen mit den neuen Konsolen auch für PCs steigen war klar. 8GB RAM statt 512MB, DX11 Grafik statt DX9c, 64Bit Octa-Core CPUs.
Dazu kommt das die Konsolen die Hardware sehr viel direkter nutzen können als Windows PCs so das man grundsätzlich mehr Leistung für das gleiche Ergebnis benötigt.
AMDs Mantle ist ein Versuch das zu ändern, die nächste DirectX Version, DX12, und künftige OpenGL Versionen werden diesen Ansatz aufgreifen.

Selbst jetzt sollten aber 8GB RAM, ein schneller Quad-Core Prozessor und eine halbwegs aktuelle DX11 Grafikkarte ausreichen um zumindest das gleiche Ergebnis wie auf den Konsolen zu bekommen. Aber welcher PC-Spieler will das? Man will höhere Auflösungen, bessere Texturen, bestmögliche Kantenglättung, Ambient Occlusion und mehr sonstige Effekte in maximaler Qualität. Klar, das die Anforderungen weiter steigen. Dabei greifen die Spielehersteller mit den genannten Systemvoraussetzungen gerne DEUTLICH zu hoch, vor allem wohl um sich bei Problemen mit schwächerer Hardware mit dem Verweis auf die genannten Voraussetzungen den Support sparen zu können. Und besonders in den USA geht man damit auch idiotischen Klagen aus dem Weg...


Ansonsten finde ich die Anforderungen gar nicht mal so hoch. Das meiste hätte mein letzter PC, Baujahr 2009(!) bereits erfüllen können:

AMD Phenom II x4@3400, 8GB DDR2 RAM, nVidia GTX275 mit 1.7GB VRAM und Windows 7 x64.
Mit dem Update der Grafikkarte auf eine GTX670 mit 2GB VRAM hätte der Rechner ab Ende 2012 sogar schon für die meisten aktuellen Spiele in Konsolenqualität oder besser gereicht.
50GB oder mehr Plattenplatz für ein Spiel waren schon lange vorher kein Problem.

Inzwischen steckt die GTX670 in einem Rechner mit i7 4770K und 16GB RAM. Demnächst wird die Karte noch durch eine GTX970 ersetzt und dann sollte dieser Rechner eigentlich wieder über Jahre für alles reichen was in dieser Konsolengeneration an Multi-Plattform Titeln noch erscheint... Zumindest solange ich bei 1920x1200 bzw. FullHD bleibe und mir kein 4K-Display gönne. ;)

Es lohnt sich immer vorausschauend zu kaufen, nicht am RAM und der CPU zu sparen und möglichst Grafikkarte und den Rest getrennt aufzurüsten. Damit kann man auch mit einem überschaubaren Budget immer recht aktuelle und leistungsfähige Hardware nutzen. :)
 
Inzwischen steckt die GTX670 in einem Rechner mit i7 4770K und 16GB RAM. Demnächst wird die Karte noch durch eine GTX970 ersetzt und dann sollte dieser Rechner eigentlich wieder über Jahre für alles reichen was in dieser Konsolengeneration an Multi-Plattform Titeln noch erscheint... Zumindest solange ich bei 1920x1200 bzw. FullHD bleibe und mir kein 4K-Display gönne. ;)
Solange reicht auch noch die 670 ... :top:
 
Bei mir kommt der neue PC (außer Grafikkarte) vermutlich in 4-6 Monaten.

Mordor habe ich mit meinem Aktuellen System mit High Textures und ansonsten auch vieles auf Anschlag in 1080p mit 45-60 FPS spielen können. Trotz 2GB Karte. Nachladeruckler waren extrem selten und haben MICH nicht gestört. (i7 860 @ 2,8Ghz, 8 GB Ram, GF 770 2GB). Bis auf die Graka halt auch schon so um die 6 Jahre alt der Kasten.

Die Karte muss dann noch ein paar Monate schuften - muss man sehen wie viele Spiele wirklich auf mehr als 2GB angewiesen sein werden.

Mordor rechtfertigt die hohen Anforderungen aber mMn nicht. Die Texturen sind ordentlich, aber nicht so gut das man den Speicher so vollmüllen müsste. Apropos. Die Wertung von PCG finde ich recht niedrig. Ich würde das Spiel eher im niedrigen 80er Bereich sehen (80-83%).
 
Solange reicht auch noch die 670 ... :top:
Kann sein, aber die ist mir etwas zu laut...

Meine MSI GTX 275 Lightning war selbst unter Last unhörbar. Die MSI GTX 670 Power Edition OC ist trotz des sehr ähnlichen Kühlers unter Last relativ laut. Die MSI GTX 970 Gaming 4G ist allen Tests zufolge wieder so leise wie ich es von der "Lightning" gewohnt war. Und ich spiele natürlich auch gerne mit maximalen Details. ;)
 
Kann sein, aber die ist mir etwas zu laut...

Meine MSI GTX 275 Lightning war selbst unter Last unhörbar. Die MSI GTX 670 Power Edition OC ist trotz des sehr ähnlichen Kühlers unter Last relativ laut. Die MSI GTX 970 Gaming 4G ist allen Tests zufolge wieder so leise wie ich es von der "Lightning" gewohnt war. Und ich spiele natürlich auch gerne mit maximalen Details. ;)

Ich kann dazu nur den Test von Computerbase empfehlen. Die haben zwar auch die MSI empfohlen aber ich habe mir aufgrund des Spulenfiepens der anderen Karten die Omegaedition der Zotac GTX 970 gekauft. Bei der Zotac höre ich beim Zocken bei bis zu 60 FPS keinerlei Spulenfiepen. Ich kann aber nichts über die Lüfterlautstärke sagen da die seitlichen Gehäuselüfter von meinen Rechnergehäuse dauernd auf Hochleistung laufen und daher von der Lautstärke her alles in den Schatten stellen. Außerdem frisst die MSI 40 Watt mehr Leistung unter Last.
11 GeForce GTX 970 im Test - ComputerBase
 
Zurück