• Aktualisierte Forenregeln

    Eine kleine Änderung hat es im Bereich Forenregeln unter Abschnitt 2 gegeben, wo wir nun explizit darauf verweisen, dass Forenkommentare in unserer Heftrubrik Leserbriefe landen können.

    Forenregeln


    Vielen Dank
  • Kritk / Fragen / Anregungen zu Artikeln

    Wenn ihr Kritik, Fragen oder Anregungen zu unseren Artikeln habt, dann könnt ihr diese nun in das entsprechende Forum packen. Vor allem Fehler in Artikeln gehören da rein, damit sie dort besser gesehen und bearbeitet werden können.

    Bitte beachtet dort den Eingangspost, der vorgibt, wie der Thread zu benutzen ist: Danke!

Project Scorpio: Speicher der 4K-Konsole wird sich auf PCs auswirken

an braucht sich das nix vorzumachen: 4K wird IMMER damit erkauft, dass man deutlich weniger Details hat als bei FullHD. Die Frage ist am Ende nur, ob sich das ausgleicht oder eines von beiden besser aussieht. Etliche Leute, die 4K als TV schon haben, besitzen halt auch eine Display-Größe, die bei deren Sitzabstand wiederum gar nicht mal sooo einen großen Unterschied zu Full-HD macht. Da ist die Chance hoch, dass eine Spielegrafik in Full-HD und "Ultra"-Details besser wirkt als eine mit mittleren Details in 4K.

4K ist halt auch viel Marketing-Gesabbel. Ein Film in 4K: klar, sieht besser aus, sofern man nicht viel zu weit vom Display wegsitzt. Bei Spielen muss man aber schon aufpassen, ob es echte Vorteile bringt.


Und wegen PC/Konsole: ich hab zB Ghost Recon Wildlands für die Box, und es sieht klasse aus, wenn ich aus 3m Entfernung vom Sofa aus zocke. Am PC mit WQHD und "Ultra" sieht es halt dann "besser" aus. Die Frage ist: wie wichtig ist das? Es sind - vor allem wenn man mit dem Gameplay beschäftigt ist - keine großen Unterschiede... Mir persönlich ist das nicht so wichtig. Ich hab WQHD eher wegen meiner Arbeit angeschafft, da sich da problemlos auch mal ne Website, ne Excel-Tabelle plus ne Word Datei gleichzeitig auf dem Schirm darstellen lassen.
 
TVs sind aber auch ein Thema für sich. Ich finde 4K hat schon was und ab einem bestimmten Sitzabstand und Diagonale, ist der Unterschied gut zu sehen, meiner Meinung nach. Konsolen sollen sich ja perfekt in dieses Home-Entertainment schmiegen. Das geht nicht nur zu Lasten des Detailgrades, sondern auch der Framerate und damit auch dem Gameplay. Aber du gibst auch nichts um Hausschuhe. :-D
 
TVs sind aber auch ein Thema für sich. Ich finde 4K hat schon was und ab einem bestimmten Sitzabstand und Diagonale, ist der Unterschied gut zu sehen, meiner Meinung nach. Konsolen sollen sich ja perfekt in dieses Home-Entertainment schmiegen. Das geht nicht nur zu Lasten des Detailgrades, sondern auch der Framerate und damit auch dem Gameplay. Aber du gibst auch nichts um Hausschuhe. :-D

Das mein ich ja: 4K? Dann müssen Details runter und/oder die FPS. Und am Ende kann es dann gut sein, dass es nicht besser als in Full-HD mit mehr Details aussieht, und schon hat sich der Aufpreis für "4k" nicht rentiert. Bei Filmen ist das was anderes, da du ja keine "Leistung" brauchst, um die beste Bildqualität zu erzeugen ;)
 
Das letzte Argument für PC Spieler; 60 Frames oder mehr. Ein ewiges Langeweilethema, was sich in diesen Sphären optisch gar nicht wahrnehmen lässt. Mein Haus, mein Auto, meine Graka...

Hat immer damit zutun wieviel auf dem Monitor passiert, in einem Strategiespiel wird man kaum ein unterscheid sehn zwischen 30 und 60 aber in einem Rennspiel merkt man ihn gewaltig. 60+ könnte im Esports bereich zb CS ein Vorteil sein (Vorrausgesetzt man hat auch die Reaktionen).

Der Angebermodus fängt meist ab 100+ an, alles was drunter ist, ist es die Mühe nicht wert.

Zumal ein PC Spieler durchaus mehr Argumente hat:

  • schnellere Ladezeit
  • Größerer Festplattenspeicher
  • mehr Leistung und daraus resultierende bessere Grafik
  • besserer Sound
  • leiseres Gerät
  • kühleres Gerät
  • Individualität - den nicht jeder legt Wert auf das ein oder andere was ich oben genannt hab, somit kann jeder für sich bestimmen was ihm wichtig ist.
  • individuellere Eingabegeräte (zb Tastatur und Maus)
  • günstigere Eingabegeräte
  • günstigere Spiele
  • besserer Onlinebereich
  • Mods und...
  • ...Downsampling (für die die selber sich ein älteres Spiel remastern wollen)
  • WQHD
  • echtes 4k - nicht dieses hochskalierte PS4-Pro-Gedöns
  • besseres VR

usw... ein PC ist zu Individuell um einfach mal so einen Satz rauszuklatschen und ja es gibt durchaus Argumente für eine Konsole.

  • Sehr gute exklusive Plattformspiele (und der vermutlich auch mit Abstand WICHTIGSTE Grund warum die meisten die ich kenn sich eine Konsole gekauft haben - mich eingeschlossen)
  • Günstigeres Gerät
  • Unkomplizierte Installation von Spielen
  • keine WirrWarr in den Grafikeinstellung (gibt ja die Grundeinstellung)
  • Höherer Wiederverkaufswert bei Spielen
  • (früher hätte ich geschrieben: weniger Bugs bei Spielen - aber mittlerweile ist das leider nur noch bei Nintendoprodukten der Fall...)
  • Stromsparender
  • Platzsparender
Im Großen und Ganzen wird eine Konsole gekauft wegen den Exklusivspielen* und/oder um möglichst günstig (wobei das was Sony und Microsoft angeht nur noch die Konsole betrifft), unkompliziert und schnellst möglich Spielen zu können.
Ich finde den Vergleich zum PC grade wegen den Exklusivspielen einfach unpassend - es würden deutlich weniger sich eine Konsole kaufen wenn es solche eine Exklusivität nicht gebe.

*und was die Exklusivspiele angeht muss ich klar sagen das sie meiner Meinung nach diese Exklusivität eine Art von Wettbewerbsverzerrung ist.

4K ist halt auch viel Marketing-Gesabbel. Ein Film in 4K: klar, sieht besser aus, sofern man nicht viel zu weit vom Display wegsitzt. Bei Spielen muss man aber schon aufpassen, ob es echte Vorteile bringt.
.

Ganz meine Meinung ich denke "3K" hätte es auch getan im Monitorbereich.
 
Zuletzt bearbeitet:
Bei Filmen ist das was anderes, da du ja keine "Leistung" brauchst, um die beste Bildqualität zu erzeugen ;)

dafür einen entsprechenden 4K unterstützenden BR-Player (oder halt ne PS4 Pro oder Xbox One S bzw. Scorpio) sonst hat man ja auch nur von Full-HD hochskaliertes 4K (wenn überhaupt, kenn mich damit nicht so aus)
 
dafür einen entsprechenden 4K unterstützenden BR-Player (oder halt ne PS4 Pro oder Xbox One S bzw. Scorpio) sonst hat man ja auch nur von Full-HD hochskaliertes 4K (wenn überhaupt, kenn mich damit nicht so aus)
es gibt auch Downloads in 4K, aber klar: ich meinte natürlich echtes 4K-Material und kein hochgerechnetes. Noch sind Player teuer, aber das war bei BD ja auch so.
 
Also, wenn es 8GB für die GRAFIK sind, die vlt in 2-3 Jahren beinah schon als Minimum gelten, dann nutzt nur eine Grafikkarte mit 8GB, da kann man ansonsten so viel Arbeitsspeicher haben, wie man will. Glücklicherweise haben ja alle neueren Karten ab 240€ 8GB. Naja, bis auf die GTX 1060. Aber trotzdem: ne aktuelle Top-Karte wird in 3 Jahren auch schon wieder schwächeln, und selbst die dann wiederum neuen "Einsteiger"karten (so ab 150€) werden bestimmt 8GB haben, falls es denn wichtig sein wird.

in 3 Jahren? Man bekommt heute schon locker jede Single Grafikkarte ob Titan XP oder 1080 Ti in die Knie. GTA V/Watch Dogs 2 nur um mal zwei zu nennen.
Man kauft sich heute ein PC, Morgen ist er schon wieder veraltet. Software bzw Spiele waren der Hardware schon immer voraus. prominentestes Beispiel hierfür dürfte wohl das damalige Crysis 1 PC sein. Selbst damit kann man heute noch Grafikkarten ärgern. ;)
 
Entweder habt ihr alle High-End Karten und braucht eine Rechtfertigung dafür so viel Geld ausgegeben zu haben oder eure Rechner sind alle absolut scheiße konfiguriert.

Ich habe Win 10 Pro, 64 Bit, einen Core i5 3570k @ 3,8GHz, 16GB DDR 3 RAM und eine Radeon R9 380 mit 4GB. Es gibt vielleicht zehn Spiele auf dem Markt, die ich bei ultra Einstellungen bei 1080p nicht mit 60 FPS und mehr schaffe. Bei den meisten reicht es dann an der Kantenglättung zu drehen (die Konsolen in der Art und Qualität ohnehin nicht unterstützen) und die 60FPS sind wieder da.

4k Gaming tangiert mich nicht, für mich ist nach Jahren des nötigen Auflösungswachstums 1080p mehr als scharf genug beim Zocken.
Und bis Texturen so detailliert sind, dass sie bei 1080p mehr als 4GB Grafikspeicher schlucken werden wohl auch noch ein paar Jährchen ins Land ziehen.
 
in 3 Jahren? Man bekommt heute schon locker jede Single Grafikkarte ob Titan XP oder 1080 Ti in die Knie. GTA V/Watch Dogs 2 nur um mal zwei zu nennen.
also, beide Games laufen mit meiner R9 290 einwandfrei in WQHD... ^^ oder redest du von 4K? Ich meinte das allgemein, denn die WEITAUS meisten Leute haben immer noch FullHD. Und da rennen solche Games locker. Selbstverständlich kannst du aber in JEDES Game nen Modus einbauen, der auch eine Titan XP im SLI auf 30 FPS bringt. Nur: meistens sind die Modi selbst bei Screenshotvergleichen kaum von dem Modus zu unterscheiden, der eine Stufe "schlechter" ist, aber doppelt so viel FPS ermöglicht.... ich rede von "normalen" Maximaleinstellungen, nicht von Games mit Proll-Ultra-Modi, die alles (völlig sinnfrei) überbelasten.
 
also, beide Games laufen mit meiner R9 290 einwandfrei in WQHD... ^^ oder redest du von 4K? Ich meinte das allgemein, denn die WEITAUS meisten Leute haben immer noch FullHD. Und da rennen solche Games locker. Selbstverständlich kannst du aber in JEDES Game nen Modus einbauen, der auch eine Titan XP im SLI auf 30 FPS bringt. Nur: meistens sind die Modi selbst bei Screenshotvergleichen kaum von dem Modus zu unterscheiden, der eine Stufe "schlechter" ist, aber doppelt so viel FPS ermöglicht.... ich rede von "normalen" Maximaleinstellungen, nicht von Games mit Proll-Ultra-Modi, die alles (völlig sinnfrei) überbelasten.

Also ich kann dir und restx3 versichern das noch kein Spiel bisher (wenn es jetzt nicht in 8k sein soll) meine Hardware (im Singel) ins Schwitzen gebracht hat auch nicht bei Watchdogs 2 noch GTA5 in 4k. Mit SLI brauch ich gar nicht anfangen da sind meine FPS weit jenseits der 60 FPS befindet.

Bei aller Kritik die (komplette) Pascalserie ist verhältnismäßig extrem stark. Selbst mit der 1080 GTX haben wir (bei ei em Kumpel) einige Spiele ( unter anderem Witcher 3 und Doom) mit Ultra settings auf 4k und 40+ fps zum laufen gebracht.
Mit HD (1080p) brauchst du da gar nicht anfangen da laufen die Grakas der Pascalserie nach eigener Erfahrung ab 1060 GTX super.

Und zudem bin ich der Meinung das Watch Dogs 2 schlecht programmiert ist, da es sich grafisch kaum von Witcher 3 abhebt aber Leistungstechnisch deutlich mehr abverlangt. Für mich ein Leistungsfresser nicht mehr. Was nebenbei auch Crysis oder Crysis 2 ist, man verzeiht es den Spielen aber weil es grafisch seiner Zeit um Jahre voraus war, das Watchdogs 2 nicht ansatzweise ist.
 
Ich habe Win 10 Pro, 64 Bit, einen Core i5 3570k @ 3,8GHz, 16GB DDR 3 RAM und eine Radeon R9 380 mit 4GB. Es gibt vielleicht zehn Spiele auf dem Markt, die ich bei ultra Einstellungen bei 1080p nicht mit 60 FPS und mehr schaffe. Bei den meisten reicht es dann an der Kantenglättung zu drehen (die Konsolen in der Art und Qualität ohnehin nicht unterstützen) und die 60FPS sind wieder da. Und bis Texturen so detailliert sind, dass sie bei 1080p mehr als 4GB Grafikspeicher schlucken werden wohl auch noch ein paar Jährchen ins Land ziehen.

Es sagt ja keiner, dass das bereits Standard ist. Meine Konfiguration sah bis vor kurzem ähnlich aus. Kantenglättung ist natürlich das erste, was man anpasst, wenn Grafikspeicher knapp wird. Mittlerweile sind aber doch schon einige Grafikoptionen mehr dazugekommen, die in der Summe 4GB schnell übersteigen, bzw. man nur auswählen kann, wenn man mehr als 4GB Grafikspeicher besitzt. Allen voran die Texturen. Bei mir sind das so viele Spiele, dass ich fast behaupten will, dass 4GB schon 2016 nicht mehr ausgereicht haben.
 
Also ich kann dir und restx3 versichern das noch kein Spiel bisher (wenn es jetzt nicht in 8k sein soll) meine Hardware (im Singel) ins Schwitzen gebracht hat auch nicht bei Watchdogs 2 noch GTA5 in 4k.
Genau das sag ich doch, wieso musst du mit das dann "versichern" ? ^^
 
Es sagt ja keiner, dass das bereits Standard ist. Meine Konfiguration sah bis vor kurzem ähnlich aus. Kantenglättung ist natürlich das erste, was man anpasst, wenn Grafikspeicher knapp wird. Mittlerweile sind aber doch schon einige Grafikoptionen mehr dazugekommen, die in der Summe 4GB schnell übersteigen, bzw. man nur auswählen kann, wenn man mehr als 4GB Grafikspeicher besitzt. Allen voran die Texturen. Bei mir sind das so viele Spiele, dass ich fast behaupten will, dass 4GB schon 2016 nicht mehr ausgereicht haben.

Bei 1080p sind mir noch keine Texturen untergekommen, welche die 4GB ausreizen. Und damit meine ich insbesondere Spiele mit extra HD Texturenpacks. Was passieren könnte ist insbesondere beim Modding, wenn man da 4k oder gar 8k Texturen unkomprimiert lädt und die nicht intern vorher auf die 1080p runtergerechnet werden, dass die 4GB überschritten werden. Das ist dann einfach schlechte Programmierung.

Die Optik ändert sich dadurch ja letztlich kaum bis gar nicht. Das kannst du einfach nachstellen, einfach ein Foto mit einer beliebigen, neueren Digitalkamera machen, das Bild einmal intern in einer Bildbearbeitung auf 1080p runterrechnen lassen und abspeichern und einmal das höher aufgelöste Originalbild einfach im Vollbild (also vom Monitor bzw. der Anzeigesoftware skaliert anzeigen lassen. Zwei identische 1080p Monitore nebeneinander stellen, dann einmal das 1080p Bild und einmal das Originalbild anschauen. Die Unterschiede wirst du mit der Lupe suchen müssen.

Ich sage es mal so, bei einem Spiel wie Shadows of Mordor komme ich mit allen Settings auf Anschlag plus extra HD Texturenpack im internen Benchmark mit meiner Popel-Grafikkarte auf durchschnittliche 75FPS. Für mich persönlich ist der Wahn 300 Euro und mehr alle zwei Jahre für eine Grafikkarte auszugeben nicht zu verstehen. Klar, wenn man jedes Jahr das neue Battlefield am grafischen Anschlag mit 140 FPS oder auf 4k zocken möchte, dann muss man das wohl. Wenn man eher so der "Allesspieler" und primär Singleplayer-Titel zockt, der sich mit 1080p bei beseter Bildqualität und stabilen 60FPS zufrieden gibt, dann reichen Karten wie eine Radeon 480 oder GF 1060 locker auch für die anspruchsvollsten Titel noch auf absehbare Zeit.

Man muss nämlich auch klar dazu sagen, was jetzt bei den Konsolen als 4k Gaming propagiert wird, das ist KEIN 4k Gaming, das ist hochskaliertes 1080p Gaming, denn die Spiele entsprechen vom Detailgrad und der Polygondichte 1:1 den 1080p Games. Der Mehrwert tendiert also gen Null, es sei denn, man hockt wirklich mit der Nase vorm Schirm.

Bei echtem 4k Gaming, da brauchst du dann bei Titeln heutiger(!) Leistung tatsächlich 16GB Grafikspeicher und mind. 10 - 12 TFlop Leistung. Allerdings ist das Perlen vor die Säue werfen, da die meisten Menschen davon nichts haben werden, weil sie es schlicht nicht sehen würden.
 
Man muss nämlich auch klar dazu sagen, was jetzt bei den Konsolen als 4k Gaming propagiert wird, das ist KEIN 4k Gaming, das ist hochskaliertes 1080p Gaming, denn die Spiele entsprechen vom Detailgrad und der Polygondichte 1:1 den 1080p Games. Der Mehrwert tendiert also gen Null, es sei denn, man hockt wirklich mit der Nase vorm Schirm.
Das hochskaliert stimmt allerdings sind die tatsächliche Auflösung deutlich höher als 1080p.
Mass Effect Andromeda 1800p oder Unchartet 4 1440p als Beispiel.
 
@Spiritogre Ehrlich gesagt hatte ich jetzt auch weniger Mods im Kopf und absichtlich ausgelassen. Dass die den Grafikspeicher zusätzlich belasten ist klar. Wobei ich aber jetzt HD-Texturpacks nicht unbedingt zu Mods zähle, wenn sie von offizieller Seite angeboten werden. Z.B. wie bei Rainbow Six Siege. Und Shadow of Mordor war glaub ich das erste Spiel, dass zumindest offen mit dem Thema umgegangen ist und 6GB sogar proklamiert. Kam mir jedenfalls so vor. So wie jetzt Microsoft die 8GB. Mit dem Unterschied, dass Microsoft jetzt auch liefern muss. Aber so habe ich Microsoft auch verstanden. Ich hoffe, dass das nicht so geil wird, dass ich mir noch die Xbox App laden muss, gegen die ich so vehement bin. Grafik ist bekanntlich nicht alles, aber ja - ich trage auch eine Grafikhure in mir. Jetzt ist es raus. :)

Aber da sind ja noch mehr Spiele. Dying Light, Ultra Settings brauchen 5 GB VRAM - in 1080p. Call of Duty Black Ops 3 z.B. will 6 GB. Auch Infinite Warfare, auf einer 4GB Graka werden nicht alle Texturen einer Szene geladen, bzw. in "Low" dargestellt damit die Fläche nicht leer bleibt, auch wenn du in den Settings "High" ausgewählt hast. Mir fällt das dann aber auch auf, wenn zwar die Gesichtstexturen schön knackig mit sichtbaren Poren, aber die Tür durch die man geht, nur mit einer niedrig aufgelösten Textur dargestellt wird. Und nein, dass ist nicht eine nachladende Textur, sie ist fertig geladen - eine niedrig aufgelöste Version, um grobe Darstellungsfehler zu vermeiden, weil nicht mehr in den Grafikspeicher passt. Eigentlich vom Entwickler gut gelöst, aber unschön, wenn es auffällt. Deus Ex Mankind auch. 6 GB. Mal ganz weg von Shootern. Planet Coaster mit 4GB macht keinen Spaß, egal was du da einstellst. Es sei denn man befasst sich nur mit kleinen Parks. Ghost Recon Wildlands. Open World. Das ist nicht schlecht optimiert. Das hat ein paar schöne Nvidia-Features. Maxed out kackt da schnell was ab, ohne entsprechende Hardware. Resident Evil 7. Wieso soll ich den Shadow Cache deaktivieren? Der bringt so viel, gerade bei einem Spiel, dass von Schatten lebt. Ich könnte so weiter machen. Die Spiele sind da, die Grakas mit mehr als 4GB sehen wollen und es werden immer mehr. Auch wenn man bei 1080p bleibt.

Der 4K Wahn in allen Ehren, aber du wirst auch den Dreh an der Grafikschraube sehen. Wie gesagt, den sehe ich seit 2016. Vielleicht spielen wir auch nur unterschiedliche Games. Mit der Xbox Scorpio dürfte das auf dem PC künftig noch deutlicher werden. Es kommt natürlich auch darauf an wie das Spiel entwickelt, bzw. optimiert wird. Ich will ja gar nicht bestreiten, dass auch die Studios öfter mal schlampen. Aber nicht in der Form, als das man sagen könnte, 4GB reichen und wenn nicht, seid ihr alle inkompetent. Und das wirklich völlig losgelöst von der Auflösung. Ich bevorzuge auch 1080p. Reicht mir. Ich habe schließlich auch den VGA-Modus überlebt. :)

Bei der Kantenglättung die auch Grafikspeicher belegt, geht es mir auch gar nicht so sehr darum keine Treppchen mehr zu sehen, sondern darum, das Kantenflimmern weitestgehend zu eliminieren. Ich kann darauf klar verzichten, aber ungern, wenn man sich daran gewöhnt hat. Naja, eigentlich will man alles auf Anschlag haben und hoch aufgelöste Texturen und 60 fps und die schnelle GPU für die Physikspielereien, falls Leistung übrig bleibt. Vorher sind aber noch mehr Darstellungsoptionen möglich. Downsampling z.B. und noch viele mehr die ich jetzt nicht alle aufzählen möchte. Bei jedem neuen Spiel kommt heute wenigstens ein neues Feature oder eine neue Version davon und Nvidia liefert da echt ab. Man kann wohl darüber streiten ob man es braucht oder nicht, aber den Unterschied sieht man schon sehr deutlich, aber du brauchst tatsächlich eine Grafikkarte mit mehr als 4GB VRAM.

Deswegen finde ich eine GTX 1080 ti auch nichts zum prahlen, oder etwas das man sich schönreden müsste, sondern sie ist etwas zum genießen. Die bietet das volle Programm. Das Spiel visuell so zu erleben, wie es der Entwickler vorsieht - ohne Kompromisse, aber auch der Voraussetzung modernster Technologie. Eine GTX 1070/1080 sollte es schon sein. Die Entwicklung stockt nicht, aber sie kostet. Heute mehr als gestern. Den günstigsten Einstieg bieten hier klar die Konsolen. Ich muss nach der GTX 1080 ti und meinem Vorhaben bei 1080p zu bleiben wahrscheinlich Gedanken um eine neue CPU machen, weil sie doch schneller limitieren wird, als angenommen. Viel ist in meinem Rig aber leider ohne einen größeren Umbau (zusätzliche Kosten) nicht möglich. :(

Naja, mal abwarten. Aber von Jahren würde ich heute nicht mehr reden. Zumindest fällt es mir schwer. Will ich auch gar nicht um ehrlich zu sein. Ich möchte einfach nur weiter großartige Games bestmöglich erleben. :)
 
Zuletzt bearbeitet:
Deswegen finde ich eine GTX 1080 ti auch nichts zum prahlen, oder etwas das man sich schönreden müsste, sondern sie ist etwas zum genießen. Die bietet das volle Programm. Das Spiel visuell so zu erleben, wie es der Entwickler vorsieht - ohne Kompromisse, aber auch der Voraussetzung modernster Technologie. Eine GTX 1070/1080 sollte es schon sein. Die Entwicklung stockt nicht, aber sie kostet. Heute mehr als gestern. Den günstigsten Einstieg bieten hier klar die Konsolen. Ich muss nach der GTX 1080 ti und meinem Vorhaben bei 1080p zu bleiben wahrscheinlich Gedanken um eine neue CPU machen, weil sie doch schneller limitieren wird, als angenommen. Viel ist in meinem Rig aber leider ohne einen größeren Umbau (zusätzliche Kosten) nicht möglich. :(

@CPU nicht unbedingt kommt immer drauf an zb meine Freundin fährt mit meiner alten i7 975xe 4x3,33 bis 3,6 (+ GTX 1070 und 24 GB Ram) super, kann alles in HD auf max spielen und man hat zu der alten Hardware nach knapp 8 Jahren nur noch mit 680 Euro die GPU und SSD investiert + das Gehäuse gewechselt (sie wollte ihren eigen Style an Casemod^^)

Und die CPU wird sie vermutlich noch ein paar Jährchen nutzen können aber so langsam wird man sich auf 6 oder 8 Kerner einstellen müssen, jetzt ist es noch nicht wichtig in Spielen aber ich denke in 2-3 Jahren wird der Markt günstig mit solch Prozessoren für wenig Geld versorgt und das dann auch mehr Einfluss auf Spiele nehmen wird.(Was AMD mit der Ryzen Serie jetzt schon hervorragend macht.)

@Preis muss ich anmerken das man oft liest das die Grafikkarten deutlich teurer geworden sind aber mal ehrlich wenn man einkaufen geht und durch die Regale schaut ist alles viel teurer geworden und zudem sind die Löhne auch so ziemlich gestiegen.
 
Zuletzt bearbeitet:
Dying Light, Ultra Settings brauchen 5 GB VRAM - in 1080p. Call of Duty Black Ops 3 z.B. will 6 GB. Auch Infinite Warfare, auf einer 4GB Graka werden nicht alle Texturen einer Szene geladen, bzw. in "Low" dargestellt damit die Fläche nicht leer bleibt, auch wenn du in den Settings "High" ausgewählt hast. Mir fällt das dann aber auch auf, wenn zwar die Gesichtstexturen schön knackig mit sichtbaren Poren, aber die Tür durch die man geht, nur mit einer niedrig aufgelösten Textur dargestellt wird. Und nein, dass ist nicht eine nachladende Textur, sie ist fertig geladen - eine niedrig aufgelöste Version, um grobe Darstellungsfehler zu vermeiden, weil nicht mehr in den Grafikspeicher passt. Eigentlich vom Entwickler gut gelöst, aber unschön, wenn es auffällt. Deus Ex Mankind auch. 6 GB...

Dabei ist dann aber festzuhalten, dass das dann einfach extrem miese Programmierung ist. Wir müssen ja festhalten, wir reden von einem 1080p Bild mit knapp 4GB Bildgröße, das ist geradezu pervers viel.
Meine Einschätzung ist eher, dass diese Spiele auch bei 1080p dann 4k Texturen nutzen und die auch nicht anpassen sondern einfach unkomprimiert auf den Schirm knallen bzw. das Texturen Streaming schlecht gelöst ist, weil z.B. der gesamte Levelabschnitt vorab geladen wird oder ähnliche Scherze.
 
Gebe ich dir vollkommen Recht. Man kann schon oft beobachten, dass die Spieleentwicklung, warum auch immer, diese Programmier-Genialität oder sagen wir eleganten Lösungswege vermissen lässt. 4GB ist ja nicht gerade wenig Speicher, wie du auch selbst sagst. Man macht es sich schon irgendwo leicht, wenn man nur stur auf Hardware setzt und dem Kunden dann überlässt, mitzuziehen oder nicht. Kann man machen. Ich bin aber auch jemand der notfalls alles runterdreht, anpasst und selten zähneknirschend hinnimmt.

Ursprünglich hatte ich eine GTX 970 und bin natürlich durch das 3,5 GB Problem noch viel früher mit diesem Umstand, dass 4GB eng werden können, konfrontiert worden. Es ging aber und ich möchte mich auch wie gesagt nicht beschweren. Teilweise mit viel Grafikmenues studieren und probieren, aber es ging. Da verstehe ich dann den Konsolero schon, wenn er sagt, er will das Spiel nur einlegen und anwerfen. Sich nicht mit den ganzen Einstellungsmöglichkeiten auseinandersetzen. Für mich ist das auch weniger ein notwendiges Übel. Hier und da lernt man auch, welche Option was bewirkt und entscheidet letztendlich, ob man es braucht oder nicht.

Aber wenn wir nur die 4GB Grafikspeicher nehmen, dann ist das etwas, dass mir in den vergangenen Monaten wirklich aufgefallen ist. Ich musste öfter Einstellungen vornehmen, die Sorge tragen, dass mir der Grafikspeicher nicht überläuft und alles nur noch ruckelt wie Sau und weniger die Einstellungen anpassen musste, die zur Entlastung der GPU führen. Allerdings stecke ich auch nicht so in der Materie, als das ich beurteilen könnte, ob das was ich auf dem Bildschirm zu sehen bekomme, mehr als 4GB rechtfertigt. :)
 
also, beide Games laufen mit meiner R9 290 einwandfrei in WQHD... ^^ oder redest du von 4K? Ich meinte das allgemein, denn die WEITAUS meisten Leute haben immer noch FullHD. Und da rennen solche Games locker. Selbstverständlich kannst du aber in JEDES Game nen Modus einbauen, der auch eine Titan XP im SLI auf 30 FPS bringt. Nur: meistens sind die Modi selbst bei Screenshotvergleichen kaum von dem Modus zu unterscheiden, der eine Stufe "schlechter" ist, aber doppelt so viel FPS ermöglicht.... ich rede von "normalen" Maximaleinstellungen, nicht von Games mit Proll-Ultra-Modi, die alles (völlig sinnfrei) überbelasten.

War ein extrem Beispiel.
Das man jede Grafikkarte ob Titan XP oder 1080 Ti oder SLI 1080 Ti in die Knie zwingen kann in diversen Games. Man kann natürlich auch noch wunderbar mit einer GTX 960 oder älter ganz gut spielen in 1080p und das meist in einer besseren Qualität als die PS4 und Xbox One bieten.
Ach ja sorry für die späte Antwort, ich bin hier eher selten online.
 
Zurück