• Aktualisierte Forenregeln

    Eine kleine Änderung hat es im Bereich Forenregeln unter Abschnitt 2 gegeben, wo wir nun explizit darauf verweisen, dass Forenkommentare in unserer Heftrubrik Leserbriefe landen können.

    Forenregeln


    Vielen Dank
  • Kritk / Fragen / Anregungen zu Artikeln

    Wenn ihr Kritik, Fragen oder Anregungen zu unseren Artikeln habt, dann könnt ihr diese nun in das entsprechende Forum packen. Vor allem Fehler in Artikeln gehören da rein, damit sie dort besser gesehen und bearbeitet werden können.

    Bitte beachtet dort den Eingangspost, der vorgibt, wie der Thread zu benutzen ist: Danke!

The Witcher 3: Next-Gen-Update ist ein Meisterwerk - Wertungen!

Ich habe gelesen, dass das Update mit FPS-Einbrüchen, insbesondere die PS5-Version, zu kämpfen hat.
 
Seh ich mir vielleicht nochmal an. Aber das Spiel an sich wird es für mich wohl kaum viel interessanter machen.
Hatte es vor kurzem nochmal angefangen und ca. 20 Stunden gespielt. Habe aber schon wieder die Lust verloren. Wie auch bei meinem ersten Versuch damals zum Release nach ca. 30-40 Stunden. Optisch ist das Spiel auch ohne dem Update noch vollkommen ausreichend. Spielerisch hat es für mich aber einfach zu starke schwächen.
 
Seh ich mir vielleicht nochmal an. Aber das Spiel an sich wird es für mich wohl kaum viel interessanter machen.
Hatte es vor kurzem nochmal angefangen und ca. 20 Stunden gespielt. Habe aber schon wieder die Lust verloren. Wie auch bei meinem ersten Versuch damals zum Release nach ca. 30-40 Stunden. Optisch ist das Spiel auch ohne dem Update noch vollkommen ausreichend. Spielerisch hat es für mich aber einfach zu starke schwächen.
Hatte ich schon die Enhanced Edition empfohlen? Kompletter Overhaul des Gameplays, der es massiv verbessert.
 
Ja, mit aktiviertem RT, sonst nicht. Läuft wohl mit RT aber allgemein nicht wirklich rund, besonders auf der PS5 nicht.
Dynamische Schatten sind wohl auch problematisch, wenn viel los ist.
Ja, mit RT. Das sollte doch das große Feature des Updates sein?
Bessere Texturen, Behebung von clipping Fehlern, etc..

Raytracing wird zwar gerne beworben ist meiner Einschätzung nach aber defacto noch nicht marktreif. Wenn man mich fragt, ist da bei vielen Spielern auch einiges an Placebo Effekt dabei, denn so gewaltig bei laufendem Spiel sind die Unterschiede in der Wahrnehmung nicht. Selbst auf Standbildern muss man ja schon oft zweimal hingucken. Dafür dann oft 70% FPS Drop hinnehmen ist meiner Meinung nach ein echt bescheidener Kompromiß.
 
Raytracing wird zwar gerne beworben ist meiner Einschätzung nach aber defacto noch nicht marktreif. Wenn man mich fragt, ist da bei vielen Spielern auch einiges an Placebo Effekt dabei, denn so gewaltig bei laufendem Spiel sind die Unterschiede in der Wahrnehmung nicht. Selbst auf Standbildern muss man ja schon oft zweimal hingucken. Dafür dann oft 70% FPS Drop hinnehmen ist meiner Meinung nach ein echt bescheidener Kompromiß.
Sehe ich ähnlich.
In den letzten Jahren eigentlich haben die gängigen Engines schon sehr beeindruckende Lichtverhältnisse auf die Bildschirme gezaubert.
RT (salopp gesagt) setzt hier noch mal 10 Prozent drauf, verlangt aber auch 80 Prozent mehr Leistung dafür. Das typische Pareto Prinzip auch hier.
Ich finde außerdem, die Meisten haben das mit RT noch nicht so wirklich im Griff. Entweder sieht alles aus, wie mit der Speckschwarte eingerieben, mit völlig übertriebenen Spiegelungen und Reflexionen überall, die überhaupt nichts mehr mit „realistischer Darstellung“ zu tun haben oder es ist oft viel zu dunkel. Die Welt ist weder so extrem reflektierend, noch so dunkel. ;)
Und es geht mir wie dir, oft muss ich mehrmals hinschauen, um bei Vergleichsbildern einen Unterschied auszumachen und wenn, dann ist auch nicht gesagt, dass es mit RT unbedingt besser aussieht…und das auf Bildern, bewegt fällt es wohl noch viel weniger auf.
 
Ja, mit RT. Das sollte doch das große Feature des Updates sein?

... eher dass man auf Konsolen jetzt 60 FPS hat, das ganze bei verbesserten Texturen, teilweise anderen Verbesserungen die sogar oft auf dem PC nur via Mods reinkamen (es wurden auch auf den Konsolen ein paar Mods jetzt integriert), und diverse andere Verbesserungen mehr.

Dass RT Feature ist - gerade bei Konsolen - wohl eher ein "Goodie" für den - ebenfalls neuen - Photomode.

Man sollte da auch die Erwartungen im Zaum halten, RT ist bei der verwendeten Red Engine auch bei Cyberpunk 2077 ein absoluter Performance Killer, die 4090 ist wohl fast die einzige Karte die das Teil mit Ultra-Details bei hohen FPS wuppt, was die kostet, brauch ich nicht erzählen denke ich, da dürfte Witcher 3 mit der selben Engine im Prinzip auch keine Wunder wirken. Da würde ich bei den Konsolen generell was RT angeht vermuten dass man nicht mit Wundern rechnen sollte.. wie denn auch, wenn brauchbares RT bei den Grafikkarten anfängt die soviel Kosten wie mindestens ein- und eine halbe Konsole alleine.
 
Man sollte da auch die Erwartungen im Zaum halten, RT ist bei der verwendeten Red Engine auch bei Cyberpunk 2077 ein absoluter Performance Killer, die 4090 ist wohl fast die einzige Karte die das Teil mit Ultra-Details bei hohen FPS wuppt, was die kostet, brauch ich nicht erzählen denke ich, da dürfte Witcher 3 mit der selben Engine im Prinzip auch keine Wunder wirken
Um ehrlich zu sein, schätze ich den Einfluss der Engine als überschaubar ein bei der Performance von Raytracing. Zumindest wenn wir von echtem Raytracing reden. Der ganze Witz an Raytracing ist ja, dass ich die Szenerie beschreibe, also welche Objekte mit welchen Oberflächen wo sind und dann noch angebe, wo die Lichtquellen sind und den Rest (also eigentlich alles) macht dann die Hardware.
Spielwelt, bzw. Leveldesign, -geometrie und Detailgrad derselben (sowie Anzahl der Lichtquellen) sind hier also massiv der skalierende Faktor. Sofern jetzt nicht wieder die Entwickler wieder an diversen Stellen fuddeln sollen, um eine brauchbare Performance für "ihre" Spielwelt hin zu bekommen, sehe ich nicht, was hier die Engine optimieren kann. Und nicht fuddeln zu müssen ist ja gerade genau das, was die Bildqualität von Raytracing sowie die relativ einfache Programmierung von Raytracing ausmacht. Also das ganze Verkaufsargument der Technologie.
 
Um ehrlich zu sein, schätze ich den Einfluss der Engine als überschaubar ein bei der Performance von Raytracing. Zumindest wenn wir von echtem Raytracing reden. Der ganze Witz an Raytracing ist ja, dass ich die Szenerie beschreibe, also welche Objekte mit welchen Oberflächen wo sind und dann noch angebe, wo die Lichtquellen sind und den Rest (also eigentlich alles) macht dann die Hardware.
Spielwelt, bzw. Leveldesign, -geometrie und Detailgrad derselben (sowie Anzahl der Lichtquellen) sind hier also massiv der skalierende Faktor. Sofern jetzt nicht wieder die Entwickler wieder an diversen Stellen fuddeln sollen, um eine brauchbare Performance für "ihre" Spielwelt hin zu bekommen, sehe ich nicht, was hier die Engine optimieren kann. Und nicht fuddeln zu müssen ist ja gerade genau das, was die Bildqualität von Raytracing sowie die relativ einfache Programmierung von Raytracing ausmacht. Also das ganze Verkaufsargument der Technologie.
Ich glaub schon, dass die Engine und die technische Einbindung eine massive Rolle spielen.
Bei Raytracing selbst (gerade bei real time RT) gibt es sehr viele variablen an denen man schrauben kann. Wieviele Rays werden berechnet? Welche filter nutzt man pro ray und wie sind die implementiert? Wei genau wird Scattering berechnet? Wie sind diese und weitere Variable je nach Situation und sonstigem Renderaufwand angepasst (gibt es vielleicht so etwas wie ein automatisiertes Scaling der Parameter)?

Rein aus dem Kopf heraus fallen mir da zig Methoden ein, wie man da optimieren koennte oder eben auch Stolpersteine drin haben koennte.
 
Ich glaub schon, dass die Engine und die technische Einbindung eine massive Rolle spielen.
Bei Raytracing selbst (gerade bei real time RT) gibt es sehr viele variablen an denen man schrauben kann. Wieviele Rays werden berechnet? Welche filter nutzt man pro ray und wie sind die implementiert? Wei genau wird Scattering berechnet? Wie sind diese und weitere Variable je nach Situation und sonstigem Renderaufwand angepasst (gibt es vielleicht so etwas wie ein automatisiertes Scaling der Parameter)?

Rein aus dem Kopf heraus fallen mir da zig Methoden ein, wie man da optimieren koennte oder eben auch Stolpersteine drin haben koennte.
Das stimmt natürlich schon. Punkt ist nur, wenn ich an diesen Schrauben (dynamisch) drehe, verändere ich das rauskommende Bild und die Bildqualität. Wenn mein Raytracing bei komplexen Szenen dann, salopp gesagt, Scheiße aussieht, weil ich hier an den Parametern runter fummeln muss für brauchbare FPS, habe ich dann doch wieder die Spielwelt/Setting als limitierenden Faktor.

Edit: wir widersprechen uns hier gar nicht. Die Parameter, die Du benennst sind bzw. beschreiben Eigenschaften der zu rendernden Szene. Natürlich kann man diese dynamisch anpassen. Das kann dann aber zur Laufzeit hässliche Nebeneffekte haben.
 
Zuletzt bearbeitet:
Das stimmt natürlich schon. Punkt ist nur, wenn ich an diesen Schrauben (dynamisch) drehe, verändere ich das rauskommende Bild und die Bildqualität. Wenn mein Raytracing bei komplexen Szenen dann, salopp gesagt, Scheiße aussieht, weil ich hier an den Parametern runter fummeln muss für brauchbare FPS, habe ich dann doch wieder die Spielwelt/Setting als limitierenden Faktor.
Kommt halt immer drauf an, wie's gemacht ist. Ich kenn mich jetzt auch nicht genug damit aus, ob das irgendwie dynamisch angepasst werden kann. Wahrscheinlicb machen die sowas gar nicht, war nur mal ein Beispiel was sein koennte. Der Punkt den ich machen wollte war ja nur, man kann sicher sehr viel optimieren.

Schau dir zum Beispiel mal die Verbesserungen von Unreal Engine 5.0 zu 5.1 an. Da gibt es teilweise sogar Updates drin, die die Optik massiv verbessern und auch noch besser performen, weil eben der Algorithmus fuer die Bildberechnung effizienter ist. Oder z.B. ein kuerzliches Star Citizen Video (;)), in dem sie mal zeigen, wie sie durch bessere Optimierung des TImings verschiedenener Render Threads die Bilder mit weniger downtime in den Kernen und damit schneller berechnen.

Ich wollt nur sagen, glaube auch bei RT geht da einiges. :)
 
Oder z.B. ein kuerzliches Star Citizen Video (;)), in dem sie mal zeigen, wie sie durch bessere Optimierung des TImings verschiedenener Render Threads die Bilder mit weniger downtime in den Kernen und damit schneller berechnen.
Naja, das hat ja mit Raytracing gar nichts zu tun. Die Optimierungen der Engine in dem Video beziehen sich auf die CPU-Effizienz. Man hat jetzt so optimiert, dass der Renderthread (der CPU) bei jedem Frame knapp vor dem Hauptthread (der CPU) fertig ist. Wenn ich jetzt aber Raytracing einschalte und der Renderthread viermal so lange läuft (bis die GPU fertig ist), wird die ganze Optimierung bis auf 1 oder 2 Prozent wieder gefressen.
 
Naja, das hat ja mit Raytracing gar nichts zu tun. Die Optimierungen der Engine in dem Video beziehen sich auf die CPU-Effizienz. Man hat jetzt so optimiert, dass der Renderthread (der CPU) bei jedem Frame knapp vor dem Hauptthread (der CPU) fertig ist. Wenn ich jetzt aber Raytracing einschalte und der Renderthread viermal so lange läuft (bis die GPU fertig ist), wird die ganze Optimierung bis auf 1 oder 2 Prozent wieder gefressen.
Der Ounkt ist, du kannst sehr viele Kleinigkeiten optimieren, in der Form, wie verschiedene Teile einer Engine zusammenarbeiten. Wenn das gut gemacht ist, dann bekommst du bessere Performance raus. Ich verstehe nicht so ganz den Ansatz, wieso man RT da raus nehmen sollte.
 
Der Ounkt ist, du kannst sehr viele Kleinigkeiten optimieren, in der Form, wie verschiedene Teile einer Engine zusammenarbeiten. Wenn das gut gemacht ist, dann bekommst du bessere Performance raus. Ich verstehe nicht so ganz den Ansatz, wieso man RT da raus nehmen sollte.
Bei den allermeisten Setups in etwas höheren Auflösungen ist deine Engine gpu-limitiert. Deine Engine stellt die Szene zusammen, berechnet Bewegungen, Kräfte, beschreibt wo welche Objekte sind, im besten Fall, welche Objekte verdeckt werden und deshalb nicht gerendert werden müssen und wo die Lichtquellen sind. Diese fertige Szene wird dann zum Rendern an die GPU gegeben, wo dann halt klassisch mit Shadern etc. oder eben mit Raytracing das fertige Bild für den Monitor gerendert wird. Wie gesagt, in den allermeisten Setups ist dieses Zusammenspiel gpu-limitiert, dass heißt, die Laufzeit wird zu 80%-99% hinten beim Rendern gefressen. Wenn Du nun Raytracing einschaltest dauert das Rendern auf der GPU dreimal oder viermal so lange. Die Laufzeit wird nun zu 93%-99,x% beim Rendern gefressen. Wo Du dann mit deiner Engine optimieren kannst sind die übrigen 0,x bis 7%.

Ich will natürlich nicht ausschließen, dass man durch sehr schlechte Programmierung auch schlechtere Performance hinbekommt. Aber rein technisch bedingt macht Raytracing das heute zumeist schwächste Glied in der Kette der Grafikberechnung (das Rendern) nochmal um ein Vielfaches langsamer.
 
Wieso bekommt ein Grafik update neue Wertungen und wieso fallen diese gerade auf den next Gen Konsolen so überragend aus, obwohl das spiel dort üble technische Probleme hat?
 
Zurück