• Aktualisierte Forenregeln

    Eine kleine Änderung hat es im Bereich Forenregeln unter Abschnitt 2 gegeben, wo wir nun explizit darauf verweisen, dass Forenkommentare in unserer Heftrubrik Leserbriefe landen können.

    Forenregeln


    Vielen Dank
  • Kritk / Fragen / Anregungen zu Artikeln

    Wenn ihr Kritik, Fragen oder Anregungen zu unseren Artikeln habt, dann könnt ihr diese nun in das entsprechende Forum packen. Vor allem Fehler in Artikeln gehören da rein, damit sie dort besser gesehen und bearbeitet werden können.

    Bitte beachtet dort den Eingangspost, der vorgibt, wie der Thread zu benutzen ist: Danke!

Cyberpunk 2077: 4K-Benchmarks mit Raytracing und DLSS auf RTX 3090 und mehr von Nvidia

Icetii

Autor
Mitglied seit
21.04.2016
Beiträge
3.430
Reaktionspunkte
51
Jetzt ist Deine Meinung zu Cyberpunk 2077: 4K-Benchmarks mit Raytracing und DLSS auf RTX 3090 und mehr von Nvidia gefragt.


Bitte beachtet: Der Kommentarbereich wird gemäß der Forenregeln moderiert.


lastpost-right.png
Zum Artikel: Cyberpunk 2077: 4K-Benchmarks mit Raytracing und DLSS auf RTX 3090 und mehr von Nvidia
 
ganze 40 fps in nativen 1080p / ultra mit 'ner 3060ti? wow. :O
 
Jo Ray Tracing scheint der Schluessel zu sein. Bei Tom's Hardware habe sie ziemlich intesiv mit vielen Karten und Einstellungen getestet (ist aber natuerlich alles auch noch preview da natuerlich vor dem day1 patch). Da sieht man auch relativ viele Vergleiche mit abgeschaltetem Raytracing und auch ein paar schwaechere Karten (fuer die, die nicht gerade eine 2080ti oder drueber haben). Wen's interessiert, hier der Link:
https://www.tomshardware.com/news/cyberpunk-2077-performance-preview
 
Jo Ray Tracing scheint der Schluessel zu sein. Bei Tom's Hardware habe sie ziemlich intesiv mit vielen Karten und Einstellungen getestet (ist aber natuerlich alles auch noch preview da natuerlich vor dem day1 patch). Da sieht man auch relativ viele Vergleiche mit abgeschaltetem Raytracing und auch ein paar schwaechere Karten (fuer die, die nicht gerade eine 2080ti oder drueber haben). Wen's interessiert, hier der Link:
https://www.tomshardware.com/news/cyberpunk-2077-performance-preview
Die Bilder kommen allerdings, wenn ich nichts übersehen habe, direkt von CDProjekt. Interessant wären vom Tester gemachte Vergleichsbilder RT off/on.
 
Die Bilder kommen allerdings, wenn ich nichts übersehen habe, direkt von CDProjekt. Interessant wären vom Tester gemachte Vergleichsbilder RT off/on.

Oh wow, sieht so aus als haetten sie den Artikel angepasst/geaendert/zensiert. Als ich den vor zwei Tagen angeschaut hab war der noch voll mit Benchmark Bargraphs. Die scheinen jetzt alle weg zu sein.

Zumindest ein paar der Graphen hab ich jetzt hier wieder gefunden:
https://wccftech.com/cyberpunk-2077...e-benchmarks-nvidia-amd-gpus-dlss-raytracing/

Keine Ahnung was da passiert ist. Vielleicht hatten sie ein Embargo gebrochen oder so?
 
Wow. Ich verabschiede mich gerade innerlich von Raytracing mit meiner 2080 auf 1080p mit butterweicher Framerate. :(

Vielleicht spiele ich es doch besser auf der PS5? :B
 
Wow. Ich verabschiede mich gerade innerlich von Raytracing mit meiner 2080 auf 1080p mit butterweicher Framerate. :(

Vielleicht spiele ich es doch besser auf der PS5? :B

Die Frage ist dann noch immer:
Bemerkt man das im Spiel überhaupt?

Klar, wenn man Screenshots hernimmt und Pixel für Pixel jede Reflektion in einer Pfütze anschaut.
Aber das ist doch nicht von 8bit zu 16 bit.

Wen ein Spiel wegen RT gut (oder besser) ist, dann hat das Spiel aber zu wenig am Knochen
(und keine 10 verdient :P )
 
Die Frage ist dann noch immer:
Bemerkt man das im Spiel überhaupt?

Klar, wenn man Screenshots hernimmt und Pixel für Pixel jede Reflektion in einer Pfütze anschaut.
Aber das ist doch nicht von 8bit zu 16 bit.

Wen ein Spiel wegen RT gut (oder besser) ist, dann hat das Spiel aber zu wenig am Knochen
(und keine 10 verdient :P )

Ja aaaaaber. Ich habe eine Karte, die das eigentlich kann und beim ersten Spiel, bei dem ich das ich gerne sehen würde, ist sie zu schwach. Das ist leicht frustran. ;)

Wobei das bei Watchdogs kein Problem war.
 
Ich schnalls nicht... und werds nie akzeptieren:
Warum werden nicht Benchmarks von den gängigsten Karten gemacht?
Also für den grossteil der Spieler.
https://store.steampowered.com/hwsurvey/videocard/

Warum für Highend (protz) Hardware, welche kaum verfügbar ist, dementsprechend beinahe keiner besitzt?
Also, erstens ist das in der News ja eine Aktion direkt von Nvidia - logisch wollen die dann ihre Top-Karten zeigen, ist doch klar. Das ist kein unabhängiger Technik-Test einer Redaktion...

Und allgemein: So ein Spiel wird natürlich zuerst mal in der bestmöglichen Qualität getestet, und der Tester soll dabei dann keine Ruckelorgie erleben. Daher nimmt man für Tests erstmal eine starke Hardeware. Er kann das Spiel ja nicht zu 100% korrekt bewerten, wenn er für ein akzeptables Durchspielen nur mittlere Details einschalten kann, weil er nen Core i5-3470 und eine GTX 970 benutzt... ;)

UND es wird anfangs auch oft nur auf Top-Systemen getestet, weil es ja jetzt noch früh ist - meistens kommen Performance-Vergleiche von "wichtigen" Games ja noch nachträglich. Es dauert ja auch seine Zeit, ein Spiel mit verschiedenen Kombinationen zu testen. Selbst nur 3 CPUs und nur 5 Grafikkarten sind am Ende 15 Testsysteme, die eine normale Redaktion nicht mal eben so rumstehen hat, sondern da müssen drei PCs mit je einer anderen CPU dann eben je 5 mal mit einer anderen Karte bestückt werden und danach ausreichend lange/oft durch Benchmarks laufen. Das ganze vlt auch noch jeweils bei maximalen und bei mittleren Details, oder evlt dazu noch bei niedrigen Details... Dann hast du in meinem Beispiel mal eben 45 Benchmark-Durchläufe... Bitte? Auch noch ein Vergleich Full-HD vs WQHD? Okay, 90 Durchläufe...

Außerdem kann man es sich zur Not auch selber herleiten. Der Abstand einer zB RTX 3080 zu einer GTX 1060 ist bekannt. Der weicht zwar je nach Game etwas ab, aber UNGEFÄHR kann man es durchaus einschätzen. Wenn zB eine RTX 3080 bei "Ultra" ohne Raytracing in Full-HD 80 FPS schafft, wird eine GTX 1060 logischerweise keine 60 FPS schaffen..


Was ich mich eher frage ist, warum meistens bei "maximalen" Details getestet wird. Was nutzt es mir, wenn ich weiß, dass ein Game in "Ultra" auf meiner RTX 2060 Super nur 50 FPS hat, ohne zu wissen, ob es bei "hoch" und "mittel" dann 70 und 90 FPS oder eher 55 und 60 FPS sind...?


ps: die Steamstatistik ist natürlich auch SEHR vage. Man weiß da nur, wer von den Nutzern was für eine Grafikkarte hat - daraus kannst du aber nicht ablesen, wie viele von diesen Leuten auch Gamer sind, die gerne ein aktuelles Blockbustergame spielen. Theoretisch könnten 70% der Leute, die eine der Karten wie "nur" eine GTX 1060 oder GTX 1650 laut Statistik haben, nichts anderes als so was wie LOL oder CS:GO spielen... ;)
 
Die Frage ist dann noch immer:
Bemerkt man das im Spiel überhaupt?

Klar, wenn man Screenshots hernimmt und Pixel für Pixel jede Reflektion in einer Pfütze anschaut.
Aber das ist doch nicht von 8bit zu 16 bit.

Wen ein Spiel wegen RT gut (oder besser) ist, dann hat das Spiel aber zu wenig am Knochen
(und keine 10 verdient :P )

Also in dem Video, in dem sie mal XBOX One X und Series X verglichen haben hatte ich den Unterschied bei den Ruflektionen schon sehr deutlich gesehen. Sowas bemerke ich ehrlich gesagt auch mehr als irgendeine Kantenglaettung bei Schatten in 80 Meter Distanz oder Tesselation irgendeiner Bodentextur oder was man nicht sonst alles hat an fancy Enffekten. Da ist Raytracing mMn noch einer der auffaelligeren.

Aber braucht man es jetzt zum spielen? 20-30 Frames wuerde ich dafuer jetzt auch nicht einbuessen wollen. Ich werde es im Moment mit meiner RTX2070 auf 1080p auf jeden Fall auch ohne spielen und damit auch gut leben koennen. Das es schon drin ist finde ich aber gut. So kann man es in ein paar jahren mit der naecshten Rechner Generation dann nochmal in voller Pracht durchspielen.

Wegen der schwaecheren GraKas, schau mal in den Link in meinem zweiten post. Die gehen da bis zur GTX1060 runter.
 
Ich schnalls nicht... und werds nie akzeptieren:
Warum werden nicht Benchmarks von den gängigsten Karten gemacht?
Also für den grossteil der Spieler.
https://store.steampowered.com/hwsurvey/videocard/

weil knapp 30 fps bei low / medium settings in full hd bei einer verbreiteten karte wie der 1060 nicht sonderlich beeindruckend wirken würden.
damit können die masterraceler ja kaum rumprotzen. :B:-D

allerdings muss man sich wirklich gedanken machen, wie cyberpunk angesichts dessen auf den last-gen-base-konsolen noch halbwegs ansehnlich laufen soll. dürfte ja so langsam "echtes" bildmaterial geben. mal suchen...
 
Extern eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Weitere Informationen gibt es auf der Datenschutzseite.

das scheint base-xbox1-gameplay zu sein.
gibts nen free-roam-mode, wo man alleine rumdüst? die stadt ist ja komplett leer! :O
 
das scheint base-xbox1-gameplay zu sein.
gibts nen free-roam-mode, wo man alleine rumdüst? die stadt ist ja komplett leer! :O
Ja, so ähnlich sah das Video, was ich vor ein paar Tagen von der One X gesehen habe auch aus, nur hochauflösender. Ich merkte das schon heute Mittag hier an: https://forum.pcgames.de/kommentare...onsolen-ein-anderes-spiel-2.html#post10344803 dass das Spiel auf der alten Konsolengeneration auch wie ein fünf Jahre altes Game wirkt.
 
Also John Linneman von DF zeigt sich schonmal absolut begeistert von der Optik und schwelgt in Superlativen. Der hat es allerdings auch auf einer RTX3090 mit Core i9 gezockt...:)
 
Sieht für mich so aus, dass Raytracing den Status als Marketing-Gag noch nicht verlassen hat. Naja, nochmal 5 Jahre abwarten und dann sehen wir weiter.
 
Zurück