• Aktualisierte Forenregeln

    Eine kleine Änderung hat es im Bereich Forenregeln unter Abschnitt 2 gegeben, wo wir nun explizit darauf verweisen, dass Forenkommentare in unserer Heftrubrik Leserbriefe landen können.

    Forenregeln


    Vielen Dank
  • Kritk / Fragen / Anregungen zu Artikeln

    Wenn ihr Kritik, Fragen oder Anregungen zu unseren Artikeln habt, dann könnt ihr diese nun in das entsprechende Forum packen. Vor allem Fehler in Artikeln gehören da rein, damit sie dort besser gesehen und bearbeitet werden können.

    Bitte beachtet dort den Eingangspost, der vorgibt, wie der Thread zu benutzen ist: Danke!

Nvidia: Raytracing teils auch ohne RTX-Grafikkarte

AntonioFunes

Autor
Mitglied seit
29.09.2010
Beiträge
950
Reaktionspunkte
109
Jetzt ist Deine Meinung zu Nvidia: Raytracing teils auch ohne RTX-Grafikkarte gefragt.


Bitte beachtet: Der Kommentarbereich wird gemäß der Forenregeln moderiert.


lastpost-right.png
Zum Artikel: Nvidia: Raytracing teils auch ohne RTX-Grafikkarte
 
Irgendwie ist das doch mit dem Raytracing noch nicht wirklich soweit. In 5 Jahren vielleicht. Momentan bringt mir das einfach zu wenig. Bei den heruntergesetzten Auflösungen muss man schon wissen, dass RTX an ist, um sich nen Unterschied einzubilden.
Die sollen mal lieber ne GTX2080 bringen sonst wird diese Generation übersprungen. Das macht dann auch für die meisten noch Sinn, wenn die Karte bei 500€ liegt. Aber das bleibt wohl nen Traum. Jensen muss weg.
 
Irgendwie ist das doch mit dem Raytracing noch nicht wirklich soweit. In 5 Jahren vielleicht. Momentan bringt mir das einfach zu wenig. Bei den heruntergesetzten Auflösungen muss man schon wissen, dass RTX an ist, um sich nen Unterschied einzubilden.
Die sollen mal lieber ne GTX2080 bringen sonst wird diese Generation übersprungen. Das macht dann auch für die meisten noch Sinn, wenn die Karte bei 500€ liegt. Aber das bleibt wohl nen Traum. Jensen muss weg.

Ich glaube, es wird noch so lange dauern, bis selbst eine durchschnittliche Grafikkarte so oder so "fotorealistisch" berechnen kann. Auch falls in 5 Jahren zB eine RTX 4060 für 300€ Raytracing "schaffen" kann und das heutige BF V inkl Raytracing locker mit 60 FPS schafft, wird sie in den DANN neuesten anderen Games eher wenig FPS mit RT erreichen, weil sie gleichzeitig mit anderen Dingen, die die Entwickler in 5 Jahren ihren Games spendieren, beschäftigt ist.

Raytracing wird also IMHO noch auf lange Zeit immer 30-50% an FPS kosten, weil die Games ja grafisch nicht so bleiben, wie sie jetzt sind, so die Mehrleistung neu erscheinende Grafikkarten voll ins RT gehen kann, sondern sich die Grafik auch abseits von RT weiterentwickelt.
 
Irgendwie ist das doch mit dem Raytracing noch nicht wirklich soweit. In 5 Jahren vielleicht. Momentan bringt mir das einfach zu wenig. Bei den heruntergesetzten Auflösungen muss man schon wissen, dass RTX an ist, um sich nen Unterschied einzubilden.
Die sollen mal lieber ne GTX2080 bringen sonst wird diese Generation übersprungen. Das macht dann auch für die meisten noch Sinn, wenn die Karte bei 500€ liegt. Aber das bleibt wohl nen Traum. Jensen muss weg.

Ich persönlich halte Raytracing für eine zukunftssichere Technik. Das letzte "große Ding" war Tessellation, was ja auch am Anfang massiv Leistung gekostet hat und man lieber erstmal abgestellt hat. Heute ist es Standard und es kräht kein Hahn mehr danach.

Und wenn ich mir z.B. Metro Exodus mit und ohne Raytracing ansehe, ist das stellenweise schon ein krasser Unterschied. Gerade was Räume angeht, die mit Raytracing deutlich realistischer beleuchtet werden. Das bildet man sich nicht nur ein. Der Unterschied ist tatsächlich gegeben. :) Dass eine neue Technik Zeit braucht, um sich richtig durchzusetzen, ist klar. Klar ist auch, dass Raytracing noch nicht optimal eingesetzt ist und es noch Luft nach oben gibt.

Aber ich bin zuversichtlich, dass Raytracing früher oder später zum Standard wird und die bisher üblichen Beleuchtungstechniken und Screen Space Reflections komplett ablöst.
 
Ich persönlich halte Raytracing für eine zukunftssichere Technik. Das letzte "große Ding" war Tessellation, was ja auch am Anfang massiv Leistung gekostet hat und man lieber erstmal abgestellt hat. Heute ist es Standard und es kräht kein Hahn mehr danach.

Und wenn ich mir z.B. Metro Exodus mit und ohne Raytracing ansehe, ist das stellenweise schon ein krasser Unterschied. Gerade was Räume angeht, die mit Raytracing deutlich realistischer beleuchtet werden. Das bildet man sich nicht nur ein. Der Unterschied ist tatsächlich gegeben. :) Dass eine neue Technik Zeit braucht, um sich richtig durchzusetzen, ist klar. Klar ist auch, dass Raytracing noch nicht optimal eingesetzt ist und es noch Luft nach oben gibt.

Aber ich bin zuversichtlich, dass Raytracing früher oder später zum Standard wird und die bisher üblichen Beleuchtungstechniken und Screen Space Reflections komplett ablöst.
Das wird halt noch dauern, weil es eben deutlich mehr Leistung frisst. Da ist dann die Frage: Soll man die Rechenpower für Raytracing-Lichtverhältnisse verwenden oder zB für "mehr Objekte", die das Bild lebendiger machen? Das wird halt eine Weile noch ein Konflikt sein, da die Grafik sich ja so oder so weiterentwickelt und die nötige Grafikpower steigt - RT kommt dann on top noch dazu...

Und nicht vergessen: etliche Spiele WOLLEN ja gar nicht "realistisch" aussehen, die SOLLEN eine künstliche oder gar "Comic"-Optik haben. Da braucht man das also eh kaum.
 
Das wird halt noch dauern, weil es eben deutlich mehr Leistung frisst. Da ist dann die Frage: Soll man die Rechenpower für Raytracing-Lichtverhältnisse verwenden oder zB für "mehr Objekte", die das Bild lebendiger machen? Das wird halt eine Weile noch ein Konflikt sein, da die Grafik sich ja so oder so weiterentwickelt und die nötige Grafikpower steigt - RT kommt dann on top noch dazu...
Du vergisst aber, dass mit jeder neuen GPU-Generation die Leistung steigt.

Und nicht vergessen: etliche Spiele WOLLEN ja gar nicht "realistisch" aussehen, die SOLLEN eine künstliche oder gar "Comic"-Optik haben. Da braucht man das also eh kaum.
Ich denke, mit Raytracing wären auch unrealistisch aussehende Szenarien möglich. Dann sehen die halt "nur" besser aus, nicht realistischer (ist ja immerhin auch ein Unterschied).
 
Ich denke auch, dass Raytracing mittelfristig ein Standard werden wird. Im Moment ist es aber halt noch so teuer (Ressourcen technisch), dass es nur was fuer Enthusiasten ist. Aber die graphischen (und auch entwicklungs-vereinfachenden) Unterschiede sind mMn sehr gross, gegenueber anderen Features, die wir in den letzten Jahren gesehen haben. Darum denke ich auch, wenn wir in 6-7 Jahren erstmal noch 2-3 Grafik-chip Generationen weiter sind, dann wird es zum Standard gehoeren (vielleicht nicht immer und ueberall aber zumindest in Teilen von Spielen, wo es einen grossen Unterschied macht, so wie es ja jetzt auch bei BFV und Metro ist).
 
Das wird halt noch dauern, weil es eben deutlich mehr Leistung frisst. Da ist dann die Frage: Soll man die Rechenpower für Raytracing-Lichtverhältnisse verwenden oder zB für "mehr Objekte", die das Bild lebendiger machen?

Allerdings kannst du Leistung, die in einem Bereich nicht ausgereizt wird nicht unbedingt 1:1 woanders zur Verfügung stellen.
Wenn du gerade keinen Film guckst oder streamst, liegt der dafür vorgesehene Teil der Grafikkarte brach.

Das Raytracing von Nvidia ist zum Beispiel stark auf die KI-Funktionen der Karte angewiesen. Es kommt eine reduzierte Menge an Strahlen zum Einsatz, aber das sieht erstmal furchtbar aus. Dann läuft ein KI-Denoiser drüber, der das Bild noch ganz enorm ausbessert. Für KI-Funktionen sind aber Tensor-Recheneinheiten zuständig; und die bringen wenig für normale 3D-Berechnung. Fehlen da also auch nicht.

Hier ist ein Beispiel aus dem UE4-Forum wo man den Unterschied gut sehen kann, auch wenn es dabei eigentlich um ein anderes Thema/Problem geht (im Originalpost findest du mehr und größere Bilder).

Denoise.PNG

Ältere GPUs, ohne Tensor, verlieren diese Leistung natürlich.
Ich bin trotzdem sehr darauf gespannt, das mit einer älteren Karte zu testen. Nicht zum Spielen, sondern zum Rendern. Und da sind mir 20 fps oder 2 fps schnuppe. ;)
 
Du vergisst aber, dass mit jeder neuen GPU-Generation die Leistung steigt.
Nein, eben nicht - ich sage, dass die "Mehrleistung" von den Entwicklern eben zuerst für "mehr Details" oder "mehr Effekte" draufgeht und es DAHER dann Raytracing noch eine Weile schwer haben wird, weil das ja immer noch zusätzlich berechnet werden muss. Eine zb RTX 2070 schafft jetzt einen "Blockbuster" in WQHD bei maximalen Details mit 70 FPS - dazu noch Raytracing, dann sind es vlt nur noch 40 FPS. In zB 4 Jahren schafft der Nachfolger, zB eine RTX 3070, in einem DANN neuen Game auch nur 70 FPS, weil die Games eben auch mehr Details bieten - und plus Raytracing "bricht" die Leistung dann eben immer noch ein. Erst dann, wenn man quasi kaum mehr NOCH mehr Effekte, Details usw. zufügen kann, wird Raum für Raytracing "nebenei" überbleiben.

*edit* was anderes wäre, wenn in ein paar Jahren die Karten "selbstverständlich" auch separate RT-Einheiten immer OnBoard haben - siehe mein comment zu Loosa. DANN kann man natürlich RT immer anbieten.


Ich denke, mit Raytracing wären auch unrealistisch aussehende Szenarien möglich. Dann sehen die halt "nur" besser aus, nicht realistischer (ist ja immerhin auch ein Unterschied).
klar geht das, aber ob es dann wirklich besser aussieht, hängt sehr vom Game ab.
 
Allerdings kannst du Leistung, die in einem Bereich nicht ausgereizt wird nicht unbedingt 1:1 woanders zur Verfügung stellen.



Das Raytracing von Nvidia ist zum Beispiel stark auf die KI-Funktionen der Karte angewiesen. Es kommt eine reduzierte Menge an Strahlen zum Einsatz, aber das sieht erstmal furchtbar aus. Dann läuft ein KI-Denoiser drüber, der das Bild noch ganz enorm ausbessert. Für KI-Funktionen sind aber Tensor-Recheneinheiten zuständig; und die bringen wenig für normale 3D-Berechnung. Fehlen da also auch nicht.
Die Frage ist dann aber, ob man weiterhin auf separate RT-Einheiten setzt, die die Karte teurer machen, obwohl vlt nicht viele es überhaupt nutzen wollen. Und man MUSS auch nicht extra dafür vorgesehene Einheiten nutzen: Nvidia hat RT ja eben auch für non-RTX-Karten ab der GTX 1060 "freigeschaltet", und da muss natürlich der "normale" Teil der Karte das Ganze berechnen.

Hinzu kommt, dass ja die RTX-Karten TROTZ separater Einheiten bei RT "einbrechen" - hat das NUR damit zu tun, dass die RT-Einheiten zu langsam sind, oder hat es nicht auch damit zu tun, dass RT weitere Teile der Karte mitbelastet?
 
Nein, eben nicht - ich sage, dass die "Mehrleistung" von den Entwicklern eben zuerst für "mehr Details" oder "mehr Effekte" draufgeht und es DAHER dann Raytracing noch eine Weile schwer haben wird, weil das ja immer noch zusätzlich berechnet werden muss. Eine zb RTX 2070 schafft jetzt einen "Blockbuster" in WQHD bei maximalen Details mit 70 FPS - dazu noch Raytracing, dann sind es vlt nur noch 40 FPS. In zB 4 Jahren schafft der Nachfolger, zB eine RTX 3070, in einem DANN neuen Game auch nur 70 FPS, weil die Games eben auch mehr Details bieten - und plus Raytracing "bricht" die Leistung dann eben immer noch ein. Erst dann, wenn man quasi kaum mehr NOCH mehr Effekte, Details usw. zufügen kann, wird Raum für Raytracing "nebenei" überbleiben.
Ich denke aber auch, dass die Grenzen des bisher machbaren erreicht sind und da bietet sich Raytracing als Lösung für realistischere (bzw. schönere) Effekte gut an. Wann war denn der letzte große Grafiksprung? Der kam mit Crysis und das ist über 10 Jahre her. Neue Features, die relevant sind, kann man an einer Hand abzählen und der Rest war kaum mehr als eine Weiterentwicklung im Detail. Oder eben nur die Holzhammermethode. Frei nach dem Motto: Alles raus rotzen, was geht und die Hardware zum glühen bringen. Siehe Metro Exodus, das einen Mittelklasse-PC zum Frühstück frisst. Gerade wenn man jenseits der 1080p mind. 60fps erreichen will.

Die nächsten Jahre wird Raytracing eine Alternative bleiben, aber mit fortschreitender Technik und mit immer besser werdender Hardwareleistung wird diese Technik irgendwann zum Standard gehören. Zumindest Screen Space Reflections dürfte von Raytracing früher oder später abgelöst werden. Was die Verwendung für die globale Beleuchtung, Schatten etc. angeht, wird es freilich noch länger dauern. Bisher gab es ja nur ein "entweder oder". Entweder man nutzt Raytracing für Global Illumination, Schatten oder eben Spiegelungen. Alles zusammen dürfte aktuelle Hardware brennen lassen. :B

klar geht das, aber ob es dann wirklich besser aussieht, hängt sehr vom Game ab.
Das ist natürlich richtig.
 
Hinzu kommt, dass ja die RTX-Karten TROTZ separater Einheiten bei RT "einbrechen" - hat das NUR damit zu tun, dass die RT-Einheiten zu langsam sind, oder hat es nicht auch damit zu tun, dass RT weitere Teile der Karte mitbelastet?

Leider habe ich keine RTX-Karte (in Aussicht) und es entsprechend noch nicht so genau verfolgt.
Das Verfolgen der Strahlen kostet natürlich auch normale 3D-Rechenpower. Da kann man diskutieren ob es das Wert ist (und ja auch ausschalten). Aber ein Teil der RT-Berechnung läuft außerhalb von 3D, und diese Leistung wäre dann für die Katz.

Durch weitere Optimierung von Treibern und Software kann man da aber sicher auch noch was rauskitzeln.

Aber wann war es je ein Argument, "naja, die Grafik ist schon etwas besser, aber das ist mir zu teuer"? ;)
Meinetwegen könnten die ihre tolle Fell- und Grasberechnung rausnehmen. Oder den Physix-Chip. Das hatte vorher doch auch toll ohne geklappt. Außerdem will ich mir Hardware-Encoding sparen, nehmt das von meiner Karte runter! Hmm, vielleicht kann man sich irgendwann ja seine 3D-Karte nach Bedarf konfigurieren... :-D


/edit: ich sehe gerade, dass die Turing-Technologie auch bei ganz anderen, spielerelevanten Dingen zum Einsatz kommt. Komplexere Shader, komplexere Modelle. Verschiedene Berechnungen, je nach Bildbereich. Bei einem Rennspiel dann z.B. voller Fokus auf Auto und Straße, im Außenbereich aber reduzierte Qualität.

Alles Dinge, die ein Spiel auch Abseits von RT enorm aufwerten können

https://developer.nvidia.com/rtx
 
Aber wann war es je ein Argument, "naja, die Grafik ist schon etwas besser, aber das ist mir zu teuer"? ;)
äh, schon immer...? ^^ Sonst würde sich ja niemand "nur" eine GTX 1050 Ti oder GTX 1060 oder AMD RX 580 kaufen, die ein brandneues Game nicht mehr auf "Ultra" schaffen ;)

Meinetwegen könnten die ihre tolle Fell- und Grasberechnung rausnehmen. Oder den Physix-Chip. Das hatte vorher doch auch toll ohne geklappt
Was heißt "vorher" ? AMD-Karten beherrschen das ja gar nicht, und ich kenne keinen AMD-Nutzer, der darüber rumheult… ;)

So oder so ist RT halt immer etwas "on top", und bis eine durchschnittliche Grafikkarte das quasi nebenbei macht, so wie inzwischen PhysX, wird es IMHO eben noch lange dauern.
 
Zurück