• Aktualisierte Forenregeln

    Eine kleine Änderung hat es im Bereich Forenregeln unter Abschnitt 2 gegeben, wo wir nun explizit darauf verweisen, dass Forenkommentare in unserer Heftrubrik Leserbriefe landen können.

    Forenregeln


    Vielen Dank
  • Kritk / Fragen / Anregungen zu Artikeln

    Wenn ihr Kritik, Fragen oder Anregungen zu unseren Artikeln habt, dann könnt ihr diese nun in das entsprechende Forum packen. Vor allem Fehler in Artikeln gehören da rein, damit sie dort besser gesehen und bearbeitet werden können.

    Bitte beachtet dort den Eingangspost, der vorgibt, wie der Thread zu benutzen ist: Danke!

Trend Raytracing: Wir erklären und bewerten das 3D-Verfahren

AntonioFunes

Autor
Mitglied seit
29.09.2010
Beiträge
1.125
Reaktionspunkte
109
Jetzt ist Deine Meinung zu Trend Raytracing: Wir erklären und bewerten das 3D-Verfahren gefragt.


Bitte beachtet: Der Kommentarbereich wird gemäß der Forenregeln moderiert.


lastpost-right.png
Zum Artikel: Trend Raytracing: Wir erklären und bewerten das 3D-Verfahren
 
Die Frage wäre nun ist die Raytraycing-Technologie kompatibel/umsetzbar mit den aktuellen 3D-Brillen wie HTC Vive/Vive Pro/Rift ? Oder muß dafür wieder eine komplett neue Generation her ?
 
Die Frage wäre nun ist die Raytraycing-Technologie kompatibel/umsetzbar mit den aktuellen 3D-Brillen wie HTC Vive/Vive Pro/Rift ? Oder muß dafür wieder eine komplett neue Generation her ?
Das ist doch ganz einfach: wenn genug Leistung da ist, dann geht das selbstverständlich. Die Frage ist halt, wie detailreich die Grafik von den Entwicklern kreiert wird.

Wenn du in zB Battlefield V bei aktiviertem RT (und da geht es ja nur um Spiegelungen - der Rest ist kein RT) schon Aussagen bei dem PCGH-Test hast, dass es mit einer RTX 2080 Ti merkbar unrund läuft, dann spricht das dafür, dass du vlt 40-50 FPS hast mit Einbrüchen unter 40 FPS - bei Full-HD… die Brillen brauchen aber idr 2x Full-HD und zudem noch am besten eher 80-90 FPS, damit man die Trägheit bei Kopfbewegungen nicht merkt. BF V mit aktiviertem RT dürfte also mit einer VR-Brille nicht mal mit einer RTX 2080 Ti machbar sein, außer vlt bei niedrigen Detailstufen. ODER vlt. kann ja noch optimiert werden, so dass BF V später doch noch deutlich besser läuft - aber für VR wird es dann trotzdem eng.

Echtes RT wird sowieso noch sehr lange auf sich warten lassen IMHO.
 
Echtes RT wird sowieso noch sehr lange auf sich warten lassen IMHO.
Zumal bei "echtem Raytracing" auch fraglich ist wie viel Reflexionen man berücksichtigt.
Jede Glasfläche erzeugt pro auftreffenden Strahl korrekterweise 3 weitere Strahlen (durchgehener plus jeweils die Spiegelungen des auftreffenden und durchgehenden mit Versatz um der Materialstärke), der Aufwand ist ohne Tricks bei nur 4 Reflexionsgraden pro Ray bereits nicht unerheblich.
Man stelle sich nur mal eine Hand voll Glasprismen in einer Glasschale vor, Overkill :B

VR/3D benötigt wie immer als Faustformel den Berechnungsaufwand *2 da ja doppelt so viel Bilder benötigt werden.
 
Zumal bei "echtem Raytracing" auch fraglich ist wie viel Reflexionen man berücksichtigt.
Jede Glasfläche erzeugt pro auftreffenden Strahl korrekterweise 3 weitere Strahlen (durchgehener plus jeweils die Spiegelungen des auftreffenden und durchgehenden mit Versatz um der Materialstärke), der Aufwand ist ohne Tricks bei nur 4 Reflexionsgraden pro Ray bereits nicht unerheblich.
Man stelle sich nur mal eine Hand voll Glasprismen in einer Glasschale vor, Overkill :B
klar, zB mal angenommen man würde wirklich alle Gegenstände ohne "Tricks" wie Bumpmapping oder zb Wasser "natürlich" mit allen Reflexionen & Cio und nicht per Simulationsalgorithmen berechnen, dann wäre irre viel Rechenpower nötig. Ich meinte mit "echt" halt eine Art von Raytracing was wie zB bei Transformers und nicht wie jetzt bei BF V, wo >95% der Grafik klassisch berechnet wird.


VR/3D benötigt wie immer als Faustformel den Berechnungsaufwand *2 da ja doppelt so viel Bilder benötigt werden.
kommt auf den Nutzer an - einige wollen ja auch ohne VR mindestens 80-90 FPS; dann ist der Unterschied gering ;)
 
Raytracing ist aktuell nur im hochprofessionellen Bereich interessant und ich glaube das wird sich auch nicht ändern.
Die Leistung der Heimrechner wird nie so stark sein, als dass es in Games Verwendung finden wird. Zumindest nicht im größeren Umfang.
Ein paar Spiele werden es sicher aus PR- oder Testgründen verwenden, aber dabei wird es wohl auch bleiben.
Da werden sich sicher bessere/elegantere Lösungen finden, die nicht so viel Leistung brauchen, aber ein ähnliches Ergebnis liefern werden.
Interessant ist die Idee ja trotzdem und hilft sicherlich bei der Gesamtentwicklung weiter, aber für den praktischen Gebrauch zu Hause sehe ich da eher schwarz.

Oder erinnert sich noch jemand an PhysX? Wurde ja auch als super Sache beworben, hat sich im Gamingbereich aber nie wirklich durchgesetzt, wenn mich meine alten Hirnzellen nicht komplett im Stich lassen gerade.
 
Relativ !
Unreal und Unity sollen das wohl generell anbieten.

Hier gibt es eine Übersicht:
PhysXInfo.com - Projects using PhysX SDK
Es sind nicht so viele, aber doch einige sehr "Bekannte"

Anbieten kann man es ja, aber nutzen tun es wohl nur die wenigsten.
Dafür, dass PhysX so um 2005/6 (ca.) raus kam, ist die Liste doch etwas lächerlich kurz.
Wirklich durchgesetzt hat es sich damit wohl eher nicht und ist ein nettes Gimmick geblieben.
Raytracing wird es wohl eher ähnlich ergehen. Nettes Gimmick, aber für den Gamer zu Hause eher irrelevant.
 
Die Frage ist nicht, ob es kommt. Die Frage ist, ab wann die Hardware soweit ist, dass man den Grossteil problemlos in Echtzeit ray tracen kann. Ray Tracing ist bereits Vulkan Standard, DirectX Standard, alle grossen Engines (Unreal, Unity, Frostbite) haben es bereits implementiert. Jetzt kommt die passende Hardware-Beschleunigung durch dedizierte Prozessoren. PhysX wurde mittlerweile hinfällig, da es lediglich eine proprietäre Bibliothek war, welche mit der Normalisierung von Compute Shadern für die meisten Fälle irrelevant wurde. Es gibt Havok, es gibt Bullet, oder man schreibt einfach selbst etwas, dass zum Teil auf der CPU läuft und zum Teil auf der Grafikkarte. Damals war PhysX einer der schnellsten und besten Physik-Engines und die dazu gehörende Hardware wurde mit verkauft. Dies war ein enger Verbund, der durch die Standardisierung von Compute Shadern zu nichte gemacht wurde. Man sollte Ray Tracing eher mit Physikeffekten generell vergleichen. Natürlich haben sich Physikeffekte durchgesetzt, aber die Berechnung dieser ist bei weitem nicht so simpel und allgemein wie diese bei Ray Tracing. Würde NVidia versuchen das proprietär zu machen, hätten die nicht am Vulkan Standard zu Ray Tracing mitgearbeitet. Die haben gelernt, und es profitieren bei weitem alle. NVidia ist nun einfach der Erste, weil sie vielleicht höher gepokert haben als AMD, aber AMD wird bald was Vergleichbares auf den Markt bringen.
 
Scheiss auf RT...sollten mal lieber 4K UND/ODER VR im Auge behalten...
Ich komme mir als Konsument immer verarscht vor!

Ich zumindest werde mir keine Schrott Karte, die gerade mal paar Prozent schneller ist als meine kaufen, nur weil sie eine für (zZ) Konumenten bescheuerte Tech behinhaltet...

Genau wie PhysiX, welches ja mittlerweile von CPU´s berrechnet wird....ohh das kann nur eine dedizierte zweite Karte NICHT!

Und ja ich weiß, echtes PhysiX und echtes RT wären bestimmt nette gimmiks, aber mal im ernst, sieht man es als Spieler?


Ergo, bitte lasst diesen ganzen Hype um Scheisse, bzw schreibt doch mal das es zZ Müll ist...


Wieviel Prozent Schneller ist es denn diese Dolle Karte gegenüber einer 1080Ti?

Wenn denn echt mal eine 2080 mit doppelt so viel geschwindigkeit, und eine CPU mit 5 GHz von Haus aus kommt, dann bitte dann schreibt was...
Aber so...RT ist was fürn ARSCH!

Ich will endlich 90FPS in VR, oder 60FPS in 4K! Idioten!

PS: Ich Wette, dieser Artikel, obwohl er schon ca 5 Tage hier ist, morgen verschwunden ist....
 
Zuletzt bearbeitet:
Scheiss auf RT...sollten mal lieber 4K UND/ODER VR im Auge behalten...
Der Text und dein Avatar bilden eine tolle Einheit. Ich glaube genau hier fehlt eben der Blick über den Tellerrand. Neben RT bringt die RTX2080 TI ja wohl im Vergleich zur 1080Ti wohl auch 45% mehr Leistung. Also fang an zu sparen.

Was man zugeben muss- aus aktueller Sicht auf das Gaming sind viele Aspekte im Artikel und den Kommentaren natürlich sicherlich korrekt eingeschätzt.
Der Aufwand und die Kosten lohnen sich für das Gros des modernen 2D Gaming (ich beziehe mich auf die Darstellungsebene) - schlicht nicht.
Klar es sieht schon nice aus und wenn man es haben kann ist es schön, aber das sagte man auch von PhysX ...und der Technologie hatte ich auch viel zugetraut. Es ist immer sehr viel einfacher nachzuplappern : "Das war schon immer so und wird sich nicht ändern...die sollen ma einfach weiter Rastern bis ich meine 250FPS in VR habe. FCK the Hype! "

Dennoch muss man auch im Hinterkopf behalten, wohin die Reise gehen wird...nicht nur im Bezug auf Gaming sondern auch im Alltag.
Ich habe keine Glaskugel und wissen kann ich es auch nicht, aber ich glaube ziemlich fest daran, dass VR und allem voran AR in der Zukunft ein zentraler Bestandteil unseres Lebens sein wird. AR überall und VR in Teilbereichen wo es sinn macht voll wegzutreten ;)
Wer dachte schon vor 20 Jahren dass heute quasi jeder einen Minicomputer rumträgt der um ein vielfaches schneller ist als das was man damals allgemeinhin kannte?

Nun, wenn ich mir um auf die Games zurück zu kommen ein Cyberpunk 2077 ansehe, so habe ich dabei das erste Mal seit Descent2 und VFX1 das Bedürfnis verspürt : das will ich in VR !
Wie immersiv kann VR wohl ohne glaubhafte Reflexionen und Spiegelungen sein? Doch nur so realistisch wie unsere 2D Mattscheibe - wahrscheinlich durch das "mittendrin" sogar noch weitaus unrealistischer als wir denken.
Braucht man es? Wahrscheinlich genausowenig wie GodRays, Tesselation und HBAO - aber es sind Schritte das was wir virtuell erleben glaubhaft zu machen - so wie auch Raytracing Effekte.

Im Endeffekt muss man es halt so sehen, wie die HUDs in den aktuellen Autos...es kostet mal eben 4.000€ Aufpreis und ja...man kann die Anzeige im Prinzip 1:1 auch hinter dem Lenkrad wo klassischerweise die Anzeigen sind darstellen...oder eben irgendwo auf einem Monitor in der Mittelkonsole. Mehr als eine praktische Spielerei ist es eben auch kaum - auch wenn man jetzt sicherlich einbringen könnte, dass weltweit 0.01% der Unfälle vermieden würden, wenn der Fahrer eben nicht die 0.1 Sekunden auf den Tacho geschaut hätte. Dennoch macht es als logische Weiterentwicklung der Anzeigen Sinn und wird sich deshalb auch langfristig durchsetzen.

Was ich sagen will ist- die Technologie hat schon ihre Daseinsberechtigung und jemand wie Nvidia (oder Volvo oder Audi oder Mercedes Benz) muss auch neue Sachen irgendwo entwickeln und finanzieren. Kann man sicherlich über Jahre im stillen Kämmerlein machen, aber die Praxis ist der beste Lehrer. Insofern kann jeder für sich entscheiden, ob er RT braucht oder eben nicht. Mit der 3er Reihe werden sicherlich Performance steigen und Preis etwas sinken...dank der RTX2er Reihe natürlich.
 
Zuletzt bearbeitet:
Zurück