Xbox Series X/S: Konsole bekommt DLSS-Konkurrent von AMD

Darkmoon76

Autor
Mitglied seit
09.08.2016
Beiträge
384
Reaktionspunkte
85
Jetzt ist Deine Meinung zu Xbox Series X/S: Konsole bekommt DLSS-Konkurrent von AMD gefragt.


Bitte beachtet: Der Kommentarbereich wird gemäß der Forenregeln moderiert.


lastpost-right.png
Zum Artikel: Xbox Series X/S: Konsole bekommt DLSS-Konkurrent von AMD
 

FeralKid

Bekanntes Gesicht
Mitglied seit
14.06.2019
Beiträge
1.378
Reaktionspunkte
276
Gibt es denn irgendwo schon Tests und Ergebnisse, ob das ganze wirklich ähnlich effektiv und ausgereift wie Nvidias DLSS2.0 funktioniert?
 

Bonkic

Bekanntes Gesicht
Mitglied seit
06.09.2002
Beiträge
35.771
Reaktionspunkte
7.344
Zuletzt bearbeitet:

CarloSiebenhuener

Videoredakteur
Mitglied seit
01.04.2021
Beiträge
158
Reaktionspunkte
160
Das könnte tatsächlich ein Befreiungsschlag für die Series S werden.
Natürlich ist Fidelity FX kein Wundermittel, aber gerade im Bereich Auflösung, wo man ja jetzt schon über die Series S wettert (obwohl sie sich eigentlich gar nicht so schlecht schlägt).
Das könnte ihr helfen, besser mitzuhalten.
 

xaan

Bekanntes Gesicht
Mitglied seit
30.01.2015
Beiträge
1.358
Reaktionspunkte
786
das ist leider falsch.



nein.

Ach komm, praktisch jede Quelle die man mit einer schnellen Google Suche findet, spricht davon dass FSR und DLSS ein ähnliches Ziel verfolgen. Klar mag es Unterschiede im Verfahren geben, aber das ist wohl kaum relevant für eine kurze News in der es eher darum geht, dass Xbox es unterstützen wird als darum wie es funktioniert.
 

Rabowke

Klugscheißer
Teammitglied
Mitglied seit
09.12.2003
Beiträge
27.130
Reaktionspunkte
6.277
Bonkic hat schon nicht ganz Unrecht.

DLSS wird durch eine KI gejagt welche dann die "besten" Darstellungsoptionen findet und diese Daten, wenn man so möchte, werden dann durch nVidia an die User weitergereicht.

FidelityFX, als gesamtes Paket, ist eher mit SweetFX bzw. Reshade zu vergleichen, natürlich auf einem ganz anderen Level und durch die Entwickler selbst gepflegt.
 

xaan

Bekanntes Gesicht
Mitglied seit
30.01.2015
Beiträge
1.358
Reaktionspunkte
786
Bonkic hat schon nicht ganz Unrecht.

DLSS wird durch eine KI gejagt welche dann die "besten" Darstellungsoptionen findet und diese Daten, wenn man so möchte, werden dann durch nVidia an die User weitergereicht.

FidelityFX, als gesamtes Paket, ist eher mit SweetFX bzw. Reshade zu vergleichen, natürlich auf einem ganz anderen Level und durch die Entwickler selbst gepflegt.
Wenn wir auf dem level die Erbsen zählen dann sollte vielleicht nicht unerwähnt bleiben, dass das was Nvidia da KI nennt keine KI ist, denn es ist sich seiner eigenen Existenz nicht bewusst / nicht empfindungsfähig (gibt es ne gute Übersetzung für "sentient"?). Das sind durch machine learning / deep learning entstandene Algorithmen, für die die Bezeichnung KI nur als Buzzword benutzt wird weil es cool klingt.

Unterm Strich verfolgen FSR und DLSS ein ähnliches Ziel, erreichen es nur einfach auf anderem Weg (und eventuell mit unterschiedlich großem Erfolg - das wird sich noch zeigen wenn FSR mal raus ist).
 

Bonkic

Bekanntes Gesicht
Mitglied seit
06.09.2002
Beiträge
35.771
Reaktionspunkte
7.344
ich denke nicht, dass das übertriebene erbsenzählerei ist.
die formulierung "funktioniert wie dlss" weckt uu falsche erwartungen.
wir wissen es noch nicht endgültig , das stimmt zwar, aber höchstwahrscheinlich wird fsr in sachen bildqualität nicht mal ansatzweise mit dlss 2.0 mithalten (können). und das hinge dann eben doch sehr wahrscheinlich und sehr direkt wieder mit der technischen umsetzung zusammen. aber wir werden sehen.

wenn die funktionsweise irrelevant ist, hätte man den teil außerdem auch einfach weglassen können. 🤷‍♂️

ps:
den begriff 'ki' mag ich übrigens auch generell nicht sonderlich. ich halte ihn sogar für problematisch. aber er hat sich nun mal etabliert. dafür kann der autor nix.
 

xaan

Bekanntes Gesicht
Mitglied seit
30.01.2015
Beiträge
1.358
Reaktionspunkte
786
Es gibt riesige Unterschiede zwischen einem Tesla mit E-Antrieb und einem Golf mit Verbrennungsmotor. Trotzdem wird sich wohl niemand beschweren wenn man beides als Auto bezeichnet.
 

xdave78

Bekanntes Gesicht
Mitglied seit
28.07.2009
Beiträge
1.548
Reaktionspunkte
115
was Nvidia da KI nennt keine KI ist, denn es ist sich seiner eigenen Existenz nicht bewusst
Ein eigenes Bewusstsein ist aber kein Charakteristikum einer KI per Definition.
Weil es sich bei DLSS um eine Anwendung "schwacher KI" handelt ist es nicht gleich kein KI-Anwendungsfeld.
Maschinelles Lernen ist genaugenommen ein Teil der KI Forschung.

Tatsächlich unterscheidet sich die Herangehensweise von AMD grundlegend zu der von NVIDIA.
Fragt sich halt, wie es sich auf die Ergebnisse auswirkt. Ich könnte mir aber schon vorstellen, dass ein Ergebnis welches mit solchem Aufwand wie bei DLSS erzeugt wird schon deutlich besser ausschaut.

Der Auto-Vergleich hinkt auf jeden Fall ziemlich...
 
Zuletzt bearbeitet:

Rabowke

Klugscheißer
Teammitglied
Mitglied seit
09.12.2003
Beiträge
27.130
Reaktionspunkte
6.277
Es gibt riesige Unterschiede zwischen einem Tesla mit E-Antrieb und einem Golf mit Verbrennungsmotor. Trotzdem wird sich wohl niemand beschweren wenn man beides als Auto bezeichnet.
... das sieht aber so ein elitärer Tesla-Fahrer aber bestimmt anders, wenn du sein Hightech-Gerät mit einem schnöden Golf vergleichst! :B :-D

Wobei ich die Diskussion rund um das Thema KI merkwürdig finde: in dem Moment, wo eine Software eine Entscheidung trifft, handelt es sich um eine künstliche Intelligenz.
 

xaan

Bekanntes Gesicht
Mitglied seit
30.01.2015
Beiträge
1.358
Reaktionspunkte
786
Ein eigenes Bewusstsein ist aber kein Charakteristikum einer KI per Definition.
"Die" Definition gibt es ja eigentlich schon mal gar nicht. Der Begriff ist schwammig wie ein Stück Butter in einer Pfanne. Das liegt nicht zuletzt auch daran, dass Intelligenz selbst ebenfalls schwammig und schwer messbar is.

Im Zweifel gilt für mich mindestens der Turing Test, obwohl auch der problematisch ist.

... das sieht aber so ein elitärer Tesla-Fahrer aber bestimmt anders, wenn du sein Hightech-Gerät mit einem schnöden Golf vergleichst! :B :-D
Der hat genug Geld um das ab zu können. :-D

Wobei ich die Diskussion rund um das Thema KI merkwürdig finde: in dem Moment, wo eine Software eine Entscheidung trifft, handelt es sich um eine künstliche Intelligenz.
Wo aber ist der Unterschied zwischen Eingabe-Verarbeitung-Ausgabe und Entscheidung? WIr trainieren ja die Algorithmen so, dass ein bestimmtes gewünschtes Ergebnis bei rauskommt. Die aktuellen "KI"-Algorithmen "entscheiden" nicht eigenständig, sondern produzieren das Ergebnis, für das sie geschaffen wurden - und wenn nicht mehr das gewünschte Ergebnis raus kommt, dann sind sie "kaputt".

Eine Entscheidung ist für mich nur möglich wenn es um ein Geschmacks- oder Werturteil geht, wo es kein objektives Richtig oder Falsch gibt. Alles andere ist ein errechnetes Ergebnis anhand objektiver richtig/falsch Bewertungskriterien.
 
Zuletzt bearbeitet:

LesterPG

Bekanntes Gesicht
Mitglied seit
30.04.2016
Beiträge
5.225
Reaktionspunkte
981
in dem Moment, wo eine Software eine Entscheidung trifft, handelt es sich um eine künstliche Intelligenz.
If x > 3 then {...}
Wäre eine "Entscheidung" einer Software, "KI" ist das aber noch lange nicht. ;)

Das könnte tatsächlich ein Befreiungsschlag für die Series S werden.
Natürlich ist Fidelity FX kein Wundermittel, aber gerade im Bereich Auflösung, wo man ja jetzt schon über die Series S wettert (obwohl sie sich eigentlich gar nicht so schlecht schlägt).
Das könnte ihr helfen, besser mitzuhalten.
Gerade bei der S wäre ich skeptisch ob der Mehraufwand die ohnehin abgespecktere Hardware nennenswert entlasten kann.
Mag sein, aber ich bin skeptisch. :rolleyes:
 

Rabowke

Klugscheißer
Teammitglied
Mitglied seit
09.12.2003
Beiträge
27.130
Reaktionspunkte
6.277
If x > 3 then {...}
Wäre eine "Entscheidung" einer Software, "KI" ist das aber noch lange nicht. ;)
[...]
... ach komm, ich denke es ist ersichtlich in welchem Kontext mein Beispiel genannt war.

Sicherlich nicht wenn wir hier über eine vom Programmierer definierte if then Systematik sprechen, sondern die Software bei nVidia "lernt" ja die Bildqualität zu verbessern. D.h. die Software selbst entscheidet ja, ob es sich hierbei um eine Verbesserung handelt oder eher nicht. Wenn nicht, wird das verworfen, neu berechnet, wenn für gut befunden, aufgenommen und weiter gehts.

IMO greift hier keine vom Menschen definierte Methode. Ich lass mich aber gern eines besseren belehren ...
 

LesterPG

Bekanntes Gesicht
Mitglied seit
30.04.2016
Beiträge
5.225
Reaktionspunkte
981
... ach komm, ich denke es ist ersichtlich in welchem Kontext mein Beispiel genannt war.

Sicherlich nicht wenn wir hier über eine vom Programmierer definierte if then Systematik sprechen, sondern die Software bei nVidia "lernt" ja die Bildqualität zu verbessern. D.h. die Software selbst entscheidet ja, ob es sich hierbei um eine Verbesserung handelt oder eher nicht. Wenn nicht, wird das verworfen, neu berechnet, wenn für gut befunden, aufgenommen und weiter gehts.

IMO greift hier keine vom Menschen definierte Methode. Ich lass mich aber gern eines besseren belehren ...
Das schon, aber ob es jetzt bewußt so einfach ist, oder eine Reihe von "erlernten Patterns" dabei herauskommen die mit was für einen Aufwand auch immer entstanden sind, letztendlich wird da keine Entscheidung getroffen.
Dafür müßte ein Programm aka KI auch auf die Idee kommen können bei nahezu gleichen Ausgangmaterial unterschiedliche Ergebnisse zu liefern und da bin ich enorm skeptisch das es überhaupt passiert. :rolleyes:
 

Rabowke

Klugscheißer
Teammitglied
Mitglied seit
09.12.2003
Beiträge
27.130
Reaktionspunkte
6.277
Das schon, aber ob es jetzt bewußt so einfach ist, oder eine Reihe von "erlernten Patterns" dabei herauskommen die mit was für einen Aufwand auch immer entstanden sind, letztendlich wird da keine Entscheidung getroffen.
Dafür müßte ein Programm aka KI auch auf die Idee kommen können bei nahezu gleichen Ausgangmaterial unterschiedliche Ergebnisse zu liefern.
... aber genau darum geht es ja, es werden Berechnungen angestellt und die "schlechteren" davon verworfen, die besseren genutzt bzw. damit gearbeitet und weiter gehts.

Da wir hier wahrscheinlich von Millionen bzw. Milliarden Iterationen sprechen, wird dies kein Mensch mehr überprüfen und abnicken. Sondern die Software wird und kann frei entscheiden, welche Parameter hier das bessere Bild liefern und die schlechten, wie oben geschrieben, verwerfen.

Hast du dir mal deep learning Programmierbeispiele angeschaut?! Ist absolut nicht mein Fachgebiet, aber ich les mir gern die Berichte in der c't und Coding-Beispiele durch, da sieht man sehr gut, dass die Software Entscheidungen selbst fällt und, und das ist der Sinn davon, selbstständig besser wird und die Muster verfeinert.

D.h. du legst zwar die Rahmenbedingunen fest, aber der Rest wird schon 'autonom' entschieden und darum gehts ja schlussendlich.
 
Zuletzt bearbeitet:

xaan

Bekanntes Gesicht
Mitglied seit
30.01.2015
Beiträge
1.358
Reaktionspunkte
786
... aber genau darum geht es ja, es werden Berechnungen angestellt und die "schlechteren" davon verworfen, die besseren genutzt bzw. damit gearbeitet und weiter gehts.
Die Entscheidung trifft unterm Strich aber noch immer ein Mensch. Der Algorithmus wird dann nur so trainiert, dass er das gewünschte Ergebnis automatisch reproduzieren kann.
Will sagen: der Mensch trifft ein Werturteil wie "dieses Video verstößt gegen unsere TOS". Der Algorithmuss ist dazu nicht in der Lage. Es erkennt nur Muster und bekommt dann vom Menschen antrainiert, welches Muster welches Ergebnis produzieren soll.
 

LesterPG

Bekanntes Gesicht
Mitglied seit
30.04.2016
Beiträge
5.225
Reaktionspunkte
981
Die Entscheidung trifft unterm Strich aber noch immer ein Mensch. Der Algorithmus wird dann nur so trainiert, dass er das gewünschte Ergebnis automatisch reproduzieren kann.
So würde ich das eben auch erwarten.
Etwas anderes ist dieses KI Geschichtenerzählen etc. da kommen ja wenn auch abgedrehte aber eben freie Ergebnisse bei raus. ;)
 

Rabowke

Klugscheißer
Teammitglied
Mitglied seit
09.12.2003
Beiträge
27.130
Reaktionspunkte
6.277
Die Entscheidung trifft unterm Strich aber noch immer ein Mensch. Der Algorithmus wird dann nur so trainiert, dass er das gewünschte Ergebnis automatisch reproduzieren kann.
... und das weißt du woher?

Ich weiß es nicht, wer bei nVidia hier die Entscheidungen fällt ob das Bild jetzt in Ordnung ist oder nicht. Weil auch das kann man automatisiert machen.

Übrigens macht es wenig bis kaum Sinn den Algorithmus zu trainieren dass die Ergebnise reproduzierbar sind: DLSS v2.0 ist IMO so angelegt, dass theoretisch jedes Spiel damit optimiert werden kann.
 

xaan

Bekanntes Gesicht
Mitglied seit
30.01.2015
Beiträge
1.358
Reaktionspunkte
786
... und das weißt du woher?
Es gab keine Medienberichte über eine empfindungsfähige KI, die eigenständig Werturteile treffen kann anstatt nur Muster zu erkennen und zuzuordnen. Ich würde annehmen, ein solch fundamentaler Durchbruch würde entweder mit viel Medienrummel berichtet werden - oder aber bedeuten, dass die Maschinenoverlords die Weltherrschaft bereits übernommen haben und uns Fleischsäcken mitteilen, wer unsere neuen Meister sind. :-D
 

LesterPG

Bekanntes Gesicht
Mitglied seit
30.04.2016
Beiträge
5.225
Reaktionspunkte
981
DLSS v2.0 ist IMO so angelegt, dass theoretisch jedes Spiel damit optimiert werden kann.
Wenn man einen Musterabgleich (wo besagte Patterns oder ein Algorhytmus abgelichener Mechanismus) über ein x beliebiges "Bild" laufen läßt, wäre es dabei (Ergebnisorientiert) jetzt anders ?
Ich denke eher nicht ... gleiche/ähnliche Ausgangssituation = entsprechende Anwendung :rolleyes:
 

Phone

Bekanntes Gesicht
Mitglied seit
25.02.2004
Beiträge
2.722
Reaktionspunkte
791
Das könnte tatsächlich ein Befreiungsschlag für die Series S werden.
Natürlich ist Fidelity FX kein Wundermittel, aber gerade im Bereich Auflösung, wo man ja jetzt schon über die Series S wettert (obwohl sie sich eigentlich gar nicht so schlecht schlägt).
Das könnte ihr helfen, besser mitzuhalten.
"Funktioniert" nicht ansatzweise so gut wie DLSS also das Ergebnis. Egal auf welcher Plattform
Die vergleiche die schon kursieren sind ehr niederschmetternd. Selbst auf ihrer eigens gezeigten Präsentation kann von gut funktionieren nicht die rede sein.
Ja gibt mehr FPS aber zu deutlich schlechteren Texturen...da kann ich auch gleich eine Auflösung runtergehen

Wir müssen wohl noch ein wenig warten bis die beiden Techniken besser ineinander greifen und auch verbessert werden.
ich kann jedenfalls nicht nachvollziehen wie alle immer nach Nativ 4K schreien und dann so ein käse nutzen wollen der auf einmal ein Heilmittel sein soll.
 

Rabowke

Klugscheißer
Teammitglied
Mitglied seit
09.12.2003
Beiträge
27.130
Reaktionspunkte
6.277
Wenn man einen Musterabgleich (wo besagte Patterns oder ein Algorhytmus abgelichener Mechanismus) über ein x beliebiges "Bild" laufen läßt, wäre es dabei (Ergebnisorientiert) jetzt anders ?
Ich denke eher nicht ... gleiche/ähnliche Ausgangssituation = entsprechende Anwendung :rolleyes:
... denken ist nicht wissen und solange hier niemand die Technik dahinter wirklich kennt, ist ein rolleyes jetzt nicht wirklich soooo clever. :finger: :-D

Aber ja, ich bin weiterhin der Meinung dass das Ergebnis z.B. je nach Engine, Belichtung etc. anders ausfällt und die besagte KI dann wiederum die beste(n) Einstellungen und Berechnung selbstständig erkennt.

Natürlich muss ein Mensch irgendwann mal definiert haben was optisch ansprechend ist, keine Frage. Aber da schließt sich der Kreis zu dem, was ich weiter oben schrieb: diese Art der Programmierung setzt bestimmte Rahmenbedinungen fest, das Programm selbst wählt dann seinen Weg zum Ziel und wählt die Routinen selbstständig, um das Ziel zu erreichen.
 

Rabowke

Klugscheißer
Teammitglied
Mitglied seit
09.12.2003
Beiträge
27.130
Reaktionspunkte
6.277
Es gab keine Medienberichte über eine empfindungsfähige KI, die eigenständig Werturteile treffen kann anstatt nur Muster zu erkennen und zuzuordnen. Ich würde annehmen, ein solch fundamentaler Durchbruch würde entweder mit viel Medienrummel berichtet werden - oder aber bedeuten, dass die Maschinenoverlords die Weltherrschaft bereits übernommen haben und uns Fleischsäcken mitteilen, wer unsere neuen Meister sind. :-D
:haeh:

Wer redet denn bitte über empfindungsfähige KI? Sorry aber das steht doch nirgends in meinen Texten. Sondern es geht um die Art und Weise wie ein Ziel, was von Menschenhand definiert wurde, erreicht wird.

Habt ihr euch überhaupt mal mit dieser Art Programmierung beschäftigt oder einfach mal ein Beispielcode nachvollzogen?!

Irgendwie hab ich das Gefühl, dass wir hier vollständig aneinander vorbei reden und ihr euch unter KI die Nachbildung des menschlichen Gehirns mit all seinen Fähigkeiten vorstellt. Das ist doch aber damit überhaupt nicht gemeint und war auch nie Thema in diesem Thread. :O
 

xaan

Bekanntes Gesicht
Mitglied seit
30.01.2015
Beiträge
1.358
Reaktionspunkte
786
Wer redet denn bitte über empfindungsfähige KI?
Ich tue das um deutlich zu machen, dass stupide Algorithmen nicht zu KI werden nur weil die Tech-Buzzword-Fabrik in den letzten paar Jahren die Definition retconned hat. Alles was nicht zu Werturteilen fähig ist, ist nur ein fortschrittlicher Automat, dem man das Buzzword "KI" angeheftet hat weil's cool klingt. Mein alter Opel wird ja auch nicht zu einem Tesla wenn ich die Plakette mit dem Logo austausche. Dazu muss bestimmt nicht gleich das menschliche Gehirn nachgebaut werden. Es reicht bestimmt auch das eines Hundes. :-D
 
Zuletzt bearbeitet:

LOX-TT

Senior Community Officer
Teammitglied
Mitglied seit
24.07.2004
Beiträge
10.134
Reaktionspunkte
4.586
Empfindungsfähige KI ist auch mehr so ein Science-Fiction Ding aus Filmen/Spielen (Skynet, Matrix, Nummer 5 lebt, Detroit: Become Human etc.) das hat mit der echten KI aus der Realität nichts zu tun. Maschinen/Computer haben keine Seele, weil sie nicht lebendig sind.
 

Rabowke

Klugscheißer
Teammitglied
Mitglied seit
09.12.2003
Beiträge
27.130
Reaktionspunkte
6.277
Ich tue das um deutlich zu machen, dass stupide Algorithmen nicht zu KI werden nur weil die Tech-Buzzword-Fabrik in den letzten paar Jahren die Definition retconned hat. Alles was nicht zu Werturteilen fähig ist, ist nur ein fortschrittlicher Automat, dem man das Buzzword "KI" angeheftet hat weil's cool klingt. Mein alter Opel wird ja auch nicht zu einem Tesla wenn ich die Plakette mit dem Logo austausche.
... dann solltest du dir die Definition von KI in dem Kontext (!) vllt. mal genau anschauen. Es geht darum ein Programm zu schreiben, welches die von dir gesteckten Ziele selbstständig (!) und selbstlernend (!!) erreicht, die Ergebnisse verwirft, neu anfängt und sich z.B. bei der Erkennung von Mustern selbstständig (!!!) verbessert.

Aber ich denke die Diskussion führt hier zu nix wenn jemand auf dieser Art mit Phrasen hantiert ... tut mir leid. Das Thema ist und heißt DeepLearning und AI, ob es dir nun gefällt oder nicht.

Aber vielen Dank für die Diskussion bisher, auch wenn wir völlig aneinander vorbei geredet haben. :top:
 

Bonkic

Bekanntes Gesicht
Mitglied seit
06.09.2002
Beiträge
35.771
Reaktionspunkte
7.344
@Rabowke ich kann dir lediglich sagen, was ich meinte: ich mag den begriff nicht sonderlich, weill das "i" in "ki" nichts oder zumindest herzlich wenig mit dem zu tun hat, was wir allgemeinhin unter intelligenz verstehen. es ist - da hat der kollege nicht unrecht - eine art buzzword. für den techie ist das vielleicht dermaßen selbstverständlich, dass er den begriff nicht mal mehr hinterfragt. da das thema inzwischen aber mehr und mehr im mainstream ankommt, halte ich ihn uu für problematisch. :)
 
Zuletzt bearbeitet:

sauerlandboy79

Bekanntes Gesicht
Mitglied seit
01.02.2002
Beiträge
27.153
Reaktionspunkte
7.508
Empfindungsfähige KI ist auch mehr so ein Science-Fiction Ding aus Filmen/Spielen (Skynet, Matrix, Nummer 5 lebt, Detroit: Become Human etc.) das hat mit der echten KI aus der Realität nichts zu tun. Maschinen/Computer haben keine Seele, weil sie nicht lebendig sind.
emotions-too-mainstream-funny-star-trek-tng-gifs-pictures-etc-50958473.png
 

CarloSiebenhuener

Videoredakteur
Mitglied seit
01.04.2021
Beiträge
158
Reaktionspunkte
160
"Funktioniert" nicht ansatzweise so gut wie DLSS also das Ergebnis. Egal auf welcher Plattform
Die vergleiche die schon kursieren sind ehr niederschmetternd. Selbst auf ihrer eigens gezeigten Präsentation kann von gut funktionieren nicht die rede sein.
Ja gibt mehr FPS aber zu deutlich schlechteren Texturen...da kann ich auch gleich eine Auflösung runtergehen

Wir müssen wohl noch ein wenig warten bis die beiden Techniken besser ineinander greifen und auch verbessert werden.
ich kann jedenfalls nicht nachvollziehen wie alle immer nach Nativ 4K schreien und dann so ein käse nutzen wollen der auf einmal ein Heilmittel sein soll.

Naja wie gut hat DLSS 1.0 funktioniert? Da war man genauso enttäuscht mit den Ergebnissen.
Ab DLSS 2.0 war es plötzlich was ganz anderes und jetzt finden es fast alle geil.

Deswegen: Abwarten.
 
Oben Unten