• Aktualisierte Forenregeln

    Eine kleine Änderung hat es im Bereich Forenregeln unter Abschnitt 2 gegeben, wo wir nun explizit darauf verweisen, dass Forenkommentare in unserer Heftrubrik Leserbriefe landen können.

    Forenregeln


    Vielen Dank
  • Kritk / Fragen / Anregungen zu Artikeln

    Wenn ihr Kritik, Fragen oder Anregungen zu unseren Artikeln habt, dann könnt ihr diese nun in das entsprechende Forum packen. Vor allem Fehler in Artikeln gehören da rein, damit sie dort besser gesehen und bearbeitet werden können.

    Bitte beachtet dort den Eingangspost, der vorgibt, wie der Thread zu benutzen ist: Danke!

Xbox Series X/S: Konsole bekommt DLSS-Konkurrent von AMD

DLSS v2.0 ist IMO so angelegt, dass theoretisch jedes Spiel damit optimiert werden kann.
Wenn man einen Musterabgleich (wo besagte Patterns oder ein Algorhytmus abgelichener Mechanismus) über ein x beliebiges "Bild" laufen läßt, wäre es dabei (Ergebnisorientiert) jetzt anders ?
Ich denke eher nicht ... gleiche/ähnliche Ausgangssituation = entsprechende Anwendung :rolleyes:
 
Das könnte tatsächlich ein Befreiungsschlag für die Series S werden.
Natürlich ist Fidelity FX kein Wundermittel, aber gerade im Bereich Auflösung, wo man ja jetzt schon über die Series S wettert (obwohl sie sich eigentlich gar nicht so schlecht schlägt).
Das könnte ihr helfen, besser mitzuhalten.
"Funktioniert" nicht ansatzweise so gut wie DLSS also das Ergebnis. Egal auf welcher Plattform
Die vergleiche die schon kursieren sind ehr niederschmetternd. Selbst auf ihrer eigens gezeigten Präsentation kann von gut funktionieren nicht die rede sein.
Ja gibt mehr FPS aber zu deutlich schlechteren Texturen...da kann ich auch gleich eine Auflösung runtergehen

Wir müssen wohl noch ein wenig warten bis die beiden Techniken besser ineinander greifen und auch verbessert werden.
ich kann jedenfalls nicht nachvollziehen wie alle immer nach Nativ 4K schreien und dann so ein käse nutzen wollen der auf einmal ein Heilmittel sein soll.
 
Wenn man einen Musterabgleich (wo besagte Patterns oder ein Algorhytmus abgelichener Mechanismus) über ein x beliebiges "Bild" laufen läßt, wäre es dabei (Ergebnisorientiert) jetzt anders ?
Ich denke eher nicht ... gleiche/ähnliche Ausgangssituation = entsprechende Anwendung :rolleyes:
... denken ist nicht wissen und solange hier niemand die Technik dahinter wirklich kennt, ist ein rolleyes jetzt nicht wirklich soooo clever. :finger: :-D

Aber ja, ich bin weiterhin der Meinung dass das Ergebnis z.B. je nach Engine, Belichtung etc. anders ausfällt und die besagte KI dann wiederum die beste(n) Einstellungen und Berechnung selbstständig erkennt.

Natürlich muss ein Mensch irgendwann mal definiert haben was optisch ansprechend ist, keine Frage. Aber da schließt sich der Kreis zu dem, was ich weiter oben schrieb: diese Art der Programmierung setzt bestimmte Rahmenbedinungen fest, das Programm selbst wählt dann seinen Weg zum Ziel und wählt die Routinen selbstständig, um das Ziel zu erreichen.
 
Es gab keine Medienberichte über eine empfindungsfähige KI, die eigenständig Werturteile treffen kann anstatt nur Muster zu erkennen und zuzuordnen. Ich würde annehmen, ein solch fundamentaler Durchbruch würde entweder mit viel Medienrummel berichtet werden - oder aber bedeuten, dass die Maschinenoverlords die Weltherrschaft bereits übernommen haben und uns Fleischsäcken mitteilen, wer unsere neuen Meister sind. :-D
:haeh:

Wer redet denn bitte über empfindungsfähige KI? Sorry aber das steht doch nirgends in meinen Texten. Sondern es geht um die Art und Weise wie ein Ziel, was von Menschenhand definiert wurde, erreicht wird.

Habt ihr euch überhaupt mal mit dieser Art Programmierung beschäftigt oder einfach mal ein Beispielcode nachvollzogen?!

Irgendwie hab ich das Gefühl, dass wir hier vollständig aneinander vorbei reden und ihr euch unter KI die Nachbildung des menschlichen Gehirns mit all seinen Fähigkeiten vorstellt. Das ist doch aber damit überhaupt nicht gemeint und war auch nie Thema in diesem Thread. :O
 
Wer redet denn bitte über empfindungsfähige KI?
Ich tue das um deutlich zu machen, dass stupide Algorithmen nicht zu KI werden nur weil die Tech-Buzzword-Fabrik in den letzten paar Jahren die Definition retconned hat. Alles was nicht zu Werturteilen fähig ist, ist nur ein fortschrittlicher Automat, dem man das Buzzword "KI" angeheftet hat weil's cool klingt. Mein alter Opel wird ja auch nicht zu einem Tesla wenn ich die Plakette mit dem Logo austausche. Dazu muss bestimmt nicht gleich das menschliche Gehirn nachgebaut werden. Es reicht bestimmt auch das eines Hundes. :-D
 
Zuletzt bearbeitet:
Empfindungsfähige KI ist auch mehr so ein Science-Fiction Ding aus Filmen/Spielen (Skynet, Matrix, Nummer 5 lebt, Detroit: Become Human etc.) das hat mit der echten KI aus der Realität nichts zu tun. Maschinen/Computer haben keine Seele, weil sie nicht lebendig sind.
 
Ich tue das um deutlich zu machen, dass stupide Algorithmen nicht zu KI werden nur weil die Tech-Buzzword-Fabrik in den letzten paar Jahren die Definition retconned hat. Alles was nicht zu Werturteilen fähig ist, ist nur ein fortschrittlicher Automat, dem man das Buzzword "KI" angeheftet hat weil's cool klingt. Mein alter Opel wird ja auch nicht zu einem Tesla wenn ich die Plakette mit dem Logo austausche.
... dann solltest du dir die Definition von KI in dem Kontext (!) vllt. mal genau anschauen. Es geht darum ein Programm zu schreiben, welches die von dir gesteckten Ziele selbstständig (!) und selbstlernend (!!) erreicht, die Ergebnisse verwirft, neu anfängt und sich z.B. bei der Erkennung von Mustern selbstständig (!!!) verbessert.

Aber ich denke die Diskussion führt hier zu nix wenn jemand auf dieser Art mit Phrasen hantiert ... tut mir leid. Das Thema ist und heißt DeepLearning und AI, ob es dir nun gefällt oder nicht.

Aber vielen Dank für die Diskussion bisher, auch wenn wir völlig aneinander vorbei geredet haben. :top:
 
@Rabowke ich kann dir lediglich sagen, was ich meinte: ich mag den begriff nicht sonderlich, weill das "i" in "ki" nichts oder zumindest herzlich wenig mit dem zu tun hat, was wir allgemeinhin unter intelligenz verstehen. es ist - da hat der kollege nicht unrecht - eine art buzzword. für den techie ist das vielleicht dermaßen selbstverständlich, dass er den begriff nicht mal mehr hinterfragt. da das thema inzwischen aber mehr und mehr im mainstream ankommt, halte ich ihn uu für problematisch. :)
 
Zuletzt bearbeitet:
Empfindungsfähige KI ist auch mehr so ein Science-Fiction Ding aus Filmen/Spielen (Skynet, Matrix, Nummer 5 lebt, Detroit: Become Human etc.) das hat mit der echten KI aus der Realität nichts zu tun. Maschinen/Computer haben keine Seele, weil sie nicht lebendig sind.
emotions-too-mainstream-funny-star-trek-tng-gifs-pictures-etc-50958473.png
 
"Funktioniert" nicht ansatzweise so gut wie DLSS also das Ergebnis. Egal auf welcher Plattform
Die vergleiche die schon kursieren sind ehr niederschmetternd. Selbst auf ihrer eigens gezeigten Präsentation kann von gut funktionieren nicht die rede sein.
Ja gibt mehr FPS aber zu deutlich schlechteren Texturen...da kann ich auch gleich eine Auflösung runtergehen

Wir müssen wohl noch ein wenig warten bis die beiden Techniken besser ineinander greifen und auch verbessert werden.
ich kann jedenfalls nicht nachvollziehen wie alle immer nach Nativ 4K schreien und dann so ein käse nutzen wollen der auf einmal ein Heilmittel sein soll.

Naja wie gut hat DLSS 1.0 funktioniert? Da war man genauso enttäuscht mit den Ergebnissen.
Ab DLSS 2.0 war es plötzlich was ganz anderes und jetzt finden es fast alle geil.

Deswegen: Abwarten.
 
Maschinen/Computer haben keine Seele, weil sie nicht lebendig sind.
Da driftet aber jemand ins esotherische ab !
Es gibt ja diverse SF Romane/Filme die sich damit auseinander setzen.
Einige kommen durchaus zum Schluß das künstliche Wesen/Geräte ein Bewustsein haben ohne eine "Seele" zu besitzen.
Man hat sogar mal Tieren diverse Dinge abgesprochen auf deren Level eine "KI" bereits ein weltveränderndes Ereignis wäre. ;)

Aber vielen Dank für die Diskussion bisher, auch wenn wir völlig aneinander vorbei geredet haben. :top:
Btw. in den Rolleyes von mir hast Du Dinge hereininterpretiert die so nicht gemeint waren.
Aber da Du das eh ad acta gelegt hast werde ich das nicht noch mal besser (unmiss)verständlich ausführen.
 
If x > 3 then {...}
Wäre eine "Entscheidung" einer Software, "KI" ist das aber noch lange nicht. ;)
So ein Blödsinn....sorry aber Du bist raus.
Das Du einen Schleifanenfang irgendwoher rausgekramt hast, macht das Argument nicht fachlicher. Im Gegenteil ;)
@Rabowke ich kann dir lediglich sagen, was ich meinte: ich mag den begriff nicht sonderlich, weill das "i" in "ki" nichts oder zumindest herzlich wenig mit dem zu tun hat, was wir allgemeinhin unter intelligenz verstehen. es ist - da hat der kollege nicht unrecht - eine art buzzword. für den techie ist das vielleicht dermaßen selbstverständlich, dass er den begriff nicht mal mehr hinterfragt. da das thema inzwischen aber mehr und mehr im mainstream ankommt, halte ich ihn uu für problematisch. :)
Ja, dann befasst Euch halt mal auf Informatik Sicht mit dem Thema und nicht als Sonntags-Philosophen ;)
Dadurch kommt auch das aneinander Vorbeigerede. Ein Teil redet von der allgemein anerkannten Begriffsdefinition und der Rest von dem was sie selbst sich darunter vorstellen würden.
 
So ein Blödsinn....sorry aber Du bist raus.
Das Du einen Schleifanenfang irgendwoher rausgekramt hast, macht das Argument nicht fachlicher. Im Gegenteil ;)

Ja, dann befasst Euch halt mal auf Informatik Sicht mit dem Thema und nicht als Sonntags-Philosophen ;)
Dadurch kommt auch das aneinander Vorbeigerede. Ein Teil redet von der allgemein anerkannten Begriffsdefinition und der Rest von dem was sie selbst sich darunter vorstellen würden.
Bla Bla, es ist ein allgemeinverständliches Beispiel für eine simple Abfrage gewesen, aber wer den INT Wert nur mit dem verstopften Streuer bekommen hat ... :haeh:
 
Zurück