• Aktualisierte Forenregeln

    Eine kleine Änderung hat es im Bereich Forenregeln unter Abschnitt 2 gegeben, wo wir nun explizit darauf verweisen, dass Forenkommentare in unserer Heftrubrik Leserbriefe landen können.

    Forenregeln


    Vielen Dank
  • Kritk / Fragen / Anregungen zu Artikeln

    Wenn ihr Kritik, Fragen oder Anregungen zu unseren Artikeln habt, dann könnt ihr diese nun in das entsprechende Forum packen. Vor allem Fehler in Artikeln gehören da rein, damit sie dort besser gesehen und bearbeitet werden können.

    Bitte beachtet dort den Eingangspost, der vorgibt, wie der Thread zu benutzen ist: Danke!

Nvidia: Neue Funktion soll Greenscreens obsolet machen

AntonioFunes

Autor
Mitglied seit
29.09.2010
Beiträge
950
Reaktionspunkte
109
Jetzt ist Deine Meinung zu Nvidia: Neue Funktion soll Greenscreens obsolet machen gefragt.


Bitte beachtet: Der Kommentarbereich wird gemäß der Forenregeln moderiert.


lastpost-right.png
Zum Artikel: Nvidia: Neue Funktion soll Greenscreens obsolet machen
 
Zeit wirds. Dann muss ich auch endlich mein Zimmer nicht mehr aufraeumen, bevor ich mit jenadem Skype. :-D
 
Nur mit RTX Karten!? Schade...

Natürlich...es muß ja irgendeinen sinnvollen Grund geben auf die RTX Karten umzurüsten - RTX alleine reicht da nicht aus.
Auch wenn so ein Greenscreen nicht übermäßig teuer ist, könnte das für den ein oder anderen Käufer dann doch ausreichen.

Zeit wirds. Dann muss ich auch endlich mein Zimmer nicht mehr aufraeumen, bevor ich mit jenadem Skype. :-D

Ach so ein ausklappbarer Greenscreen im "Koffer" ist da recht fix.
Wobei ich ehrlich gesagt immer noch bezweifle, daß diese Technik wirklich gut genug funktioniert bei den vielfältigen Variablen aus Licht und Schatten und nicht zu vergessen Kameras die auch noch jede ihre eigene Einstellung hat je nach Modell.
Naja ich laß mich überraschen...
 
Wobei ich ehrlich gesagt immer noch bezweifle, daß diese Technik wirklich gut genug funktioniert bei den vielfältigen Variablen aus Licht und Schatten und nicht zu vergessen Kameras die auch noch jede ihre eigene Einstellung hat je nach Modell.
Naja ich laß mich überraschen...

Ja, es müsste über eine Art Messung der Distanz erfolgen, was z.B. erst mit zwei Kameras wirklich möglich ist. Dann kann alles was weiter weg ist als z.B. ein Meter ausgeblendet werden.
 
Wobei ich ehrlich gesagt immer noch bezweifle, daß diese Technik wirklich gut genug funktioniert bei den vielfältigen Variablen aus Licht und Schatten und nicht zu vergessen Kameras die auch noch jede ihre eigene Einstellung hat je nach Modell.
Naja ich laß mich überraschen...
Es wird sicher bestimmte Dinge geben, bei denen sich die Software schwertut, aber so eine KI kann je nach dem echt erstaunlich präzise sein. Vermutlich wird der Nutzer ja vorher auch "sich selbst" markieren und einige Test-Bewegungen machen, um die Software zu eichen. Aber für die guten Ergebnisse ist ja das Prinzip einer KI bzw. besser gesagt: Deep Learning da. Je mehr Beispielmaterial es gibt und desto mehr Leute das nutzen, desto mehr Daten gibt es und desto genauer kann die Software "erraten", was nun noch zum Nutzer gehört und was nicht. Es gibt inzwischen zB auch KI-Software, die aus einem 2D-Bild ein 3D-Bild erstellen kann, das überraschend korrekt ist - was nur funktionier, da man die KI vorher mit Abertausenden Beispielszenen und Bildern gefüttert hat.

Vor allem sollte man nicht vergessen, dass Nvidia sehr aktiv bei der Bild-Analyse für autonomes Fahren dabei ist. Wer schon viel Erfahrung mit Software hat, die anhand eines Bildes Objekte usw. erkennen soll, der hat eine gute Basis für eine "Greenscreen Software"
 
Die Streamer können es bestimmt kaum erwarten, statt eines 20-Euro-Green Screens jetzt ihren Zweit-PC fürs Streamen (zusätzlichen zum Gaming-Rechner) mit einer weiteren 1000-Euro - Grafikkarte auszurüsten!

Clever NVIDIA, so will man die Leute wohl dazu bringen, gleich zwei der teuren Karten zu kaufen.
 
Zeit wirds. Dann muss ich auch endlich mein Zimmer nicht mehr aufraeumen, bevor ich mit jenadem Skype. :-D

So langsam wird es wie in den Fiction/Cyberpunk Serien beschrieben... auf dem Hologramm ist dein Vorgesetzter, schnieke und mit Uniform. Schwenk in den realen Raum. Dreitage-Bart, Jogginghose und schneidet sich die Fußnägel während er mit dir spricht.

Wo war die Szene? *Grübel* (Eventuell schmückt meine Erinnerung sie auch gewaltig aus)

Aber das ist definitv kein unrealistisches Szenario.
 
Ja, es müsste über eine Art Messung der Distanz erfolgen, was z.B. erst mit zwei Kameras wirklich möglich ist. Dann kann alles was weiter weg ist als z.B. ein Meter ausgeblendet werden.
Nein, muss es nicht. Schau dir die Porträtfunktion "moderner" Handys an. Beim iPhone XS / XR und dem aktuellen 11er kannst du sogar nachträglich die Blende modifizieren. Das funktioniert ohne Tiefensensor, denn dieser ist vorne im iPhone verbaut, wegen FaceID.

nVidia macht nichts anderes als Apple mit ihren SoCs: das sind komplizierte Berechnungen ohne Tiefensensor, nennt sich freistellen. Die Rechenkerne haben soviel Power, Apple verbaut hierfür einen eigenen KI-Chip, nVidia nutzt die CUDA-Kerne.
 
So langsam wird es wie in den Fiction/Cyberpunk Serien beschrieben... auf dem Hologramm ist dein Vorgesetzter, schnieke und mit Uniform. Schwenk in den realen Raum. Dreitage-Bart, Jogginghose und schneidet sich die Fußnägel während er mit dir spricht.

Wo war die Szene? *Grübel* (Eventuell schmückt meine Erinnerung sie auch gewaltig aus)

Spaceballs? :O
 
Die Streamer können es bestimmt kaum erwarten, statt eines 20-Euro-Green Screens jetzt ihren Zweit-PC fürs Streamen (zusätzlichen zum Gaming-Rechner) mit einer weiteren 1000-Euro - Grafikkarte auszurüsten!

Clever NVIDIA, so will man die Leute wohl dazu bringen, gleich zwei der teuren Karten zu kaufen.

Wer sagt, daß jemand das nur wegen dem Streaming macht ? Wenn kauft einer die Karte aus mehreren Gründen. Z.B. Gaming selbst. Aber sicher nicht wegen den Greenscreens. Das ist nur ein nettes Sahnehäubchen oben drauf. Aber sicher kein direkter Kaufgrund.
 
Zeit wirds. Dann muss ich auch endlich mein Zimmer nicht mehr aufraeumen, bevor ich mit jenadem Skype. :-D
Ja, ja... und dann hat die Technik mal eben für einen kurzen Moment einen Aussetzer und jeder sieht für ein paar Frames deinen Saustall, willst du das Risiko wirklich eingehen? :-D

tcdln7p_d3t4pu_1_die-messie-nanny_format-png.17812
 

Anhänge

  • tcDlN7p_D3T4Pu_1_die-messie-nanny_format.png
    tcDlN7p_D3T4Pu_1_die-messie-nanny_format.png
    329,7 KB · Aufrufe: 80
Wer sagt, daß jemand das nur wegen dem Streaming macht ? Wenn kauft einer die Karte aus mehreren Gründen. Z.B. Gaming selbst. Aber sicher nicht wegen den Greenscreens. Das ist nur ein nettes Sahnehäubchen oben drauf. Aber sicher kein direkter Kaufgrund.

Na 1. weil man davon ausgehen kann, dass diese Funktion genug Performance braucht, dass man im eigentlichen Spiel Probleme mit seinen Frames oder der Qualität bekommt. Einen LOL-Streamer wird das kaum stören, der braucht aber auch so keine Highend-Grafikkarte. Und 2. nutzen schon jetzt aus obigen Grund und wegen der Stabilität des Streams ambitionierte Streamer getrennte Hardware fürs Spiel ansich und das Streaming-Setup. Daher nützt eine solche Grafikkarte im Gamingrechner dafür eh nichts.
 
Nein, muss es nicht. Schau dir die Porträtfunktion "moderner" Handys an. Beim iPhone XS / XR und dem aktuellen 11er kannst du sogar nachträglich die Blende modifizieren. Das funktioniert ohne Tiefensensor, denn dieser ist vorne im iPhone verbaut, wegen FaceID.

nVidia macht nichts anderes als Apple mit ihren SoCs: das sind komplizierte Berechnungen ohne Tiefensensor, nennt sich freistellen. Die Rechenkerne haben soviel Power, Apple verbaut hierfür einen eigenen KI-Chip, nVidia nutzt die CUDA-Kerne.

Sowas wie Blende modifizieren sind letztlich aber nur Spielereien, ich sehe ja, wie bei Smartphones die Bildqualität leidet durch die ganzen "Bildverschönerungsmaßnahmen". Die sehen dann auf dem kleinen Screen gut aus, aber wehe man schaut sie am PC und womöglich noch in Originalgröße.

Da bleibe ich skeptisch, dass das mit so einer Technik reibungslos funktioniert - ohne Qualitätsverlust.
 
Sowas wie Blende modifizieren sind letztlich aber nur Spielereien, ich sehe ja, wie bei Smartphones die Bildqualität leidet durch die ganzen "Bildverschönerungsmaßnahmen". Die sehen dann auf dem kleinen Screen gut aus, aber wehe man schaut sie am PC und womöglich noch in Originalgröße.

Da bleibe ich skeptisch, dass das mit so einer Technik reibungslos funktioniert - ohne Qualitätsverlust.
Natürlich sind es nur Spielereien, wobei man bei gutem Licht (!) echt schöne Fotos mit machen kann. Mir ging es aber primär um die technische Möglichkeit, denn dieses Freistellen wird beim XR mit nur einer Kamera realisiert. D.h. das iPhone nutzt seinen KI-Prozessor hierfür und eben keine Tiefenkamera, genau das wird auch nVidia machen.

Ich hab einige schöne Porträtfotos von meiner Freundin ... die auch selbst auf dem PC ganz gut aussehen.
 
Die Streamer können es bestimmt kaum erwarten, statt eines 20-Euro-Green Screens jetzt ihren Zweit-PC fürs Streamen (zusätzlichen zum Gaming-Rechner) mit einer weiteren 1000-Euro - Grafikkarte auszurüsten!

Clever NVIDIA, so will man die Leute wohl dazu bringen, gleich zwei der teuren Karten zu kaufen.
Niemand ist so blöd nur wegen dieser Sache eine RTX-Karte zu kaufen. Aber die Funktion zeigt, wohin die Richtung auch allgemein geht. So eine Funktion wird in ein paar Jahren sicher Standard bei alle Karten sein, oder es gibt ein Tool, das das "nebenbei" machen kann bzw. die Videosoftware wird die programmiertechnischen Erkenntnisse oder sogar die Deep-Learning-Datenbank nutzen.

Und aktuell gilt halt: FALLS jemand die Wahl hat zwischen ner RTX und einer AMD.Karte, die ähnlich gut sind, könnte er die RTX nehmen, wenn er recht häufig Greenscreen-Kram macht und nicht immer Bock darauf hat, die Leinwand aufzubauen. Sofern die RTX-Karte dann nicht VIEL teurer ist, dürfte das durchaus für manche interessant sein. Für Leute, die vielleicht auch unterwegs mal Videos machen, sowieso.

Und nur für den Fall, dass der Preis nicht auch sarkastisch gemeint war: RTX-Karten gibt es ab 330€, nicht erst für 1000€. ;)
 
Wieviel Leistung zieht denn das Tool? Oder nimmt man da als Streamer dann eh zwei Karten? Geht das überhaupt? Kenne mich da, ganz offensichtlich, nicht aus. ;)
 
So langsam wird es wie in den Fiction/Cyberpunk Serien beschrieben... auf dem Hologramm ist dein Vorgesetzter, schnieke und mit Uniform. Schwenk in den realen Raum. Dreitage-Bart, Jogginghose und schneidet sich die Fußnägel während er mit dir spricht.

Wo war die Szene? *Grübel* (Eventuell schmückt meine Erinnerung sie auch gewaltig aus)

Aber das ist definitv kein unrealistisches Szenario.

Du bist doch schon wieder bei VR Brille und Unterhosen, oder? :B

Ja, ja... und dann hat die Technik mal eben für einen kurzen Moment einen Aussetzer und jeder sieht für ein paar Frames deinen Saustall, willst du das Risiko wirklich eingehen? :-D

attachment.php
Du hast ja gar keine Ahnung, wie realistisch dieses Szenario ist. :-D

Aber ich hab schon eine Loesung fuer das Problem. Der Plan ist, gar nichts zu aendern aber demjenigen am anderen Ende der Leitung zu erzaehlen, dass der Saustall den er da im Bild sieht nur ein lustiger virtueller Hintergrund ist. Und ausgetrickst! ;)
Man muss es sich dann nur noch verkneifen, aufgrund des Gestanks staendig das Gesicht zu verziehen.
 
Wieviel Leistung zieht denn das Tool? Oder nimmt man da als Streamer dann eh zwei Karten? Geht das überhaupt? Kenne mich da, ganz offensichtlich, nicht aus. ;)
Man nutzt ja die TensorChips, die man für den Rest vom Game nicht zwingend braucht. Das sind ja spezielle KI-Einheiten, die durch DeepLearning erzeugte Datenbanken nutzen können - eigentlich sollte das optional dafür sorgen, dass Games mehr FPS haben, da viele Szenen durch die KI schon quasi "vorausgeahnt" werden können anstatt dass man sie komplett berechnen muss. Hier soll wohl nun die Tensor-KI-Datenbank auch bei "Bild in Bild" helfen, was also vor Ort keine relevante Rechenarbeit bedeutet bzw. die Algorithmen so optimiert, dass es nicht viel Power braucht.

Aber was am Ende wirklich an Leistung evlt, verloren geht, kann man erst sagen, wenn es auch genutzt wird - derzeit ist es ja wohl nur ein SDK, d.h. ein Paket für Entwickler. Das können die dann in ihre Tools einbauen, die wiederum für das Streaming sorgen.
 
Zurück