• Aktualisierte Forenregeln

    Eine kleine Änderung hat es im Bereich Forenregeln unter Abschnitt 2 gegeben, wo wir nun explizit darauf verweisen, dass Forenkommentare in unserer Heftrubrik Leserbriefe landen können.

    Forenregeln


    Vielen Dank
  • Kritk / Fragen / Anregungen zu Artikeln

    Wenn ihr Kritik, Fragen oder Anregungen zu unseren Artikeln habt, dann könnt ihr diese nun in das entsprechende Forum packen. Vor allem Fehler in Artikeln gehören da rein, damit sie dort besser gesehen und bearbeitet werden können.

    Bitte beachtet dort den Eingangspost, der vorgibt, wie der Thread zu benutzen ist: Danke!

Steam verbucht 14 Millionen gleichzeitige User am Tag

Bei einem Onlineshooter muss der Schuss doch auch von einem Rechner über den Server zum anderen Spieler und wieder zurück. Warum sollten Latenzen nicht in den Griff zu bekommen sein, wenn umgelagert wird wo die eigentliche Berechnung stattfindet?
Das Problem ist der Unterschied der Datenmenge.

Für 2 Gegner, die sich in einem Level beschießen, brauchst du bei einer Client/Server Struktur relativ wenig Daten, die über das Netz geschickt werden:
Die Koordinaten und Geschwindigkeiten der beiden Kontrahenten und zB 5 Kugeln, die zur selben Zeit durch die Gegend fliegen. Also knapp 50 strukturiert sortierte Zahlen pro Frame.

Bei Cloudgaming hingegen brauchst du bei zB 1920×1080 und 24bit Farbtiefe drei Zahlen pro Pixel = 6.220.800 Zahlen pro Frame. Jetzt mal angenommen, du hättest ein hervorragendes Komprimierungstool, dann wären das immer noch 600.000 Zahlen. Im Vergleich zu >50.
Sprich: Sobald die kleinste Verzögerung kommt, kann sich das gravierend auf die Spieleleistung auswirken, während eine Client/Server Struktur mit solchen Schwankungen noch super zurecht kommt.

Zumal die ersten Gigabit-Netze in den Startlöchern stehen.
Mir würde es schon reichen, wenn es hier erst mal 50.000 kbit/s geben würde, denn momentan kommen von den tariflichen 16.000 nur 10.000-12.000 an... (anbieterunabhängig) :|
 
Es kommen ja auch noch andere negative Aspekte hinzu. Beim Streaming wären z.B. keine Mods mehr möglich, da du ja keine Daten mehr zur Verfügung hast. Also auch keine Uncut Patches mehr bei zensierten Versionen ;) Du könntest auch keine inis mehr bearbeiten, um diverse Grafikeffekte ein/auszuschalten, Auflösungen zu verändern oder irgendwie noch mehr Performance herauszuholen. Du kannst quasi auf Leihweise nur noch konsumieren ;)
 
Es kommen ja auch noch andere negative Aspekte hinzu. Beim Streaming wären z.B. keine Mods mehr möglich, da du ja keine Daten mehr zur Verfügung hast. Also auch keine Uncut Patches mehr bei zensierten Versionen ;) Du könntest auch keine inis mehr bearbeiten, um diverse Grafikeffekte ein/auszuschalten, Auflösungen zu verändern oder irgendwie noch mehr Performance herauszuholen. Du kannst quasi auf Leihweise nur noch konsumieren ;)
Dieser Aspekt ist sogar der schlimmste. Man ist auf Gedeih und Verderb dem Anbieter ausgeliefert. Dagegen sind Steam/EA/Ubisoft usw. mit ihrer Online Anbindung noch harmlos. Lasst uns also auf die ein oder andere Art hoffen das aufgrund von technischen Schwierigkeiten es noch länger dauern wird bis es Flächendeckend soweit ist. Denn wenn es soweit ist, Game Hobby ade. Die Gängelungen die nämlich dann kommen werde ich auf jeden Fall nicht mehr mitmachen wollen.
 
Es kommen ja auch noch andere negative Aspekte hinzu. Beim Streaming wären z.B. keine Mods mehr möglich, da du ja keine Daten mehr zur Verfügung hast. Also auch keine Uncut Patches mehr bei zensierten Versionen ;) Du könntest auch keine inis mehr bearbeiten, um diverse Grafikeffekte ein/auszuschalten, Auflösungen zu verändern oder irgendwie noch mehr Performance herauszuholen. Du kannst quasi auf Leihweise nur noch konsumieren ;)
Es ging aber gerade um die Geschwindigkeiten. Daß es durchaus noch weitere Kritikpunkteam Cloudgaming gibt, ist ja unbestritten.
 
Es kommen ja auch noch andere negative Aspekte hinzu. Beim Streaming wären z.B. keine Mods mehr möglich, da du ja keine Daten mehr zur Verfügung hast. Also auch keine Uncut Patches mehr bei zensierten Versionen ;) Du könntest auch keine inis mehr bearbeiten, um diverse Grafikeffekte ein/auszuschalten, Auflösungen zu verändern oder irgendwie noch mehr Performance herauszuholen. Du kannst quasi auf Leihweise nur noch konsumieren ;)

Ok, das mit den Mods lasse ich mir eingehen. Die müsste man dann als Service angeboten bekommen oder es gibt wirklich nur Vanilla. Ist die Frage welchen Aufwand der Anbieter dafür betreibt. Uncut wäre aber wohl Essig.

An der Performance gäbe es aber nicht viel Grund zu tweaken, wenn es eh nicht auf dem eigenen Rechner läuft.

Das Problem ist der Unterschied der Datenmenge.

Für 2 Gegner, die sich in einem Level beschießen, brauchst du bei einer Client/Server Struktur relativ wenig Daten, die über das Netz geschickt werden:
Die Koordinaten und Geschwindigkeiten der beiden Kontrahenten und zB 5 Kugeln, die zur selben Zeit durch die Gegend fliegen. Also knapp 50 strukturiert sortierte Zahlen pro Frame.

Bei Cloudgaming hingegen brauchst du bei zB 1920×1080 und 24bit Farbtiefe drei Zahlen pro Pixel = 6.220.800 Zahlen pro Frame. Jetzt mal angenommen, du hättest ein hervorragendes Komprimierungstool, dann wären das immer noch 600.000 Zahlen.

Erstmal vorneweg, ich habe keine Ahnung wie Spielestreams technisch funktionieren.
In Bezug auf Spiele hast du das aber gut runtergestrickt und bei Streaming stark nach oben. Selbst doofe Komprimierung schafft mehr als 10%. ;)

Ein unkomprimiertes HD-Bild hat etwa 6 MB. Bei einer Minute mit 25 Frames wären wir da bei gut 10 GB Daten. Auf Blu-Ray bleiben davon 400 MB übrig und bei Netflix/Youtube werden nur noch um die 50 MB verschoben.

Die relevanten Spieldaten sind schätzungsweise sowieso vom Bild getrennt. Wenn die Qualität bei Engpässen etwas einbricht wäre das unschön, aber für sich kein Todesurteil. Wer sich einen Rechner einspart dürfte dafür wohl die ein oder andere Einbuße akzeptieren. Eine CD ist auch nicht so flexibel wie Live Kammermusik im Schlafzimmer. Hat trotzdem kaum noch wer. :-D


Könnte eine Streaming-Architektur nicht sogar optimierter sein? Bisher verwaltet ein Server die Daten, jeder Spieler muss den Content replizieren und seine Handlungen zu allen anderen schicken. Klingt nach einer Menge Datenpingpong und Inhalte werden doppelt und dreifach produziert. Bei Streaming würde ein Server(Cluster?) die Inhalte nur mit sich selbst ausmachen, empfängt nur noch Inputs und sendet nur Streams.
Nur eine Überlegung. =)
 
Erstmal vorneweg, ich habe keine Ahnung wie Spielestreams technisch funktionieren.
In Bezug auf Spiele hast du das aber gut runtergestrickt und bei Streaming stark nach oben. Selbst doofe Komprimierung schafft mehr als 10%. ;)
90% ;)

Aber du siehst hier zum Beispiel sehr gut, wie sich zuviel Komprimierung auswirkt. (Quelle)

Ein unkomprimiertes HD-Bild hat etwa 6 MB. Bei einer Minute mit 25 Frames wären wir da bei gut 10 GB Daten. Auf Blu-Ray bleiben davon 400 MB übrig und bei Netflix/Youtube werden nur noch um die 50 MB verschoben.
Schön und gut, aber Videomaterial ist feststehendes Bildmaterial, bei dem man zB durch Analyse des Datenmaterials feststellen kann, welche Bildteile sich verändern und welche nicht und nur die Änderungen bis zum nächsten Vollbild (einige Sekunden später) speichert. Wenn da also zB jemand vor einer Wand steht und redet, wird die Wand nur einmal gesendet und danach nur der Redner und wie er sich bewegt.
Eine solche Analyse ist bei einem interaktiven Spielgeschehen jedoch nicht möglich. Der Stream wird ja zur Laufzeit generiert und keiner weiß im Voraus, wie das nächste Bild aussehen wird. Und YouTube ist jetzt nicht wirklich mein Maßstab für HD Gaming Qualität. ;)

Außerdem muß die Komprimierung zur Laufzeit stattfinden.
Das Bild wird ja berechnet, dann komprimiert und dann übers Internet gesendet, in deine Grafikkarte geladen und dann erst auf dem Monitor ausgegeben.

Wenn die Qualität bei Engpässen etwas einbricht wäre das unschön, aber für sich kein Todesurteil. Wer sich einen Rechner einspart dürfte dafür wohl die ein oder andere Einbuße akzeptieren.
Also wenn das Spielgeschehen dauernd stockt, wäre das bei mir sehr wohl ein Todesurteil für den Spielspaß. Gerade deswegen verwehre ich mich ja gegen Cloudgaming und mir kommt sowas außer zu Testzwecken nicht ins Haus.

Eine CD ist auch nicht so flexibel wie Live Kammermusik im Schlafzimmer. Hat trotzdem kaum noch wer. :-D
Das Äquvalent zu einem Film/Spielgeschehen wäre aber ein separater Theatersaal mit Live-Theater.
Und für mich gilt immer noch: Was ich an Musik höre, will ich als Datenträger zuhause oder gerippt auf der Platte haben.

Könnte eine Streaming-Architektur nicht sogar optimierter sein? Bisher verwaltet ein Server die Daten, jeder Spieler muss den Content replizieren und seine Handlungen zu allen anderen schicken. Klingt nach einer Menge Datenpingpong und Inhalte werden doppelt und dreifach produziert. Bei Streaming würde ein Server(Cluster?) die Inhalte nur mit sich selbst ausmachen, empfängt nur noch Inputs und sendet nur Streams.
Nur eine Überlegung. =)
Die Rechenpower muß ja aber trotzdem vorhanden sein. Wenn also 10 Spieler auf dem Server spielen, brauchst du entweder 10 Spielerechner oder einen Rechner, der 10x so leistungsfähig ist. Der zusätzlich all die entstehenden Bilder für die verschiedenen Blickwinkel der Spieler in Echtzeit komprimieren muß. Und nebenbei dermaßen breit ans Internet angebunden ist, daß er die Bilder auch alle kontinuierlich loswerden kann.


Ehrlich gesagt: ich habe lieber einen eigenen Rechner, auf dem ich meine Daten selber verwalten kann, der auch stark genug ist, um selber Spiele Programmierung, Bild-, Musik- und Videobearbeitung zu bewältigen als nur eine ViewConsole ohne jegliche Rechenpower, mit der ich entsprechenden Konzernen völlig hilf- (und recht-)los ausgeliefert bin.
 

Upsi, mein Fehler. Mit Prozentrechnung habe ich es augenscheinlich nicht so. Zu viel Protzerei. :-D
Ich arbeite unkomprimiert, aber schon der Filmschnitt eine Stufe weiter spart 90%. Bei der Auslieferung davon... hm, nochmal über 90%?

Aber du siehst hier zum Beispiel sehr gut, wie sich zuviel Komprimierung auswirkt. (Quelle)

Mit 400 KBit würde ich auch nicht streamen wollen. Die 8 MBit h.264 von Youtube sind schon in Ordnung, nutzten wir auch lange. Mittlerweile etwas mehr aber einen großen Unterschied macht es nicht. Artefakte gibt es da kaum.

h.265 schafft schon die doppelte Auflösung mit wenig mehr Datenrate. Keine Ahnung wie. Ich schlag mich zwar täglich mit Codecs rum, hab es aber aufgegeben die Technik dahinter verstehen zu wollen. Sachen wie Laufzeilenkomprimierung waren ja noch verständlich. Oder MPEG2. Aber heute? :B


Schön und gut, aber Videomaterial ist feststehendes Bildmaterial, bei dem man zB durch Analyse des Datenmaterials feststellen kann, welche Bildteile sich verändern und welche nicht und nur die Änderungen bis zum nächsten Vollbild (einige Sekunden später) speichert. Wenn da also zB jemand vor einer Wand steht und redet, wird die Wand nur einmal gesendet und danach nur der Redner und wie er sich bewegt.
Eine solche Analyse ist bei einem interaktiven Spielgeschehen jedoch nicht möglich. Der Stream wird ja zur Laufzeit generiert und keiner weiß im Voraus, wie das nächste Bild aussehen wird. Und YouTube ist jetzt nicht wirklich mein Maßstab für HD Gaming Qualität. ;)

Das war bei alten Codecs so. MPEG2 hatte ein Master Frame und dann 13 oder 15 Folgebilder die darauf basierten. Deswegen ließ sich das auch nur beschränkt weiterbearbeiten. Oder 2-Pass-Encoding. Das gibt es noch, wo erstmal der ganze Filme analysiert wird, braucht man aber auch nur wenn man variable Bitrate will. Und selbst dann nicht mehr zwingend.

Es gibt Echtzeitencoder und Decoding wird hardwareseitig von der CPU unterstützt. Aber, klar, etwas Zeit braucht auch das. Ist halt die Frage mit wieviel Verlust man noch Spielspaß bieten kann.


Also wenn das Spielgeschehen dauernd stockt, wäre das bei mir sehr wohl ein Todesurteil für den Spielspaß.

Die Framerate müsste natürlich erhalten / erträglich bleiben. Ich meinte, wenn das Bild zwischendurch mal etwas schlechter wird wäre das nicht unbedingt tödlich.


Die Rechenpower muß ja aber trotzdem vorhanden sein. Wenn also 10 Spieler auf dem Server spielen, brauchst du entweder 10 Spielerechner oder einen Rechner, der 10x so leistungsfähig ist. Der zusätzlich all die entstehenden Bilder für die verschiedenen Blickwinkel der Spieler in Echtzeit komprimieren muß. Und nebenbei dermaßen breit ans Internet angebunden ist, daß er die Bilder auch alle kontinuierlich loswerden kann.

Bei der Serverstruktur gäbe es vielleicht einen starken Server der das gesamte Level und alle Spielmechaniken berechnet, pro Spieler eine Grafikkarte welche die jeweilige Kamera rendert und dann noch diverse Module wie Hardware-Encoding und so. Wie sowas technisch gehen würde? Keine Ahnung. Aber wenn jeder seine eigene Spielwelt berechnet braucht es insgesamt viel mehr Leistung. Zum Beispiel muss jede Explosion, jeder Partikeleffekt für jeden Spieler lokal simuliert werden.

Nicht falsch verstehen, mir ist ein eigener Rechner definitiv auch lieber. Die Power brauche ich halt auch zum Arbeiten (obwohl da auch viele auf die Cloud schielen).
Trotzdem würde ich eine Zukunft im Streaming nicht ausschließen. Die Technik wandelt sich und wenn die Einstiegshürde "Anschaffungspreis" wegfällt könnte ein enormer Markt an Neukunden gewonnen werden. Denen es nichts ausmacht nur per TV zu zocken. Siehe Smartphone-Spieler a la Candy Crush.
 
Bei der Serverstruktur gäbe es vielleicht einen starken Server der das gesamte Level und alle Spielmechaniken berechnet, pro Spieler eine Grafikkarte welche die jeweilige Kamera rendert und dann noch diverse Module wie Hardware-Encoding und so. Wie sowas technisch gehen würde? Keine Ahnung. Aber wenn jeder seine eigene Spielwelt berechnet braucht es insgesamt viel mehr Leistung. Zum Beispiel muss jede Explosion, jeder Partikeleffekt für jeden Spieler lokal simuliert werden.

Deswegen gibt es bei PS Now ja auch nur olle Kamellen. Das sind halt PS3 Spiele, die dann noch nur in 720p und 30FPS gestreamt werden. Die brauchen dafür natürlich nicht sonderlich viel Rechenleistung (bzw. weiß ich nicht, wie die das da machen, vielleicht haben die ja das Innenleben von einigen 1000 alten PS3s da aufgebaut).

Tatsache ist nun einmal, dass für jeden einzelnen Spieler alles einzeln berechnet werden muss. D.h. wenn ein Spiel wie Battlefield 1 die Hardwarepower einer 8-Kern CPU und einer GeForce 1080 benötigt, diese dann auch beim Anbieter Äquivalent vorhanden sein muss. Das sind dort natürlich dann keine einzelnen Desktop PCs sondern riesige Cluster aber die Kosten für diese Hardware sind enorm. Dazu dann Betriebs- und Wartungskosten und mit 20 Euro im Monat Abogebühr kommt man nicht mehr annähernd aus, wenn das wirtschaftlich betrieben werden soll. (Bei PS Now ist das Problem ja nicht so stark, da die Spiele halt auf über zehn Jahre alter Hardware laufen können und somit nur sehr niedrige Anforderungen haben).


Noch einmal zur Latenz. Bild wird auf den Monitor des Spielers gesendet, dieser macht Eingabe, die wird an Server gesendet, verarbeitet und das Ergebnis wieder zurückgesendet worauf der Spieler dann erneut reagieren kann. Das heißt, im Vergleich zu normalen Onlinespielen hat man hier immer die doppelte Zeit.
 
Tatsache ist nun einmal, dass für jeden einzelnen Spieler alles einzeln berechnet werden muss. D.h. wenn ein Spiel wie Battlefield 1 die Hardwarepower einer 8-Kern CPU und einer GeForce 1080 benötigt, diese dann auch beim Anbieter Äquivalent vorhanden sein muss. Das sind dort natürlich dann keine einzelnen Desktop PCs sondern riesige Cluster aber die Kosten für diese Hardware sind enorm.

Stichwort Cluster: Ich weiß nicht wie weit Sony mit seiner Technologie ist, aber die haben schon vor 10 Jahren Supercomputer auf Basis von Cell-Prozessoren gebaut oder bauen lassen. Ich denke, man benötigt für 100 Spieler nicht die Rechenkraft von 100 PS3-Konsolen, weil die Spiele ja nicht die ganze Zeit auf 100% Leistung laufen. Die einzelnen Einheiten des Clusters können sich die Arbeit teilen, so dass alle Prozessoren etwa gleich ausgelastet sind. Analoges gilt für den benötigten Speicher. Da wird auch geteilt. Vielleicht können sie häufig auftretende Berechnungen sogar cachen, so dass eben nicht alles einzeln berechnet werden muss. Innerhalb des Rechenzentrums ist da sehr viel möglich, denke ich. Sonst würden sie es ja auch nicht machen. Das ganze muss ja wartbar bleiben und vernünftig skalieren.
 
Zurück