Google Stadia: In zwei Jahren soll die Latenz geringer sein als am PC

Icetii

Bekanntes Gesicht
Mitglied seit
21.04.2016
Beiträge
365
Reaktionspunkte
38
Jetzt ist Deine Meinung zu Google Stadia: In zwei Jahren soll die Latenz geringer sein als am PC gefragt.


Bitte beachtet: Der Kommentarbereich wird gemäß der Forenregeln moderiert.


Zum Artikel: Google Stadia: In zwei Jahren soll die Latenz geringer sein als am PC
 

Spiritogre

Bekanntes Gesicht
Mitglied seit
18.05.2008
Beiträge
9.305
Reaktionspunkte
3.780
Website
rpcg.blogspot.com
Das Internet lästert auch schon, Spiele spielen sich von selbst. Also eine KI weiß jetzt, welche Taste der Spieler als nächstes drücken will.
Mit Latenz hat das natürlich absolut gar nichts zu tun.
 

mrvice

Erfahrener Benutzer
Mitglied seit
15.02.2015
Beiträge
293
Reaktionspunkte
31
wtf.... ka finde das geht erheblich zu weit sowas.
zum schluss spielst entweder gar nicht mehr gegen menschen sondern nur mehr gegen übermächtige ki.
fehlt noch automatischer aim...... kommt einen schon vor wenn man das so liest wie cheaten
 

Worrel

Bekanntes Gesicht
Mitglied seit
22.03.2001
Beiträge
22.310
Reaktionspunkte
8.534
Vielleicht möchte ich aber gerade unberechenbar spielen ... :O
 

Schalkmund

Bekanntes Gesicht
Mitglied seit
23.05.2008
Beiträge
5.751
Reaktionspunkte
1.281
Hier kommt die sogenannte "negative Latenz" zum Einsatz, die eure Eingaben vorhersehen wird.
Uuuhhh und wenn sie jetzt noch "Antimaterie" zum Einsatz bringen verschindet auch Stadia samt Spieler.
 

Loosa

Senior Community Officer
Teammitglied
Mitglied seit
12.03.2003
Beiträge
8.628
Reaktionspunkte
3.486
Vielleicht möchte ich aber gerade unberechenbar spielen ... :O

Je besser ein Spieler ist, umso vorhersehbarer ist seine Reaktion für diverse Spielsituationen? Umso besser kann sich der Server darauf vorbereiten.
Beziehungsweise Reaktionen. Es geht hier um eine Aststruktur, wo die am ehesten zu erwartenden Verzweigungen optimiert werden.

Wenn die erwartete Tastatureingabe nicht kommt dann muss der Buffer eben verworfen und die tatsächliche Tasteneingabe nachgereicht werden.
Bei einem schlechten Spieler ist die vergleichsweise höhere Latenz dann wohl auch egal. ;)
 

Spiritogre

Bekanntes Gesicht
Mitglied seit
18.05.2008
Beiträge
9.305
Reaktionspunkte
3.780
Website
rpcg.blogspot.com
Je besser ein Spieler ist, umso vorhersehbarer ist seine Reaktion für diverse Spielsituationen? Umso besser kann sich der Server darauf vorbereiten.
Beziehungsweise Reaktionen. Es geht hier um eine Aststruktur, wo die am ehesten zu erwartenden Verzweigungen optimiert werden.

Wenn die erwartete Tastatureingabe nicht kommt dann muss der Buffer eben verworfen und die tatsächliche Tasteneingabe nachgereicht werden.
Bei einem schlechten Spieler ist die vergleichsweise höhere Latenz dann wohl auch egal. ;)

Du musst dir echt abgewöhnen alles schönreden zu wollen. Nein, egal wie es funktioniert, sowas ist SCHEIßE und sollte gar nicht erst einreißen.
 

Loosa

Senior Community Officer
Teammitglied
Mitglied seit
12.03.2003
Beiträge
8.628
Reaktionspunkte
3.486
Du musst dir echt abgewöhnen alles schönreden zu wollen. Nein, egal wie es funktioniert, sowas ist SCHEIßE und sollte gar nicht erst einreißen.

Ich halte nunmal nichts davon, immer gleich von der idiotischsten Umsetzung auszugehen. :rolleyes:
Weil es sich lustig anhört? Glaubt hier ernsthaft jemand Google zimmert an einem Autopiloten nur damit der Stream funktioniert?

(Wobei ich mir vorstellen könnte, dass ein leichtes "an der Hand halten" sogar positiv aufgenommen werden könnte. Zumindest im Singleplayer. So wie Autotune, wenn man beim Singen die Töne nicht so ganz trifft. Nur zu extrem wird das dann irgendwann lächerlich. Aber darum geht es nicht.)


"Google wants to use something akin to branch prediction, which is a well-researched and common technique in CPU design."

Diese Technik gibt es schon seit den Urzeiten des PCs. Und nur durch diese Art Vorhersage bringen moderne CPUs überhaupt erst ihre Leistung.
Wenn die erwarteten Aktionen nicht stattfinden, dann dauert die korrekte Berechnung zwar deutlich länger. Aber je besser die Vorhersage umso schneller wird es insgesamt.

In CPUs passiert das mit bis zu 98% Genauigkeit (bei manchen Operationen nur 50+). Ich finde es nicht wirklich schwer vorstellbar, dass speziell Deep Learning im Bereich Gaming eine hohe Trefferquote bedeuten kann.
 

Herbboy

Senior Community Officer
Teammitglied
Mitglied seit
22.03.2001
Beiträge
78.662
Reaktionspunkte
5.933
Es geht dabei ja nicht ganz sicher um so was wie "die KI schießt im Voraus, so dass man im Multiplayer dann schneller ist, oder "Hands off", und Lara klettern von alleine die Steilwand hoch... Es wird eher so sein, dass die KI "lernt", was der Spieler typischerweise macht und wie sein Timing dabei ist, und wenn es zutrifft, ist das passende Bild bzw. zumindest bestimmte Rechenvorgänge schon parat anstatt dass man ALLES extra erst dann, wenn der Befehl des Nutzers am Server ankommt, berechnen muss. Dafür muss dann aber das ganze Spiel entsprechend ausgelegt sein, oder Stadia muss mehrere Instanzen parallel laufen lassen.

Es wird aber 100 pro nicht passieren, dass man zB auf ein Hindernis zuläuft und zum ersten mal seit 1000 Hindernissen NICHT auf "springen" drückt, sondern stehenbleibt, Stadia aber trotzdem den Spring-Befehl ausübt. Und vermutlich wird so eine Technik auch eher im Singleplayer-Bereich eingesetzt werden, damit keine Verschwörungstheorien aufkommen.

Was mich nur wundert ist, warum das alles "nur" von Google kommt - das wäre doch angesichts der allways-online-Welt für jedes Spiel eine Option, dass es sich zB einem Level einen passenden Daten-Algorithmen-Satz aus der Cloud runterlädt oder so. ^^ Für Grafik macht Nvidia dies ja bereits, und dabei spielt ja u.a. auch eine Rolle, vorauszuahnen, wohin der Spieler die Kamera bewegen wird.
 
Zuletzt bearbeitet:

nevermind85

Bekanntes Gesicht
Mitglied seit
26.07.2016
Beiträge
605
Reaktionspunkte
215
Was mich nur wundert ist, warum das alles "nur" von Google kommt - das wäre doch angesichts der allways-online-Welt für jedes Spiel eine Option, dass es sich zB einem Level einen passenden Daten-Algorithmen-Satz aus der Cloud runterlädt oder so. ^^ Für Grafik macht Nvidia dies ja bereits, und dabei spielt ja u.a. auch eine Rolle, vorauszuahnen, wohin der Spieler die Kamera bewegen wird.

Kann ich Dir sagen, warum das keiner macht: weil es zu teuer wäre. Du brauchst nen Cluster für die KI, riesige Datenbanken, die Cloud. Alles natürlich hochverfügbar... das lohnt sich m.E.n. einfach nicht.

Zum Thema:
Sagte schon Jemand Bingo?
Wie schon von Spiritorgre geschrieben, hat das Ganze natürlich nichts mit Latenz zu tun. Fehlt eigentlich nur noch der Hinweis auf die Blockchain-Technik, um vollends lächerlich zu werden.
Aber ja, wir benutzen KI, um physikalische Gegenebheiten zu ignorieren. Ein ganz toller Plan :-D
 

Rabowke

Klugscheißer
Teammitglied
Mitglied seit
09.12.2003
Beiträge
26.888
Reaktionspunkte
6.054
Klingt wie ein Stützräder-Modus für Gamer. Naja, wer's braucht... :B

Nein, tut es nicht. Nicht mal im Ansatz. Loosa hat es bereits gepostet: CPUs machen seit Jahren genau das, was hier kritisiert wird. Es ist einfach ein Versuch die Latenzen so weit zu minimieren, dass man eben kein Unterschied zum lokalen PC feststellt und sowas hat weder was mit Jubeln oder schön reden zutun, sondern dieser Bereich der IT ist das "next big thing!", so leid es mir tut.

Man benötigt hier ein riesiges, neurales Netz bzw. Infrastruktur, um eben diese aufzubauen bzw. zu simulieren und da sind eben Facebook, Google und auch MS eben ganz groß dabei, nVidia übrigens auch.
 

Herbboy

Senior Community Officer
Teammitglied
Mitglied seit
22.03.2001
Beiträge
78.662
Reaktionspunkte
5.933
Kann ich Dir sagen, warum das keiner macht: weil es zu teuer wäre. Du brauchst nen Cluster für die KI, riesige Datenbanken, die Cloud. Alles natürlich hochverfügbar... das lohnt sich m.E.n. einfach nicht.
Wenn man damit werben kann, dann schon. Nvidia macht es ja, wie gesagt, nur eben bei Grafik und nicht bei der Steuerung. Meine Frage war ja auch eher so gemeint, warum nicht mehr Firmen daran arbeiten, nicht warum es das nicht alles schon gibt. Denn inzwischen ist Cloudspace usw. deutlich günstiger als noch vor ein paar Jahren, und ich rede ja auch nicht davon, dass die Spieler in Echtzeit dauernd online sind, sondern das ähnlich wie bei einem Patch eine Art KI-Paket runtergeladen wird, das nach und nach auf Basis von vlt auch nur zufällig ausgewerteten Spielern verbessert wird. Natürlich soll nicht jede Sekunde jedes einzelnen Spielers durch Server analysiert werden, das wäre viel zu teuer.


Wie schon von Spiritorgre geschrieben, hat das Ganze natürlich nichts mit Latenz zu tun.
Das ist doch jedem klar, der die ersten paar Sätze liest. Nur: wie willst du das denn bitte besser in aller Kürze zusammenfassen als mit "Latenz" ? PRAKTISCH gesehen ist es für den Spieler ja wie eine bessere Latenz, warum also nicht das Wort stellvertretend verwenden, um die Sache zusammenzufassen?
 

Spiritogre

Bekanntes Gesicht
Mitglied seit
18.05.2008
Beiträge
9.305
Reaktionspunkte
3.780
Website
rpcg.blogspot.com
Nein, tut es nicht. Nicht mal im Ansatz. Loosa hat es bereits gepostet: CPUs machen seit Jahren genau das, was hier kritisiert wird. Es ist einfach ein Versuch die Latenzen so weit zu minimieren, dass man eben kein Unterschied zum lokalen PC feststellt und sowas hat weder was mit Jubeln oder schön reden zutun, sondern dieser Bereich der IT ist das "next big thing!", so leid es mir tut.

Man benötigt hier ein riesiges, neurales Netz bzw. Infrastruktur, um eben diese aufzubauen bzw. zu simulieren und da sind eben Facebook, Google und auch MS eben ganz groß dabei, nVidia übrigens auch.

Und wie alle diese Ansätze, mehr sind es nicht, wird es in der Praxis in der Regel zwar funktionieren aber eben genauso häufig grandios scheitern.
 

Loosa

Senior Community Officer
Teammitglied
Mitglied seit
12.03.2003
Beiträge
8.628
Reaktionspunkte
3.486
Ich fände es ja spannend wenn man sich die Trefferquote dann auch anzeigen lassen könnte.
Oder vielleicht auch ernüchternd, wenn man sieht wie vorhersehbar wir "Individuen" doch sind. :B


Wenn man damit werben kann, dann schon. Nvidia macht es ja, wie gesagt, nur eben bei Grafik und nicht bei der Steuerung. Meine Frage war ja auch eher so gemeint, warum nicht mehr Firmen daran arbeiten, nicht warum es das nicht alles schon gibt.

Nvidia macht schon länger nicht mehr nur in Grafik. Deep Learning eignet sich zwar hervorragend für Bilder. Aber dieselbe Technik ist auch für viele andere Bereiche interessant. Erst die Tage haben Bosch, Toyota und andere sich für Nvidias Plattform entschieden um autonomes Fahren voranzutreiben.

Es gibt eigentlich kaum einen großen Hersteller, der nicht mitwurstelt.
Microsoft mit Machine Learning Studio, Amazon SageMaker, Google AI, und so fort. Und die Schnittstellen sind oft frei nutzbar. Die bieten halt ihre Hardware-Services mit dazu.
Apple hat seit ein paar Jahren ja sogar in jedem iPhone einen dedizierten Bereich für maschinelles Lernen.
 

MrFob

Bekanntes Gesicht
Mitglied seit
20.04.2011
Beiträge
4.648
Reaktionspunkte
3.169
Die Idee ist auf jeden Fall cool. Das koennte man auch fuer einige Spiele anderweitig in sehr interessanter Form umsetzen.
Ich denke jeder, der schonmal Assassin's Creed gespielt hat kennt z.B. das Problem, dass z.B. Ezio gerne mal eine Wand hochklettert oder einen Sprung macht, obwohl ich das als Spieler gar nicht will und nur wieder dieser "Klebemechanik" zum Opfer gefallen bin. Ich koennte mir gut vorstellen, dass durch das analysieren von Spielereingaben ein ANN trainiert werden kann, um besser "vorraussehen" zu koennen, was der Spieler eigentlich tun will und so dann die Eingaben geschmeidiger auf das Spielgeschehen umzusetzen.
Ist natuerlich alles noch ein bisschen Zukunftsmusik und auch ich als Deep Learning Enthusiast muss zugeben, dass es derzeit in den Medien ziemlich overhyped wird und als die Wunderloesung fuer alles in den Raum gestellt wird. Aber wie gesagt, die Moeglichkeiten, die sich auftun sind schon cool.
 

Herbboy

Senior Community Officer
Teammitglied
Mitglied seit
22.03.2001
Beiträge
78.662
Reaktionspunkte
5.933
Nvidia macht schon länger nicht mehr nur in Grafik. Deep Learning eignet sich zwar hervorragend für Bilder. Aber dieselbe Technik ist auch für viele andere Bereiche interessant. Erst die Tage haben Bosch, Toyota und andere sich für Nvidias Plattform entschieden um autonomes Fahren voranzutreiben.
ich bezog mich jetzt bei meinen Anmerkungen, warum mich ein bisher eher überschaubarer Einsatz der Cloud/DeepLearning-Technik wundert, nur auf die Verwendung für Videogames spielende Privatkonsumenten. Dass Nvidia und auch andere Firmen im professionellen Bereich so was schon längst und sehr intensiv machen ist ja klar, benötigt aber eben auch nur einen Bruchteil der Ressourcen im Vergleich zu einem Szenario, bei dem zB für Call of Duty am Releasetag im Multiplayermodi ein KI-Server jede Spielersekunde aller Gamer begleiten würden... ;) Daher ja auch meine Idee, dass man nur vereinzelt Daten sammelt, nach und nach die KI verbessert und den Spielern Patch-Artig ein KI-Paket hochlädt und es nicht in Echtzeit 24/7 wegen jedem Scheiß über eine Cloud macht.
 

nevermind85

Bekanntes Gesicht
Mitglied seit
26.07.2016
Beiträge
605
Reaktionspunkte
215
Wenn man damit werben kann, dann schon. Nvidia macht es ja, wie gesagt, nur eben bei Grafik und nicht bei der Steuerung. Meine Frage war ja auch eher so gemeint, warum nicht mehr Firmen daran arbeiten, nicht warum es das nicht alles schon gibt. Denn inzwischen ist Cloudspace usw. deutlich günstiger als noch vor ein paar Jahren, und ich rede ja auch nicht davon, dass die Spieler in Echtzeit dauernd online sind, sondern das ähnlich wie bei einem Patch eine Art KI-Paket runtergeladen wird, das nach und nach auf Basis von vlt auch nur zufällig ausgewerteten Spielern verbessert wird. Natürlich soll nicht jede Sekunde jedes einzelnen Spielers durch Server analysiert werden, das wäre viel zu teuer.

Es spielt keine Rolle, ob Du einen Spieler analysierst oder 1000. In letzterem Fall brauchst Du halt noch mehr Speicher. Das ändert aber nichts daran, dass du für so eine KI einen entsprechenden Cluster aufbauen musst. Ist ja nicht so, dass man sich nen Thinkpad ins Büro stellt und dann die KI.exe anschmeißt... alleine die Entwicklung von so einem System dürfte einen hohen 7- bis 8-stelligen Betrag verballern, dazu noch laufenden Kosten für Hardware.
Und das mit dem KI-Paket habe ich shcon kapiert, das ändert aber nichts daran, dass Du dennoch ein laufendes System brauchst.

Das ist doch jedem klar, der die ersten paar Sätze liest. Nur: wie willst du das denn bitte besser in aller Kürze zusammenfassen als mit "Latenz" ? PRAKTISCH gesehen ist es für den Spieler ja wie eine bessere Latenz, warum also nicht das Wort stellvertretend verwenden, um die Sache zusammenzufassen?

Anscheinend ist es nicht Jedem klar, wie Du in deinem zweiten Satz ja selbst zeigst. Der technische Begriff Latenz ist klar definiert und beschreibt NICHT das Look and Feel für den User, sondern die Verzögerungszeit im EVA-Verfahren.
Und auch praktisch ist es keine Latenz-Reduktion, wenn ich einfach selbst irgendwelche Eingaben berechne oder erahne und mit den tatsächlichen abgleiche...
 

MichaelG

Bekanntes Gesicht
Mitglied seit
04.06.2001
Beiträge
26.495
Reaktionspunkte
6.802
Frei nach Tooltime: Das glaube ich noch nicht Tim. ;) Wenn ich auf einmal eine andere Waffe will als was die KI denkt oder ich will mich woanders hin bewegen. Vorausdenken ok. Aber ob das immer paßt wage ich noch zu bezweifeln. Und die Latenz wird sich wie gesagt schon rein aus technischen Gründen nicht verbessern. Wegen Internet und Co. Gut bei einem MP-Shooter übers Netz kann sich das eventuell einigermaßen angleichen. Aber nicht im Vergleich zu einem Offline-SP-Game.
 

Herbboy

Senior Community Officer
Teammitglied
Mitglied seit
22.03.2001
Beiträge
78.662
Reaktionspunkte
5.933
Anscheinend ist es nicht Jedem klar, wie Du in deinem zweiten Satz ja selbst zeigst. Der technische Begriff Latenz ist klar definiert und beschreibt NICHT das Look and Feel für den User
ach nee, sag bloß... :rolleyes: Ich weiß, was eine Latenz ist - wenn hier einer was nicht verstanden hat, dann DU. Ich schrieb doch, dass man das Wort in dem Zusammenhang mit der KI-Technik nur verwendet, um den Effekt möglichst kurz und leicht verständlich zu beschreiben - mehr nicht. Man sollte es vielleicht in Gänsefüßchen setzen, um zu betonen, dass es nicht wirklich um eine echte Latenz geht. Aber wie willst du den Effekt hier bei der Technik denn bitte möglichst knapp und auch für Laien (denen es scheißegal ist, ob es nun wirklich mit der Latenz zu tun hat oder nicht) beschreiben? Wenn du da ein passendes anderes Wort parat hast, bei dem direkt jeder weiß, was die Technik für den Gamer "gefühlt" ermöglicht - und das IST nun mal ein Effekt, als würde man eine geringere Latenz / einen besseren Ping haben - dann bitte gern.

Und wegen der Cloudtechnik: Natürlich brauchst du da ein Minimum an Technik als Basis. Es ist trotzdem vom Speicherbedarf und den Kosten her eine ganz andere Hausnummer, wenn du nur 1% der Gamer "erfasst" oder es mit allen machst bei zB einem Spiel wie Call of Duty oder so.
 
Oben Unten