• Aktualisierte Forenregeln

    Eine kleine Änderung hat es im Bereich Forenregeln unter Abschnitt 2 gegeben, wo wir nun explizit darauf verweisen, dass Forenkommentare in unserer Heftrubrik Leserbriefe landen können.

    Forenregeln


    Vielen Dank
  • Kritk / Fragen / Anregungen zu Artikeln

    Wenn ihr Kritik, Fragen oder Anregungen zu unseren Artikeln habt, dann könnt ihr diese nun in das entsprechende Forum packen. Vor allem Fehler in Artikeln gehören da rein, damit sie dort besser gesehen und bearbeitet werden können.

    Bitte beachtet dort den Eingangspost, der vorgibt, wie der Thread zu benutzen ist: Danke!

Google Stadia: In zwei Jahren soll die Latenz geringer sein als am PC

Icetii

Autor
Mitglied seit
21.04.2016
Beiträge
3.373
Reaktionspunkte
51
Jetzt ist Deine Meinung zu Google Stadia: In zwei Jahren soll die Latenz geringer sein als am PC gefragt.


Bitte beachtet: Der Kommentarbereich wird gemäß der Forenregeln moderiert.


lastpost-right.png
Zum Artikel: Google Stadia: In zwei Jahren soll die Latenz geringer sein als am PC
 
Das Internet lästert auch schon, Spiele spielen sich von selbst. Also eine KI weiß jetzt, welche Taste der Spieler als nächstes drücken will.
Mit Latenz hat das natürlich absolut gar nichts zu tun.
 
wtf.... ka finde das geht erheblich zu weit sowas.
zum schluss spielst entweder gar nicht mehr gegen menschen sondern nur mehr gegen übermächtige ki.
fehlt noch automatischer aim...... kommt einen schon vor wenn man das so liest wie cheaten
 
Vielleicht möchte ich aber gerade unberechenbar spielen ... :O
 
Vielleicht möchte ich aber gerade unberechenbar spielen ... :O

Je besser ein Spieler ist, umso vorhersehbarer ist seine Reaktion für diverse Spielsituationen? Umso besser kann sich der Server darauf vorbereiten.
Beziehungsweise Reaktionen. Es geht hier um eine Aststruktur, wo die am ehesten zu erwartenden Verzweigungen optimiert werden.

Wenn die erwartete Tastatureingabe nicht kommt dann muss der Buffer eben verworfen und die tatsächliche Tasteneingabe nachgereicht werden.
Bei einem schlechten Spieler ist die vergleichsweise höhere Latenz dann wohl auch egal. ;)
 
Je besser ein Spieler ist, umso vorhersehbarer ist seine Reaktion für diverse Spielsituationen? Umso besser kann sich der Server darauf vorbereiten.
Beziehungsweise Reaktionen. Es geht hier um eine Aststruktur, wo die am ehesten zu erwartenden Verzweigungen optimiert werden.

Wenn die erwartete Tastatureingabe nicht kommt dann muss der Buffer eben verworfen und die tatsächliche Tasteneingabe nachgereicht werden.
Bei einem schlechten Spieler ist die vergleichsweise höhere Latenz dann wohl auch egal. ;)

Du musst dir echt abgewöhnen alles schönreden zu wollen. Nein, egal wie es funktioniert, sowas ist SCHEIßE und sollte gar nicht erst einreißen.
 
Du musst dir echt abgewöhnen alles schönreden zu wollen. Nein, egal wie es funktioniert, sowas ist SCHEIßE und sollte gar nicht erst einreißen.

Ich halte nunmal nichts davon, immer gleich von der idiotischsten Umsetzung auszugehen. :rolleyes:
Weil es sich lustig anhört? Glaubt hier ernsthaft jemand Google zimmert an einem Autopiloten nur damit der Stream funktioniert?

(Wobei ich mir vorstellen könnte, dass ein leichtes "an der Hand halten" sogar positiv aufgenommen werden könnte. Zumindest im Singleplayer. So wie Autotune, wenn man beim Singen die Töne nicht so ganz trifft. Nur zu extrem wird das dann irgendwann lächerlich. Aber darum geht es nicht.)


"Google wants to use something akin to branch prediction, which is a well-researched and common technique in CPU design."

Diese Technik gibt es schon seit den Urzeiten des PCs. Und nur durch diese Art Vorhersage bringen moderne CPUs überhaupt erst ihre Leistung.
Wenn die erwarteten Aktionen nicht stattfinden, dann dauert die korrekte Berechnung zwar deutlich länger. Aber je besser die Vorhersage umso schneller wird es insgesamt.

In CPUs passiert das mit bis zu 98% Genauigkeit (bei manchen Operationen nur 50+). Ich finde es nicht wirklich schwer vorstellbar, dass speziell Deep Learning im Bereich Gaming eine hohe Trefferquote bedeuten kann.
 
Es geht dabei ja nicht ganz sicher um so was wie "die KI schießt im Voraus, so dass man im Multiplayer dann schneller ist, oder "Hands off", und Lara klettern von alleine die Steilwand hoch... Es wird eher so sein, dass die KI "lernt", was der Spieler typischerweise macht und wie sein Timing dabei ist, und wenn es zutrifft, ist das passende Bild bzw. zumindest bestimmte Rechenvorgänge schon parat anstatt dass man ALLES extra erst dann, wenn der Befehl des Nutzers am Server ankommt, berechnen muss. Dafür muss dann aber das ganze Spiel entsprechend ausgelegt sein, oder Stadia muss mehrere Instanzen parallel laufen lassen.

Es wird aber 100 pro nicht passieren, dass man zB auf ein Hindernis zuläuft und zum ersten mal seit 1000 Hindernissen NICHT auf "springen" drückt, sondern stehenbleibt, Stadia aber trotzdem den Spring-Befehl ausübt. Und vermutlich wird so eine Technik auch eher im Singleplayer-Bereich eingesetzt werden, damit keine Verschwörungstheorien aufkommen.

Was mich nur wundert ist, warum das alles "nur" von Google kommt - das wäre doch angesichts der allways-online-Welt für jedes Spiel eine Option, dass es sich zB einem Level einen passenden Daten-Algorithmen-Satz aus der Cloud runterlädt oder so. ^^ Für Grafik macht Nvidia dies ja bereits, und dabei spielt ja u.a. auch eine Rolle, vorauszuahnen, wohin der Spieler die Kamera bewegen wird.
 
Zuletzt bearbeitet:
Was mich nur wundert ist, warum das alles "nur" von Google kommt - das wäre doch angesichts der allways-online-Welt für jedes Spiel eine Option, dass es sich zB einem Level einen passenden Daten-Algorithmen-Satz aus der Cloud runterlädt oder so. ^^ Für Grafik macht Nvidia dies ja bereits, und dabei spielt ja u.a. auch eine Rolle, vorauszuahnen, wohin der Spieler die Kamera bewegen wird.

Kann ich Dir sagen, warum das keiner macht: weil es zu teuer wäre. Du brauchst nen Cluster für die KI, riesige Datenbanken, die Cloud. Alles natürlich hochverfügbar... das lohnt sich m.E.n. einfach nicht.

Zum Thema:
Sagte schon Jemand Bingo?
Wie schon von Spiritorgre geschrieben, hat das Ganze natürlich nichts mit Latenz zu tun. Fehlt eigentlich nur noch der Hinweis auf die Blockchain-Technik, um vollends lächerlich zu werden.
Aber ja, wir benutzen KI, um physikalische Gegenebheiten zu ignorieren. Ein ganz toller Plan :-D
 
Klingt wie ein Stützräder-Modus für Gamer. Naja, wer's braucht... :B

Nein, tut es nicht. Nicht mal im Ansatz. Loosa hat es bereits gepostet: CPUs machen seit Jahren genau das, was hier kritisiert wird. Es ist einfach ein Versuch die Latenzen so weit zu minimieren, dass man eben kein Unterschied zum lokalen PC feststellt und sowas hat weder was mit Jubeln oder schön reden zutun, sondern dieser Bereich der IT ist das "next big thing!", so leid es mir tut.

Man benötigt hier ein riesiges, neurales Netz bzw. Infrastruktur, um eben diese aufzubauen bzw. zu simulieren und da sind eben Facebook, Google und auch MS eben ganz groß dabei, nVidia übrigens auch.
 
Kann ich Dir sagen, warum das keiner macht: weil es zu teuer wäre. Du brauchst nen Cluster für die KI, riesige Datenbanken, die Cloud. Alles natürlich hochverfügbar... das lohnt sich m.E.n. einfach nicht.
Wenn man damit werben kann, dann schon. Nvidia macht es ja, wie gesagt, nur eben bei Grafik und nicht bei der Steuerung. Meine Frage war ja auch eher so gemeint, warum nicht mehr Firmen daran arbeiten, nicht warum es das nicht alles schon gibt. Denn inzwischen ist Cloudspace usw. deutlich günstiger als noch vor ein paar Jahren, und ich rede ja auch nicht davon, dass die Spieler in Echtzeit dauernd online sind, sondern das ähnlich wie bei einem Patch eine Art KI-Paket runtergeladen wird, das nach und nach auf Basis von vlt auch nur zufällig ausgewerteten Spielern verbessert wird. Natürlich soll nicht jede Sekunde jedes einzelnen Spielers durch Server analysiert werden, das wäre viel zu teuer.


Wie schon von Spiritorgre geschrieben, hat das Ganze natürlich nichts mit Latenz zu tun.
Das ist doch jedem klar, der die ersten paar Sätze liest. Nur: wie willst du das denn bitte besser in aller Kürze zusammenfassen als mit "Latenz" ? PRAKTISCH gesehen ist es für den Spieler ja wie eine bessere Latenz, warum also nicht das Wort stellvertretend verwenden, um die Sache zusammenzufassen?
 
Nein, tut es nicht. Nicht mal im Ansatz. Loosa hat es bereits gepostet: CPUs machen seit Jahren genau das, was hier kritisiert wird. Es ist einfach ein Versuch die Latenzen so weit zu minimieren, dass man eben kein Unterschied zum lokalen PC feststellt und sowas hat weder was mit Jubeln oder schön reden zutun, sondern dieser Bereich der IT ist das "next big thing!", so leid es mir tut.

Man benötigt hier ein riesiges, neurales Netz bzw. Infrastruktur, um eben diese aufzubauen bzw. zu simulieren und da sind eben Facebook, Google und auch MS eben ganz groß dabei, nVidia übrigens auch.

Und wie alle diese Ansätze, mehr sind es nicht, wird es in der Praxis in der Regel zwar funktionieren aber eben genauso häufig grandios scheitern.
 
Ich fände es ja spannend wenn man sich die Trefferquote dann auch anzeigen lassen könnte.
Oder vielleicht auch ernüchternd, wenn man sieht wie vorhersehbar wir "Individuen" doch sind. :B


Wenn man damit werben kann, dann schon. Nvidia macht es ja, wie gesagt, nur eben bei Grafik und nicht bei der Steuerung. Meine Frage war ja auch eher so gemeint, warum nicht mehr Firmen daran arbeiten, nicht warum es das nicht alles schon gibt.

Nvidia macht schon länger nicht mehr nur in Grafik. Deep Learning eignet sich zwar hervorragend für Bilder. Aber dieselbe Technik ist auch für viele andere Bereiche interessant. Erst die Tage haben Bosch, Toyota und andere sich für Nvidias Plattform entschieden um autonomes Fahren voranzutreiben.

Es gibt eigentlich kaum einen großen Hersteller, der nicht mitwurstelt.
Microsoft mit Machine Learning Studio, Amazon SageMaker, Google AI, und so fort. Und die Schnittstellen sind oft frei nutzbar. Die bieten halt ihre Hardware-Services mit dazu.
Apple hat seit ein paar Jahren ja sogar in jedem iPhone einen dedizierten Bereich für maschinelles Lernen.
 
Die Idee ist auf jeden Fall cool. Das koennte man auch fuer einige Spiele anderweitig in sehr interessanter Form umsetzen.
Ich denke jeder, der schonmal Assassin's Creed gespielt hat kennt z.B. das Problem, dass z.B. Ezio gerne mal eine Wand hochklettert oder einen Sprung macht, obwohl ich das als Spieler gar nicht will und nur wieder dieser "Klebemechanik" zum Opfer gefallen bin. Ich koennte mir gut vorstellen, dass durch das analysieren von Spielereingaben ein ANN trainiert werden kann, um besser "vorraussehen" zu koennen, was der Spieler eigentlich tun will und so dann die Eingaben geschmeidiger auf das Spielgeschehen umzusetzen.
Ist natuerlich alles noch ein bisschen Zukunftsmusik und auch ich als Deep Learning Enthusiast muss zugeben, dass es derzeit in den Medien ziemlich overhyped wird und als die Wunderloesung fuer alles in den Raum gestellt wird. Aber wie gesagt, die Moeglichkeiten, die sich auftun sind schon cool.
 
Nvidia macht schon länger nicht mehr nur in Grafik. Deep Learning eignet sich zwar hervorragend für Bilder. Aber dieselbe Technik ist auch für viele andere Bereiche interessant. Erst die Tage haben Bosch, Toyota und andere sich für Nvidias Plattform entschieden um autonomes Fahren voranzutreiben.
ich bezog mich jetzt bei meinen Anmerkungen, warum mich ein bisher eher überschaubarer Einsatz der Cloud/DeepLearning-Technik wundert, nur auf die Verwendung für Videogames spielende Privatkonsumenten. Dass Nvidia und auch andere Firmen im professionellen Bereich so was schon längst und sehr intensiv machen ist ja klar, benötigt aber eben auch nur einen Bruchteil der Ressourcen im Vergleich zu einem Szenario, bei dem zB für Call of Duty am Releasetag im Multiplayermodi ein KI-Server jede Spielersekunde aller Gamer begleiten würden... ;) Daher ja auch meine Idee, dass man nur vereinzelt Daten sammelt, nach und nach die KI verbessert und den Spielern Patch-Artig ein KI-Paket hochlädt und es nicht in Echtzeit 24/7 wegen jedem Scheiß über eine Cloud macht.
 
Wenn man damit werben kann, dann schon. Nvidia macht es ja, wie gesagt, nur eben bei Grafik und nicht bei der Steuerung. Meine Frage war ja auch eher so gemeint, warum nicht mehr Firmen daran arbeiten, nicht warum es das nicht alles schon gibt. Denn inzwischen ist Cloudspace usw. deutlich günstiger als noch vor ein paar Jahren, und ich rede ja auch nicht davon, dass die Spieler in Echtzeit dauernd online sind, sondern das ähnlich wie bei einem Patch eine Art KI-Paket runtergeladen wird, das nach und nach auf Basis von vlt auch nur zufällig ausgewerteten Spielern verbessert wird. Natürlich soll nicht jede Sekunde jedes einzelnen Spielers durch Server analysiert werden, das wäre viel zu teuer.

Es spielt keine Rolle, ob Du einen Spieler analysierst oder 1000. In letzterem Fall brauchst Du halt noch mehr Speicher. Das ändert aber nichts daran, dass du für so eine KI einen entsprechenden Cluster aufbauen musst. Ist ja nicht so, dass man sich nen Thinkpad ins Büro stellt und dann die KI.exe anschmeißt... alleine die Entwicklung von so einem System dürfte einen hohen 7- bis 8-stelligen Betrag verballern, dazu noch laufenden Kosten für Hardware.
Und das mit dem KI-Paket habe ich shcon kapiert, das ändert aber nichts daran, dass Du dennoch ein laufendes System brauchst.

Das ist doch jedem klar, der die ersten paar Sätze liest. Nur: wie willst du das denn bitte besser in aller Kürze zusammenfassen als mit "Latenz" ? PRAKTISCH gesehen ist es für den Spieler ja wie eine bessere Latenz, warum also nicht das Wort stellvertretend verwenden, um die Sache zusammenzufassen?

Anscheinend ist es nicht Jedem klar, wie Du in deinem zweiten Satz ja selbst zeigst. Der technische Begriff Latenz ist klar definiert und beschreibt NICHT das Look and Feel für den User, sondern die Verzögerungszeit im EVA-Verfahren.
Und auch praktisch ist es keine Latenz-Reduktion, wenn ich einfach selbst irgendwelche Eingaben berechne oder erahne und mit den tatsächlichen abgleiche...
 
Frei nach Tooltime: Das glaube ich noch nicht Tim. ;) Wenn ich auf einmal eine andere Waffe will als was die KI denkt oder ich will mich woanders hin bewegen. Vorausdenken ok. Aber ob das immer paßt wage ich noch zu bezweifeln. Und die Latenz wird sich wie gesagt schon rein aus technischen Gründen nicht verbessern. Wegen Internet und Co. Gut bei einem MP-Shooter übers Netz kann sich das eventuell einigermaßen angleichen. Aber nicht im Vergleich zu einem Offline-SP-Game.
 
Zurück