• Aktualisierte Forenregeln

    Eine kleine Änderung hat es im Bereich Forenregeln unter Abschnitt 2 gegeben, wo wir nun explizit darauf verweisen, dass Forenkommentare in unserer Heftrubrik Leserbriefe landen können.

    Forenregeln


    Vielen Dank
  • Kritk / Fragen / Anregungen zu Artikeln

    Wenn ihr Kritik, Fragen oder Anregungen zu unseren Artikeln habt, dann könnt ihr diese nun in das entsprechende Forum packen. Vor allem Fehler in Artikeln gehören da rein, damit sie dort besser gesehen und bearbeitet werden können.

    Bitte beachtet dort den Eingangspost, der vorgibt, wie der Thread zu benutzen ist: Danke!

Battle Royale: Nvidia bestätigt Hardware als wichtigen Faktor

Das sind die Angaben, wie schnell ein Pixel seine Farbe ändern kann. Dabei nutzen die Hersteller aber "Optimalwerte" - von Dunkelgrau nach Mittelgrau geht es schneller als von Orange nach Violett, nur als Beispiel. Inzwischen sind die Werte so kein, dass es keine Rolle spielt - und wenn es eine spielt, dann nicht beim Bildaufbau, sondern bei der Qualität: mit einer sehr langen Reaktionszeit hast du "Schlieren" bei schnelleren Bewegungen.

Ah Danke könntest du das Definieren ? heißt das dass zwischen 4ms IPS und 1ms Tn so gut wie kein Unterschied zu merken ist ? Ab wann redet man von einer langen Reaktionszeit ? man hört ja immer das die Hersteller da immer etwas schummeln ..... und selbst steht man dazwischen und weiß nicht was man kaufen soll.
 
Ah Danke könntest du das Definieren ? heißt das dass zwischen 4ms IPS und 1ms Tn so gut wie kein Unterschied zu merken ist ? Ab wann redet man von einer langen Reaktionszeit ? man hört ja immer das die Hersteller da immer etwas schummeln ..... und selbst steht man dazwischen und weiß nicht was man kaufen soll.

Wie Herbboy schon sagte, die Hersteller nutzen theoretische Maximalwerte. In der Praxis hast du selbst bei reellen 20ms in der Regel noch keine Schlieren. Von daher sind die Angaben mehr oder minder für die Katz.
Moderne IPS Displays schalten schnell genug, sodass es da keine Schlieren mehr gibt. Dafür ist das Bild farbtreuer und blichwinkelstabiler.
Als Alternative bieten sich Monitore mit VA Panels an, die irgendwo in der Mitte liegen, aber schon einen merklichen Qualitätszuwachs zu TN darstellen.
 
Ah Danke könntest du das Definieren ? heißt das dass zwischen 4ms IPS und 1ms Tn so gut wie kein Unterschied zu merken ist ? Ab wann redet man von einer langen Reaktionszeit ? man hört ja immer das die Hersteller da immer etwas schummeln ..... und selbst steht man dazwischen und weiß nicht was man kaufen soll.
Vor 10 Jahren war das ggf. noch relevant, aber inzwischen sind bis auf sehr wenige Ausnahmen alle Monitore so schnell, dass man da keinen Unterschied merkt. Früher hatten manche Monitore 4ms "Optimum", aber im "Schnitt" ein vielfaches davon, so dass es bei schnellen Bewegungen Schliereneffekte gab. So was sollte es heutzutage nicht mehr geben. Ich würde trotzdem, falls man sich zwischen 2 Monitoren entscheiden soll und der eine zB 10ms als Angabe hat, der andere 2ms, eher den mit 2ms nehmen, sofern man keine Tests findet, die das Thema klären.
 
Aber sei's drum: heißt das also Du meinst, dass die Aussagen von Nvidia, die ja nun echt nichts neues sind, kompletter Unfug sind? Du meinst also, dass jemand mit 30 FPS und einem 60Hz Monitor im Schnitt die exakt gleiche KD-Ratio erzielt wie mit einem PC, mit dem er in 100 FPS bei 144 Hz spielen kann? Das wäre ein sehr gewagte These - kannst DU das denn mit Zahlen irgendwie auch nur ansatzweise bestätigen, so wie Nvidia es umgekehrt für die schon seit Jahren bei Gamern getroffene Aussage "schnellere Hardware kann ein Vorteil sein" macht? Oder willst du einfach nur rumstänkern, weil die Aussage von Nvidia kommt und Du Nvidia nicht magst und unterstellst, dass das alles nicht wahr ist und die nur ihre Grafikkarten vermarkten wollen ?

Ich sage, dass Nvidia diese Studie einfach nur nutzt um ihre Verkäufe puschen zu wollen, unabhängig davon ob es nun für den durchschnittlichen Spieler Sinn macht. Ja ich sage dir, das der durchschnittliche Spieler auch mit 30fps und 60Hz Monitor genauso viele Kills macht wie mit 100 FPS bei 144Hz, weil es völlig irrelevant für ihn ist. Er spielt seine 5-10h pro Woche und ist überhaupt nicht auf dem Niveau, ab dem die HW den Fortschritt limitieren würde.
Das sagt Nvidia mit seiner Studie nämlich indirekt auch: Menschen, die viel Geld für ihr Hobby ausgeben, üben es i.d.R. häufiger aus und sind somit von Natur aus besser darin. Die wären aber auch auf einer schlechteren HW sehr gute Spieler. Der Durchschnittsspieler gibt aber eben keine 500€-1200, nichtmal 250€ für eine Grafikkarte aus, sondern eben nur 100-200€ Genauso sieht es beim Monitor aus. Da steht eben bestenfalls ein 60Hz FHD Monitor auf dem Schreibtisch.

Ich denke das die Absatzzahlen für die neue Nvidia-Generation nicht den Erwartungen entsprechen (wen wunderts bei dem P/L-Verhältnis und den Software-Mindestanforderungen) und man jetzt u.a. auch diese Studie dazu nutzen will, die Verkäufe hochzutreiben. Wenn ich Leistungsführer wäre, würde ich es wohl auch so machen. Aber man kann eben auch einfach einen Bruchteil des Geldes ausgeben und eine AMD-Karte vom Typ 590 oder Vega56/64 und einen kostengünstigeren Freesync-Monitor kaufen und würde mit ziemlicher Sicherheit nicht schlechter spielen. Die einzige Ausnahme stellen vll. die oberen 1000 Profispieler dieser Welt dar.
 
Klar nutzt Nvidia das als Marketing für sich. Das bestreitet hier doch keiner. Und das ist auch offensichtlich und auch ganz natürlich. Keine Frage. Das würde AMD genauso machen und für sich verwenden. Aber daran gibt es auch nichts zu rütteln. Mit besserer Hardware = mehr FPS = mehr Grafikdetails = je nach Monitor mehr dpi; z.B. WQHD oder gar 4K statt FHD) = besseres, detailreicheres Bild und geschmeidigeres, ruckelfreies und schnelles Spielen, besserer Monitor = mehr Hz, besseres Farbschema, besserer Kontrast = mehr dpi. Hat man zudem noch Gsync verbaut kann man im Spiel auf Vsync verzichten und schaufelt mehr Leistung frei, weil der Monitor diese Aufgabe mit übernimmt und die Grafikkarte hier entlastet. Das ganze bringt ein geschmeidigeres Spielverhalten mit sich, eine bessere Erkennbarkeit von Feind und Umfeld und damit das Potential für ein bessere Spielergebnis.

Unter Berücksichtigung der schwankenden Tagesform kann man Nvidias Fazit aber durchaus problemlos stehen lassen. Insbesondere bei Rennspielen und bei FPS sind Faktoren wie fps (bei Onlinespielen noch der Ping) das A und 0. Je besser desto flüssiger kann man spielen. Deswegen verzichten einige Hardcore-MP-Shooterzocker lieber auf Details zugunsten von mehr fps. Das geht bei einigen "Extremos" sogar soweit daß sie Ultra Low Einstellungen nutzen um mehr fps zu bekommen, teils auch um zu "cheaten". Weil bei einigen Spielen. Z.B. bei Warthunder ein bekanntes Phänomen in diesem Grafikmodi (der eigentlich nur dafür gedacht ist, daß das Spiel auf älteren PC und Laptops noch läuft) diverse Hindernisse einfach teils nicht gerendert werden und der Gegner so ein viel bessere Sichtfeld hat und somit seinen Feind deutlich eher sieht und sogar teils eher auf ihn schießen kann. Weil wo das Hindernis für ihn nicht da ist fliegt das Geschoß auch problemlos Richtung Feind. Aber der Gegenpart mit normalen Grafikeinstellungen hat als Sichthindernis noch eine Mauer oder das Haus (was auch immer) und sieht den Feind noch nicht.

Bei First Person Shootern merkt man selbst noch Sprünge im Bereich von 80 oder 100 fps aufwärts (auch bei Rennspielen). Bei einer WiSim oder einem gemächlichen Walkingsimulator merkt man das dann kaum. Weil es da nicht auf die zehntel Sekunde Reaktionszeit ankommt.

Das Spielergebnis wird mit besserer Hardware auch besser. Daß Nvidia diese triviale Tatsache natürlich für sich marketingtechnisch ausschlachtet ist doch ganz natürlich. Nur hat AMD in der oberen Mittelklasse bei den GPUS Nvidia nichts entgegenzusetzen. Sonst würden sie vermutlich auf die gleiche Idee kommen.

Und letztendlich muß man als Kunde selbst wissen, was man bereit ist für sein Spieleerlebnis in die Hardware zu stecken. Dem einen reicht eine 250-300 EUR Grafikkarte, der andere kauft eine Titan weil er sichs leisten kann und will. Vielleicht auch gleich mal 2 davon um ein SLI-Gespann daraus zu zaubern. Das ist wie mit allem im Leben. Ich kann mir ein Gebrauchtwagen kaufen für weniger als 1000 EUR. Ich kann mir aber ebenso einen Bugatti Chiron für über 2 Mio EUR kaufen wenn ich das Geld dazu habe. Beides gibt der Markt her. Und wenn es mich richtig zwickt und mir die Kohle total scheißegal wäre und wenn man sie hätte könnte man sich auch für 70 Mio Dollar (beim nächsten angebotenen wird der Preis wohl nochmals steigen) einen Ferrari 350 GTO kaufen.
 
Zuletzt bearbeitet von einem Moderator:
Klar nutzt Nvidia das als Marketing für sich. Das bestreitet hier doch keiner. Und das ist auch offensichtlich und auch ganz natürlich. Keine Frage. Das würde aber AMD genauso machen. Aber daran gibt es auch nichts zu rütteln. Mit besserer Hardware = mehr FPS = mehr dpi ) = besseres Bild und geschmeidigeres, ruckelfreies und schnelles Spielen, besserer Monitor = mehr Hz. Das ganze bringt ein geschmeidigeres Spielverhalten, bessere Erkennbarkeiten und damit das Potential für ein bessere Spielergebnis. Unter Berücksichtigung der schwankenden Tagesform kann man Nvidias Fazit aber stehen lassen. Insbesondere bei Rennspielen und bei FPS sind Faktoren wie fps und bei Onlinespielen noch der Ping das A und 0. Je besser desto flüssiger kann man spielen. Da merkt man selbst noch Sprünge im Bereich von 80 oder 100 fps aufwärts. Bei einer WiSim oder einem gemächlichen Walkingsimulator merkt man das dann kaum. Weil es da nicht auf die zehntel Sekunde Reaktionszeit ankommt.

Das Spielergebnis wird besser. Daß Nvidia diese triviale Tatsache natürlich für sich ausschlachtet ist doch ganz natürlich. Nur hat AMD in der oberen Mittelklasse bei den GPUS Nvidia nichts entgegenzusetzen.

Und letztendlich muß man als Kunde selbst wissen, was man bereit ist für sein Spieleerlebnis in die Hardware zu stecken. Dem einen reicht eine 250-300 EUR Grafikkarte, der andere kauft eine Titan weil er sichs leisten kann und will. Vielleicht auch gleich mal 2 davon um ein SLI-Gespann daraus zu zaubern. Das ist wie mit allem im Leben. Ich kann mir ein Gebrauchtwagen kaufen für weniger als 1000 EUR. Ich kann mir aber ebenso einen Bugatti Chiron für über 2 Mio EUR kaufen wenn ich das Geld dazu habe. Beides gibt der Markt her. Und wenn es mich richtig zwickt und mir die Kohle total scheißegal wäre und wenn man sie hätte könnte man sich auch für 70 Mio Dollar (beim nächsten angebotenen wird der Preis wohl nochmals steigen) einen Ferrari 350 GTO kaufen.

Und Ferrari würde sagen, dass man mit mehr PS schneller fahren kann. Ändert nichts daran, das deine Oma mit nem Ferrari vermutlich trotzdem nur mit 40 auf der Landstraße herumgurken würde ;)
Der Punkt ist, das die Studie maximal für Leute interessant ist, die auf einem so hohen Niveau spielen, das sie nur noch durch die HW limitiert werden. Für die Masse ist die Studie irrelevant aber Nvidia will eben mit dieser Studie die Masse erreichen und "gaukelt" somit den Leuten vor, sie wären besser, wenn sie sich die teuerste Nvidia-Karte samt Gsync-Monitor hinstellen. Gleiches gilt übrigens für DPI bei Mäusen. Reines Marketing. Für die Masse ist alles über 2000 DPI quasi sinnlos.

Der Faktor, der am Ende die Masse wirklich interessiert, ist der Ping, denn da ist der Vorteil in kompetetiven Spielen wirklich messbar und liegt in einem greifbaren Bereich.
 
Der Punkt ist, das die Studie maximal für Leute interessant ist, die auf einem so hohen Niveau spielen, das sie nur noch durch die HW limitiert werden. Für die Masse ist die Studie irrelevant aber Nvidia will eben mit dieser Studie die Masse erreichen und "gaukelt" somit den Leuten vor, sie wären besser, wenn sie sich die teuerste Nvidia-Karte samt Gsync-Monitor hinstellen.

Überhaupt nicht. Eigentlich bräuchte es auch keine Studie und natürlich wird diese genutzt, um mit ihr zu werben. Hier spricht ein Hersteller etwas im wirtschaftlichen Interesse an, klar. Es gibt nämlich sicher Kunden, die vielleicht einen solchen Monitor kaufen würden, aber durch Aussagen verunsichert werden, die davon sprechen das es nichts bringt. Das ist einfach falsch. Wer das behauptet verunsichert eher die Masse, die größtenteils sicher auch nicht versteht, warum das tatsächlich und für jeden einen Unterschied macht, wenn die Bilder pro Sekunde entsprechend schnell auf dem Monitor dargestellt werden. Die Frage ist, ob man wirklich so viel Geld ausgeben möchte, um seine K/D-Ratio zu verbessern. Vielleicht auch nur unwesentlich. Aber selbst wenn es meine K/D-Ratio überdeutlich verbessert - für mich persönlich steht es nicht im Verhältnis zu dem was ich dafür hinblätter. Ich bin aber auch kein professioneller Spieler für den es wiederum unverzichtbar ist, noch hege ich solche Ambitionen.

Fakt ist aber, dass 144 Hz unabhängig von der restlichen technische Seite wie Ping (gehen wir davon aus der stimmt), das Spielergebnis verbessert. Auch Können spielt hier keine Rolle. Ein schlechter Spieler, bleibt ein schlechter Spieler. Durch entsprechende Hardware wie hier beworben, wird aber definitiv jeder Spieler besser abschneiden. So sicher, dass ein Hersteller eine Rückgabegarantie aussprechen könnte, wenn dem nicht so wäre. Egal wie gut oder schlecht man ist, machen 144 Hz instant den Unterschied. Allerdings wie gesagt, für meinen Geschmack sehr teuer erkauft . Das muss jeder selbst wissen, ob ihm das wert ist. Aber es ist kein "vorgaukeln". Weder von Nvidia, noch einem anderen Hersteller.

Gerade weil der Effekt so markant ist, spielen professionelle Spieler auch oft mit noch höheren Werten. Mit 144 Hz, 240 Hz Monitor und entsprechender Bildwiederholfrequenz landen wir schnell bei potenten Grafikkarten und somit auch Nvidia. Kerngeschäft. Wir grenzen hier die Zielgruppe aber bereits ein, wo die Hardware ein Spiel entscheiden kann und sich die Anschaffung lohnt und reden über etwas, dass nicht zwingend für jeden gedacht ist und echt eine Stange Geld kostet. Die Hersteller lassen sich das logisch teuer bezahlen. Dass es aber etwas bringt, kann jeder selbst testen. Spielt einen Shooter mit weniger als 30fps zum Beispiel. Man wird nicht mehr vernünftig treffen und genau so, verhält es sich in die andere Richtung.

Ich erinnere mich gerne an einen Freund, der sich vor langer Zeit einen 144 Hz Monitor kaufte, aber die Refresh Rate im Treiber von 60 Hz nicht angepasst hatte, bis ich ihn darauf ansprach. G-Sync Monitor mit 144 Hz und er spielt mit 60 Hz und G-Sync aus. Das habe ich überhaupt nicht verstanden und bin davon ausgegangen, dass er es so eingestellt hat, auch wenn es keinen Sinn macht. Ist ja jedem selbst überlassen, was man wofür ausgibt und wie man es letztendlich nutzt. Tatsächlich war es aber so, dass es ihm gar nicht nicht bewusst war. Er ist davon ausgegangen, dass sich das automatisch einstellt und war der festen Überzeugung, dass er nutzt, wofür er bezahlt hat. Kann man sich nicht ausdenken. Gut, wenn man die andere Seite nicht kennt, wird es schwer einen Unterschied festzustellen. Mit ihm also alles entsprechend eingestellt, was auch verdeutlichen soll, dass er sich kaum mit der technischen Materie auseinandersetzt. Ein Gelegenheitsspieler mit sehr guter Gerätschaft sozusagen. Kurz: Er will nicht mehr zurück. Und nicht aus dem Grund, weil er sonst wieder teure Technik brach auf dem Schreibtisch stehen hätte.

Es bringt halt nichts, über die Vorteile von 144 Hz Monitoren zu diskutieren, wenn man nur versucht, es mit dem eigenen Empfinden oder Marketingstrategien der Hersteller zu erklären. Die Technik dahinter bietet sicher viel Raum zum Wissensaustausch und lässt sich nicht einfach nur auf subjektives Empfinden reduzieren. Es kann durchaus sein, dass es bei Einzelnen nichts gebracht hat oder bringt, warum auch immer. Diese Spieler sind deutlich in der Minderheit. aber nicht weil sie glauben, 144 Hz wäre ein Placebo, für das sie nicht anfällig wären, bzw. die Werbung suggerieren möchte, um einen Euros ohne Mehrwert aus der Tasche zu ziehen. So ist es nicht.
 
Zuletzt bearbeitet:
Eben. Die 140 Hz und deutlich höhere fps können entscheidend sein, ob man es noch schafft in Deckung zu gehen oder den Gegner wegzupusten oder halt vom Gegner hingestreckt zu werden weil man es nicht mehr schafft in die Deckung zu kommen oder das Aiming und schießen nicht 100% so geschmeidig läuft wie mit der besseren Hardware. Weil niedrige FPS und (im Zweifelsfalle sogar Framedrops die teils noch schlimmer sein können als niedriger fps) zu einem "ruckeligen" Spielergebnis (besser -gefühl) führen auch wenn dieses nicht sichtbar sein muß. Es ist aber für den Spieler spür- und fühlbar der das Spiel gerade spielt. Zumindestens wenn man kein massiver Grobmotoriker ohne Feeling ist.

Wie gesagt ich hätte es früher auch nicht geglaubt. Da dachte ich scheiß egal. Alles ab 50-60 fps aufwärts langt vollauf. Es sieht ruckelfrei aus also was soll es. Das menschliche Auge kann ab 30 fps eh kein Ruckeln mehr wahrnehmen (abgesehen von Framedrops). Aber Pustekuchen. Z.B. BF 1 mit 120 fps und 140 hz spielen sich deutlich besser und flüssiger als "nur" mit 90 fps und 60 Hz. Es ist zwar wie gesagt auf dem Monitor nicht sichtbar aber man spürt es und es führt zu einer deutlich besseren Kontrolle über das Geschehen. Das verbessert keine Skills. Keine Frage Diese muß man selbst mitbringen. Aber im Zweifelsfalle kann es bei rechtzeitiger Reaktion in beiden Fällen sein, daß man bei ersteren down geht weil der Gegner einen noch erwischt und beim zweiteren daß man in Deckung ist und davongekommen ist. Vielleicht nicht heil aber zumindestens hat man erst einmal überlebt. Mit meinem Monitor Acer Predator mit Gsync und 140 Hz merke ich den Mehrwert von 140 Hz und Gsync deutlich. Dadurch daß ich mir bei den Spielen nun die Einstellung von Vsync sparen kann ist die Performance allein dadurch schon deutlich höher. Hinzu kommen die 140 Hz.... Und wer eine AMD-Grafikkarte hat sollte sich einen Freesync-Monitor kaufen. Dort gilt das analog bei AMD-Technik. Vsync deaktivieren und der Monitor übernimmt diese Aufgabe von der Grafikkarte und man hat eine deutlich höhere Performance in den Spielen.

Oder bei einem Autorennspiel. Ob man da in letzter Sekunde scharf bremsen und in die Kurve gehen kann oder ob man ruckelnd aus der Kurve fliegt oder die "Reaktionszeit" der Hardware durch die geringeren fps dazu führt daß man es bei einem "identischen" Bremsmanöver nicht mehr schafft, was man bei höheren fps noch gepackt hat. Oder in Weltraumkämpfen (Star Citizen) alles was mit dem Thema Agilität, Reaktionsfähigkeit der Hardware (nicht man selbst) usw. zu tun hat.

Mal unterstellt die restlichen Rahmenbedingungen sind jeweils gleich (eigener Skill, Gegnerskill, Ping) kann bzw. wird je nach Hardware das ganze dazu führen, daß man im Zweikampf besser/effektiver wird/ist als mit der vorher verbauten, schwächeren Hardware. In wieweit das ganze dann zählbar wird dann aber immer individuell und schwer vorhersagbar. Abgesehen natürlich auch von der jeweiligen Tagesform.

Ob einem es dann wert ist, die Hardware zu kaufen ist eine komplett andere Geschichte. Das muß man schlußendlich mit sich selbst und seinen finanziellen Möglichkeiten ausmachen. Ich habe z,B. aktuell eine GTX 1070 und einen Intel i7 6700K und 32 GB RAM. Die Umrüstung auf eine RTX 2080 würde z.B. unter Garantie zu einem noch besseren Ergebnis bei Spielen wie BF 1, BF V oder eben irgendeinem anderen FPS oder auch Spielen wie The Division 1/2 führen. Bzw. würde auch Möglichkeiten eröffnen für spätere 4K-Darstellung (wenn man den Monitor mit wechselt) oder eben für VR. Aber auch bei einem Autorennspiel oder selbst auch in Warthunder würde man die Verbesserungen bei den fps spüren. Zumindestens ich bemerke das deutlich. Obwohl 80 fps ruckelfrei sind merke ich schon wenn das Spiel dann mit 120 fps läuft aber der Rest gleich bleibt. Das gleiche gilt auch für den Unterschied von 60 hz und 140 hz.

Und das würde damit zu einem noch smootheren Spieleerlebnis führen. Was wiederum dafür sorgt, daß die eigenen Tastaturbefehle schneller umgesetzt werden und beim ganzen Shooterhandling z.B. oder auch in Dogfights die Kämpfe runder laufen und die Chance einer Effizienzsteigerung da ist ohne daß sich der eigene Skill verändert.

Und ich werde mir sicher irgendwann noch in diesem Jahr eine RTX 2080 kaufen (ich spekuliere aktuell auf die MSI Geforce RTX 2080 Gaming X). Habe genau das Modell als GTX 1070 und bin mit MSI vollauf zufrieden. Aber ein kaufen Müssen steckt nicht dahinter. Das ist schlichtweg eine rein optionale Entscheidung und man muß eben selbst wissen, ob man bereit ist diese Preise aufzubringen bzw. ob diese Vorteile einem wert sind, das Geld auf den Tisch zu legen. Die Spiele würden auch ohne diese Aufrüstung bei mir laufen. Die Frage ist halt (bei MP-Titeln insbesondere aber auch bei SP-FPS/Rennspielen) nur in wieweit man dann von dieser Hardware profitiert (das ist natürlich abhängig je nach der vorherigen Ausgangslage). Aber da ich eh plane, mir auch bald ein VR-Set zu holen (HTC Vive Pro) ist das Ganze ein doppeltes Kaufargument um mir die RTX 2080 zu holen.

Wie gesagt, daß Nvidia diese Umstände zum Marketing und Bewerben der eigenen Technik nutzt ist doch ganz normal. Hätte AMD eine Grafikkarte in der Leistungsklasse einer RTX 2070 bzw. RTX 2080 würde AMD genauso reagieren und ähnliche Werbungen schalten. Ob man dann als Käufer bereit ist, das Geld für die Hardware hinzulegen oder ob man mit den aktuellen Gegebenheiten/seiner aktuellen Hardware zufrieden ist ist wie gesagt eine andere Sache.

Wie gesagt auch mit einem VW Polo fährt man. Sitzt man dann in einem Porsche 911 oder Ferrari ist das was ganz anderes. Trotzdem erfüllt auch der Polo seinen Zweck.
 
Zuletzt bearbeitet von einem Moderator:
Ich denke es kommt auch darauf an, wie sehr das Auge eines Einzelnen für dieses Thema sensibilisiert ist. Spieler die noch aus der Zeit der Röhrenmonitore kommen, kennen vielleicht den Effekt. Counter Strike auf einem alten Röhrenmonitor. 100 Hz und mehr waren eine echte Wohltat für das Auge. Viel angenehmer als 85, 75 oder 60 Hz die wie Hölle flimmerten. Kennt das noch jemand? Das lag natürlich daran, dass das Bild anders aufgebaut wird. Der angenehme Nebeneffekt war aber, die sehr viel bessere K/D-Ratio bei 100 Hz. Das ist wirklich nichts, dass man sich einredet oder jetzt der neue Scheiß wäre, den man an die Spieler bringen will.
 
Ich sage ja auch nicht das es gar keinen Effekt gibt. Ich sage aber das er so gering ist, das er eben nicht für die Masse ausschlaggebend ist, wenn es um die daraus resultierende spielerische Leistung geht. Ihr grenzt in euren obigen Posts doch selbst das ganze so extrem auf absolut passende Situationen ein - selber Ping, selber Skill,.... In einem absolut idealisierten Fall, der also vor allem Profispieler im LAN anspricht, gibt es sicher einen messbaren Effekt.
Die Realität sieht aber anders aus. Da spielt einer mit einem Ping von 10ms, der nächste mit 20 und der dritte mit 80. Der eine spielt 6h pro Tag, ein anderer 2h und der dritte 20min. Wie viel wird da ein HW-Upgrade bringen? Fakt ist doch wohl zudem, das ein Upgrade von 20 fps auf 30 fps oder von 30 fps auf 60 fps deutlich mehr bringt, als von 60 auf 120 oder 144.
Nicht zuletzt bleibt es eben auch eine "Studie" von Nvidia selbst. Der gesunde Menschenverstand darf zumindest fragen, ob die Studie wirklich repräsentativ ist und ob eine Studie eines unabhängigen Instituts zu einem ähnlichen Ergebnis kommen würde oder eben nicht. Womit wir wieder bei meinem Ausgangspost wären: "Man könnte auch schreiben: VW-Analysen ergeben, das Dieselfahrzeuge keine gesundheitlichen Schäden verursachen. Oder: H&K-Studie zeigt, das Waffenbesitz das Leben sicherer macht."

Edit: Ich hatte damals lange einen 60Hz Röhrenmonitor. Zuletzt hatte ich eine 100Hz Röhre und ich kann mich nicht daran erinnern, das ich dadurch in CS besser wurde - die Rahmenbedingungen waren gleich.
 
jemand der teure hardware verkaufen will, findet also heraus dass teure hardware zu kaufen einen besser macht. das ist so glaubwürdig wie eine studie von marlboro dass rauchen nicht gesundheitsschädigend wäre...
 
Zurück