• Aktualisierte Forenregeln

    Eine kleine Änderung hat es im Bereich Forenregeln unter Abschnitt 2 gegeben, wo wir nun explizit darauf verweisen, dass Forenkommentare in unserer Heftrubrik Leserbriefe landen können.

    Forenregeln


    Vielen Dank
  • Kritk / Fragen / Anregungen zu Artikeln

    Wenn ihr Kritik, Fragen oder Anregungen zu unseren Artikeln habt, dann könnt ihr diese nun in das entsprechende Forum packen. Vor allem Fehler in Artikeln gehören da rein, damit sie dort besser gesehen und bearbeitet werden können.

    Bitte beachtet dort den Eingangspost, der vorgibt, wie der Thread zu benutzen ist: Danke!

Gamingspaß in 4k - Wertvolle Tipps und Upgrade-Beratung

AntonioFunes

Autor
Mitglied seit
29.09.2010
Beiträge
952
Reaktionspunkte
109
Jetzt ist Deine Meinung zu Gamingspaß in 4k - Wertvolle Tipps und Upgrade-Beratung gefragt.


Bitte beachtet: Der Kommentarbereich wird gemäß der Forenregeln moderiert.


arrow_right.gif
Zum Artikel: Gamingspaß in 4k - Wertvolle Tipps und Upgrade-Beratung
 
Ist die Frage ob es Sinn macht im Multiplayer alles auf max zu setzen. Sieht zwar geil aus, aber man hat schon Nachteile, wenn die Sonne in die Fresse scheint xD

Und im Nebel schießen mir einige auch zu gut, so dass ich fürchte, dass man mit Low Settings mehr im Nebel sieht als auf Ultra?
 
Ist die Frage ob es Sinn macht im Multiplayer alles auf max zu setzen. Sieht zwar geil aus, aber man hat schon Nachteile, wenn die Sonne in die Fresse scheint xD

Und im Nebel schießen mir einige auch zu gut, so dass ich fürchte, dass man mit Low Settings mehr im Nebel sieht als auf Ultra?
Welches Game meinst du genau? Es kann gut sein, dass bei weniger Details einige Effekte wegfallen, die normalerweise sogar ein Nachteil sind, die Grafik aber "realistischer" machen und eher für den Singleplayermodus Sinn machen ;) und wegen der FPS-Werte gibt es viele, die zB Schatten, Texturen usw. auf Minimum einstellen für den Multiplayer.
 
"Denn rein technisch reicht die Übertragungsbandbreite der aktuellen Anschlussnormen wie Display Port 1.4 oder HDMI 2.0 für 4k nur aus, um maximal 60 Hz zu ermöglichen. "

https://www.wikiwand.com/en/DisplayPort
(bezüglich DP 1.3)
This bandwidth is enough for a 4K UHD display (3840×2160) at 120 Hz

"Diese Bandbreite ist genug, für ein 4K UHD Display mit 120 Hz"

aha.
 
Naja, für den einen sind 30fps unspielbar. Aber für mich z.B. sind 30fps völlig okay.
Hätte ich einen Monitor, bei dem es Sinn macht, würde ich auch eher in 4K zocken, als in 1440p.

Xenoverse 2 spiele ich allerdings in 4K (läuft in 60fps), weil alles unter 4K mit extremen Aliasing behaftet ist.
 
4K ist einfach noch viel zu teuer auf dem PC . Eine Grafikkarte packt das einfach noch nicht mit 60 egal um welchen Titel es handel mit max Settings . Das kommt wohl erst mit mit denn Neuen chips von Nvida ab 2018 rum . Dann hoffe ich aber das Full HD auch mal vernachlässigt wird und die Preise für 4 K Monitore stark fallen . Mir geht der Fortschritt zu langsam . Wenn nur mal die Consolos nicht werden dann wer das mal fein xd .
 
Naja, für den einen sind 30fps unspielbar. Aber für mich z.B. sind 30fps völlig okay.
Hätte ich einen Monitor, bei dem es Sinn macht, würde ich auch eher in 4K zocken, als in 1440p.

Xenoverse 2 spiele ich allerdings in 4K (läuft in 60fps), weil alles unter 4K mit extremen Aliasing behaftet ist.

30 FPS sind spielbar. Viel schlimmer für mich sind extreme Framedrops. Wenn man z.B. mit 100 FPS zockt und die FPS sacken auf einmal auf 40 oder gar 30 ab.
 
Welches Game meinst du genau? Es kann gut sein, dass bei weniger Details einige Effekte wegfallen, die normalerweise sogar ein Nachteil sind, die Grafik aber "realistischer" machen und eher für den Singleplayermodus Sinn machen ;) und wegen der FPS-Werte gibt es viele, die zB Schatten, Texturen usw. auf Minimum einstellen für den Multiplayer.

Bei BF1 soll es so sein, daß bei minimalen Details durch Nebel/Gas die Sicht besser ist als bei vollen Details und der Gegner dadurch einen Vorteil hat, wenn er auf geringer Detailstufe spielt.
 
60FPS sieht schon erheblich schöner aus als 30FPS, das wird niemand abstreiten, der mal beides im direkten Vergleich gesehen hat. Wichtig ist allerdings eine stabile Bildrate (ich spiele deswegen auch wo es geht mit aktiviertem VSync). Aber auch 30 FPS sind bei den meisten Titeln durchaus kein Problem und spielbar, allerdings fallen Schwankungen, je niedriger die Bildrate wird immer stärker störend auf.

Die Auflösung hingegen ist mir absolut nicht wichtig. Lustiges Beispiel ist Mario Kart 8, kaum jemand weiß, dass das Spiel nur in 720p läuft, fast jeder glaubt, der Titel rennt in 1080p. Auf Konsole ist also mehr als 1080p ohnehin Perlen vor die Säue werfen, weil niemand, der nicht direkt vor seinem 70 Zoll und mehr TV hockt einen Auflösungsunterschied bemerkt.

Beim PC sitzt man in der Regel wesentlich näher dran, aber auch da sehe ich bei meinem Sitzabstand bei meinem Monitor keine einzelnen Pixel bei 1080p, also was soll ich mit 4k, ich rücke doch nicht extra näher ran ...

Interessant wird es, wenn 4k und mehr irgendwann Standard werden und andere Geräte vom Markt verschwinden, wie gut diese Displays niedrigere Auflösungen skalieren können.

Es ist nun einmal heute nicht mehr so wie früher, wo man über jede höhere Auflösung froh war, weil man deutlich sah, wie die Pixel von 640x480 auf 800x600 auf 1024x768 usw. immer geringer wurden. Mit den 1920x1080 Pixeln bzw. 1980x1200 ist da eine Auflösungdichte erreicht worden, die für fast alle Sichtabstände ausreicht.
 
Wenn es konstante 30 FPS sind: okay. Aber wenn mit ner GTX 1080 in Tests im Schnitt 32 FPS rauskommen, dann kann man seinen Arsch drauf verwetten, dass es auch immer wieder mal auf nur 25 runtergeht... und dann ist es IMHO nicht gut spielbar.
 
Es ist nun einmal heute nicht mehr so wie früher, wo man über jede höhere Auflösung froh war, weil man deutlich sah, wie die Pixel von 640x480 auf 800x600 auf 1024x768 usw. immer geringer wurden. Mit den 1920x1080 Pixeln bzw. 1980x1200 ist da eine Auflösungdichte erreicht worden, die für fast alle Sichtabstände ausreicht.

Richtig! So sehe ich das auch.
4k bzw. UHD wurde ja nur entwickelt, damit besonders große TV-Bildschirme ab 55 Zoll eine ausreichende Pixeldichte besitzen. Auf kleineren Geräten macht das wenig Sinn, da die grafische QUALITÄT mMn nicht von einer höheren Auflösung abhängt.
 
"Denn rein technisch reicht die Übertragungsbandbreite der aktuellen Anschlussnormen wie Display Port 1.4 oder HDMI 2.0 für 4k nur aus, um maximal 60 Hz zu ermöglichen. "

https://www.wikiwand.com/en/DisplayPort
(bezüglich DP 1.3)
This bandwidth is enough for a 4K UHD display (3840×2160) at 120 Hz

"Diese Bandbreite ist genug, für ein 4K UHD Display mit 120 Hz"

aha.
Hi heartplaya,

ja, stimmt - da hat sich ein Fehler eingeschlichen. Gemeint war Display Port 1.2, denn es gibt bisher noch keine Monitore mit mehr als Display Port 1.2 und UHD, aber die Grafikkarten haben bereits 1.4, daher die Verwechslung. Faktisch ist es eben so, dass es bisher noch kein UHD mit mehr als 60Hz gibt. Das höchste der Gefühle über WQHD hinaus wäre ein UtraWide-WQHD (3440 x 1440) mit 75Hz an 750€ bzw. mit 100Hz ab 1100€. Es sind aber wohl erste UHD-Geräte mit mehr als 60Hz in der Pipeline für 2017, dürften dann aber für eine Weile recht teuer sein, so dass 4K mit mehr als 60Hz selbst dann nur etwas für wenige "Hardwarefans" sein wird.
 
4k Gaming ist wie Full HD Gaming vor knapp 10 Jahren, als es die ersten HD Ready und Full HD Bildschirme mit astronomischen Preisen knapp und 2 Jahre später die PS3 released wurde.

4k Gaming spricht nur einen extrem kleinen Teil der Konsumenten an, selbst die ganzen 4k Fernseher die jetzt auf den Markt kommen braucht kaum einer. Vielen fehlt in Deutschland die Bandbreite um überhaupt 4k auf Netflix amazon und co zu streamen, dazu kommt noch das das normale Fernsehen ja nicht mal richtiges Full HD bietet.

4k Gaming ist noch in den Kinderschuhen, ich persönlich würde noch warten mir einen monitor oder auch fernseher zu kaufen bis es auch hardware gibt die locker 4k darstellen kann ohne fps einbrüche des grauens.
 
Beim TV macht 4K schon aus dem Grund kaum Sinn, weil das einzige 4K Material was es gibt nur auf Bluray erhältlich ist. Aber eben nicht jeder Film. Im TV gibts maximal FHD-Material. Und ein 4K Blurayplayer müßte eh extra her (der ebenfalls deutlich teurer ist als ein Standard-Blurayplayer und auch selbst als ein 3D-fähiger Blurayplayer), sodaß für TV 4K ebenso wie bei Gaming eher ein Nischenklientel bedient.
 
Beim TV macht 4K schon aus dem Grund kaum Sinn, weil das einzige 4K Material was es gibt nur auf Bluray erhältlich ist. Aber eben nicht jeder Film. Im TV gibts maximal FHD-Material.

Nun einige Streamingdienste - vor allem Netflix bieten schon eine Menge in 4K an
 
Es hat sich ein Fehler eingeschlichen.

Auffällig: bei Full-HD liegt die Nvidia GTX 1080 etwa 15 Prozent vor der Nvidia GTX 1080. Unter 4K aber bricht die GTX 1080 weniger stark ein, so dass sie sogar 25 Prozent Vorsprung einheimsen kann.

Da liegt die GTX 1080 15 Prozent vor der GTX 1080?
 
Zurück