• Aktualisierte Forenregeln

    Eine kleine Änderung hat es im Bereich Forenregeln unter Abschnitt 2 gegeben, wo wir nun explizit darauf verweisen, dass Forenkommentare in unserer Heftrubrik Leserbriefe landen können.

    Forenregeln


    Vielen Dank

Gaming-Upgrade auf 144Hz

Danke für die Tipps.

<< Das Board ist okay, wenn du auch gut übertakten willst. Ansonsten reicht an sich auch eines für 80-90€.

Mir ging es hierbei um AM4 und um den X370 Chipsatz und ASUS (weil langlebig). Das ist dann von diesen Kriterien her das günstigste.

<< Der brocken Eco ist gut, aber falls du mal RICHTIG übertakten willst ein wenig zu "schwach".

Mag nicht übertakten, danke aber für den Einwand. :)
Der 1600X ist ja schon ein bisschen ab Werk "übertaktet".

<< @konq: beim RAM musst du mal schauen, ob das Dual RANK hat. Ansonsten macht es keinerlei Sinn, so teures RAM zu holen - da wäre effektiv am Ende Dual RANK RAM mit "nur" 2400MHz sogar schneller, und das G.Skill kannst du vlt auch gar nicht mit 3200, sondern mit nur 2666Mhz betreiben.

Oh mist ich wusste das wird wieder kompliziert. :(
Also ein "Crucial Ballistix Sport LT rot DIMM Kit 16GB, DDR4-2400, CL16-16-16 (BLS2C8G4D240FSE)" für 140 Euro tuts auch?
Aber warum genau? Das Board, der CPU unterstützen doch DDR4-3200. Was genau hält ihn davon ab, das zu nutzen? Wirklich die Anzahl der chips auf den Speicherbänken? Ich hab 10 Euro draufgelegt um von CL16 auf CL15 zu kommen. Leider kann ich auf der Seite nicht sehen, ob das Ding dual rank hat. Nach ein paar Suchen hat der das wohl nicht. Dual Rank für 2x16 GB Module gibts ab 360 Euro...?? Ein Einzelner 16 GB Riegel kostet 190 Euro...
Ok, was soll ich nehmen was ist am preis-leistungs - Besten?
 
Danke für die Tipps.

<< Das Board ist okay, wenn du auch gut übertakten willst. Ansonsten reicht an sich auch eines für 80-90€.

Mir ging es hierbei um AM4 und um den X370 Chipsatz und ASUS (weil langlebig). Das ist dann von diesen Kriterien her das günstigste.
Und warum den X370-Chipsatz?

<< @konq: beim RAM musst du mal schauen, ob das Dual RANK hat. Ansonsten macht es keinerlei Sinn, so teures RAM zu holen - da wäre effektiv am Ende Dual RANK RAM mit "nur" 2400MHz sogar schneller, und das G.Skill kannst du vlt auch gar nicht mit 3200, sondern mit nur 2666Mhz betreiben.

Oh mist ich wusste das wird wieder kompliziert. :(
Also ein "Crucial Ballistix Sport LT rot DIMM Kit 16GB, DDR4-2400, CL16-16-16 (BLS2C8G4D240FSE)" für 140 Euro tuts auch?
ja, aber aufpassen, dass es wirklich "FSE" am Ende ist und nicht "FSEK" - letzteres ist "Single Rank"

Aber warum genau? Das Board, der CPU unterstützen doch DDR4-3200. Was genau hält ihn davon ab, das zu nutzen?
bei Ryzen gab mit manchem RAM-Probleme, und in Tests schnitt Dual Rank auch besser ab als Single Rank, selbst wenn das Dual Rank weniger Takt hatte. Viele Single Ranks liefen wiederum nur mit einem geringeren Takt stabil als der, den sie an sich "hatten".

So oder so darfst du das RAM nicht überbewerten. Grad beim Spielen nicht. Ein CL-Wert von 15 statt 16 macht so gut wie gar nichts aus, und wenn du Zb 3200er mit CL16 nimmst, ist das eigentlich gleichschnell wie zB 2666er mit CL15.
 
Da ist aber ein fetter Denkfehler drin bzw. man vergisst eine wichtige Sache. Nämlich die Tatsache, dass die "Hz", die die CPU "berechnen MUSS" eben von der Leistung der Grafikkarte abhängen. Und ich kenne kein Szenario mit halbwegs modernen CPUs, bei denen WEGEN der CPU dann die FPS begrenzt werden, außer die CPU kommt allein schon wegen der Hintergrunddinge abseits von Grafik ins Schwitzen. Wenn man heute eine ordentliche CPU kauft, dürfte das aber viele Jahre kein Thema sein. Die Grafikkarte wird dann nämlich immer eine SO starke Rolle spielen, dass es nur wegen der CPU keine so großen Abstände geben wird.

Doch eben schon. Schau Dir mal aktuelle High End Grafikkarten an. Die schaffen in 1080p mit Medium Settings alle problemlos 144FPS
Die Prozessoren aber nicht. Grade Ryzen nicht. 60 FPS gar kein Problem, 144FPS, nein. Und da bremst die CPU dann die Grafikkarte.


Vor allem: die CPU macht ja sehr vieles, was nichts mit der Grafik zu tun hat. Wenn nun eine CPU statt Zb 60 FPS stattdessen 120 FPS berechnen soll, dann muss sie bei weitem nicht das Doppelte leisten. Sagen wir mal: 80% der CPU-Arbeit sind "Hintergrundprozesse", KI-Berechnung usw. und 20% sind Dinge, die für die Grafik bzw. Position von Objekten da ist, was ich schon für viel halte. Dann wird von der CPU MAXIMAL das doppelte dieser 20% verlangt, also am Ende muss die CPU in der Summe dann maximale 20% mehr leisten, um bei den FPS auf doppelt so viele zu kommen, FALLS die Grafikkarte das überhaupt schafft.
KI Berechnung muss auch bei jedem Bild neu gemacht werden. Die reagiert ja zum Beispiel darauf was Du machst und das ist ja bei jedem Bild wieder anders und somit muss die KI jedes Mal neu berechnet werden. Auch das Wetter zum Beispiel verändert sich jedes Bild und muss berechnet werden. Die CPU muss in jedem Bild die Berechnungen neu machen. Du hast nichts im Spiel was unabhängig von den FPS ist.
Wenn Du jetzt Spotify neben dem Spiel laufen hast, das hat nichts mit den FPS zu tun, aber das verbraucht viel 0.5% CPU Last oder so, das ist vernachlässigbar wenig.
 
<< Und warum den X370-Chipsatz?

Zitat:
Ein Ryzen-Prozessor weist 16 PCIe-3.0-Lanes für Grafikkarten auf, hinzu kommen vier weitere PCIe-Lanes. Diese können komplett für eine SSD oder alternativ für zwei Sata-Ports und eine SSD mit zwei PCIe-Lanes verwendet werden. Zudem sind vier USB-3.0-Ports integriert.

Mit dem neuen X370 kommen vier PCIe-3.0-Lanes hinzu, die auch als zwei Sata-Express-Ports nutzbar sind, und vier reguläre Sata-6-GBit/s-Anschlüsse hinzu.
https://www.golem.de/news/ryzen-amd-erlaeutert-x370-chipsatz-und-zeigt-am4-mainboards-1701-125424.html

D.h. will man (später) eine SSD mit M.2 (4 PCIe-Lanes) betreiben, reicht ein normaler Chipsatz für die volle Anbindung nicht aus, wenn man noch ein paar Platten mit reinhängt (und damit zwei der nur 4 übrigen Lanes wegschnappt).
Ich gebe zu, das dürfte vermutlich kaum auffallen wenn man nicht in 2 Jahren eine super-high-end SSD reinstopft, aber mich nervt es immer, wenn es nicht genug PCIe-Lanes gibt...
 
Doch eben schon. Schau Dir mal aktuelle High End Grafikkarten an. Die schaffen in 1080p mit Medium Settings alle problemlos 144FPS
Das versteh ich jetzt nicht. Woher weiß man denn, dass die Grafikkarten 144 FPS schaffen, wenn die CPUs da gar nicht hinterherkommen? Klar: bei Games, die sowieso mit 120 FPS "rennen", bremsen manche CPUs aus - aber das braucht ja auch keine Sau, außer irgendwelche "Freaks", die ernsthaft meinen, dass sie einen Vorteil haben, wenn sie ein Bild 1/200 Sekunde "früher sehen"...

Nicht falsch verstehen: natürlich spielt die CPU eine Rolle bei den FPS, die möglich sind. Aber IMHO eben nur in einem geringen Maße, wenn es um die Unterschiede je nach Auflösung geht. Das war ja eben die Grundfrage: die Tests in 720p sind IMHO eben Unfug für die Praxis.




KI Berechnung muss auch bei jedem Bild neu gemacht werden. Die reagiert ja zum Beispiel darauf was Du machst und das ist ja bei jedem Bild wieder anders und somit muss die KI jedes Mal neu berechnet werden. Auch das Wetter zum Beispiel verändert sich jedes Bild und muss berechnet werden. Die CPU muss in jedem Bild die Berechnungen neu machen. Du hast nichts im Spiel was unabhängig von den FPS ist.
Das stimmt einfach nicht bzw. das klingt für mich absolut absurd. Es wird doch zB niemals für jedes Bild das Wetter neu berechnet, das ist absolut lächerlich. Wozu sollte das auch gut sein, nach nur 1/100 Sekunde nochmal alles neu zu berechnen? Das macht doch überhaupt keinen Unterschied im Spiel. Auch die Sache mit der KI: die KI wird sicher alle X/100 Sekunden geprüft, unabhängig von den FPS. Da hast du eher "Formeln", die eine Kollision berechnen, und daraufhin entscheidet die KI - und mit wie vielen Bildern pro Sekunde das dann dargestellt werden kann, entscheidet dann die Gesamtpower des PCs. Wenn wirklich "pro FPS" alles neu berechnet würde, wäre das eine Riesenverschwendung der Ressourcen.

Oder bist du Game-Programmierer und WEISST, dass das so ist?
 
Oder bist du Game-Programmierer und WEISST, dass das so ist?
Ja ich habe Informatik studiert und bin im Thema programmieren drin, ich weiß wie das abläuft.


Das versteh ich jetzt nicht. Woher weiß man denn, dass die Grafikkarten 144 FPS schaffen, wenn die CPUs da gar nicht hinterherkommen?
Ganz einfach, indem man die Karte mit verschieden starken CPUs testet. Wenn ich eine 1080Ti mit nem Pentium G4560, i5 7500 und i7 7700K teste und immer die gleichen FPS habe, bin am GPU Limit. Wenn ich aber immer ansteigende FPS habe, weil ich das ich am CPU Limit bin, da mehr CPU Leistung eben noch mehr FPS bringt. Jetzt kann ich so lange schnellere CPUs testen, bis mehr CPU Leistung die FPS nicht mehr erhöht und habe genau den Punkt erreicht wo das GPU Limit anfängt.


Klar: bei Games, die sowieso mit 120 FPS "rennen", bremsen manche CPUs aus - aber das braucht ja auch keine Sau, außer irgendwelche "Freaks", die ernsthaft meinen, dass sie einen Vorteil haben, wenn sie ein Bild 1/200 Sekunde "früher sehen"...
Warum kaufe ich mir dann nen 144 Hertz Monitor wie der TE es möchte? Garantiert nicht um mit 60FPS zu spielen, sondern eben mit mindestens 144.
Ansonsten bringt der Monitor ja wenig.

Es wird doch zB niemals für jedes Bild das Wetter neu berechnet, das ist absolut lächerlich. Wozu sollte das auch gut sein, nach nur 1/100 Sekunde nochmal alles neu zu berechnen?
Natürlich wird es dann. Das macht ja auch einen Unterschied. Die Sonnenstrahlen zum Beispiel werden ebenfalls von der CPU berechnet. Wenn sich die Wolke nun bewegt, dann kommen die irgendwann durch und werden möglicherweise noch durch Pfützen reflektiert usw. Das muss alles berechnet werden und eben jeden Frame. Denn die Wolke bewegt sich ja stetig und somit auch das Licht usw. Das ist alles deutlich komplexer, als Du Dir das vorstellst.

Auch die Sache mit der KI: die KI wird sicher alle X/100 Sekunden geprüft, unabhängig von den FPS. Da hast du eher "Formeln", die eine Kollision berechnen, und daraufhin entscheidet die KI - und mit wie vielen Bildern pro Sekunde das dann dargestellt werden kann, entscheidet dann die Gesamtpower des PCs. Wenn wirklich "pro FPS" alles neu berechnet würde, wäre das eine Riesenverschwendung der Ressourcen.
Also einen festen Wert gibt es nicht. Der wäre nämlich Ressourcenverschwendung. Wenn ich alle 1/100 Sekunden prüfe wären das ja 100 FPS. Wenn ich aber nur 30 FPS berechnen kann, macht es wenig Sinn mehr als 3x so oft zu prüfen. Im Umkehrschluss, wenn ich nur alle 25/100 Sekunden prüfe, dann habe ich ja möglicherweise das Problem das der Spieler schon etwas gemacht hat ohne das eine Reaktion der KI kam, wenn er eben viel mehr FPS hat.
 
Also ... nichts für ungut, aber es ist schon mutig zu behaupten, dass z.B. Sonnenstrahlen durch die CPU berechnet werden. Das liegt mal bitte komplett an der verwendeten Engine und wie der Renderer programmiert wurde. ;)

Wie dem auch sei, selbst mit einer Mittelklasse-CPU bist du in der Lage selbst High-End Grafikkarten wie die GTX 1080 Ti ans Limit zu bringen. Einzig und allein das neue Wolfenstein rennt mal so dermaßen fix, dass man hier locker über 60fps mit max. Qualitätseinstellungen kommt. Aber nimm mal einfach Forza 7 in 4K oder Witcher 3 in 4K und schon gümmelst du wieder bei 40fps rum.
 
Ok, vielen Dank an alle für die Tipps.
Ich habe jetzt eine nicht-144Hz Version bestellt mit schwächerem Board.
Vielleicht könnte ein Mod die Diskussion CPU vs GPU in einen eigenen Thread verschieben, ist zu schade drum und ich finde die zu interessant, um die hier vergammeln zu lassen. :)
Und vielleicht kann noch jemand eine gute und bepreiste Liste an empfohlenen Komponenten für 144 Hz posten, für alle die hier noch später nach gucken sollten?
Vielen Dank nochmal für alles, ich schau in 3+ Jahren nochmal, was dann nötig ist für 144 Hz bzw. Adaptive sync.
 
Zurück