• Aktualisierte Forenregeln

    Eine kleine Änderung hat es im Bereich Forenregeln unter Abschnitt 2 gegeben, wo wir nun explizit darauf verweisen, dass Forenkommentare in unserer Heftrubrik Leserbriefe landen können.

    Forenregeln


    Vielen Dank

Monitor Entscheidung: ASUS PG 348 Q vs. Acer Predator X34

DexterMorgan

Anfänger/in
Mitglied seit
28.05.2016
Beiträge
57
Reaktionspunkte
0
Hallo Leute

ich brauch nen neuen Zocker-Monitor. Ich würde gerne ein 3440x1440 px Curved Modell ausprobieren und schiele auf die o.g. Acer bzw. Asus . Beide 34" Zoll, beide 3440x1440 px. Beide IPS Panel. Biede 300cd.

Vor (+) &Nachteile (-) Acer im Vgl. zum ASUS:
+ 200 € billiger
+ GSync UND auch FreeSync
+ 4ms
+ 100.000.000:1
- 75 Hz

Vor (+) &Nachteile (-) Asus im Vgl. zum Acer:
+ 100Hz
- nur GSync
- 5ms
- 1000:1
- 200 noch Euro mehr

Ich möchte den Kauf nicht bereuen. Mir kommen nun wichtige Fragen auf:

1. Wurde dieser Asus vor einigen Monaten nicht mit 144Hz beworben?

2. Krasser Unterschied beim Kontrastverhältnis - Wozu ist der Kontrast wichtig?

3. Der Acer hat zwar 1ms weniger Reaktionszeit, schafft aber nur 75Hz. Was läuft beim zocken flüssiger?

4. Auf amazon usw. lese ich dass der Acer problemlos auf 100Hz übertaktbar wäre?

5. Gibt es 4K alternativen, mit mindestens 75Hz oder mehr?

6. Ich bräuchte auch ne passende GraKa: Welche Karten werden zu diesen Bildschirmen empfohlen? Wenn ich tief in die Specs grabe, finde zwar meist eine maximal Auflösung, aber nicht die Info, ob dann auch 75Hz bzw. 100Hz in diesen Auflösungen geschafft weren?

Ich danke schonmal für Eure Antworten ;)

LG Dexter
 
Zuletzt bearbeitet:
Also, von 4k rate ich Dir echt ab. Denn selbst die neue GTX 1080 (790 Euro) schafft aufwendigere Spiele auf hohen Einstellungen in 4k oft mit nur 30 FPS. Die Games werden halt so ausgelegt, dass sie bei FullHD, maximal WQHD mit ner guten Karte noch "gut laufen". Du hast zwaz bei den bei den beiden Modellen nicht ganz 4k, aber immer noch deutlich mehr als nur WQHD.

Zu den Vergleichswerten: man kann zb so was wie Kontrast nicht immer an dem festmachen, was da in den Daten steht, da die Messverfahren nicht genormt sind. Es kann gut sein, dass der Asus einen gleichguten oder sogar besseren Kontrast als der Acer hat. Und die ms-Werte sind ohnehin völlig egal, da ist jeder Monitor gut genug, wenn der nicht grad 12ms oder mehr als Herstellerangabe hat. Da sind die Hz viel wichtiger, wobei es auch fraglich ist, ob man bei 75 vs 100 Hz einen echten Unterschied auch merken kann. Mehr als 100Hz ist technisch derzeit nicht möglich bei einer Auflösung höher als WQHD, und mit 100Hz gibt es eben den Asus, oder diesen Acer X34bmiphz - weiß nicht, ob das der ist, den du eh schon rausgesucht hast, Der soll 100Hz haben und nicht nur 75.

Nebenbei: bei Geizhals.de steht nichts von FreeSync bei den Acer X34-Modellen, auch nicht bei Acer selbst Predator X34 | Monitors – Epic gaming all around you | Acer - wo hast du Info her? FreeSync haben nur die beiden XR34-Modelle.


und zur Grafikkarte: also, wenn du keine ganz neuen Games spielst oder neue, aber dann nur auf mittleren Details, dann wäre eine AMD R9 390X ganz gut. Ansonsten ginge auch eine AMD R9 Fury oder Nano, die haben zwar nur 4GB RAM, aber sehr schnelles, oder direkt eine GTX 980 Ti, die es nun, wo die 1080 rauskommt, auch schon teils für etwas unter 600€ gibt. Die Karten müssen auch nicht 75 oder 100 FPS erreichen, damit du von den 75 oder 100Hz profitierst.
 
und zur Grafikkarte: also, wenn du keine ganz neuen Games spielst
Also wenn ich 1200 für nen GamerMonitor ausgebe, wollte ich schon auch neuere Games zocken, bzw. immer auf Ultra in der maximal Auflösung spielen. Mir ist schon klar, dass ne HighEnd GraKa her muss..

Ansonsten ginge auch eine AMD R9 Fury oder Nano, die haben zwar nur 4GB RAM, aber sehr schnelles, oder direkt eine GTX 980 Ti, die es nun, wo die 1080 rauskommt, auch schon teils für etwas unter 600€ gibt.
Ich habe auch was von der der GTX 1070 gelesen, welcher auf VideoCardz.com auch leicht die Titan übertroffen hätte und "nur" 500 kosten soll..
Was ist eine Fouders Edition bzw. Custom Edition?
Founders == Basisaustattung
Custom == eigene Platine anderer Hersteller und zusätzl. Kühlern etc?

Die Karten müssen auch nicht 75 oder 100 FPS erreichen, damit du von den 75 oder 100Hz profitierst.
Hä ?!!? Ich möchte einfach nur ein schönes Spieleerlebnis, und wenn 75Hz/100Hz geboten werden würde ich diese gern auskosten ;)

Also, langsam glaube ich Acer weiß selbst nicht was es produziert
sm_B-%28.gif

Auf machen Seiten habe ich nun auch 1000:1 gelsen, vlt. ein Tippfehler.

Das R hatte ich überlesen, und habe es für ein und dasselbe Modell gehalten. Anscheinend gibts wie du es sagst, doch unterschiede:
X34:
Nur GSync
Standard-Bildwiederholrate60 Hz
Bildwiederholrate100 Hz

XR34:
Auch FreeSync

Hier heißt es "Wer in 1080p oder 1440p60 spielt, wird durch alte Brücken nicht limitiert. Alles darüber hinaus, also ab 1440p120, sollte laut Nvidia mit den neuen Brücken gefahren werden, um die optimale Leistung zu erreichen." Was sind Brücken? Was kostet sowas?

-------------

Ich hoffe auf baldige NVIDIA / ASUS Aktionen
 
Zuletzt bearbeitet:
Also wenn ich 1200 für nen GamerMonitor ausgebe, wollte ich schon auch neuere Games zocken, bzw. immer auf Ultra in der maximal Auflösung spielen. Mir ist schon klar, dass ne HighEnd GraKa her muss..


Ich habe auch was von der der GTX 1070 gelesen, welcher auf VideoCardz.com auch leicht die Titan übertroffen hätte und "nur" 500 kosten soll..
Was ist eine Fouders Edition bzw. Custom Edition?
Founders == Basisaustattung
Custom == eigene Platine anderer Hersteller und zusätzl. Kühlern etc?
Die Founders ist die normale Referenz-Karte von Nvidia mit EINEM Lüfter, und die Custom-Modelle haben eigene Kühler, meistens 2-3 Lüfter, was insgesamt effektiver und leiser ist. Bisher waren dann die Custom-Modelle teurer als die Referenzmodelle, aber seit einigen Jahren nur wenig teuer, so dass kaum jemand die Referenz kaufte. Bei der 1080 und 1070 ist es nun neu, dass die sogar teurer als die Customs sein werden, und zwar spürbar, dafür aber früher zu haben sind.

Mit der Leistung der 1070 wäre ich sehr vorsichtig, solange es nicht unabhängige Tests sind, die zudem auch viele Spiele betreffen und nicht nur eine Benchmark, die vlt der neuen Architektur der 1070/1080 einfach nur entgegen kommt.

Die Titan-Karten sind aber eh schon immer völlig überteuert gewesen. Wenn, dann würde ich die Leistung im Vergleich zur GTX 980 Ti betrachten. Und da sind übertaktete Versionen, die man für 600€ bekommt, nur 10% langsamer als eine GTX 1080. Wenn die 1070 besser als ein 980 Ti ist für um die 500€, dann wäre es sicher ein guter Kauf.


wenn der Monitor zB 100Hz hat, dann macht er 100 mal pro Sekunde ein Update, schaut also nach, ob die Grafikkarte schon ein neues Bild fertig berechnet hat. Aber auch wenn die Karte nur zb 70 Bilder pro Sekunde (FPS) berechnet hat, wirkt das Bild "flüssiger" als wenn der Monitor nur 60Hz hat. Die Grafikkarte MUSS also nicht 100 Bilder pro Sekunde berechnen können, damit die 100Hz einen Vorteil bringen. Besonders gut ist es natürlich, wenn die Grafikkarte möglichst viel FPS schafft.




Hier heißt es "Wer in 1080p oder 1440p60 spielt, wird durch alte Brücken nicht limitiert. Alles darüber hinaus, also ab 1440p120, sollte laut Nvidia mit den neuen Brücken gefahren werden, um die optimale Leistung zu erreichen." Was sind Brücken? Was kostet sowas?
da geht es um SLI, also wenn man ZWEI Grafikkarten nutzt. Die werden über eine SLI-Brücke mechanisch miteinander verbunden.
 
Also ich persönlich währe bei 4k auch noch vorsichtig. Nen guter WQHD Monitor mit 144hz und freesync oder Gsync oder beides währe aktuell das wonach ICH suchen würde. Du musst ja auch bedenken, dass wenn die neuen Karten kommen und diese tatsächlich so gut sind die spiele Entwickler auch wieder mehr Grafik zeigen werden. Da aber die meisten noch Full hd nutzen werden die spiele so programmiert das die in fulminanten hd mit ner Guten Karte laufen und deutlich höhere Auflösungen könnten die 1080 oder 1070 dann doch an ihre Grenzen bringen.

Ich habe erst ein Video gesehen in dem Doom auf ner 1080 in echtem 4k mit ca 55fps gut lief.
Doom ist jetzt aber auch nicht die Mega Grafik Bombe und in Full HD schaffe ich ähnliche Bilder mit einer deutlich billigeren r9 280.

Also wenn dann echte Kracher kommen und du dann selbst mit ner 1080 in der Auflösung nurnoch 40fps hast weil du unbedingt diese Auflösung fahren willst (sonst brauchst du den Monitor nicht) hast du auch nicht viel davon. Und WQHD auf einem guten Monitor mit 144hz sieht schon echt schick aus. Bis 4k ordentlich supporter wird und die Leistung da ist wird es wahrscheinlich noch dauern, es sei denn du hast immens viel Kohle wo du einfach nicht weißt wohin damit ^.^ dann würde aber ein System mit 2 Karten Sinn machen, ist aber wieder mit ärger verbunden den ein Single Gpu Betrieb nicht mit sich bringt.

Nicht das du dich nachher ärgerst weil die Games nicht so laufen wie du erwartest und du dann doch die Auflösung ändern musst weil die Grafikkarte nicht mit macht. Dann War der Monitor aber auch nicht nötig gewesen

Gesendet von meinem SM-N9005 mit Tapatalk
 
Da aber die meisten noch Full hd nutzen werden die spiele so programmiert das die in fulminanten hd mit ner Guten Karte laufen

Hä, wenn ich nun das o.g. Asus Curved hätte und meinetwegen die GTX 1070, könnte ich dann meine "alten" Spiele wie WatchDogs nicht auf 3440x1440@100Hz spielen?
 
Hä, wenn ich nun das o.g. Asus Curved hätte und meinetwegen die GTX 1070, könnte ich dann meine "alten" Spiele wie WatchDogs nicht auf 3440x1440@100Hz spielen?
Die Frage ist, wie gut Watch Dogs in FullHD mit einer 1070 läuft. Wenn es mit zB 120 FPS läuft, dann hast du auch bei 4k genug FPS, so um die 40-50.

Es kann aber je nach Spiel sein, dass du bei hohen Details auch mit einer GTX 1070 oder 1080 wegen der mehr zu berechnenden Pixel dann so wenig FPS hast, dass es ruckelt, so dass du dann eben nur mittlere Details ruckelfrei spielen kannst. Das hängt dann halt eben vom Spiel ab. Aber es ist halt so: die WEITAUS meisten haben FullHD, und WQHD steigt in der Beliebtheit, ist aber immer noch ein eher kleiner Teil der Spieler. Daher stellen die Spielepublisher die Games natürlich so her, dass die mit einer aktuellen sehr guten Karte NOCH flüssig laufen bei maximalen Details in Full-HD. Würden die ein Game aber so herstellen, dass es selbst in 4k mit 70 FPS läuft, dann würden die Besitzer von Full-HD-Monitoren zurecht meckern, weil es bei denen dann mit 150 FPS laufen wird. Und wenn es locker auf 150 FPS läuft, dann bedeutet das im Umkehrschluss natürlich, dass man das Game eigentlich viel "hübscher" hätte gestalten können und viel Potential verschenkt hat.

Du kannst UNGEFÄHR davon ausgehen, dass du bei echtem 4k (also noch mehr Pixel als bei den beiden genannten Monitoren) nur noch 1/3 der FPS hast, die du bei Full-HD hättest. Läuft ein Spiel in Full-HD mit 90 FPS auf maximalen Details, dann hast du bei 4k idr nur 30 FPS bei gleicher Detailstufe. Bei den og. Monitoren würde ich davon ausgehen, dass du ca die Hälfte an FPS verlierst.
 
45 FPS bei einem 100Hz Monitor ist ernüchternd. Das hört sich für mich nach keinem tollen Spieleerlebnis an?

Weiterhin gibts hier eine Aktion zu dem Asus Monitor, wo man das Spiel DOOm gratis dazu bekommt. Laut Alisis' Aussage ist ...
Doom ist jetzt aber auch nicht die Mega Grafik Bombe ...
Kann man da was reininterpretieren, dass absichtlich Keine Grafikbombe angeboten wurde, weil man eh auf kein 1440p-100Hz-Genuss kommt?

Ich weiß auch grad nicht was ich machen soll? Weil einen Monitor bräuchte ich bald.

1. Erst Monitor kaufen, und dann Grafikkartentests insbesondere mit den neuen 10#0'ern abwarten ?
2. Da sich die beiden nicht viel geben, Acer oder Asus?
3. Bei Canon gibts regelmäßig zweimal jährlich Dezember bzw. Mai Cashbackaktionen. Wie ist sowas bei Acer bzw. Asus?
 
Also mit 100hz wirkt das Bild immer etwas "flüssiger" als mit 60hz egal wieviele fps du hast. Ich persönlich kann mit 45 fps gut leben und spielen.

ABER jede Menge Geld für einen Monitor ausgeben, der eine Auflösung kann die ich nachher nicht benutze weil die Grafikkarten das so momentan noch nicht mitmachen macht Meinermeinung nach nicht so richtig Sinn.

Als Beispiel spiele ich auf Full hd aktuelle Titel mit ner damals ca 200€ Grafikkarte heute noch sehr gut. In der Hohen Auflösung kommst du mit einer damaligen Grafikkarte für 700€ schon kaum hinterher sodass du mehr Geld ausgeben musst UND häufiger Upgrade musst.

An deiner stelle würde ich, wenn es geht, noch so lange warten bis Nvidia UND Amd ihre neuen Karten vorgestellt haben und es genügend Tests gibt die beweisen, das diese Karten mit der Auflösung gut klar kommen. Mal abgesehen davon spielt dir die Zeit ja auch in die Karten.
Die Monitore werden eher günstiger statt teurer.

4k ist aktuell Luxus und dementsprechend sind die Preise. Mach eich nicht verrückt weil 4k ja so toll ist, die meisten sind mit ihren Full HD Monitoren zufrieden, brauchen keine High end Grafikkarten und spielen einfach ihre Spiele.

Natürlich kannst du auch sagen ich kaufe jetzt nen 4k Monitor und spiele halt erstmal in einer kleineren Auflösung bis die Grafikkarten das können, ärgerst dich nachher aber evtl weil du die Monitore wenns Dan so weit ist für deutlich weniger Geld bekommst und du in der zeit davon eig. Noch garnix hattest. Zumindest solange du einen funktionierenden Monitor hast :-D

Gesendet von meinem SM-N9005 mit Tapatalk
 
Ich steh vor einer ähnlichen Entscheidung bzw. Neuanschaffung eines neuen Monitors.

Bis gestern wollte ich auch unbedingt ein 4K Modell und G-Sync, aber zum einen kannst du für einen guten Monitor 1.000 EUR und mehr ausgeben, zum anderen reichen selbst die neuen Karten von nVidia, sprich GTX 1080, nicht für 4K.

Schau dir doch die Benchmarks an, dann siehst du, dass bei max. Details und 4K zum Teil deutlich weniger als 60fps rauskommen. Das mag ggf. durch G-Sync kompensiert werden, aber Spiele, die z.B. in einem halben oder in einem Jahr rauskommen, können die GraKa wieder so stark belasten, dass du mit 4K nicht glücklich wirst.

Ich werde mir wohl auch eher einen sehr guten FullHD Monitor mit ~144Hz kaufen und 4K erstmal 4K sein lassen.
 
4k ist aktuell Luxus und dementsprechend sind die Preise. Mach eich nicht verrückt weil 4k ja so toll ist, die meisten sind mit ihren Full HD Monitoren zufrieden, brauchen keine High end Grafikkarten und spielen einfach ihre Spiele.

Natürlich kannst du auch sagen ich kaufe jetzt nen 4k Monitor und spiele halt erstmal in einer kleineren Auflösung bis die Grafikkarten das können, ärgerst dich nachher aber evtl weil du die Monitore wenns Dan so weit ist für deutlich weniger Geld bekommst und du in der zeit davon eig. Noch garnix hattest. Zumindest solange du einen funktionierenden Monitor hast :-D

Wenn man es genau nimmt, geht es grad nicht um 4k Monitore, sondern um 3440x1440p :B
Dass, die Bildschirme billiger werden ist klar, und ich erstmal nicht 100% auf mein Gaming-Genuss komme wird mir auch klar. Ich werde jedoch auch arbeiten an dem Ding (weswegen ich es auch bald bräuchte), wo ich dann erstmal keine Mördergrafiikarte brauche.
Ich denke ich hol mir erstmal eines zur Auswahl stehenden Bildschirme, und entscheide mich später für eine GraKa (wenn jemand plausible Gegenargumente möchte er bitte jetzt sprechen :P ).
 
Wenn man es genau nimmt, geht es grad nicht um 4k Monitore, sondern um 3440x1440p :B
Dass, die Bildschirme billiger werden ist klar, und ich erstmal nicht 100% auf mein Gaming-Genuss komme wird mir auch klar. Ich werde jedoch auch arbeiten an dem Ding (weswegen ich es auch bald bräuchte), wo ich dann erstmal keine Mördergrafiikarte brauche.
Ich denke ich hol mir erstmal eines zur Auswahl stehenden Bildschirme, und entscheide mich später für eine GraKa (wenn jemand plausible Gegenargumente möchte er bitte jetzt sprechen :P ).
Ja aber wir reden von Auflösungen höher als WQHD was ich aktuell noch als sinnvoll empfinde.

Ja wenn du ihn zum arbeiten brauchst also sowieso nutzt dann ist alles gut. Sind bloß in einem Gaming forum wo es halt darum geht zu zocken. Aber so macht es dann natürlich Sinn wenn du denzum arbeiten brauchst ^.^. Dann such aber am besten einen mit free UND Gsync. Dann bist du nachher nicht an einen Hersteller gebunden ;).
 
Ich weiß auch garnicht ob es beides gibt ... bin da nicht so tief in der Materie ^.^ aber wenn du dich für Gsync entscheidest dann bist du mit dieser Funktion halt an nvidia gebunden... wenn amd jetzt aber super Karten zu Guten Preisen bringt, dann kannst du die zwar kaufen aber Gsync nicht nutzen... währe halt iwie doof sich auf diese Art und Weise dann einer Marke verschreiben zu müssen

Gesendet von meinem SM-N9005 mit Tapatalk
 
Der ASUS hat nur GSync. Der Acer hat ja entweder GSync oder FreeSync je nach Modell, jedoch nicht beides auf demselben Monitor??
ja, es gibt auf dem Markt meines Wissens keine Monitore, die beides haben. G-Sync kostet halt nen merkbaren Aufpreis, weil da auch Hardwareseitig ein "Modul" eingebaut werden muss.
 
Ich weiß auch garnicht ob es beides gibt ... bin da nicht so tief in der Materie ^.^ aber wenn du dich für Gsync entscheidest dann bist du mit dieser Funktion halt an nvidia gebunden... wenn amd jetzt aber super Karten zu Guten Preisen bringt, dann kannst du die zwar kaufen aber Gsync nicht nutzen... währe halt iwie doof sich auf diese Art und Weise dann einer Marke verschreiben zu müssen
Wenn ich mir eins mit FreeSync kaufe, kann ich ja ebenso keine Nvidia-GraKas nutzen?

es gibt .. keine Monitore, die beides haben.
Also bin ich dann doch an einen Hersteller gebunden?
 
Wenn ich mir eins mit FreeSync kaufe, kann ich ja ebenso keine Nvidia-GraKas nutzen?
Doch klar, du kannst nur das Feature "Free Sync" nicht nutzen, aber eine Nvidia-Karte funktioniert ansonsten einwandfrei. Und wenn du nen G-Sync-Monitor nimmst, könntest du mit ner AMD-Karte das G-Sync halt nicht nutzen. Ansonsten funktionieren die Monitore aber mit allen Grafikkarten. Free/G-Sync sind nur OPTIONAL.
 
Free/G-Sync sind nur OPTIONAL.

Dann verstehe ich die Aussage von Alisis nicht ????:
... aber wenn du dich für Gsync entscheidest dann bist du mit dieser Funktion halt an nvidia gebunden... wenn amd jetzt aber super Karten zu Guten Preisen bringt, dann kannst du die zwar kaufen aber Gsync nicht nutzen... währe halt iwie doof sich auf diese Art und Weise dann einer Marke verschreiben zu müssen

Genauso bin ich ja an AMD gebunden, wenn ich FreeSync kaufe?
 
Dann verstehe ich die Aussage von Alisis nicht ????:


Genauso bin ich ja an AMD gebunden, wenn ich FreeSync kaufe?
Das Wort "gebunden" ist übertrieben - er meint damit, dass du WENN du UNBEDINGT die Sync-Funktion nutzen willst halt an einen der beiden Hersteller "gebunden" bist und vlt auch - wenn du ne neue Grafikkarte braucht - WEGEN z.B. G-Sync zu Nvidia greifst, obwohl die Nvidia-Karte an sich bei Preis-Leistung schlechter ist. Oder umgekehrt: mit nem FreeSync-Monitor eher AMD kaufst, obwohl deren Karte zum Zeitpunkt deines Kaufs an sich nicht die optimale Wahl ist.

Der Vorteil bei FreeSync ist, dass es an sich keinen Aufpreis kostet. Ein gleichguter Monitor mit GSync ist aber 50-100€ teurer, weil da ein Hardwaremodul in den Monitor dazukommt, was eben nicht nur 5€ kostet ;)
 
G-Sync und FreeSync schließen einander aus, das stimmt. Willst du entweder das eine, oder das andere verwenden, bist du an den entsprechenden Hersteller gebunden.

Aber, vom verbauten Modul abgesehen, sind die Monitore halt ganz normale Monitore, also herstellerunabhängig.

Hast du zB eine GeForce verbaut, kannst du ja trotzdem einen FreeSync-Monitor kaufen, weil er meist günstiger ist. FreeSync selber, kannst du freilich damit nicht verwenden.
Aber trotzdem hat der Monitor, sagen wir mal 75Hz oder 100Hz, von denen die Grafikkarte trotzdem Gebrauch machen kann.
 
Zurück