• Aktualisierte Forenregeln

    Eine kleine Änderung hat es im Bereich Forenregeln unter Abschnitt 2 gegeben, wo wir nun explizit darauf verweisen, dass Forenkommentare in unserer Heftrubrik Leserbriefe landen können.

    Forenregeln


    Vielen Dank
  • Kritk / Fragen / Anregungen zu Artikeln

    Wenn ihr Kritik, Fragen oder Anregungen zu unseren Artikeln habt, dann könnt ihr diese nun in das entsprechende Forum packen. Vor allem Fehler in Artikeln gehören da rein, damit sie dort besser gesehen und bearbeitet werden können.

    Bitte beachtet dort den Eingangspost, der vorgibt, wie der Thread zu benutzen ist: Danke!

Tearing adieu: Video zeigt Adaptive Vertical Sync von Nvidia

PCGH_Thilo

Chefredakteur PCGH
Mitglied seit
29.03.2001
Beiträge
225
Reaktionspunkte
5
Jetzt ist Deine Meinung zu Tearing adieu: Video zeigt Adaptive Vertical Sync von Nvidia gefragt.


Bitte beachtet: Der Kommentarbereich wird gemäß der Forenregeln moderiert.


arrow_right.gif
Zum Artikel: Tearing adieu: Video zeigt Adaptive Vertical Sync von Nvidia
 
Nett. Bin grad auf der Suche nach einer neuen Grafikkarte. Im Auge habe ich eine Radeon 7850 oder Geforce 660. Das wäre jetzt für mich ein gutes Argument für eine Nvidia, oder bietet AMD ähnliches?
 
Nett. Bin grad auf der Suche nach einer neuen Grafikkarte. Im Auge habe ich eine Radeon 7850 oder Geforce 660. Das wäre jetzt für mich ein gutes Argument für eine Nvidia, oder bietet AMD ähnliches?

Ohne in irgeneiner Weise Fanboybehaftet zu sein finde ich das Nvidia in den letzten Jahren alleine wegen diesem CUDA oder wie das heisst (Graka macht Physikalisch korrekte Berechnungen) die Nase vorn hat ;)

Und nein, AMD hat (noch) nichts ähnliches.
 
ich hatte vor rund 5mt die amd 7970 gekauft, bin aber auf die nvidia gtx680 umgestiegen, nachdem ich diese im einsatz gesehen hatte bei vollster auflösung. ist die schnellste 1gpu grafikkarte auf dem markt. treibermässig bietet nvidia auch einige funktionen mehr als amd. für mich ganz klarer sieger zur zeit.
 
habe es so verstanden, dass bei 120Hz Monitoren auf adaptive gesetzt sein muss?!? bin mir aber nun auch nicht sicher, was die anderen einstellungen betrifft!
 
Ohne in irgeneiner Weise Fanboybehaftet zu sein finde ich das Nvidia in den letzten Jahren alleine wegen diesem CUDA oder wie das heisst (Graka macht Physikalisch korrekte Berechnungen) die Nase vorn hat ;)

Und nein, AMD hat (noch) nichts ähnliches.
Du meinst wahrscheinlich PhysX, welches durch Nvidia Grafikkarten eine Hardwarebeschleunigung hat. Etwas wie CUDA hat ATI auch, nennt sich OpenCL.
OpenCL vs CUDA misconceptions - Blog - StreamComputing

Naja, wenn einem die handvoll Spiele die dieses Hardwareseitig unterstützen wichtig sind, dann könnte ich es verstehen, dass man deshalb Grafikkarten von Nvidia wählt.

Aber bisher habe ich bei diesen Spielen keine Effekte (in Videos) gesehen wo ich sagen würde ich muss mir deshalb eine Nvidia Graka anschaffen. ;)
 
Adaptive VSync erscheint mir nicht allzu sinnvoll. Zwar gibt es dann nichtmehr solch massive FPS-Einbrüche, aber dafür ist dann das Tearing wieder da. Ich würde eher reguläres VSync mit Triple-Buffering empfehlen. Braucht etwas mehr VRAM, aber es hat nicht so starke FPS-Schwankungen und es gibt trotzdem kein Tearing.
 
Du meinst wahrscheinlich PhysX, welches durch Nvidia Grafikkarten eine Hardwarebeschleunigung hat. Etwas wie CUDA hat ATI auch, nennt sich OpenCL.
OpenCL vs CUDA misconceptions - Blog - StreamComputing

Naja, wenn einem die handvoll Spiele die dieses Hardwareseitig unterstützen wichtig sind, dann könnte ich es verstehen, dass man deshalb Grafikkarten von Nvidia wählt.

Aber bisher habe ich bei diesen Spielen keine Effekte (in Videos) gesehen wo ich sagen würde ich muss mir deshalb eine Nvidia Graka anschaffen. ;)

Danke, hab mich vertan gehabt, und ja, das meine ich ;)

Ich sag mal es ist ein nice to have Feature, genau wie dieses neue Anti-Tearing-Vsync.

Schau Dir mal die Vergleichsbilder zu Borderlands 2 an, mit und ohne Physix, da ist ein riesen Unterschied. Wenn ich ein Spiel spiele fällt es mir nicht auf wenn es nicht aktriviert ist, aber im direkten Vergleich fällt es schon auf.

Borderlands 2 - PhysX Trailer [HD] - YouTube hier der Link.
 
Klar fällt es auf, auch bei anderen Spielen, nur ist mir der Preisunterschied und vor allem der in der Regel höhere Stromverbrauch bei Nvidia Grafikkarten nicht Wert.

Und Borderlands hat mich aufgrund des Settings nicht interessiert, aber danke dir trotzdem für den Link, nettes Video. ;)
 
Sollte ich meinen PC noch einmal aufrüsten, würde ich glaube ich auch eine NVIDIA-Karte nehmen. Mir geht es dabei gar nicht mal um PhysX oder Adaptive VSync, auch wenn das sicherlich coole Sachen sind, bei AMD stört mich einfach nur extrem der Treibersupport.
NVIDIA hat da einfach die Nase vorne, wie oft ich bei AMD schon mit dem Drive Sweeper über meine Festplatte gehen und mir im Anschluss einen veralteten Treiber laden musste, damit ein halbwegs aktuelles Spiel (bsp.: Skyrim, ein paar Monate nach Release) ohne Grafikfehler läuft, ist einfach nur lächerlich!

Ja, AMD Karten sind preislich etwas besser, aber dafür zahle ich in Zukunft gerne drauf!
 
Klar fällt es auf, auch bei anderen Spielen, nur ist mir der Preisunterschied und vor allem der in der Regel höhere Stromverbrauch bei Nvidia Grafikkarten nicht Wert.

Und Borderlands hat mich aufgrund des Settings nicht interessiert, aber danke dir trotzdem für den Link, nettes Video. ;)

Die paar Euro aufpreis für ne Graka die ich alle 2 Jahre tausche ist es mit Wert.

Beim Stromverbrauch würde mich mal interessieren (ich hab mich noch nie darum gekümmert) was man an Strom im Jahr mehrzahlen würde bei ner Mittelklasse Nvidia gegenüber ner Mittelklasse AMD, bei 2 Stunden zocken am Tag = 730 Stunden im Jahr.

Sind as mehr als 5 Euro im Jahr?
 
Ich verstehe nicht was alle mit mit ihrem Stromverbrauch haben.

Solange man keinen Monsterrechner + SLI System drin hat, interessiert mich mein Stromverbrauch gar nicht.

Das einzig wichtige ist die Leistung, der Treibersupport und Lautstärke.
Aber Stromverbrauch? Finde ich total überbewertet ehrlich gesagt.

Wir reden hier über aktuellste Technik und immer mehr Features.

Da sollte man nicht wegen 5, 10, 15 Euro usw. so pingelig sein.
Es geht ums Hobby und den Genuss von tollen Spielen.

Wer da zu viel aufs Geld schaut, kriegt auch dementsprechend kleineren Gegenwert.
Spart lieber an anderen Ecken wie Zigaretten, Alkohol oder Benzin, dann wären auch die paar Euro
mehr bei der Stromrechnung locker drin :B

Ich werde immer bei nVidia bleiben solange sie Grafikkarten herstellen.
Bisjetzt hab ich nur eine ATI im System und das war damals die ATI Rage Fury Maxx oder so.

Allein schon wegen PhysX geb ich keine Geforce wieder her.
Es ist und bleibt einfach Tradition bei mir, Auch wenn es eine ATI gibt die 30 Euro billiger ist und 15 % schneller ist, nehm
ich trotzdem die Geforce weil ich bisjetzt nie von Geforce und deren Treibern enttäuscht wurde.
Bei nvidia weiß ich einfach was ich für mein Geld bekomme, ATI spricht mich überhaupt nicht mehr an.

Vielleicht liegts auch daran weil ATI jetz AMD ist, und AMD in der CPU Sektion echt nachgelassen hat.

Bei Nvidia fühl ich mich besser "supported" wenns um Spiele geht.
 
Zuletzt bearbeitet:
Ich verstehe nicht was alle mit mit ihrem Stromverbrauch haben.

Solange man keinen Monsterrechner + SLI System drin hat, interessiert mich mein Stromverbrauch gar nicht.
Es soll auch Leute geben, die aus Liebe zur Umwelt auf den Stromverbrauch achten.
Plus, die meisten derer, die nicht auf den Stromverbrauch achten, zahlen nicht die Rechnung.
Aber das wirksamste Mittel ist mit Abstand immer noch der Aus-Schalter. Wenn der Rechner die ganze Zeit läuft, bringen die 10 Watt weniger oder mehr auch nichts.

zum Thema:
Frage mich warum vorher keiner auf die Idee gekommen ist. Das Prinzip hört sich in dem Video ja trivial an. Sachen wie Triple-Buffering bringen ja auch nichts, wenn die Framerate unter die Bildwiederholfrequenz fällt.
 
Zuletzt bearbeitet:
Die paar Euro aufpreis für ne Graka die ich alle 2 Jahre tausche ist es mit Wert.

Beim Stromverbrauch würde mich mal interessieren (ich hab mich noch nie darum gekümmert) was man an Strom im Jahr mehrzahlen würde bei ner Mittelklasse Nvidia gegenüber ner Mittelklasse AMD, bei 2 Stunden zocken am Tag = 730 Stunden im Jahr.

Sind as mehr als 5 Euro im Jahr?
Keine Ahnung bin jetzt auch zu Faul zum Nachrechnen. :-D Ich nutze den Rechner ja nicht nur zum Spielen, sondern auch zum Arbeiten. Und ich beziehe Ökostrom aus Wasserkraft, zumindest steht das so in meinem Vertrag(:B), da hätte ich also weniger bedenken.

Mir sind nur die wenigen Effekte die Mehrausgaben nicht wert, ich finde die physikalischen Effekte auch einfach nicht besonders glaubwürdig, wie z. B. bei dem Borderland Video die Fahne.

Also der Kosten-Nutzen Faktor ist für mich persönlich nicht gegeben. Wer die Effekte mag bei dem ist es natürlich wieder etwas anderes.

Irgendwo hatte ich auch eine Liste verlinkt, in der man den Verbrauch in Watt bei den einzelnen Grafikkarten sieht. In der Mittelklasse vor allem im Idle gibt es einen deutlichen Unterschied zwischen ATI/AMD und Nvidia.
 
Zuletzt bearbeitet:
Also, mMn ist das Adaptive V-Sync totaler mist. Wenn ich es einschalte hab ich zwar kein Tearing, aber konstante 60 FPS sehen nicht Flüssig aus, und es stottert fröhlich vor sich hin. Da bleibe ich Lieber bei normalen V-sync, da weiß man was man hat, kein Tearing und Konstante FLÜSSIGE 60 FPS! Und Mittlerweile zieht V-sync glaub ich auch nicht mehr soooviel leistung. Ich mein vor 5-10 Jahren hats noch gefühlt die Doppelte Rechenleistung gezogen.
 
@DerBlop
Bist du sicher dass du das mit dem AVS richtig verstanden hast? Oder meinst du mit ausgeschaltetem V-Sync? In dem Video ist es mit AVS aber eindeutig flüssiger als mit eingeschaltetem V-Sync.
 
Also, mMn ist das Adaptive V-Sync totaler mist. Wenn ich es einschalte hab ich zwar kein Tearing, aber konstante 60 FPS sehen nicht Flüssig aus, und es stottert fröhlich vor sich hin. Da bleibe ich Lieber bei normalen V-sync, da weiß man was man hat, kein Tearing und Konstante FLÜSSIGE 60 FPS! Und Mittlerweile zieht V-sync glaub ich auch nicht mehr soooviel leistung. Ich mein vor 5-10 Jahren hats noch gefühlt die Doppelte Rechenleistung gezogen.

Das Problem ist nicht die Leistung die Vsync braucht, sondern dass man keinesfalls unter 60fps fallen sollte, wenn man Vsync aktiviert hat, da sonst die Framerate halbiert wird. Wenn man also keinen leistungsstarken Pc hat und die 60fps nicht konstant erreicht, kommt es zu grauenhaften Rucklern. Man muss sich in dem Falle entscheiden ob lieber max details Vsync off oder doch lieber mittlere Details dafür Vsync on.
 
Wie gesagt Adaptives V-sync verhindert das tearing, aber hat den Nachteil das es Trotz konstanter 60FPS ruckelt, was Normales V-Sync nicht macht. Der vorteil ist für Leute deren Rechner nicht so Stark ist Konstante 60FPS zu erreichen, denn wie mein Vorredner schon sagte, das wenn 60FPS nicht gehalten werden können es runter auf 30FPS geht... was mich aber Wundert, da ich dieses verhalten nicht in jedem Spiel habe, Skyrim zB sinkt manchmal auf 54 FPS und nicht auf 30 trotz V-sync^^
 
Zurück