Cr4zYd0nG am 18.04.2007 15:28 schrieb:Also ich bleibe dabei.. wenn man einen Film am PC mit sagen wir mal 40 fps und einen mit 80 fps sich anschauen würde (mit einem Monitor, der diesen Unterschied selbstverständlich darstellen kann etc.), ohne zu wissen welcher welcher ist und dann beurteilen müsste, welcher Film mehr fps hatte, wird die Beurteilung sicherlich zu 90% geraten sein.
da muss man differenzieren zwischen Spiel und Film
Spiele werden in Echtzeit gerendert, jeder Frame ist punktscharf. Aufgenommene Materialien ist da anders, da wird aufgezeichnet, was in 1/23 sek vor die Linse kommt und wird zu einer Frame "verschmolzen", dadurch nimmt der Auge Kamerabilder bei gleicher Framerate als flüssiger wahr.
Natürlich ist die Aussage, dass man bei Spielen keine Frame mehr als 23 braucht, falsch. Oder habt ihr noch nie ein Spiel mit ~20-25 fps gepielt? Das nehme ich eindeutig als rucklig wahr.
Man bedenke außedem, dass selbst 50 fps für eine High-End-Karte nicht viel ist. Als die 7800GTX rauskam, schaffte die Karte bei damals anspruchvollsten Spielen wie Half Life 2, FarCry oder Doom3 teilweise 100fps bei ähnlich hohe Einstellungen wie der Crysis-Test. Denn die Framerate zeigt auch der Potential der Karte, wenn ich mir schon eine High-End-Karte hole, will ich auch, dass die eine Weile lang Games in sehr hohe Settings schafft, und nicht dass sie jetzt schon an ihre Leistungsgrenze stößt.
mfg
Ice