• Aktualisierte Forenregeln

    Eine kleine Änderung hat es im Bereich Forenregeln unter Abschnitt 2 gegeben, wo wir nun explizit darauf verweisen, dass Forenkommentare in unserer Heftrubrik Leserbriefe landen können.

    Forenregeln


    Vielen Dank
  • Kritk / Fragen / Anregungen zu Artikeln

    Wenn ihr Kritik, Fragen oder Anregungen zu unseren Artikeln habt, dann könnt ihr diese nun in das entsprechende Forum packen. Vor allem Fehler in Artikeln gehören da rein, damit sie dort besser gesehen und bearbeitet werden können.

    Bitte beachtet dort den Eingangspost, der vorgibt, wie der Thread zu benutzen ist: Danke!

News - Crysis: Nvidia vs. ATI - Testergebnis zur Crysis-Demo aufgetaucht

naja wenn man schon so etwas hier reinschreibt, sollte man auch das ganze richtig übersetzen oder übersetzen lassen. fakt ist, dass die türkische seite nur benchmark werte angibt, aber nirgendswo sagt, dass sie von ihnen wäre!
ganz im gegenteil oben steht klar und deutlich, dass sie die werte VON EINER ANDEREN SICHEREN QUELLE HABEN! naja ist schon ein vortel, wenn man knapp 5 sprachen kann :B ich toll :X
 
nigHtGoast am 17.04.2007 21:37 schrieb:
naja wenn man schon so etwas hier reinschreibt, sollte man auch das ganze richtig übersetzen oder übersetzen lassen. fakt ist, dass die türkische seite nur benchmark werte angibt, aber nirgendswo sagt, dass sie von ihnen wären!
ganz im gegenteil oben steht klar und deutlich, dass sie die werte VON EINER ANDEREN SICHEREN QUELLE HABEN! naja ist schon ein vorteil, wenn man knapp 5 sprachen kann :B ich toll :X
 
schorf am 17.04.2007 15:47 schrieb:
oO...wenn man die sich die kommentare hier mal ansieht könnte man echt heulen..

1. 10 fps sind schon ne menge....gerade in momenten wo einiges passiert hat man lieber 10 fps mehr als 10 fps weniger..... die grafik zeigt ja auch nicht was der tiefste FPS stand war...

2. Mr ich hab auch ne 8800GTX und hab nur 35 FPS in oblivion...mit welchem sys denn? haste auch nen quad core etc?? langsam sollte es bei einigen doch mal in den kopf gehen das karte von jedem bissl rechenkraft profitieren....

also alles in allem....

abwarten und vor allem nachdenken....

Jo, da muss ich Dir Recht geben. Manche Spieler-Systeme sind einfach nur völlig hirnlos konfiguriert. Wenn ich lese, dass manche Leute ne 8800GTX und nen Core 2 Duo E6600 bis zum Anschlag übertaktet haben, aber dann 1GB 533er Single-Channel Speicher. Da kann man sich echt nur an den Kopf fassen. Wenn man schon soviel Geld ausgibt, sollte man sich vorher wenigstens mal informieren über das was man da kauft. Was nützt die beste CPU und ne dicke Grafikkarte bei miserablem Speicherdurchsatz.

Und dass Festplatten unwichtig sind für die Performance ist auch unsinn. Je nachdem welche Spiele man spielt, kann das einen gigantischen Unterschied machen. BEsonders bei riesigen Onlinewelten werden die Daten oftmals gestreamt und dann wundern sich die Leute, wieso das Spiel ununterbrochen ruckelt trotz dicker Grafikkarte...
 
Glauben ist nicht wissen. Es wird nirgends erwähnt das dieser Benchmark unter Vista mit DX10 gemacht wurde. Des Weiteren weiß du nicht, wie die Dateien von Crysis aufgebaut sind. Wird alles in den RAM geladen? Werden die Daten kontinuierlich von Festplatte gestreamt?


oh doch erst wird schon erwähnt, dass es unter Vista war :)
"...Crysis Demo Benchmark testine tabi tutuldu. Test Vista üzerinde..."

außerdem hat man bei der geforce karte folgenden treiber :
Nvidia Forceware 100.65 WHQL

und es steht noch, dass es eine beta grafikkarte von ati war.
henüz Beta a?amas?nda olan ATI’nin

ach ja es wurde auch noch erwähnt, dass die neueste dircectx treiber benutzt wurde.
 
Bullwey-M am 17.04.2007 13:41 schrieb:
Perpi am 17.04.2007 13:37 schrieb:
Ich glaub den Türken gar nichts! :finger: :finger: :finger:

omg... geb ich dir recht, ich auch nicht


tja dumm nur, dass das super hyper game crysis und far cry nur von türken entwickelt wurde :B

mensch jetzt klauen dich auch uns die spiele ... :finger:

zu aussagen wie oben kann ich nur folgendes sagen :$ , ohne beleidigent zu werden
 
Die drei Geschäftsführer (cevat, avni und faruk) sind türkischstämmig (aber aufgewachsen in Deutschland) aber der Rest ist von allen möglichen Teilen der Welt

cool wenn türken etwas schaffen, heißt es sie wären nur türkischstämmig und wären in deutschland aufgewachsen, aber wenn sie(meistens auch andere immigranten, die aber als türken bezeichnet werden) was dummes anstellen, heißt es, die türken also die ausländer wären gefährlich lol :)

naja jetzt ist aber schluss, damit!
sonst kommen wir vom thema ab und wir sind ja nicht im kindergarten.
 
pilzbefall am 17.04.2007 18:23 schrieb:
Cr4zYd0nG am 17.04.2007 14:32 schrieb:
Murphy-Sepp am 17.04.2007 14:14 schrieb:
Wie auf einer türkischen Website beschrieben steht, wurde angeblich eine spielbare Demo-Version von Crysis mit einer 512 MB-ATI HD 2900XT und einer 768 MB Nvidia 8800GTX getestet.
Das klingt für mich sehr stark nach einem gerücht.
Warum sollte Crytek irgendeiner Türkischen Website eine spielbare Demo in die Hand drücken?
Aber wenn das stimmen würde wäre das ein gutes Beispiel dafür wie DirectX die Grafikkarte entlastet.
Ich frage mich an der stelle auch wie nVidia seine nächste Graka Generation nenen will. Ein nVidia 9800GTX wäre irgendwie komisch.

Naja, halb Crytek (oder doch ganz?) besteht doch aus Türken, oder? :-D Was ist da naheliegender, als dass die ihre ersten Demos inoffiziel an ihre Landsleute reichen.. :B

Warum soll nVidia 9800 GTX komisch sein? :confused:

Zum Artikel:

"Dabei scheint die ATI-Garfikkarte ihrem Konkurrenten weitaus überlegen zu sein."

Also ich bitte euch :rolleyes: 10 fps mehr soll "weitaus überlegen" sein? Mehr als 23 Bilder pro Sek. kann das menschliche Auge (besser gesagt Gehirn) doch sowieso nicht verarbeiten, also was bringen dann > 50 fps ?!?

Das wichtigste ist doch ein ruckelfreies Spielerlebnis zu haben ... dieses ganze "Wer hat die meisten fps" Gelabber ist nichts weiter als "wer hat den Größten"-Schwachsinn...


ich finds doch recht ärgerlich, wie manche Leute tatsächlich nicht in der Lage sind, aus ihren unmittelbaren simpelsten Erfahrungen simple Schlüsse zu ziehen: Das Gehirn/Auge kann sebstverständlich mehr als 23 fps unterscheiden. Nenn mal die Quelle für diese Superbehauptung.

Jetzt zur Erfahrung: Mach mal einen Monitor mit schneller Reaktionszeit (CRT) auf 30 Herz und dann auf 60 Herz und dann auf 80 Herz. Das Flimmern sogar noch bei 60 Herz ist ein Indikator, daß man selbst bei dieser Frequenz / Bildwiederholrate noch einen Unterschied erkennt.
Fazit: ein Bildaufbau von hellen Bildern pro Sekunde auf einem schwarzen Ausgangszustand erzeugt das Flimmern. Wenn der Ausgangszustand ebenso hell wäre wie das erzeugte Bild, wäre natürlich nix wahrzunehmen. Bei langsamer Reaktionszeit des Monitors entsteht dadurch lediglich der Eindruck von Flimmerfreiheit bei 60 Herz.

Erfahrung Nr2: Bei Spielen: Willst du mir erzählen, daß du keinen Unterschied zwischen 23 fps u. 60 fps erkennst? Entweder hast du einen Monitor mit schlechter Reaktionszeit oder du solltest mal zum Augenarzt gehen.

sry für offtopic

Meine Fresse was für ein schwachsinniges gefasel...

1. "Das Gehirn/Auge kann sebstverständlich mehr als 23 fps unterscheiden. Nenn mal die Quelle für diese Superbehauptung."

wärst du ein gebildeter Mensch, wüsstest du das ;) dir das nun zu beweisen ist ungefähr so als müsste ich dir beweisen, dass die Erde rund und keine Scheibe ist und dass sie sich um die Sonne dreht.. :rolleyes:

und denkt man, das kann nicht mehr dümmer werden, wird man beim lesen des besseren belehrt:

2. "Mach mal einen Monitor mit schneller Reaktionszeit (CRT) auf 30 Herz und dann auf 60 Herz und dann auf 80 Herz. Das Flimmern sogar noch bei 60 Herz ist ein Indikator, daß man selbst bei dieser Frequenz / Bildwiederholrate noch einen Unterschied erkennt.
Fazit: ein Bildaufbau von hellen Bildern pro Sekunde auf einem schwarzen Ausgangszustand erzeugt das Flimmern."

Nenene, du musst ein Fachmann sein <beleidigendes Zusatzkommentar verkneif>

2.1. Ich habe nurnoch TFT Monitore ;) 19" bis (demnächst) 30"
2.2. Mein alter CRT Monitor ging nur auf 65 und 70 Hz ;) ka, vllt. hast du ja noch steinalte Kisten von vor 30 Jahren, die sich auf 30 Hz runterkurbeln lassen..

zwischen 50 und 70 Hz kann man (mit dem bloßen Auge) KEINEN Unterschied erkennen ;) (zumindest bei neueren CRT Modellen, bei den uralten Dingern von vor 100 Jahren ist es vllt. anders, aber wayne) und wenn du das doch kannst, wow, respekt du musst das seltene Exemplar einer Kreuzung zwischen Adler und Mensch sein.

Also vergleich mal nicht Äpfel mit Birnen ;) :rolleyes:

3. "Willst du mir erzählen, daß du keinen Unterschied zwischen 23 fps u. 60 fps erkennst? Entweder hast du einen Monitor mit schlechter Reaktionszeit oder du solltest mal zum Augenarzt gehen."

3.1. Also zunächstmal hängt das Erkennen eines Unterschiedes zwischen 23 und 60 fps von zahlreichen Faktoren ab und ist auch sicherlich von Mensch zu Mensch unterschiedlich.. Bei normalen Fernsehbildern (ka wie das bei diversen HD TV Spielfilmen etc. ist) erfolgt der Bildaufbau in 23 Bildern pro Sek., weil der Mensch laut Studien und medizinischen Untersuchungen sowieso nur zwischen 23 und 25 Bildern pro Sek. wahrnehmen kann, die restlichen Zwischenbilder sind demnach nicht mehr von Bedeutung, da flüssiger als flüssig nunmal nicht geht ;) Vielleicht kann man noch einen Unterschied zwischen 23 und 30 fps (und mehr) erkennen, aber spätestens zwischen 35 fps und 60 Bildern (oder mehr) pro Sekunde sieht man garantiert KEINEN Unterschied mehr! ;) Oder man bildet sich diesen lediglich ein. Das was man da evtl. als Unterschied - wenn es unter 30 fps geht - bemerkt ist, dass die Bilder evtl. stockend laufen, aber das liegt dann wohl eher am PC ;) wenn dieser nämlich derart überfordert ist, dass er weniger als 30 fps schafft, kann er nicht mehr weiterrechnen und das führt dann zu diesen Verzögerungen im Millisekundenbereich, hat dann aber nichts mit dem menschlichen Auge bzw. Gehirn zutun, sondern eben mit der Darstellung des PCs. Ab spätestens 30 - 35 fps garantiere ich dir hiermit mit Indianer-Ehrenwort und allem drum und dran, dass DU ohne technische Mitteln einzusetzen mit DEINEM bloßen Auge KEINEN Unterschied bemerken kannst, alles andere ist pure Einbildung.

3.2. Ich habe..

..einen 19" TFT LCD 1000:1 400cd/m² 6ms
..einen 22" TFT LCD 2500:1 350cd/m² 5ms
..und bald einen 30" TFT LCD 1000:1 400cd/m² 6ms ( http://www.avatronics.de/product_info.php/info/p3152_Samsung-SyncMaster-305T--USB-Hub--Schwarz-.html )

und ja ich habe eine Brille, die trage ich aber nicht, da ich sie nur für die Ferne brauche ;) und ein Monitor steht für gewöhnlich nicht 20m entfernt ;) obwohl bei meinem 30" der bald kommt werde ich das wohl müssen :B
 
nigHtGoast am 17.04.2007 21:55 schrieb:
Die drei Geschäftsführer (cevat, avni und faruk) sind türkischstämmig (aber aufgewachsen in Deutschland) aber der Rest ist von allen möglichen Teilen der Welt

cool wenn türken etwas schaffen, heißt es sie wären nur türkischstämmig und wären in deutschland aufgewachsen, aber wenn sie(meistens auch andere immigranten, die aber als türken bezeichnet werden) was dummes anstellen, heißt es, die türken also die ausländer wären gefährlich lol :)

naja jetzt ist aber schluss, damit!
sonst kommen wir vom thema ab und wir sind ja nicht im kindergarten.
Hey ihr Nazis :B Verschiebt den Thread mal ins Politik Forum :B ^3
 
Cr4zYd0nG am 17.04.2007 23:05 schrieb:
3.1. Also zunächstmal hängt das Erkennen eines ...blablabla

Deine Begründung ist ja ganz nett, geht aber am eigentlichen Thema, was die Wahrnehmung von Ruckeln bei Computerspielen angeht irgendwie vorbei.

Wenn ich mich in einem Computer Spiel relativ langsam bewege, z.B. vorwärts schleiche erscheinen mir 25Fps tatsächlich flüssig. Sobald ich allerdings eine schnelle Bewegung ausführe, z.B. eine fixe Drehung in einem Shooter nehme ich ein Ruckeln auch bei 30fps noch locker wahr. Und das beeinträchtigt meine Konzentration und damit meine Zielfähigkeiten. Bei den meisten Menschen liegt die Schwelle ab der das irrelevant wird zwischen 45 und 60Fps, weshalb Spiele wie CS erst ab 60fps garantiert für jeden annehmbar flüssig laufen. Für Strategiespiele reichen deshalb oftmals auch 20 fps, da meist nur langsame Bewegungen ausgeführt werden.

Dass du bei einem Film diesen Effekt nicht hast, liegt am Motion Blur, also der Bewegungsunschärfe. Pausiere mal eine DVD während eines extrem schnellen Kamera Schwenks, die wirst kein scharfes Bild festhalten können, weil der Film eben mit einem Blur versehen wurde. Gäbe es den nicht, würden Filme bei 25fps des Öfteren ruckeln.

Aber um nochmal was zum Thema zu sagen: Der Unterschied zwischen 72 und 81 Fps ist wirklich vernachlässigbar. "Weitaus überlegen" is was anderes. :B

MfG
 
Nochmal zum Thema Bildwiederholfrequenz und das menschliche Auge:

Das menschliche Auge verarbeitet ab ca. 18 Bilder pro Sekunde aufeinander folgende Bilder als bewegte Szene, weswegen die heute gebräuchliche Bildfrequenz bei Kinofilmen o.ä. bei 24, bei den älteren Stummfilmen dagegen bei 16 oder 18 Bildern pro Sekunde liegt. Durch Aufnahme und nachfolgende Wiedergabe von Bildmaterial mit unterschiedlichen Bildfrequenzen können Effekte wie Zeitraffer oder Zeitlupe erzielt werden.
 
Rabowke am 18.04.2007 07:25 schrieb:
Nochmal zum Thema Bildwiederholfrequenz und das menschliche Auge:

Das menschliche Auge verarbeitet ab ca. 18 Bilder pro Sekunde aufeinander folgende Bilder als bewegte Szene, weswegen die heute gebräuchliche Bildfrequenz bei Kinofilmen o.ä. bei 24, bei den älteren Stummfilmen dagegen bei 16 oder 18 Bildern pro Sekunde liegt. Durch Aufnahme und nachfolgende Wiedergabe von Bildmaterial mit unterschiedlichen Bildfrequenzen können Effekte wie Zeitraffer oder Zeitlupe erzielt werden.

Ruckeln kommt am PC noch von weiteren Faktoren.

Ein Beispiel: Quantisierung der Bildfrequenz durch die Frame-Anzahl.

Sofern die Darstellungsgeschwindigkeit mit der Bildwiederholfrequenz übereinstimmt, oder einen natürlichen Teiler ergibt:
Bei 100Hz z.B. 25 50 oder 100Fps.
kann die Hardware Animationen flüssig darstellen.

Dann kommt noch das Problem der Quantisierung hinzu:
Ist der Frame, der 0,04 Sekunden später dargestellt wird, auch aus der selben Position(dem selben Winkel etc.) aufgenommen, die den 0,04 Sekunden entspricht?
Nun, um die Fehlerquote zu verrringern, wird die Framezahl erhöht.
So kann bei 75 Bildern pro Sekunde, das Auge fehlerhafte Zeit-Darstellungen (Quantisierungsfehler) auch schlechter wahrnehmen, wodurch die Animation flüssiger wirkt, als bei 25 Bildern pro Sekunde.

Da bei einer Filmkamera die Quantisierung eigentlich immer 100% ist, reichen eben schon 18 Bilder....
 
SYSTEM am 17.04.2007 12:41 schrieb:
Jetzt ist Ihre Meinung gefragt: Hier können Sie Ihren Kommentar zum Artikel veröffentlichen und mit anderen Lesern darüber diskutieren.

:P Ja ATI ist nunmal auch wenn die Treiber leider nicht zu den Glanzstücken der Pc - Welt gehören(Catalyst 7 .x.x) Technisch unschlagbar ... vor 4 Jahren als die 9700er Serie gekomen ist war das der Startschuß Nvidia vom 3D Tron zu schupsen , ich gehörte einst auch zur Nvidia Fraktion allerdings waren die Leistungunterschiede der FX Karten zu den GF4 einfach nur zum heulen , es hat sich zwar verbessert das man bei Nvidia was für sein Geld nu endlich ma bekomt , trotzdem fehlen echte Inovationen .

Da ist ATI einfach ne Nasenlänge Nvidia vorraus ... Nvidia versucht zwar das wieder gut zu machen aber auch ein Beispiel vor 2 Jahren brachten se den PX shader 3.0 raus .. jaaaa die ersten Karten der Welt :B .. BOHHH .. blos das diese Karten (6800GT 6800 Ultra ) nen Jahr später als dann wirklich auch der PX 3.0 in Spielen genutzt wurde völlig untermotorisiert waren ^^ .. ATI hatte mit seiner x800 Serie zwar noch den PX 2.0 c , aber das reichte ja auch aus , und zog dann mit der 1000er Sereie das Ass aus dem Ärmel , diese Karten konten dann HDR mit aktivierten AA darstellen .... bei den GF Karten Technisch nicht möglich ..

Heute ists wider so ... Nvidia brüstet sich mit angeblichen DX 10 Karten , ja das mag schon sein ... allerdings wenn dann der DX 10 tasächlich in Spielen auch für uns sichtbar ist .. werden diese wohl mal wieder untermotorisiert sein so da sich der Kauf für 600 euro nicht lohnt ....

ATI hingegen wartet immer ein weilchen um den* kleinen *Vorsprung den Nvidia hat für* längere *Zeit selbst zu beanspruchen ,...


Ja ICH finde das als ATI Kunde GUT :top:
 
Ja ICH finde das als ATI Kunde GUT :top:

Boah ey :X Du bist mein 200% ATI Fanboy of the day :-D . Also, das die PCG Readation eine solche News überhaupt on stellt, halte ich für sehr bedenklich, zumal von CRYTEK auch schon darauf hingewiesen wurde, daß nur von Offiziellen Quellen Benchmarks, Test usw. veröffentlich wird.
 
und selbst wenn es stimmen würde bis sommer hat nv ne neue graka die wieder schneller ist von daher eh wayne :-D
 
Rabowke am 18.04.2007 07:25 schrieb:
Nochmal zum Thema Bildwiederholfrequenz und das menschliche Auge:

Das menschliche Auge verarbeitet ab ca. 18 Bilder pro Sekunde aufeinander folgende Bilder als bewegte Szene, weswegen die heute gebräuchliche Bildfrequenz bei Kinofilmen o.ä. bei 24, bei den älteren Stummfilmen dagegen bei 16 oder 18 Bildern pro Sekunde liegt. Durch Aufnahme und nachfolgende Wiedergabe von Bildmaterial mit unterschiedlichen Bildfrequenzen können Effekte wie Zeitraffer oder Zeitlupe erzielt werden.

Das erklärt, warum man immer den Eindruck hat, alte Stummfilme laufen viel zu schnell. Schön zu wissen woran das genau liegt. Nach aktuellem Standard (24fps) laufen sie also 25% zu schnell?!

IXS am 18.04.2007 08:05 schrieb:
???
Das kapiert kein Mensch der sich nicht beruflich oder im Studium mit digitaler Signalverarbeitung beschäftigt. So wie ich zum Beispiel. :finger:
 
die augen sehen halt nicht in FPS sondern konstant.
es sind versuche mit piloten gemacht worden, wo man einzelbilder in schnelle bildfolgen eingestreut hat. denn SO kann man durchaus messen, wie präzise das menschliche auge unterscheiden kann.
es sind noch objekte bei über 400FPS wahrgenommen worden. erkannt wurden sie nicht mehr, aber die piloten sahen, "dass da etwas war".
theoretisch geht das bis etwa auf 800FPS. theoretisch.
 
HanFred am 18.04.2007 14:26 schrieb:
die augen sehen halt nicht in FPS sondern konstant.
es sind versuche mit piloten gemacht worden, wo man einzelbilder in schnelle bildfolgen eingestreut hat. denn SO kann man durchaus messen, wie präzise das menschliche auge unterscheiden kann.
es sind noch objekte bei über 400FPS wahrgenommen worden. erkannt wurden sie nicht mehr, aber die piloten sahen, "dass da etwas war".
theoretisch geht das bis etwa auf 800FPS. theoretisch.

Ja toll.. wenn man in eine Filmsequenz, die mit 400 Bilder pro Sek abgespielt wird (der muss demzufolge übrigens auch mit einer High-Speed Kamera aufgenommen worden sein -> diese Zeitraffer dinger) ist es klar, dass einzelne Bilder dazwischen noch als kurze Lichtblitze wahrgenommen werden (entscheidend ist dabei allerdings auch, ob diese heller oder dunkler als die restlichen Bilder war, aber ich lass deine Aussage mal so stehen..), das bedeutet aber nicht, dass man 400fps flüssiger wahrnimmt als 30fps+ ...natürlich kann das Gehirn auch mehr Bilder aufnehmen, aber verarbeitet werden bekanntlich nicht alle aufgenommenen Informationen, weshalb die Konzentration sich immer nur auf 1 Sache richtet, das ist aber eine etwas andere Geschichte ..manche Menschen können sich natürlich auch auf mehr als nur 1 Sache/Tätigkeit konzentrieren, aber auch das ist ein anderes Thema.. was ich eigtl. sagen möchte:

Auch wenn ein Mensch durchaus bei 400 Bilder pro Sek. ein Einzelbild wahrnimmt, wird irgendwann ab 23 bis 25 Bilder pro Sek. ein flüssiger Ablauf wahrgenommen und ab da ist es auch nicht mehr relevant wieviele Bilder dazwischengepackt werden. Das Gehirn kann darüberhinaus ohnehin Bewegungen vervollständigen (laut neuster Studien), d.h. wenn man z.b. in einer Filmsequenz einen Ball die Straße hinunterrollen sieht und das Bild plötzlich anhält, hat man festgestellt, dass die Testpersonen den Ball noch ein Stückchen weiter haben laufen sehen, und genauso verhält es sich auch mit Filmsequenzen, bei denen einzelne Bilder dazwischen herausgenommen wurden, selbst da wurde die etwas stockende Bewegung noch als solche wahrgenommen..

Also ich bleibe dabei.. wenn man einen Film am PC mit sagen wir mal 40 fps und einen mit 80 fps sich anschauen würde (mit einem Monitor, der diesen Unterschied selbstverständlich darstellen kann etc.), ohne zu wissen welcher welcher ist und dann beurteilen müsste, welcher Film mehr fps hatte, wird die Beurteilung sicherlich zu 90% geraten sein. ;)
 
Cr4zYd0nG am 18.04.2007 15:28 schrieb:
Also ich bleibe dabei.. wenn man einen Film am PC mit sagen wir mal 40 fps und einen mit 80 fps sich anschauen würde (mit einem Monitor, der diesen Unterschied selbstverständlich darstellen kann etc.), ohne zu wissen welcher welcher ist und dann beurteilen müsste, welcher Film mehr fps hatte, wird die Beurteilung sicherlich zu 90% geraten sein. ;)

Oh, ich behaupte sogar, dass die Beurteilung sogar zu 100 % geraten sein wird!
 
Knorxel am 18.04.2007 15:50 schrieb:
Cr4zYd0nG am 18.04.2007 15:28 schrieb:
Also ich bleibe dabei.. wenn man einen Film am PC mit sagen wir mal 40 fps und einen mit 80 fps sich anschauen würde (mit einem Monitor, der diesen Unterschied selbstverständlich darstellen kann etc.), ohne zu wissen welcher welcher ist und dann beurteilen müsste, welcher Film mehr fps hatte, wird die Beurteilung sicherlich zu 90% geraten sein. ;)

Oh, ich behaupte sogar, dass die Beurteilung sogar zu 100 % geraten sein wird!

Bei schnellen Bewegungen sieht man es dann doch.
Macht doch mal den test. Spielt ein Spiel, schaltet die Details so ein, das ihr 60 FPS habt. Dann Details erhöhen und nur 30 FPS, oder sagen wir 35.
Macht dann mal schnelle Bewegungen (zb. Ego Shooter) nach links oder rechts und schaut, ob das nicht etwas anders aussieht als mit 60 FPS.

Zum Thema ATI vs. Nvidia. Ich finde, ATi baut in letzter zeit stark ab. Auf der Seite findet man keine Tech Demos mehr (ich jedenfalls nicht), Support ist mangelhaft (Habe schon mehrfach eine Mail hingeschickt, bis heute keine Antwort). Wenn die neuen Karten nicht DEUTLICH schneller sind als die Nvidias, bin ich enttäuscht. Es ist inzwischen 1/2 Jahr rum seit der 8er Serie von Nvidia. Entweder müssendie neuen Radeons sauschnell sein, oder sehr günstig. Ansonsten fände ich es schwach.
Als die Radeon 9700 Pro rauskam haben viele gesagt, wartet mal auf die Geforce FX, die wird zeigen wo der Hammer hängt. Das Ende vom Lied kenen wir alle. Die Karte hat enttäsucht und erst die 6er Reihe war wieder spitze.
Ich hoffe, dsa wiederholt sich nicht, nur andersrum.

bye
Spinal
 
Zurück