pilzbefall am 17.04.2007 18:23 schrieb:
Cr4zYd0nG am 17.04.2007 14:32 schrieb:
Murphy-Sepp am 17.04.2007 14:14 schrieb:
Wie auf einer türkischen Website beschrieben steht, wurde angeblich eine spielbare Demo-Version von Crysis mit einer 512 MB-ATI HD 2900XT und einer 768 MB Nvidia 8800GTX getestet.
Das klingt für mich sehr stark nach einem gerücht.
Warum sollte Crytek irgendeiner Türkischen Website eine spielbare Demo in die Hand drücken?
Aber wenn das stimmen würde wäre das ein gutes Beispiel dafür wie DirectX die Grafikkarte entlastet.
Ich frage mich an der stelle auch wie nVidia seine nächste Graka Generation nenen will. Ein nVidia 9800GTX wäre irgendwie komisch.
Naja, halb Crytek (oder doch ganz?) besteht doch aus Türken, oder?
Was ist da naheliegender, als dass die ihre ersten Demos inoffiziel an ihre Landsleute reichen..
Warum soll nVidia 9800 GTX komisch sein?
Zum Artikel:
"Dabei scheint die ATI-Garfikkarte ihrem Konkurrenten
weitaus überlegen zu sein."
Also ich bitte euch
10 fps mehr soll "weitaus überlegen" sein? Mehr als 23 Bilder pro Sek. kann das menschliche Auge (besser gesagt Gehirn) doch sowieso nicht verarbeiten, also was bringen dann > 50 fps ?!?
Das wichtigste ist doch ein ruckelfreies Spielerlebnis zu haben ... dieses ganze "Wer hat die meisten fps" Gelabber ist nichts weiter als "wer hat den Größten"-Schwachsinn...
ich finds doch recht ärgerlich, wie manche Leute tatsächlich nicht in der Lage sind, aus ihren unmittelbaren simpelsten Erfahrungen simple Schlüsse zu ziehen: Das Gehirn/Auge kann sebstverständlich mehr als 23 fps unterscheiden. Nenn mal die Quelle für diese Superbehauptung.
Jetzt zur Erfahrung: Mach mal einen Monitor mit schneller Reaktionszeit (CRT) auf 30 Herz und dann auf 60 Herz und dann auf 80 Herz. Das Flimmern sogar noch bei 60 Herz ist ein Indikator, daß man selbst bei dieser Frequenz / Bildwiederholrate noch einen Unterschied erkennt.
Fazit: ein Bildaufbau von hellen Bildern pro Sekunde auf einem schwarzen Ausgangszustand erzeugt das Flimmern. Wenn der Ausgangszustand ebenso hell wäre wie das erzeugte Bild, wäre natürlich nix wahrzunehmen. Bei langsamer Reaktionszeit des Monitors entsteht dadurch lediglich der Eindruck von Flimmerfreiheit bei 60 Herz.
Erfahrung Nr2: Bei Spielen: Willst du mir erzählen, daß du keinen Unterschied zwischen 23 fps u. 60 fps erkennst? Entweder hast du einen Monitor mit schlechter Reaktionszeit oder du solltest mal zum Augenarzt gehen.
sry für offtopic
Meine Fresse was für ein schwachsinniges gefasel...
1. "Das Gehirn/Auge kann sebstverständlich mehr als 23 fps unterscheiden. Nenn mal die Quelle für diese Superbehauptung."
wärst du ein gebildeter Mensch, wüsstest du das
dir das nun zu beweisen ist ungefähr so als müsste ich dir beweisen, dass die Erde rund und keine Scheibe ist und dass sie sich um die Sonne dreht..
und denkt man, das kann nicht mehr dümmer werden, wird man beim lesen des besseren belehrt:
2. "Mach mal einen Monitor mit schneller Reaktionszeit (CRT) auf 30 Herz und dann auf 60 Herz und dann auf 80 Herz. Das Flimmern sogar noch bei 60 Herz ist ein Indikator, daß man selbst bei dieser Frequenz / Bildwiederholrate noch einen Unterschied erkennt.
Fazit: ein Bildaufbau von hellen Bildern pro Sekunde auf einem schwarzen Ausgangszustand erzeugt das Flimmern."
Nenene, du musst ein Fachmann sein <beleidigendes Zusatzkommentar verkneif>
2.1. Ich habe nurnoch TFT Monitore
19" bis (demnächst) 30"
2.2. Mein alter CRT Monitor ging nur auf 65 und 70 Hz
ka, vllt. hast du ja noch steinalte Kisten von vor 30 Jahren, die sich auf 30 Hz runterkurbeln lassen..
zwischen 50 und 70 Hz kann man (mit dem bloßen Auge)
KEINEN Unterschied erkennen
(zumindest bei neueren CRT Modellen, bei den uralten Dingern von vor 100 Jahren ist es vllt. anders, aber wayne) und wenn du das doch kannst, wow, respekt du musst das seltene Exemplar einer Kreuzung zwischen Adler und Mensch sein.
Also vergleich mal nicht Äpfel mit Birnen
3. "Willst du mir erzählen, daß du keinen Unterschied zwischen 23 fps u. 60 fps erkennst? Entweder hast du einen Monitor mit schlechter Reaktionszeit oder du solltest mal zum Augenarzt gehen."
3.1. Also zunächstmal hängt das Erkennen eines Unterschiedes zwischen 23 und 60 fps von zahlreichen Faktoren ab und ist auch sicherlich von Mensch zu Mensch unterschiedlich.. Bei normalen Fernsehbildern (ka wie das bei diversen HD TV Spielfilmen etc. ist) erfolgt der Bildaufbau in 23 Bildern pro Sek., weil der Mensch laut Studien und medizinischen Untersuchungen sowieso nur zwischen 23 und 25 Bildern pro Sek. wahrnehmen kann, die restlichen Zwischenbilder sind demnach nicht mehr von Bedeutung, da flüssiger als flüssig nunmal nicht geht
Vielleicht kann man noch einen Unterschied zwischen 23 und 30 fps (und mehr) erkennen, aber spätestens zwischen 35 fps und 60 Bildern (oder mehr) pro Sekunde sieht man garantiert
KEINEN Unterschied mehr!
Oder man bildet sich diesen lediglich ein. Das was man da evtl. als Unterschied - wenn es unter 30 fps geht - bemerkt ist, dass die Bilder evtl. stockend laufen, aber das liegt dann wohl eher am PC
wenn dieser nämlich derart überfordert ist, dass er weniger als 30 fps schafft, kann er nicht mehr weiterrechnen und das führt dann zu diesen Verzögerungen im Millisekundenbereich, hat dann aber nichts mit dem menschlichen Auge bzw. Gehirn zutun, sondern eben mit der Darstellung des PCs. Ab spätestens 30 - 35 fps garantiere ich dir hiermit mit Indianer-Ehrenwort und allem drum und dran, dass DU ohne technische Mitteln einzusetzen mit DEINEM bloßen Auge KEINEN Unterschied bemerken kannst, alles andere ist pure Einbildung.
3.2. Ich habe..
..einen 19" TFT LCD 1000:1 400cd/m² 6ms
..einen 22" TFT LCD 2500:1 350cd/m² 5ms
..und bald einen 30" TFT LCD 1000:1 400cd/m² 6ms ( http://www.avatronics.de/product_info.php/info/p3152_Samsung-SyncMaster-305T--USB-Hub--Schwarz-.html )
und ja ich habe eine Brille, die trage ich aber nicht, da ich sie nur für die Ferne brauche
und ein Monitor steht für gewöhnlich nicht 20m entfernt
obwohl bei meinem 30" der bald kommt werde ich das wohl müssen