News - Crysis: Nvidia vs. ATI - Testergebnis zur Crysis-Demo aufgetaucht

Administrator

Administrator
Teammitglied
Mitglied seit
07.03.2011
Beiträge
14.394
Reaktionspunkte
0
Jetzt ist Deine Meinung gefragt: Hier kannst Du deinen Kommentar zum Artikel veröffentlichen und mit anderen Lesern darüber diskutieren.

arrow_right.gif
Zum Artikel: http://www.pcgames.de/aid,575520
 

Bonkic

Bekanntes Gesicht
Mitglied seit
06.09.2002
Beiträge
35.732
Reaktionspunkte
7.322
über 50 fps in 1600x1200 bei den einstellungen ?
kann ich mir ehrlich gesagt nicht vorstellen, es sei denn in dieser ominösen demo version fehlte noch die hälfte.
 

PintSoLdiEr

Erfahrener Benutzer
Mitglied seit
16.02.2002
Beiträge
142
Reaktionspunkte
10
Bonkic am 17.04.2007 12:41 schrieb:
über 50 fps in 1600x1200 bei den einstellungen ?
kann ich mir ehrlich gesagt nicht vorstellen, es sei denn in dieser ominösen demo version fehlte noch die hälfte.


Dir ist aber schon klar dass die (angeblich) mit einem QX6800 - also mit dem kommenden, jetzt noch gar nicht verfügbaren, Vierkern Prozessor getestet haben!?!? Allein der macht bei den NextGen Spielen Performance Sprünge ungeahnten Ausmasses! Dann noch DirectX10 und eine der schnellsten Festplatten der Welt... Also ich würde an sich schon glauben dass über 50 Fps bei den Einstellungen möglich sind!!!

Die Frage ist eher wie die Türken an die ganze Hardware gekommen sind? Also an den Prozessor und die 2900er von ATI...... :confused:
 

Rabowke

Klugscheißer
Teammitglied
Mitglied seit
09.12.2003
Beiträge
27.120
Reaktionspunkte
6.263
Ohne Angabe der verwendeten Grafikoptionen im Spiel ist diese Tabelle so Aussagekräftig wie der Kaffeesatz von meinem Morgenkaffee.

Sooo überlegen finde ich die ATI Karte in den maximalen Einstellungen übrigens nicht. Lediglich ein paar Frames unterschied find ich, in Anbetracht des zu erwartenden Preises der ATI Karte, zu wenig.
 

Bonkic

Bekanntes Gesicht
Mitglied seit
06.09.2002
Beiträge
35.732
Reaktionspunkte
7.322
PintSoLdiEr am 17.04.2007 12:48 schrieb:
Dir ist aber schon klar dass die (angeblich) mit einem QX6800 - also mit dem kommenden, jetzt noch gar nicht verfügbaren, Vierkern Prozessor getestet haben!?!? Allein der macht bei den NextGen Spielen Performance Sprünge ungeahnten Ausmasses! Dann noch DirectX10 und eine der schnellsten Festplatten der Welt... Also ich würde an sich schon glauben dass über 50 Fps bei den Einstellungen möglich sind!!!


ist mir alles klar, ja.

arbeitest du in intels marketing abteilung ? :B
 

SinTEK

Neuer Benutzer
Mitglied seit
11.05.2006
Beiträge
8
Reaktionspunkte
0
Rabowke am 17.04.2007 12:48 schrieb:
Ohne Angabe der verwendeten Grafikoptionen im Spiel ist diese Tabelle so Aussagekräftig wie der Kaffeesatz von meinem Morgenkaffee.

Sooo überlegen finde ich die ATI Karte in den maximalen Einstellungen übrigens nicht. Lediglich ein paar Frames unterschied find ich, in Anbetracht des zu erwartenden Preises der ATI Karte, zu wenig.

"Weitaus überlegen"......
Richtig. Immer diese Theatralik wegen ein paar Frames. Wenn die Karten in Extremsituationen unter Druck gesetzt werden, liegt die eine halt bei 17,5 und die andere bei 19,2 Frames. Beides trägt dann nicht gerade zur Erheiterung bei.
 

Rabowke

Klugscheißer
Teammitglied
Mitglied seit
09.12.2003
Beiträge
27.120
Reaktionspunkte
6.263
PintSoLdiEr am 17.04.2007 12:48 schrieb:
Dann noch DirectX10 und eine der schnellsten Festplatten der Welt... Also ich würde an sich schon glauben dass über 50 Fps bei den Einstellungen möglich sind!!!
Glauben ist nicht wissen. Es wird nirgends erwähnt das dieser Benchmark unter Vista mit DX10 gemacht wurde. Des Weiteren weiß du nicht, wie die Dateien von Crysis aufgebaut sind. Wird alles in den RAM geladen? Werden die Daten kontinuierlich von Festplatte gestreamt?

Fragen über Fragen die wir, du und ich, nicht beantworten können, weil wir es einfach nicht wissen. Das ist auch der Grund warum dieser 'Benchmark' total schwachsinnig und unbrauchbar ist. ;)
 
P

pilzbefall

Gast
bbpa am 17.04.2007 13:01 schrieb:
Rabowke am 17.04.2007 12:55 schrieb:
PintSoLdiEr am 17.04.2007 12:48 schrieb:
Dann noch DirectX10 und eine der schnellsten Festplatten der Welt... Also ich würde an sich schon glauben dass über 50 Fps bei den Einstellungen möglich sind!!!
Glauben ist nicht wissen.

ha ein geiles doug-zitat :-D


was hat die Geschwindigkeit der Festplatte mit der Performance im Spiel zu tun? Wer auf FPS Wert legt, wird doch eher mehr Ram kaufen, um das Auslagern zu verhindern.

Was mich etwas stört, sind die 512 mb Ram der Ati-Karte.
 
U

ukzi8lk78llizlz

Gast
SYSTEM am 17.04.2007 12:41 schrieb:
Jetzt ist Ihre Meinung gefragt: Hier können Sie Ihren Kommentar zum Artikel veröffentlichen und mit anderen Lesern darüber diskutieren.
Last we heard the already delayed, uber beautiful Crysis form dev Crytek wasn't hitting consoles. It's PC only. And we heard this several times: here and here. But if a Crytek job listing for, well, a "Console Programmer - PS3" is to be believed, the game is hitting the PLAYSTATION 3. In the section labeled "Responsibility," the listing goes:

Work on various aspects of porting to PS3 and creating solutions to get the utmost out of the PS3.
Don't you just love how job listings are a better source of information than PR sometimes?

Rabowke meint:

failed.

Am Thema vorbei Argumentiert. Wenn du schon Englische Texte quotest und postest, schreib bitte noch deine Meinung dazu. Wobei, nein. Bitte behalt deine Meinung für dich, aber wenn ich raten könnte würde ich sagen:

"ZOMG!!11 PS3 is uber!!!11 PC ist scheisse!!!1"

So oder so ähnlich wäre deine Antwort.
 

Rabowke

Klugscheißer
Teammitglied
Mitglied seit
09.12.2003
Beiträge
27.120
Reaktionspunkte
6.263
pilzbefall am 17.04.2007 13:05 schrieb:
was hat die Geschwindigkeit der Festplatte mit der Performance im Spiel zu tun? Wer auf FPS Wert legt, wird doch eher mehr Ram kaufen, um das Auslagern zu verhindern.
Es kommt auf die Technik der 3d Engine drauf an. Wenn die Daten kontinuierlich von der Festplatte geladen ( = gestreamt ) werden, macht sich eine schnelle Festplatte mit sehr geringer Zugriffszeit durchaus bemerkbar.

Allerdings setzen die meisten Grafikengines auf das 'komplett in den Speicher laden und von dort abrufen' ein, sprich du hast Recht ... es kommt auf die Menge von Arbeitspeicher drauf an.

Nur ich wiederhole mich: wir wissen es einfach nicht was genau wie die Engine funktioniert. Darum ist hier alles mutmaßen und raten.
 
P

pilzbefall

Gast
Bullwey-M am 17.04.2007 13:41 schrieb:
Perpi am 17.04.2007 13:37 schrieb:
Ich glaub den Türken gar nichts! :finger: :finger: :finger:

omg... geb ich dir recht, ich auch nicht

nicht alle Türken sprechen Döner-Deutsch, fahren BMW, sind mit Goldkettchen bestückt und kommen in direkter oder indirekter Linie aus Anatolien. Also bitte....
 

markenprodukt

Bekanntes Gesicht
Mitglied seit
30.12.2005
Beiträge
668
Reaktionspunkte
0
Zu 100 % Fakes, siehe auch was der Cry-Alex (Community Manager) dazu sagt

Ich bitte euch nicht auf solche "Tests" und "Reviews" zu vertrauen, solange sie nicht von offizieller Seite (Crytek/EA) herausgegeben oder bestätigt wurden.

http://crysis.4thdimension.info/modules.php?name=Forums&file=viewtopic&p=12640&highlight=#12640
 
M

Murphy-Sepp

Gast
Wie auf einer türkischen Website beschrieben steht, wurde angeblich eine spielbare Demo-Version von Crysis mit einer 512 MB-ATI HD 2900XT und einer 768 MB Nvidia 8800GTX getestet.
Das klingt für mich sehr stark nach einem gerücht.
Warum sollte Crytek irgendeiner Türkischen Website eine spielbare Demo in die Hand drücken?
Aber wenn das stimmen würde wäre das ein gutes Beispiel dafür wie DirectX die Grafikkarte entlastet.
Ich frage mich an der stelle auch wie nVidia seine nächste Graka Generation nenen will. Ein nVidia 9800GTX wäre irgendwie komisch.
 
C

Cr4zYd0nG

Gast
Murphy-Sepp am 17.04.2007 14:14 schrieb:
Wie auf einer türkischen Website beschrieben steht, wurde angeblich eine spielbare Demo-Version von Crysis mit einer 512 MB-ATI HD 2900XT und einer 768 MB Nvidia 8800GTX getestet.
Das klingt für mich sehr stark nach einem gerücht.
Warum sollte Crytek irgendeiner Türkischen Website eine spielbare Demo in die Hand drücken?
Aber wenn das stimmen würde wäre das ein gutes Beispiel dafür wie DirectX die Grafikkarte entlastet.
Ich frage mich an der stelle auch wie nVidia seine nächste Graka Generation nenen will. Ein nVidia 9800GTX wäre irgendwie komisch.

Naja, halb Crytek (oder doch ganz?) besteht doch aus Türken, oder? :-D Was ist da naheliegender, als dass die ihre ersten Demos inoffiziel an ihre Landsleute reichen.. :B

Warum soll nVidia 9800 GTX komisch sein? :confused:

Zum Artikel:

"Dabei scheint die ATI-Garfikkarte ihrem Konkurrenten weitaus überlegen zu sein."

Also ich bitte euch :rolleyes: 10 fps mehr soll "weitaus überlegen" sein? Mehr als 23 Bilder pro Sek. kann das menschliche Auge (besser gesagt Gehirn) doch sowieso nicht verarbeiten, also was bringen dann > 50 fps ?!?

Das wichtigste ist doch ein ruckelfreies Spielerlebnis zu haben ... dieses ganze "Wer hat die meisten fps" Gelabber ist nichts weiter als "wer hat den Größten"-Schwachsinn...
 

Rabowke

Klugscheißer
Teammitglied
Mitglied seit
09.12.2003
Beiträge
27.120
Reaktionspunkte
6.263
Cr4zYd0nG am 17.04.2007 14:32 schrieb:
Zum Artikel:

"Dabei scheint die ATI-Garfikkarte ihrem Konkurrenten weitaus überlegen zu sein."

Also ich bitte euch :rolleyes: 10 fps mehr soll "weitaus überlegen" sein? Mehr als 23 Bilder pro Sek. kann das menschliche Auge (besser gesagt Gehirn) doch sowieso nicht verarbeiten, also was bringen dann > 50 fps ?!?

Das wichtigste ist doch ein ruckelfreies Spielerlebnis zu haben ... dieses ganze "Wer hat die meisten fps" Gelabber ist nichts weiter als "wer hat den Größten"-Schwachsinn...
zum einen:

bitte das sinnlose Türkenbashing einstellen. Danke.

zweitens:

Das menschliche Auge mag in der Tat nur 23,xx Bilder pro Sekunde sehen, aber: die Wahrnehmung ist eine andere. Man 'sieht' den Unterschied ob man etwas mit 24fps spielt oder halt 50fps.
 
B

B0S

Gast
Eine türkische (nichts gegen die Türkei!, bei frühen Techniknews würde ich nur eher Asiaten oder Ami's erwarten) Website, soll also ein noch nicht erschienenes Spiel auf einer noch nicht erschienenen Karte gebencht haben? :rolleyes: Sehr glaubwürdig ;)

Abgesehen davon halte ich die Werte für unrealistisch, die Abstände bei den Auflösunds- und Qualitätseinstellungswechsel fallen m.M.n. viel zu gering für übliche Maßstäbe aus. Wenn das nicht ein wundersames Feature der DX10 Generation is, kann ich mir nicht vorstellen, dass zwischen 1024x768 und 1600x1200+4xAA+16xAF gerade mal ~30FPS (~35%) liegen.
 

markenprodukt

Bekanntes Gesicht
Mitglied seit
30.12.2005
Beiträge
668
Reaktionspunkte
0
Cr4zYd0nG am 17.04.2007 14:32 schrieb:
Naja, halb Crytek (oder doch ganz?) besteht doch aus Türken, oder? :-D Was ist da naheliegender, als dass die ihre ersten Demos inoffiziel an ihre Landsleute reichen.. :B

lol :rolleyes:

Die drei Geschäftsführer (cevat, avni und faruk) sind türkischstämmig (aber aufgewachsen in Deutschland) aber der Rest ist von allen möglichen Teilen der Welt
Crytek’s development team is comprised of game professionals from 20+ different nations.
http://crytek.com/inside_crytek/index.php?s=co

Manche menschen kommen auf ideen...
 

xdave78

Bekanntes Gesicht
Mitglied seit
28.07.2009
Beiträge
1.547
Reaktionspunkte
114
Cr4zYd0nG am 17.04.2007 14:32 schrieb:
Also ich bitte euch :rolleyes: 10 fps mehr soll "weitaus überlegen" sein? Mehr als 23 Bilder pro Sek. kann das menschliche Auge (besser gesagt Gehirn) doch sowieso nicht verarbeiten, also was bringen dann > 50 fps ?!?

Das wichtigste ist doch ein ruckelfreies Spielerlebnis zu haben ... dieses ganze "Wer hat die meisten fps" Gelabber ist nichts weiter als "wer hat den Größten"-Schwachsinn...
...weil ~10-15fps in diesem Bsp schon 12-18% sind...immerhin knapp also 1/5 schneller..schon recht viel.
 

projectNeo

Erfahrener Benutzer
Mitglied seit
12.07.2001
Beiträge
121
Reaktionspunkte
0
nun auf dem angebliche nbeni screen seh ich 2 sachen, a die angabe high details (muss vllt nicht maximum sein aber eben hoch) und dass sowohl die neue ati als auch die 8800gtx in 1600*1200 bei 4xFSAA und 16xAA über 50 fps haben sollen was ich diesen karten bei weitem nicht zutraue.

der grund, ich habe selbst eine 8800gtx und laut benchmarks und eigenerfarung kommt diese zB bei oblivion bei vollen details in 1600x1200 bei 8xAA und ohne FSAA auf gerade mal 35fps im schnitt.

und da crysis deutlich besser aussieht als oblivion kann ich mir diesen sprung nicht vorstellen, und die 4kern cpu bringt bei der grafischen darstellung 0 wenn da eine hohe auflösung +FSAA + AA gefragt ist.

für mich sind die bennis fake oder aber es sind crossfire / SLI bennis
 

Natschlaus

Bekanntes Gesicht
Mitglied seit
06.06.2003
Beiträge
674
Reaktionspunkte
0
xdave78 am 17.04.2007 14:39 schrieb:
Cr4zYd0nG am 17.04.2007 14:32 schrieb:
Also ich bitte euch :rolleyes: 10 fps mehr soll "weitaus überlegen" sein? Mehr als 23 Bilder pro Sek. kann das menschliche Auge (besser gesagt Gehirn) doch sowieso nicht verarbeiten, also was bringen dann > 50 fps ?!?

Das wichtigste ist doch ein ruckelfreies Spielerlebnis zu haben ... dieses ganze "Wer hat die meisten fps" Gelabber ist nichts weiter als "wer hat den Größten"-Schwachsinn...
...weil ~10-15fps in diesem Bsp schon 12-18% sind...immerhin knapp also 1/5 schneller..schon recht viel.

Zudem sind ein paar Frames unterschied bei solchen Details(sofern denn die höchsten Details eingestellt wurden, was ich schon glaube) sehr viel. Wenn man mit weniger Details spielt, wird sich der Abstand noch einmal stark verdeutlichen.
Mfg, waKKa
 

Jared

Bekanntes Gesicht
Mitglied seit
09.04.2001
Beiträge
628
Reaktionspunkte
0
Ich behaupte, dass die gezeigten Daten Fakes sind. Eine völlig unbekannte Seite veröffentlicht Daten über eine unveröffentlichte Karte mit einer nicht veröffentlichten Demo? Ich bitte euch! Außerdem hält AMD mit allen Partnern ein strenges NDA (non-disclosure agreement), so dass alle, die evtl. tatsächlich eine solche Karte bekommen haben kein Wort darüber veröffentlichen dürfen. Wie ernst es AMD damit ist, haben sie auf der CeBit gezeigt. Ratzfatz war der Stand eines Partner leer geräumt, weil er das Gehäuse eines PCs mit einer R600 Karte für Fotos geöffnet hatte.

Außerdem sind die Benchmarkwerte extrem unglaubwürdig. Zwischen 1024x768 ohne FSAA/AF und 1600x1200 mit 4xFSAA und16xAF sollen beim grafikaufwendigsten Spiel aller Zeiten nur 30% unterschied liegen? Das würde auf eine klare CPU-Limitierung hinweisen (bei einem QX6800!?!). Das wiederum würde keinen Leistungsunterschied von 12% zugunsten der R600 zulassen, die ja angeblich beim 3Dmark06 (nachweislich kein CPU-Limit) sogar langsamer sein soll als der 8800 GTX.

Also ich würde auf die Zahlen keinen Cent geben und lieber auf offizielle Werte warten, die dann auch von anderen Testern bestätigt oder wiederlegt werden können.
 

schorf

Benutzer
Mitglied seit
06.08.2004
Beiträge
65
Reaktionspunkte
0
oO...wenn man die sich die kommentare hier mal ansieht könnte man echt heulen..

1. 10 fps sind schon ne menge....gerade in momenten wo einiges passiert hat man lieber 10 fps mehr als 10 fps weniger..... die grafik zeigt ja auch nicht was der tiefste FPS stand war...

2. Mr ich hab auch ne 8800GTX und hab nur 35 FPS in oblivion...mit welchem sys denn? haste auch nen quad core etc?? langsam sollte es bei einigen doch mal in den kopf gehen das karte von jedem bissl rechenkraft profitieren....

also alles in allem....

abwarten und vor allem nachdenken....
 
F

F-devs

Gast
Man seid ihr plöd :B

Lam.....ääähhmm Gamer die keine annähernd schnelle GraKa wie eine 8800GTX haben diskutieren über dessen Leistungsfähigkeit, die Sie nicht annäherd exakt einschätzen können, in einem High End System (das Sie natürlich auch nicht haben und auf absehbare Zeit auch nicht haben werden :B ) bei einer Auflösung, welche ihr billiger LCD sowieso nicht unterstützt, in einem Spiel das gar nicht draussen ist :B

Weiter so Leute :top:

PS: Die nachweislich inkompetente PCG Redaktion natürlich an erster Stelle, da Sie ja den Müll auch noch groß veröffentlichen....... :rolleyes:
 

gothic3mezger

Gesperrt
Mitglied seit
23.09.2006
Beiträge
126
Reaktionspunkte
0
Dieser Benchmark, bereitet mal wieder grosses Kopfzerbrechen, auf dem PC-Spielmarkt, der jedoch nur 20 % fasst :B

Ich finde mann sollte vorsichtig sein, denn wie Far Cry hatt auch Crysis Ati Karten "lieb" , das heisst, der FPS vorsprung könnte nur durch ATi Optimierungen existieren.
 

CSlgMF-NOX

Bekanntes Gesicht
Mitglied seit
24.08.2005
Beiträge
457
Reaktionspunkte
0
Hi,

habe da mal ne Seite gefunden:
http://pccentre.pl/Article16096.htm
kann es nicht Lesen aber wenn ich die Grafik für 3DM06
anschaue ist die neue nicht mehr gans so gut.


NoX
 

DoktorX

Bekanntes Gesicht
Mitglied seit
24.06.2004
Beiträge
3.777
Reaktionspunkte
0
CSlgMF-NOX am 17.04.2007 17:56 schrieb:
Hi,

habe da mal ne Seite gefunden:
http://pccentre.pl/Article16096.htm
kann es nicht Lesen aber wenn ich die Grafik für 3DM06
anschaue ist die neue nicht mehr gans so gut.


NoX
Wie viele Punkte eine Karte bei 3D Murks erreicht ist doch eh scheissegal - was zählt ist die Spieleleistung. Oder guckst du dir täglich ne Stunde 3D Mark an?
 
P

pilzbefall

Gast
Cr4zYd0nG am 17.04.2007 14:32 schrieb:
Murphy-Sepp am 17.04.2007 14:14 schrieb:
Wie auf einer türkischen Website beschrieben steht, wurde angeblich eine spielbare Demo-Version von Crysis mit einer 512 MB-ATI HD 2900XT und einer 768 MB Nvidia 8800GTX getestet.
Das klingt für mich sehr stark nach einem gerücht.
Warum sollte Crytek irgendeiner Türkischen Website eine spielbare Demo in die Hand drücken?
Aber wenn das stimmen würde wäre das ein gutes Beispiel dafür wie DirectX die Grafikkarte entlastet.
Ich frage mich an der stelle auch wie nVidia seine nächste Graka Generation nenen will. Ein nVidia 9800GTX wäre irgendwie komisch.

Naja, halb Crytek (oder doch ganz?) besteht doch aus Türken, oder? :-D Was ist da naheliegender, als dass die ihre ersten Demos inoffiziel an ihre Landsleute reichen.. :B

Warum soll nVidia 9800 GTX komisch sein? :confused:

Zum Artikel:

"Dabei scheint die ATI-Garfikkarte ihrem Konkurrenten weitaus überlegen zu sein."

Also ich bitte euch :rolleyes: 10 fps mehr soll "weitaus überlegen" sein? Mehr als 23 Bilder pro Sek. kann das menschliche Auge (besser gesagt Gehirn) doch sowieso nicht verarbeiten, also was bringen dann > 50 fps ?!?

Das wichtigste ist doch ein ruckelfreies Spielerlebnis zu haben ... dieses ganze "Wer hat die meisten fps" Gelabber ist nichts weiter als "wer hat den Größten"-Schwachsinn...


ich finds doch recht ärgerlich, wie manche Leute tatsächlich nicht in der Lage sind, aus ihren unmittelbaren simpelsten Erfahrungen simple Schlüsse zu ziehen: Das Gehirn/Auge kann sebstverständlich mehr als 23 fps unterscheiden. Nenn mal die Quelle für diese Superbehauptung.

Jetzt zur Erfahrung: Mach mal einen Monitor mit schneller Reaktionszeit (CRT) auf 30 Herz und dann auf 60 Herz und dann auf 80 Herz. Das Flimmern sogar noch bei 60 Herz ist ein Indikator, daß man selbst bei dieser Frequenz / Bildwiederholrate noch einen Unterschied erkennt.
Fazit: ein Bildaufbau von hellen Bildern pro Sekunde auf einem schwarzen Ausgangszustand erzeugt das Flimmern. Wenn der Ausgangszustand ebenso hell wäre wie das erzeugte Bild, wäre natürlich nix wahrzunehmen. Bei langsamer Reaktionszeit des Monitors entsteht dadurch lediglich der Eindruck von Flimmerfreiheit bei 60 Herz.

Erfahrung Nr2: Bei Spielen: Willst du mir erzählen, daß du keinen Unterschied zwischen 23 fps u. 60 fps erkennst? Entweder hast du einen Monitor mit schlechter Reaktionszeit oder du solltest mal zum Augenarzt gehen.

sry für offtopic
 
Oben Unten