• Aktualisierte Forenregeln

    Eine kleine Änderung hat es im Bereich Forenregeln unter Abschnitt 2 gegeben, wo wir nun explizit darauf verweisen, dass Forenkommentare in unserer Heftrubrik Leserbriefe landen können.

    Forenregeln


    Vielen Dank
  • Kritk / Fragen / Anregungen zu Artikeln

    Wenn ihr Kritik, Fragen oder Anregungen zu unseren Artikeln habt, dann könnt ihr diese nun in das entsprechende Forum packen. Vor allem Fehler in Artikeln gehören da rein, damit sie dort besser gesehen und bearbeitet werden können.

    Bitte beachtet dort den Eingangspost, der vorgibt, wie der Thread zu benutzen ist: Danke!

News - Crysis: Nvidia vs. ATI - Testergebnis zur Crysis-Demo aufgetaucht

Cr4zYd0nG am 17.04.2007 14:32 schrieb:
Also ich bitte euch :rolleyes: 10 fps mehr soll "weitaus überlegen" sein? Mehr als 23 Bilder pro Sek. kann das menschliche Auge (besser gesagt Gehirn) doch sowieso nicht verarbeiten, also was bringen dann > 50 fps ?!?

Das wichtigste ist doch ein ruckelfreies Spielerlebnis zu haben ... dieses ganze "Wer hat die meisten fps" Gelabber ist nichts weiter als "wer hat den Größten"-Schwachsinn...
...weil ~10-15fps in diesem Bsp schon 12-18% sind...immerhin knapp also 1/5 schneller..schon recht viel.
 
nun auf dem angebliche nbeni screen seh ich 2 sachen, a die angabe high details (muss vllt nicht maximum sein aber eben hoch) und dass sowohl die neue ati als auch die 8800gtx in 1600*1200 bei 4xFSAA und 16xAA über 50 fps haben sollen was ich diesen karten bei weitem nicht zutraue.

der grund, ich habe selbst eine 8800gtx und laut benchmarks und eigenerfarung kommt diese zB bei oblivion bei vollen details in 1600x1200 bei 8xAA und ohne FSAA auf gerade mal 35fps im schnitt.

und da crysis deutlich besser aussieht als oblivion kann ich mir diesen sprung nicht vorstellen, und die 4kern cpu bringt bei der grafischen darstellung 0 wenn da eine hohe auflösung +FSAA + AA gefragt ist.

für mich sind die bennis fake oder aber es sind crossfire / SLI bennis
 
xdave78 am 17.04.2007 14:39 schrieb:
Cr4zYd0nG am 17.04.2007 14:32 schrieb:
Also ich bitte euch :rolleyes: 10 fps mehr soll "weitaus überlegen" sein? Mehr als 23 Bilder pro Sek. kann das menschliche Auge (besser gesagt Gehirn) doch sowieso nicht verarbeiten, also was bringen dann > 50 fps ?!?

Das wichtigste ist doch ein ruckelfreies Spielerlebnis zu haben ... dieses ganze "Wer hat die meisten fps" Gelabber ist nichts weiter als "wer hat den Größten"-Schwachsinn...
...weil ~10-15fps in diesem Bsp schon 12-18% sind...immerhin knapp also 1/5 schneller..schon recht viel.

Zudem sind ein paar Frames unterschied bei solchen Details(sofern denn die höchsten Details eingestellt wurden, was ich schon glaube) sehr viel. Wenn man mit weniger Details spielt, wird sich der Abstand noch einmal stark verdeutlichen.
Mfg, waKKa
 
Ich behaupte, dass die gezeigten Daten Fakes sind. Eine völlig unbekannte Seite veröffentlicht Daten über eine unveröffentlichte Karte mit einer nicht veröffentlichten Demo? Ich bitte euch! Außerdem hält AMD mit allen Partnern ein strenges NDA (non-disclosure agreement), so dass alle, die evtl. tatsächlich eine solche Karte bekommen haben kein Wort darüber veröffentlichen dürfen. Wie ernst es AMD damit ist, haben sie auf der CeBit gezeigt. Ratzfatz war der Stand eines Partner leer geräumt, weil er das Gehäuse eines PCs mit einer R600 Karte für Fotos geöffnet hatte.

Außerdem sind die Benchmarkwerte extrem unglaubwürdig. Zwischen 1024x768 ohne FSAA/AF und 1600x1200 mit 4xFSAA und16xAF sollen beim grafikaufwendigsten Spiel aller Zeiten nur 30% unterschied liegen? Das würde auf eine klare CPU-Limitierung hinweisen (bei einem QX6800!?!). Das wiederum würde keinen Leistungsunterschied von 12% zugunsten der R600 zulassen, die ja angeblich beim 3Dmark06 (nachweislich kein CPU-Limit) sogar langsamer sein soll als der 8800 GTX.

Also ich würde auf die Zahlen keinen Cent geben und lieber auf offizielle Werte warten, die dann auch von anderen Testern bestätigt oder wiederlegt werden können.
 
oO...wenn man die sich die kommentare hier mal ansieht könnte man echt heulen..

1. 10 fps sind schon ne menge....gerade in momenten wo einiges passiert hat man lieber 10 fps mehr als 10 fps weniger..... die grafik zeigt ja auch nicht was der tiefste FPS stand war...

2. Mr ich hab auch ne 8800GTX und hab nur 35 FPS in oblivion...mit welchem sys denn? haste auch nen quad core etc?? langsam sollte es bei einigen doch mal in den kopf gehen das karte von jedem bissl rechenkraft profitieren....

also alles in allem....

abwarten und vor allem nachdenken....
 
Man seid ihr plöd :B

Lam.....ääähhmm Gamer die keine annähernd schnelle GraKa wie eine 8800GTX haben diskutieren über dessen Leistungsfähigkeit, die Sie nicht annäherd exakt einschätzen können, in einem High End System (das Sie natürlich auch nicht haben und auf absehbare Zeit auch nicht haben werden :B ) bei einer Auflösung, welche ihr billiger LCD sowieso nicht unterstützt, in einem Spiel das gar nicht draussen ist :B

Weiter so Leute :top:

PS: Die nachweislich inkompetente PCG Redaktion natürlich an erster Stelle, da Sie ja den Müll auch noch groß veröffentlichen....... :rolleyes:
 
Dieser Benchmark, bereitet mal wieder grosses Kopfzerbrechen, auf dem PC-Spielmarkt, der jedoch nur 20 % fasst :B

Ich finde mann sollte vorsichtig sein, denn wie Far Cry hatt auch Crysis Ati Karten "lieb" , das heisst, der FPS vorsprung könnte nur durch ATi Optimierungen existieren.
 
Hi,

habe da mal ne Seite gefunden:
http://pccentre.pl/Article16096.htm
kann es nicht Lesen aber wenn ich die Grafik für 3DM06
anschaue ist die neue nicht mehr gans so gut.


NoX
 
CSlgMF-NOX am 17.04.2007 17:56 schrieb:
Hi,

habe da mal ne Seite gefunden:
http://pccentre.pl/Article16096.htm
kann es nicht Lesen aber wenn ich die Grafik für 3DM06
anschaue ist die neue nicht mehr gans so gut.


NoX
Wie viele Punkte eine Karte bei 3D Murks erreicht ist doch eh scheissegal - was zählt ist die Spieleleistung. Oder guckst du dir täglich ne Stunde 3D Mark an?
 
Cr4zYd0nG am 17.04.2007 14:32 schrieb:
Murphy-Sepp am 17.04.2007 14:14 schrieb:
Wie auf einer türkischen Website beschrieben steht, wurde angeblich eine spielbare Demo-Version von Crysis mit einer 512 MB-ATI HD 2900XT und einer 768 MB Nvidia 8800GTX getestet.
Das klingt für mich sehr stark nach einem gerücht.
Warum sollte Crytek irgendeiner Türkischen Website eine spielbare Demo in die Hand drücken?
Aber wenn das stimmen würde wäre das ein gutes Beispiel dafür wie DirectX die Grafikkarte entlastet.
Ich frage mich an der stelle auch wie nVidia seine nächste Graka Generation nenen will. Ein nVidia 9800GTX wäre irgendwie komisch.

Naja, halb Crytek (oder doch ganz?) besteht doch aus Türken, oder? :-D Was ist da naheliegender, als dass die ihre ersten Demos inoffiziel an ihre Landsleute reichen.. :B

Warum soll nVidia 9800 GTX komisch sein? :confused:

Zum Artikel:

"Dabei scheint die ATI-Garfikkarte ihrem Konkurrenten weitaus überlegen zu sein."

Also ich bitte euch :rolleyes: 10 fps mehr soll "weitaus überlegen" sein? Mehr als 23 Bilder pro Sek. kann das menschliche Auge (besser gesagt Gehirn) doch sowieso nicht verarbeiten, also was bringen dann > 50 fps ?!?

Das wichtigste ist doch ein ruckelfreies Spielerlebnis zu haben ... dieses ganze "Wer hat die meisten fps" Gelabber ist nichts weiter als "wer hat den Größten"-Schwachsinn...


ich finds doch recht ärgerlich, wie manche Leute tatsächlich nicht in der Lage sind, aus ihren unmittelbaren simpelsten Erfahrungen simple Schlüsse zu ziehen: Das Gehirn/Auge kann sebstverständlich mehr als 23 fps unterscheiden. Nenn mal die Quelle für diese Superbehauptung.

Jetzt zur Erfahrung: Mach mal einen Monitor mit schneller Reaktionszeit (CRT) auf 30 Herz und dann auf 60 Herz und dann auf 80 Herz. Das Flimmern sogar noch bei 60 Herz ist ein Indikator, daß man selbst bei dieser Frequenz / Bildwiederholrate noch einen Unterschied erkennt.
Fazit: ein Bildaufbau von hellen Bildern pro Sekunde auf einem schwarzen Ausgangszustand erzeugt das Flimmern. Wenn der Ausgangszustand ebenso hell wäre wie das erzeugte Bild, wäre natürlich nix wahrzunehmen. Bei langsamer Reaktionszeit des Monitors entsteht dadurch lediglich der Eindruck von Flimmerfreiheit bei 60 Herz.

Erfahrung Nr2: Bei Spielen: Willst du mir erzählen, daß du keinen Unterschied zwischen 23 fps u. 60 fps erkennst? Entweder hast du einen Monitor mit schlechter Reaktionszeit oder du solltest mal zum Augenarzt gehen.

sry für offtopic
 
F-devs am 17.04.2007 15:49 schrieb:
Man seid ihr plöd :B

Lam.....ääähhmm Gamer die keine annähernd schnelle GraKa wie eine 8800GTX haben diskutieren über dessen Leistungsfähigkeit, die Sie nicht annäherd exakt einschätzen können, in einem High End System (das Sie natürlich auch nicht haben und auf absehbare Zeit auch nicht haben werden :B ) bei einer Auflösung, welche ihr billiger LCD sowieso nicht unterstützt, in einem Spiel das gar nicht draussen ist :B

Weiter so Leute :top:

PS: Die nachweislich inkompetente PCG Redaktion natürlich an erster Stelle, da Sie ja den Müll auch noch groß veröffentlichen....... :rolleyes:

:-D :top:
 
F-devs am 17.04.2007 15:49 schrieb:
PS: Die nachweislich inkompetente PCG Redaktion natürlich an erster Stelle, da Sie ja den Müll auch noch groß veröffentlichen....... :rolleyes:

:top:

Solangsam frage ich mich auch wirklich was die Redakteure von der PC Games den lieben langen Tag so treiben?!? Erst das mit Stalker, um es 1-2 Wochen später wieder zu revidieren und nun so eine dubiose Graphik aus einer noch dubioseren Quelle.. :rolleyes:

Ich vermute, die haben da niemanden, der die "News" vorher nachprüft, bevor sie veröffentlicht werden :P Wenn sich ein Redakteure ne Geschichte ausdenkt -> zack - ist sie schon auf der Site zu lesen

Mein Rat:

Ihr solltet einen Rat aus allen Redakteuren bilden, der jedesmal wenn eine News erscheinen soll, ersteinmal abstimmt, ob diese auch sinnvoll ist ( mit 75% Mehrheit bitte :P )

*konstruktive Kritik üb* ^^
 
projectNeo am 17.04.2007 15:10 schrieb:
nun auf dem angebliche nbeni screen seh ich 2 sachen, a die angabe high details (muss vllt nicht maximum sein aber eben hoch) und dass sowohl die neue ati als auch die 8800gtx in 1600*1200 bei 4xFSAA und 16xAA über 50 fps haben sollen was ich diesen karten bei weitem nicht zutraue.

der grund, ich habe selbst eine 8800gtx und laut benchmarks und eigenerfarung kommt diese zB bei oblivion bei vollen details in 1600x1200 bei 8xAA und ohne FSAA auf gerade mal 35fps im schnitt.

und da crysis deutlich besser aussieht als oblivion kann ich mir diesen sprung nicht vorstellen, und die 4kern cpu bringt bei der grafischen darstellung 0 wenn da eine hohe auflösung +FSAA + AA gefragt ist.



für mich sind die bennis fake oder aber es sind crossfire / SLI bennis



Bevor du so einen Stuss schreibst solltest du dich mal über die Möglichkeiten/Performance von DX10 informieren! Hätte Oblivion DX10 Kompatibilität könntest du mit der selben Hardware und den selben hohen Grafikeinstellungen MINDESTENS 50% mehr Frames herausholen!


Aber um es mal klarzustellen - ich glaub auch kein bisschen von diesen Pseudo-Benchmarks!
 
Ich halte sowas auch für Schwachsinn...Crysis Demo, X2900 die es noch nicht gibt ect. ect. WAS SOLL DER DRECK? Wie wäre es auf realistische Benches zu warten? Also erstmal auf den 01.05. (sofern es ATI diesmal schafft :finger: ) und zum Zweiten, bis es ein DX10 Spiel ZU KAUFEN gibt! ...dann kann man beide Karten vergleichen...eher sicher nicht!
 
Aufgrund verschiedener Treiber und Systemeinstellungen, sollte der Test aber mit Vorsicht zu genießen sein.

Also wenn heute nicht der 1. April wäre, hätte ich das fast glauben können sein :]
 
pirx am 17.04.2007 19:50 schrieb:
Aufgrund verschiedener Treiber und Systemeinstellungen, sollte der Test aber mit Vorsicht zu genießen sein.

Also wenn heute nicht der 1. April wäre, hätte ich das fast glauben können sein :]
In welcher Zeit lebst du denn bitte? Heut is der 17. April nicht der Erste :confused:
 
kurze übersetzung.

getestet wure unter vista
mit den treibern
Nvidia Forceware 100.65 WHQL
und bei ATI ein BETA treiber.

Test Sytem
Intel Core 2 Extreme QX6800
Asus P5W DH
2×1GB PC2-6400 (5-5-5-12)
Western Digital Raptor 150
 
pirx am 17.04.2007 19:50 schrieb:
Aufgrund verschiedener Treiber und Systemeinstellungen, sollte der Test aber mit Vorsicht zu genießen sein.

Also wenn heute nicht der 1. April wäre, hätte ich das fast glauben können sein :]


lol.....................weniger Kiffen!!!!! :B
 
Aliboo am 17.04.2007 19:56 schrieb:
kurze übersetzung.

getestet wure unter vista
mit den treibern
Nvidia Forceware 100.65 WHQL
und bei ATI ein BETA treiber.

Test Sytem
Intel Core 2 Extreme QX6800
Asus P5W DH
2×1GB PC2-6400 (5-5-5-12)
Western Digital Raptor 150

Wow! Klasse Übersetzung. Ich kann wirklich kein einziges Wort Türkisch, aber die Infos konnte sich wirklich jeder selbst von der Fake-Seite ziehen. Dabei waren auf der türkischen Seite sogar weniger Rechtschreibefehler als bei dir.

Auf jeden Fall bleiben die Werte Fakewerte.
 
Occulator am 17.04.2007 19:54 schrieb:
pirx am 17.04.2007 19:50 schrieb:
Aufgrund verschiedener Treiber und Systemeinstellungen, sollte der Test aber mit Vorsicht zu genießen sein.

Also wenn heute nicht der 1. April wäre, hätte ich das fast glauben können sein :]
In welcher Zeit lebst du denn bitte? Heut is der 17. April nicht der Erste :confused:
Bist du sicher? :-o

Ich glaube da eher an eine Verschwörung, alle meinen heute sei der 17. dabei ist nämlich erst der Erste! Darum gibts auch Hardware die es gar nicht gibt (+unterschiedliche Treiber), so ist das...
 
Zurück