• Aktualisierte Forenregeln

    Eine kleine Änderung hat es im Bereich Forenregeln unter Abschnitt 2 gegeben, wo wir nun explizit darauf verweisen, dass Forenkommentare in unserer Heftrubrik Leserbriefe landen können.

    Forenregeln


    Vielen Dank

9800GX2 vs. 3870X2

1600x1200 4xAA/16xAF: In Punkten
Nvidia GeForce 9800 GX2 14.335

ATi Radeon HD 3870 X2 12.806

Nvidia GeForce 8800 Ultra 9.405

Nvidia GeForce 8800 GTX 8.513

Nvidia GeForce 8800 GTS 512 8.264

Nvidia GeForce 8800 GT 7.600

ATi Radeon HD 3870 6.896

Nvidia GeForce 9600 GT 6.573

ATi Radeon HD 3850 512 6.056

ATi Radeon HD 3850 5.782

Nvidia GeForce 8600 GTS
3.163
ATi Radeon HD 3650
2.793
Nvidia GeForce 8600 GT
2.427

1600x1200 8xAA/16xAF: In Punkten
ATi Radeon HD 3870 X2 11.135

Nvidia GeForce 9800 GX2 10.521

Nvidia GeForce 8800 Ultra 7.207

Nvidia GeForce 8800 GTX 6.496

Nvidia GeForce 8800 GTS 512 6.305

ATi Radeon HD 3870 5.863

Nvidia GeForce 8800 GT 5.845

Nvidia GeForce 9600 GT 5.188

ATi Radeon HD 3850 512 5.138

ATi Radeon HD 3850

Ja könnt ihr mir das mal erklären warum die 9800GX2 so krass verliert bei 8xAA und bei 4xAA so klar vorn liegt?
 
Mad-Joker85 am 20.03.2008 11:27 schrieb:
Ja könnt ihr mir das mal erklären warum die 9800GX2 so krass verliert bei 8xAA und bei 4xAA so klar vorn liegt?
Weil die Karte dafür zu wenig RAM und zu wenig Bandbreite hat.

ITpassion-de am 20.03.2008 08:45 schrieb:
Als Ex-X2-Besitzer kann ich von diesem Papiertiger nur abraten. Ist 'ne super Karte für Benchmarks aber zum zocken eher ungeeignet.
Hm, warum kannst du nicht wenigstens mal versuchen nicht von dir auf andere zu schließen? :confused:

Du hast in anderen Threads gesagt das es bei dir an deinen favorisierten Settings (Auflösung usw) bzw. einem Spiel liegt, warum behauptest du dann das die Karte generell "Schrott" (Papiertiger) ist? Du behauptest doch immer so ein HW-Pr0 zu sein, dann versteh ich deine Äußerungen allerdings nicht...

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9800_gx2/21/#abschnitt_performancerating_qualitaet

Das ist ein Rating, kein Auszug einzig vom 3Dmark06 oder irgendeines anderen Games. Sehr schön zu erkennen (und von Usern der Karte ja auch immer wieder bestätigt) das die X2 eine sehr gute Karte ist (Strom/Lautstärke usw mal außen vor, es geht jetz mal nur um die Leistung in Spielen).

Außer in 2560x1600 8xAA/16xAF liegt sie quasi immer (tlw. sogar deutlich) vor der 88Ultra - und das obwohl sie sogar noch ~ 70€ günstiger ist. Im Idle ist sie sogar deutlich sparsamer, lediglich unter Last verbrauch sie ca. 15 Watt mehr. (und nur unter Last ist sie auch etwas lauter)
 
INU-ID am 20.03.2008 11:36 schrieb:
Du hast in anderen Thread gesagt das es bei dir an deinen favorisierten Settings (Auflösung usw) bzw. einem Spiel liegt, warum behauptest du dann das die Karte generell "Schrott" (Papiertiger) ist? Du behauptest doch immer so ein HW-Pr0 zu sein, dann versteh ich deine Äußerungen allerdings nicht...

Das Problem ist, dass es konventionelle Karten gibt die schnell und günstig sind (8800GTSG92) und es gibt diese Dualchipmonster welche auch bei niedrigen Auflösungen schnell und bei hohen auch langsam sind. Also was soll man dann damit anfangen?

Wenn diese Karten wenigstens hohe Auflösungen mit angemessenen Frameraten könnten, könnte man darüber diskutieren. Aber solange sie massiver einbrechen als normale Karten, machen sie in meinen Augen für niemanden Sinn.

Dazu kommt dann noch die Problematik, wie oft berichtet mit den Microrucklern und einem Lüfter der prinzipbedingt immer ein quentchen lauter laufen muss als bei einer nromalen Karte.
Sprich unter dem Strich ist es nur ein Papiertiger der für kein Szenario wirklich gut zu gebrauchen ist und auch noch die Macke mit sich bringt, dass bei Spielen welche nicht so gut über mehrere GPUs skalieren auch noch auf ein Niveau einbricht welches man sich für 300,- Euro kaum vorstellen kann :( .
 
ITpassion-de am 20.03.2008 11:53 schrieb:
Wenn diese Karten wenigstens hohe Auflösungen mit angemessenen Frameraten könnten, könnte man darüber diskutieren.
Schade das du die Karte nur mit 1-2 Spielen getestet hast, und schade das du Tests im Internet - oder Links in diesem Thread - einfach ignorierst.

Anders kann ich nicht verstehen warum du soetwas behauptest. Es geht nicht darum was die Karte aufgrund ihrer 2 GPUs können müßte, sondern welche Leistung sie einem fürs Geld bringt. Zumal gerade Dual-GPU Karten sehr viel mehr von neueren Treibern profitieren als Single-GPUs...

Und das einbrechen in hohen Settings hat nix mit 1 oder 2 GPUs zu tun, sondern damit das (warum auch immer) diese Karten (im Gegensatz zur zb. 8800Ultra oder der HD2900XT/Pro, aber wie auch die 8800GT) alle im Spreicherinterface abgespeckt wurden. Ergo müßte man fragen warum gerade diese Karten nicht min. 384-512Bit bekommen, aber das weiß vermutlich nur NVidia oder ATI... (denn das ist der größte Schwachsinn bei der X2 oder GX2, ein Speicherinterface auf Mittelklasse-Niveau -.-)

Und auch auf die Gefahr hin das ich mich wiederhole, Microruckler sind kein Phänomen von Dual-GPU Karten, die gabs schon lange vorher - nur hat sich da komischerweise keiner dafür interessiert. Warum das so ist, ich weiß es nicht...
 
achja wegen MICRORUCKLER ...die gibt es nur Teilweise....

In Crysis,UT3,Bioshock konnte ich keine feststellen.NUR in F.E.A.R.

Siehe mein Thread im hlfeforum ATI
 
INU-ID am 20.03.2008 12:03 schrieb:
Schade das du die Karte nur mit 1-2 Spielen getestet hast, und schade das du Tests im Internet - oder Links in diesem Thread - einfach ignorierst.

Ich habe die Karte mit UT3 und Crysis gestestet, da mich diese Spiele derzeit am meisten interessieren udn im übrigen auch in meinem Besitz sind. Ich kaufe ja nicht noch ein paar Spiele die mich nicht interessieren nur um lange Listen mit Benchmarkergebnissen zu veröffentlichen.

INU-ID am 20.03.2008 12:03 schrieb:
Anders kann ich nicht verstehen warum du soetwas behauptest. Es geht nicht darum was die Karte aufgrund ihrer 2 GPUs können müßte, sondern welche Leistung sie einem fürs Geld bringt. Zumal gerade Dual-GPU Karten sehr viel mehr von neueren Treibern profitieren als Single-GPUs...

Das mit den Treibern kann ich bislang nicht bestätigen. Ausserdem gibt es mehr GPU Lösungen nun schon ein paar Jahre. Und wenn diese Karten heute noch keine angemessenen Skalierungsergebnisse liefern erwarte ich mir in absehbarer Zeit auch keine weltbewegenden Verbesserungen.

INU-ID am 20.03.2008 12:03 schrieb:
Und das einbrechen in hohen Settings hat nix mit 1 oder 2 GPUs zu tun, sondern damit das (warum auch immer) diese Karten (im Gegensatz zur zb. 8800Ultra oder der HD2900XT/Pro, aber wie auch die 8800GT) alle im Spreicherinterface abgespeckt wurden. Ergo müßte man fragen warum gerade diese Karten nicht min. 384-512Bit bekommen, aber das weiß vermutlich nur NVidia oder ATI... (denn das ist der größte Schwachsinn bei der X2 oder GX2, ein Speicherinterface auf Mittelklasse-Niveau -.-)

Wieso sie auf zu kleine Speicherinterface, zu laute Lüfter, etc.. setzen kann ich nicht sagen. Aber es interessiert mich ehrlich gesagt auch überhaupt nicht. Denn wenn ich Geld in meinen Rechner stecke will ich Ergebnisse sehen. Und von guten Realergebnissen ist die X2 meilenweit entfernt. Und somit alles andere als Empfehlenswert.

INU-ID am 20.03.2008 12:03 schrieb:
Und auch auf die Gefahr hin das ich mich wiederhole, Microruckler sind kein Phänomen von Dual-GPU Karten, die gabs schon lange vorher - nur hat sich da komischerweise keiner dafür interessiert. Warum das so ist, ich weiß es nicht...

Microruckler auf SingleGPU Karten habe ich noch nie gesehen, ich wüsste auch nicht wo diese herkommen sollen. Entweder eine Karte ruckelt oder eben nicht. Aber Syncronisationsprobleme in Form von Microrucklern können auch kaum bei nur einer GPU auftauchen, denn was soll denn da syncron sein ?
 
nicht alle multigpu-lösungen haben solche probleme gehabt

die sli-technik von 3dfx lief ohne dieses problem weil die karten das bild zeilenweise und nicht alternate frame renderten, wieso man bei einer solchen technik die ja quasi von natur aus eine syncronisation braucht keine selbige integriert, bleibt mir ein rätsel, im allgeinen würde ich sagen der entwicklungschef hat seinen job verfehlt ;)

bzgl. leistung, es gibt nunmal grenzen die man irgendwann erreicht und da kommt man dann ggf ehe rmit paralelisierung weiter, nru ist das gerade im bereich der 3870 ein punkt den ich nicht verstehe, da nvidia deutlich mehr power in einer cpu unterbringt
wenn jemand schreit eine ultra ist zu langsam bleibt ja nur noch der weg zu zwei davon abe rbei ner 3870 gibts da mehr möglichkeiten

sollte das skalierungsproblem irgendwann mal in den griff zu bekommen sein, würde selbst ich da über multigpu nachdenken,
aktuells ehe ich da keinen sinn drin
 
ITpassion-de am 20.03.2008 12:55 schrieb:
Microruckler auf SingleGPU Karten habe ich noch nie gesehen, ich wüsste auch nicht wo diese herkommen sollen. Entweder eine Karte ruckelt oder eben nicht. Aber Syncronisationsprobleme in Form von Microrucklern können auch kaum bei nur einer GPU auftauchen, denn was soll denn da syncron sein ?
Genau erklären kann ich dir das natürlich nicht, ich bin schließlich kein Programmierer. Diese "Microruckler" hatte ich jedenfalls schon in 2000/2001 (oder noch früher?) mit logischerweise Single-GPU Karten.

Chris-W201-Fan am 20.03.2008 14:00 schrieb:
die sli-technik von 3dfx lief ohne dieses problem weil die karten das bild zeilenweise und nicht alternate frame renderten, wieso man bei einer solchen technik die ja quasi von natur aus eine syncronisation braucht keine selbige integriert, bleibt mir ein rätsel,

Angeblich weil es mit den aktuellen Render-Techniken nicht möglich ist das Zeilenweise zu machen. Ich bin wie gesagt kein Progger, aber für mich hört sich das nach "kaltem Kaffe" an.

Ich kann mir nicht vorstellen das es unmöglich ist das von 3dfx genutzte (und in meinen Augen perfekte) Verfahren so oder ähnlich heute wieder einzusetzen.

Aber wie gesagt, ka was nun stimmt...

SimsP am 20.03.2008 14:07 schrieb:
und dass bisher niemandem der unterschied aufgefallen ist liegt daran, dass sich alle wie immer auf fraps verlassen haben, "der zeigt ja ne höhere framerate an also ist die karte besser". wenn programme wie fraps oder auch die 3DMarks mal darauf eingerichtet sind mikroruckler zu ebrücksichtigen, würde ein ganz anderes bild rauskommen, aber das machen die natürlich nicht, weil ja sonst niemand mehr diese karten kaufen würde.
Sorry, aber das ist Unsinn. Ich brauch kein extra Programm was mir sagt das ich MR habe, wenn ich selbst sie nicht sehe. (und umgekehrt)

Das ist wie mit dem 3DMark, was interesieren mich die Punkte wenn gewisse Spiele laufen/nicht laufen.

Und wie ich oben schon geschrieben habe, MR gabs schon lange vor aktuellen Dual-GPU Karten.
 
er sucht eine grafikkarte für nen 22"TFT das heißt eine 8800GTS512 reicht bei weitem aus. HD3870X2:schwachsinn, die bringt zwar angeblich mehr leistung, aber wenn ein spiel mit ner günstigeren karte flüssig läuft, dann gehts nicht besser und in hohen auflösungen reicht die grafikkarte auch nicht zum spielen aus. hinzu kommt mikroruckeln ... auch in UT3. und dass bisher niemandem der unterschied aufgefallen ist liegt daran, dass sich alle wie immer auf fraps verlassen haben, "der zeigt ja ne höhere framerate an also ist die karte besser". wenn programme wie fraps oder auch die 3DMarks mal darauf eingerichtet sind mikroruckler zu ebrücksichtigen, würde ein ganz anderes bild rauskommen, aber das machen die natürlich nicht, weil ja sonst niemand mehr diese karten kaufen würde.

Edit:
klar gibts die bei single-gpus auch nur da fallen die deutlich kleiner aus. is ja klar mal kommt ein bild n bisschen schneller mal n bisschen weniger schnell, aber bei multi-gpu kommt eben auch noch die mangelhafte synchronisation hinzu
 
wenn du die mikroruckler nicht siehst, wozu brauchst du dann überhaupt eine so teure grafikkarte, ne singlekarte mit halber fps-zahl das spiel genauso flüssig wiedergibt, also multi-gpu:überflüssig

Edit: Obwohl nicht ganz, man braucht sie natürlich um damit angeben zukönnen wie viele punkte man in 3dMark hat. Außerdem gings hier um ne Grafikkarte für nen 22"TFT undich weiß nicht, was gegen ne 8800GTS512 spricht.
 
Ich muss auch in den meisten Punkten INU zustimmen.

@ IT.passion

das du ne X2 in allen gängigen Beiträgen hier im forum als Papiertiger oder schrottige Karte darstellst ist mir noch immer ein Rätsel. Dein Horizont beschränkt sich anscheinend (wie du selber sagst) fast nur auf das für nvidia Karten optimierte Crysis. Da ist es wenig verwunderlich, dass eine X2 vielleicht mal nicht so gut skalliert.

Betrachtet man das Computerbase performancerating, sieht man das Potenzial der Karten. Zu den Mikrorucklern - da kann ich mich nur immer wieder wiederholen. Sie treten nur in den gerinsten Fällen auf. Ansonsten sind sie (für mich jedenfals) nicht sichtbar/spürbar.

@ topic

ich würde sagen ne 8800GTS 512 reicht momentan vollkommen für nen 22" widescreen. Jedenfals bietet sie ne exellente Preis/Leistung für den 200€ bereich. MultiGPU Systeme sind für mich nur in höheren Auflösungen sinnvoll.
 
INU-ID am 20.03.2008 14:05 schrieb:
Angeblich weil es mit den aktuellen Render-Techniken nicht möglich ist das Zeilenweise zu machen. Ich bin wie gesagt kein Progger, aber für mich hört sich das nach "kaltem Kaffe" an.

Ich kann mir nicht vorstellen das es unmöglich ist das von 3dfx genutzte (und in meinen Augen perfekte) Verfahren so oder ähnlich heute wieder einzusetzen.

Aber wie gesagt, ka was nun stimmt...

nein man kann diese zeilenweise renderung nicht nutzen, das ist mit DirectX heute nicht mehr möglich, die effekte basieren auf physikalischen gesetzen die sich nicht an zeilen halten, wenn du die zeilenweise rendern willst musst du die chips per vollem takt in voller bandbreite verbinden, was dann irgendwie dem konzept einer multi-gpu wiederspricht, dann ist es nämlich wieder eine

was ich meinte ist, wieso gibt es keine fram-distanz-syncronisation?
microruckler sidn schließlich nichts anderes als unregelmäßige abstände zwischen den bildern
wenn ich der karte von vornherrein sage unter 3ms darf kein bild folgen und wenn die distanzen zu groß werden muss auch der mindestabstand erhöht werden,
naja, da scheint jedenfalls kein deutscher ingenieur für verantwortlich zu sein, sonst gäbe es so ein problem nicht ;)

mal sehen wie die das jetzt lösen wollen
 
@chat1000
was wollt ihr eigentlich alle. da kommt n typ daher der ne X2 hatte und sagt sie is müll, und ihr die ihr alle keine X2 habt sagt ihm dass er nur die falschen spiele spielt? und crysis wird deswegen so oft als beispiel genommen, weil das das einzige spiel ist, dass auf modernen systemen nicht einwandfrei läuft.

Edit:
und außerdem wenn ich mit ner high-end grafikkarte bestimmte spiele nicht spielen darf, damits ne high-end grafikkarte ist, ist des dann wirklich noch ne high-end grafikkarte.
 
Chat1000 am 20.03.2008 18:26 schrieb:
@ IT.passion

das du ne X2 in allen gängigen Beiträgen hier im forum als Papiertiger oder schrottige Karte darstellst ist mir noch immer ein Rätsel. Dein Horizont beschränkt sich anscheinend (wie du selber sagst) fast nur auf das für nvidia Karten optimierte Crysis. Da ist es wenig verwunderlich, dass eine X2 vielleicht mal nicht so gut skalliert.

Betrachtet man das Computerbase performancerating, sieht man das Potenzial der Karten. Zu den Mikrorucklern - da kann ich mich nur immer wieder wiederholen. Sie treten nur in den gerinsten Fällen auf. Ansonsten sind sie (für mich jedenfals) nicht sichtbar/spürbar.

Du hast natürlich recht, ich bin schon ganz schön bekloppt mich über eien Karte zu beschweren die in meinem Rechner meine Anforderungen nicht mal ansatzweise erfüllt, wenn sie doch von irgendeiner Website unter irgendwelchen Bedingugnen gute Benchmarkergebnisse geliefert hat.
Es ist natürlich viel wichtiger das man sagen kann: "Schau mal ich habe die schnellste Karte", dass man lieber kein Spiel starten solte, da sonst die Schwächen nicht mehr zu verstecken sind, steht natürlich auf einem anderen Blatt :rolleyes: .


Ne, ne, ne. Da lob ich mir doch die Ultra (endlich mal ein Tipp hier von der Site der mir wirklich was gebracht hat) die bislang ihren Job sehr gut macht.
 
SimsP am 20.03.2008 18:40 schrieb:
@chat1000
was wollt ihr eigentlich alle. da kommt n typ daher der ne X2 hatte und sagt sie is müll, und ihr die ihr alle keine X2 habt sagt ihm dass er nur die falschen spiele spielt? und crysis wird deswegen so oft als beispiel genommen, weil das das einzige spiel ist, dass auf modernen systemen nicht einwandfrei läuft.

Bleib mal geschmeidig. Ich habe hier weder deine Geforce 8er Reihe angegriffen noch sonst irgend einen in direkter Form. In dem Thema ging es um die X2 also darf man auch seine Meinung dazu äußern. Auserdem habe ich auch nicht behauptet das er die falschen Games spielt, lediglich das Crysis auf Geforce Karte besser skalliert. Also wo ist dein Problem?
 
wenn crysis als das beliebteste spiel auf dem markt mit deiner tollen high-end-karte nicht so gut läuft wie mit anderen, dann ist das für mich keine high-end karte mehr.

Edit:
schau dir doch mal pro street an, da liegen die ati karten klar im vorteil, weil pro street auf ati ausgelegt ist. und verlieren die geforce karten deswegen deutlich an leistung, nein sie bleiben genau so schnell wie bei anderen spielen auch nur die ati karten rücken halt vor weil das spiel für sie optimiert ist.
 
Also ihr meint die 880GTS 512 reicht fürn 22 Zoll Widesreem (Highend Gaming mit allem an was geht AA ... usw.) Ok und was is mit der 9800 serie die jetzt ab 1 April kommen soll da is glaubig das Leistungsplus nich so klar.

In dem Forum ging es mir darum eine doppel GPU zu haben weil ich kein sli fähiges Bord habe und im SLI hat man ja ein klares Leistungs plus und das hatte ich mir von den beiden GX2 oder X2 auch erhofft. Deswegen hatte ich :]
 
lang lebe der Fanboy-Krieg.

der Kauf einer HIGH-END-Graka kann immer ein Risiko mit sich bringen dass es nicht so die Leistung bringt die man sich erhofft hat (zum knackigen Preis) Siehe IT-Passion mit der X2. Er hat die Karte gekauft, sie gefällt ihm nicht in seiner Vorstellung. Er hat sie verkauft, sich eine Ultra zugelegt und ist momentan zufrieden.

Er hat nichts anderes gemacht als das was andere auch machen: er hat die Karte getestet, für seine Anforderungen ist sie Nichts - dsa gibt er nun wieder.
Würde das jeder so machen kann mans ich sogar ein Muster rausdenken und es pendelt sich vielleicht sogar ein wo welche Karte wie am besten läuft - jedoch sind dafür unser aller System zu unterschiedlich.

Auf Basis dessen was ich so an Meinungen lese von Leute die die Karten wirklich haben/nutzen/austesten: ich würde mir weder eine X2 noch eine GX2 kaufen noch 2 Grafikkarten im Verbund zulegen. Wenn dann eine Ultra - die reicht dicke für das was es gibt (Crysis ausgeklammert... ) Da ich aber mit einer GTS512 OC fahre brauch ich garnix und warte auf die nächste Generation von Nvidia oder ATI.
 
endlich mal jemand mit gesundem menschen verstand, ja ne 8800GTS512 reicht für nen 22" dicke. ich hab ne GTX die is von der leistung her ähnlich und bei mir läuft alles klasse (ein allzu bekanntes spiel ausgeklammert es fängt mit cry an und hört mit sis auf). wegen 9800GTX:lass es die bringt nicht so wahnsinnig viel. wenn du was besseres willst warte auf die nächste generation.
 
SimsP am 21.03.2008 13:54 schrieb:
wenn crysis als das beliebteste spiel auf dem markt mit deiner tollen high-end-karte nicht so gut läuft wie mit anderen, dann ist das für mich keine high-end karte mehr.

Crysis mit der Aussage "das beliebteste Spiel am Markt"? Das ich nicht lache, schau dir die Verkaufszahlen an.

SimsP am 21.03.2008 14:45 schrieb:
endlich mal jemand mit gesundem menschen verstand
Dazu jetzt mal nur ein müdes Schmunzeln.

@ Threadersteller

wie bereits gesagt reicht ne 8800GTS512 vollkommen für die Ansprüche.
 
Zurück