• Aktualisierte Forenregeln

    Eine kleine Änderung hat es im Bereich Forenregeln unter Abschnitt 2 gegeben, wo wir nun explizit darauf verweisen, dass Forenkommentare in unserer Heftrubrik Leserbriefe landen können.

    Forenregeln


    Vielen Dank

Frage zu SLI

T

The-GeForce

Gast
Hallo zusammen:

Ich möchte mir mit an Sicherheit grenzender Wahrscheinlichkeit bald zwei Grafikkarten in den Rechner stecken. Und zwar sollen es zwei GeForce 8800GT Karten werden.

Da ich aber daran interessiert bin möglichst wenig Strom los zu werden, würde mich folgendes interessieren:
Gibt es vielleicht eine Möglichkeit bei einem SLI Gespann eine Karte im Rechner zu lassen, aber aus zu schalten?
Den das wäre für mich die wirklich beste Lösung. Wenn ich weiß, dass ich die Leistung brauche, nutze ich beide Karten. Wenn nicht, dann nur eine.
Kann man das vielleicht übers Bios irgendwie steuern, so dass man z.B. den zweiten PCI-E Slot den Saft abdreht und die Karte somit nicht mit Strom versorgt wird? Und funktioniert die andere Karte dann noch wenn SLI eingestellt, die Brücke angesteckt aber keine Reaktion von der zweiten Karte kommt?

Ich könnte ja auch immer eine Karte aus dem Slot ziehen, aber das täte den Kontakten gar nicht gut und immer wieder den Stromstecker abziehen würde wohl auch der Karte schaden (sofern die 8800GT überhaupt noch einen externen Stromanschluss hat, das weiß ich gerade garnicht).

Hat jemand einen guten Vorschlag wie sich das bewerkstelligen lassen würde?
 
Sinnvoller wäre wohl eine 8800GTX/Ultra ;) zu Deinem Problem kann ich Dir nichts sagen, habe zwar ein SLI Board, aber 2 karten lohnen sich i.d.R. nicht, dann lieber eine Highend, zumal es die GTS bereits ab ca. 449 gibt und 2x8800GT vermutlich auch um die 400 kosten werden und zusammen mehr verbrauchen als eine 8800GTX.
 
Ja, der Gedanke ist mir auch schon gekommen.
Einfach EINE stärkere Karte zu nehmen. Aber mit der würde ich dann auch IMMER so unmengen an Strom verheizen. Selbst im 2D Modus.
Nvidia hat das Problem der Stromaufnahme im 2d Modus immer noch nicht gelöst. Deswegen möchte ich keine der "alten" 90nm Karten mehr.

Für mich kommen eigentlich nurnoch zwei Alternativen in Frage:
Entweder zwei 8800GT Karten oder eine AMD RV670 Karte (sofern es stimmt und die stärker wäre als die GT).
 
The-GeForce am 11.10.2007 10:58 schrieb:
Ja, der Gedanke ist mir auch schon gekommen.
Einfach EINE stärkere Karte zu nehmen. Aber mit der würde ich dann auch IMMER so unmengen an Strom verheizen. Selbst im 2D Modus.
Nvidia hat das Problem der Stromaufnahme im 2d Modus immer noch nicht gelöst. Deswegen möchte ich keine der "alten" 90nm Karten mehr.

Für mich kommen eigentlich nurnoch zwei Alternativen in Frage:
Entweder zwei 8800GT Karten oder eine AMD RV670 Karte (sofern es stimmt und die stärker wäre als die GT).

Im 2D Modus takte ich meine Karte immer extrem runter (ATI Tool), das sollte eigentlich Strom sparen :haeh: (hoffe ich) :-D
 
Es gibt zwar die Möglichkeit ein Gerät (GRafikkarte, Soundkarte etc..) im Gerätemanager zu deaktivieren.
Sie wird aber trotzdem noch mit Strom versorgt und verbraucht auch noch genau so viel Energie wie im unbelasteten (2D) zustand.

Deshalb werden deine 2 8800er GT recht viel Energie verbrauchen.
Zusammen mehr als eine 8800 GTX schätze ich.
 
Eol_Ruin am 11.10.2007 11:10 schrieb:
Es gibt zwar die Möglichkeit ein Gerät (GRafikkarte, Soundkarte etc..) im Gerätemanager zu deaktivieren.
Sie wird aber trotzdem noch mit Strom versorgt und verbraucht auch noch genau so viel Energie wie im unbelasteten (2D) zustand.

Deshalb werden deine 2 8800er GT recht viel Energie verbrauchen.
Zusammen mehr als eine 8800 GTX schätze ich.

Hmmm, das ist natürlich schlecht...
Das ist so ein verdammter Teufelskreis. Hohe Leistung mit akzeptablen Verbrauch sind da wohl nicht zu bekommen. Eine GTX oder Ultra will ich mir aber auf keinen Fall einbauen. Da hätte ich irgendwie ein schlechtes Gewissen dabei.
Dann bleibt am Ende wohl doch nur eine einzelne 8800GT oder eine RV670 Karte von AMD.

Dann bleibt nur das Bangen ob sich damit Crysis mit hohen Details und ner Auflösung von 1280x1024 zocken lässt.
 
The-GeForce am 11.10.2007 11:15 schrieb:
Eol_Ruin am 11.10.2007 11:10 schrieb:
Es gibt zwar die Möglichkeit ein Gerät (GRafikkarte, Soundkarte etc..) im Gerätemanager zu deaktivieren.
Sie wird aber trotzdem noch mit Strom versorgt und verbraucht auch noch genau so viel Energie wie im unbelasteten (2D) zustand.

Deshalb werden deine 2 8800er GT recht viel Energie verbrauchen.
Zusammen mehr als eine 8800 GTX schätze ich.

Hmmm, das ist natürlich schlecht...
Das ist so ein verdammter Teufelskreis. Hohe Leistung mit akzeptablen Verbrauch sind da wohl nicht zu bekommen. Eine GTX oder Ultra will ich mir aber auf keinen Fall einbauen. Da hätte ich irgendwie ein schlechtes Gewissen dabei.
Dann bleibt am Ende wohl doch nur eine einzelne 8800GT oder eine RV670 Karte von AMD.

Dann bleibt nur das Bangen ob sich damit Crysis mit hohen Details und ner Auflösung von 1280x1024 zocken lässt.
Du weisst ja das man für die 8800 gt pci-e 2.0 brauch , oder?außerdem kann man glaube ich das man irgendwo im treibermenü eine grafikkarte abschalten kann . das stand in einer der letzten 3 pcgh . hinten im teil , wo man seine fragen stellen kann . dort fragt nämlich jemand woher man weiss das seine doupel-gpu auch im diesem modus läuft.ausserdem soll eine 8800 gts mit 640 mb reiche um crysis zu zocken.
 
The-GeForce am 11.10.2007 11:15 schrieb:
Eol_Ruin am 11.10.2007 11:10 schrieb:
Es gibt zwar die Möglichkeit ein Gerät (GRafikkarte, Soundkarte etc..) im Gerätemanager zu deaktivieren.
Sie wird aber trotzdem noch mit Strom versorgt und verbraucht auch noch genau so viel Energie wie im unbelasteten (2D) zustand.

Deshalb werden deine 2 8800er GT recht viel Energie verbrauchen.
Zusammen mehr als eine 8800 GTX schätze ich.

Hmmm, das ist natürlich schlecht...
Das ist so ein verdammter Teufelskreis. Hohe Leistung mit akzeptablen Verbrauch sind da wohl nicht zu bekommen.

Warum ausgerechnet gleich zwei?? Eine Karte reicht doch vollkommen. Meine Gts ist für alles aktuelle schnell genug. Die UT3Demo läuft mit allen Details am Anschlag über 60 Fps!!
 
Zubunapy am 13.10.2007 19:22 schrieb:
Eol_Ruin am 13.10.2007 17:52 schrieb:
steini18 am 13.10.2007 00:49 schrieb:
Du weisst ja das man für die 8800 gt pci-e 2.0 brauch , oder?

:confused: :confused: :confused:

Wo hast du denn sowas her?
Frag ich mich auch. Wieso BRAUCHT sie das? AGP-8xKarten liefen doch auch mit AGP4x

Die PCI 2.0 Karten sind auch alle abwärtskompatibel zum normlen PCI-E.

Und zu der Frage vorher:
Ich hätte einfach gern wirklich VIEL Power und dafür erschien mir ein SLI aus zwei 8800 GT Karten sinnvoll. Aber nicht mit 110 Watt TDP. Jetzt wirds wohl wirklich entweder eine 8800GT oder eine HD2950 "Gladiator".
 
The-GeForce am 14.10.2007 18:12 schrieb:
Zubunapy am 13.10.2007 19:22 schrieb:
Eol_Ruin am 13.10.2007 17:52 schrieb:
steini18 am 13.10.2007 00:49 schrieb:
Du weisst ja das man für die 8800 gt pci-e 2.0 brauch , oder?

:confused: :confused: :confused:

Wo hast du denn sowas her?
Frag ich mich auch. Wieso BRAUCHT sie das? AGP-8xKarten liefen doch auch mit AGP4x

Die PCI 2.0 Karten sind auch alle abwärtskompatibel zum normlen PCI-E.

Und zu der Frage vorher:
Ich hätte einfach gern wirklich VIEL Power und dafür erschien mir ein SLI aus zwei 8800 GT Karten sinnvoll. Aber nicht mit 110 Watt TDP. Jetzt wirds wohl wirklich entweder eine 8800GT oder eine HD2950 "Gladiator".
Von letzterer habe ich noch nie was gehört. :-o Aber erstere (88) ist auf Jeden eine Empfehlung wert (warum liegen diese Tasten nur genau nebeneinander :confused: ) und ihr Geld auch. Und wie gesagt: Zwei davon oder die Große Schwester sind nicht nötig. Nicht bei der Leistung =)
 
die 2950er sind schon angekündigt ;) sollen die 2900er ersetzen, wohl mit kleineren strukturbreiten und mit weniger abwärme/verbraucht (bin aber nicht 100% sicher des des alles so stimmt wie ich es aufgeschnappt hab)
 
Chris-W201-Fan am 15.10.2007 12:19 schrieb:
die 2950er sind schon angekündigt ;) sollen die 2900er ersetzen, wohl mit kleineren strukturbreiten und mit weniger abwärme/verbraucht (bin aber nicht 100% sicher des des alles so stimmt wie ich es aufgeschnappt hab)

Stimmt schon. Der RV670 der im November kommt ist im 55nm Verfahren gebaut und die Karte des Typs "Gladiator" (das ist die stärkste von den RV670 Karten) soll eine TDP von 135 Watt haben. Die Leistung soll der des R600 (also der HD2900XT) gewachsen sein, Nur leider hat auch die ATi Karte wie die von Nvidia nur ein 256Bit Speicherinterface.
 
Zurück