SORRY!!! Ich habe eben aus Versehen Deinen Beitrag editiert statt zu zitieren! Ich glaub da ist nun ein wenig verloren gegangen - bitte check das Mal! Es gibt hier leider keine Absicherung vor dem Speichern der Änderungen, wenn ein Mod was eines Users editiert.
die 290 benötigt ~100 watt mehr unter last und bei der gtx970 mini die innerhalb der nvidia specs läuft sind es sogar deutlich mehr als 100 watt - knapp 130 watt.
mir sind die 100W bei Last bekannt - aber da musst du schon ganz schon viel zocken, damit du am Ende durch die Stromkosten den Preisvorteil beim Kauf übertrumpfst, vor allem falls Nvidia die Preise nun noch weiter erhöht, und DAS war ja der Punkt. Derzeit ist der Aufpreis einer GTX 970 noch okay für Vielspieler, aber wenn die Preis NOCH weiter steigen? ^^
Und ein Netzteil, das 100W mehr zu Verfügung stellt als es für Intel nötig wäre, kostet keine 10€ Aufpreis. Das spielt an sich auch keine Rolle, zumal die Nvidia GTX 970 zB auch mal kurze Spannungsspitzen hat, wegen der man am Ende vlt doch ein 500W-Modell braucht und nicht eines mit 400W nehmen kann. Da kannst du mal Spassbremse fragen, der hat das am eigenen PC-Leib erfahren. Von Custom-Karten die nicht ohne Grund ab Werk die gleichen PCIe-Buchsen wie R9 290 haben ganz zu schweigen.
die 970 mini ist unterm strich jedoch gerade mal 10% langsamer als eine 290X.
und? ^^ Eine R9 290 ist auch nur 10% langsamer als eine R9 290X und sogar fast identisch zur R9 290X im Quietmodus ^^ Und hier ist ne R9 290 kaum langsamer als eine GTX 970
NVIDIA Maxwell Next Gen: GeForce GTX 970 und GTX 980 im Test - Performance-Index (Seite 4 - HT4U.net bei 18 Testgames kann man da auch nicht davon sprechen, dass vlt. AMD-phile Spiele verwendet wurden. In anderen Tests hab ich gesehen: im Schnitt ist eine nicht-OC R9 290 vlt 6-7% langsamer als eine nicht-OC GTX 970, und mit OC hängt es dann vom jeweiligen Modell ab. D.h rein leistungsmäßig wären vlt. 20€ Aufpreis für die GTX 970 im Vergleich zur R9 290 angemessen, und eine R9 290X wäre dann sogar der bessere Kauf, weil nicht teurer als eine GTX 970, aber etwas schneller.
das teil ist mittlerweile genauso wie die AMD cpus einfach nicht mehr konkurrenzfähig.
Wieso ist eine Karte nicht konkurrenzfähig, nur weil sie technisch nicht neu ist? Komische Ansicht... Die aktuellen AMD-CPUs sind BEI DER LEISTUNG klar unterlegen, und zwar auch bei PREIS-Leistung und daher ganz klar nicht konkurrenzfähig. Bei den Karten trifft das aber nicht zu, da ist Preis-Leistung sehr gut. Jedenfalls im Desktop-Segment, den Notebookbereich kann man da eher außen vor lassen, da man sich da ja nicht die Hardware wie bei einem PC komplett selber zusammenstellen und auch nicht die Graka aufrüsten kann.
Und bei den Einsteiger/Mittelklasse-Karten spielt das Thema Strom auch keine so große Rolle mehr, da ist eine R7 260X ganz klar der cleverere Kauf als eine deutlich teurere 750 Ti, und eine R9 270X ist für ihren Preis immer noch Top, da bietet Nvidia gar nix in dem Bereich. Eine R9 280 ähnlich stark wie eine GTX 960, nur etwas günstiger. Und die 280X, also: die ist inzwischen wohl zu teuer, wenn man es mit der R9 280 und auch der GTX 960 vergleich.t
des weiteren legt nvidia witcher 3 zu den aktuellen gpus bei. die 4 games bei AMD sind aus der steinzeit, keine aktuellen.
Steinzeit ??? Du bist witzig... die Aktion lief vor c.a. 3 Monaten noch. Zudem war der Hinweis nur deswegen, um zu zeigen, dass die Grafikkarten ALLGEMEIN teurer geworden sind, das mit den Games war nur eine kleine Zusatzinfo, dass "sogar" zusätzlich zum sehr guten Preis (70€ weniger als eine damals verfügbare GTX 970) UND 30€ Cashback noch dazukam. Aber das mit den Games ist nur ein winziger Aspekt , denn solche Aktionen gibt es immer wieder mal, bei AMD und Nvidia.
Wenn jetzt jemand ne Karte sucht und eh witcher 3 kaufen wollte, wäre aktuell ne GTX 970 natürlich super. Aber solche Aktionen enden ja immer mal, und wenn man die Spiele außen vor lässt (vlt. ist in ner Woche schon ne AMD-Aktion am Start, bei der Du z.B. Battlefield Hardline dazubekommst oder so) ist eine absichtliche Preissteigerung von nVidia für mich unverständlich.