• Aktualisierte Forenregeln

    Eine kleine Änderung hat es im Bereich Forenregeln unter Abschnitt 2 gegeben, wo wir nun explizit darauf verweisen, dass Forenkommentare in unserer Heftrubrik Leserbriefe landen können.

    Forenregeln


    Vielen Dank
  • Kritk / Fragen / Anregungen zu Artikeln

    Wenn ihr Kritik, Fragen oder Anregungen zu unseren Artikeln habt, dann könnt ihr diese nun in das entsprechende Forum packen. Vor allem Fehler in Artikeln gehören da rein, damit sie dort besser gesehen und bearbeitet werden können.

    Bitte beachtet dort den Eingangspost, der vorgibt, wie der Thread zu benutzen ist: Danke!

AMD und Nvdia: Grafikkarten werden wieder teurer

AntonioFunes

Autor
Mitglied seit
29.09.2010
Beiträge
941
Reaktionspunkte
109
Jetzt ist Deine Meinung zu AMD und Nvdia: Grafikkarten werden wieder teurer gefragt.


Bitte beachtet: Der Kommentarbereich wird gemäß der Forenregeln moderiert.


lastpost-right.png
Zum Artikel: AMD und Nvdia: Grafikkarten werden wieder teurer
 
Hm, dann werd ich meine GTX 970 wohl noch eine Weile ausreizen...
und ich meine R9 290. Ich hab sowieso seit nem Jahr ne Xbox und inzwischen allein da noch mind 10 "gute" Games, die ich noch durchspielen "muss" :-D ;)

und auf dem PC spiele ich derzeit sowieso hauptsächlich Strategietitel, die ich bereits habe, wie Civilization 6 oder diverse Total War-Teile
 
Ich hab auch noch eine gtx 970 und läuft doch alles prima damit. Wenn man nicht jedes neue Spiel in Ultra Einstellungen oder 4k spielen möchte, dann reicht die wahrscheinlich auch noch 2-3 Jahre.
 
Ich hab auch noch eine gtx 970 und läuft doch alles prima damit. Wenn man nicht jedes neue Spiel in Ultra Einstellungen oder 4k spielen möchte, dann reicht die wahrscheinlich auch noch 2-3 Jahre.

Jepp, kann mich auch nicht beklagen, ob das letzte HITMAN oder GTA V, läuft alles supi. Kingdom Come:-Deliverance wird dann interessant im Februar, aber die Beta ging schon ganz gut, von daher bin ich da optimistisch.

Und VR interessiert mich zwar sehr, aber im Moment fehlt mir noch der richtige Anreiz, um dafür eine neue Karte zu kaufen.
 
Jepp, kann mich auch nicht beklagen, ob das letzte HITMAN oder GTA V, läuft alles supi. Kingdom Come:-Deliverance wird dann interessant im Februar, aber die Beta ging schon ganz gut, von daher bin ich da optimistisch.

Und VR interessiert mich zwar sehr, aber im Moment fehlt mir noch der richtige Anreiz, um dafür eine neue Karte zu kaufen.

Darauf freu ich mich auch. Da hab ich mir gleich eine CE gesichert, als sie angeboten wurde. Und es freut mich zu hören, dass es mit "unserer" Grafikkarte ganz gut lief :)
 
Jepp, kann mich auch nicht beklagen, ob das letzte HITMAN oder GTA V, läuft alles supi.
die sind aber ja auch aus Zeiten, als die GTX 970 noch "Oberklasse" war ;) Entscheidend ist, ob man bei einem brandneuen, aufwendigen Game mindestens hohe Details und mehr als 40FPS fordert. Wenn ja, wird es eng - wenn nein, dann braucht man nix neues. Meine R9 290 reicht mir sogar für WQHD auf "hoch" super aus, aber ich hab auch seit nem Jahr keinen richtigen "Grafikknaller" mehr geholt. So was wie Prey oder Dishonored 2 oder Resident Evil 7 usw. läuft einwandfrei, ist grafisch aber halt auch was "altbacken" von der Technik her (nicht von der Atmosphäre, vor allem Dishonored 2! ).
 
Wer momentan aufrüsten muß/will hat momentan ziemlich schlechte Karten. :(
Jop, hatte das Vergnügen kurz vor den Feiertagen.
Alte Karte spontan abgeraucht, bis nach nach Weihnachten oder gar Neujahr auf den Versandhandel zu warten keine Option, da ich den Computer über die Zeit brauchte.

Also in den örtlichen, sehr spärlich gewordenen, Fachhandel gerauscht und zähnenirschend die eine RX 580, die sie im Regal hatten, gegen 316€ getauscht.
Alternativen Mangelware. AMD war komplett "aus" und die grüne Konkurrenz fing erst bei nochmal 40€ extra an.

Schöne neue PC-Welt...
 
Man könnte fast meinen, die wollen den riesigen Markt zwischen 200 und 300 Euro, wo die meisten Spieler einschließlich ich ihre Karten früher immer gekauft haben austrocknen, denn diese Zielgruppe gibt sich nicht mit 150 Euro Karten zufrieden und muss dann jetzt eben zwangsweise mind. 300 - 400 ausgeben.
 
Man könnte fast meinen, die wollen den riesigen Markt zwischen 200 und 300 Euro, wo die meisten Spieler einschließlich ich ihre Karten früher immer gekauft haben austrocknen, denn diese Zielgruppe gibt sich nicht mit 150 Euro Karten zufrieden und muss dann jetzt eben zwangsweise mind. 300 - 400 ausgeben.
Das sind halt leider auch die Karten, die für Mining stark genug sind, um sich zu rentieren, und zwar trotz der Kosten. Gerade die AMD-Karten sind durch die Architektur dafür gut, daher sind selbst die 4GB-Varianten teurer geworden. Bei zB der GTX 1050 Ti ist die Power nicht so gut für Mining, und wegen der nur 4GB RAM ist das Thema Speicherpreise nicht gewichtig genug, um sie direkt 20€ teurer zu machen. Die GXT 1060 3Gb zB ist auch noch nicht teurer geworden, die hat halt auch nur 3GB RAM. Vermutlich wäre die Karte halt 10€ günstiger, wenn die RAM-Preise nicht so stark gestiegen wären.

Zwischen 150 und 300 Euro war aber eh schon eine Riesenlücke seit Mai/Juni, weil die RX 570 mal eben von 180€ auf 300€ stieg und eine GTX 1060 3GB nicht zu empfehlen ist wegen der nur 3GB RAM. Und AMDs RX 580 mit nur 4GB kam ja erst sehr spät, ist inzwischen auch über 260€ geklettert.
 
Hatte eigentlich darüber nachgedacht mir dieses Jahr etwas neues zu gönnen. Aber so wird meine GTX 970 wohl noch eine ganze Weile ihren Dienst tun.

Vielleicht sollten AMD und Nvidia sich einfach vom Gaming-Markt zurückziehen und sich ganz aufs Mining spezialisieren? Mit Minern kann ich jedenfalls nicht konkurrieren. Ich verdiene mit spielen kein Geld, es ist nur ein Hobby. Wenn das anhält, sollten AMD und Nvidia dringend ein eigenes Segment fürs Mining schaffen und es vom Gaming-Segment trennen. Den Wahnsinn vom letzten Jahr hat man ja noch hingenommen, weil es überraschend kam. Aber wenn das jetzt zur Regel erhoben werden soll und Nvidia und AMD meinen mir als Gamer darüber deutlich höhere Preise durch kalte Küche servieren zu können, dann können sie zumindest mich mal am Abend besuchen. Diesen kann ich nämlich auch mit Minecraft und CSGO verbringen. Überhaupt gibt es inzwischen zahllose Spiele für die eine alte Karte noch sehr lange gut genug ist. Wäre ich ein großer Publisher, der grafisch aufwendige Titel produziert, würden bei mir die Alarmglocken schrillen. AMD und Nvidia juckt es ja offenbar nicht. Die verdienen ihr Geld. In Zukunft halt nicht mehr mit mir.

Nur eines würde mir an AMDs und Nvidias Stelle zu denken geben: Wie lange hält dieser Mining-Boom an? Und was ist, wenn die Gamer sich in ein paar Jahren anderen Hobbies oder Systemen zugewandt haben?
 
Na ja, wer nicht gerade ein neues System anschafft oder irgendwas besonderes will (GSync, 4k) der kommt auch mit alten Karten noch lange hin, selbst wenn dann bei 1080p und maximalen Details bei einigen Titeln nur 30FPS erreicht werden. Die Spiele, die wirklich Hardwarepower benötigen, kann man ansonsten an einer Hand abzählen.
Immerhin sind die meisten Games Multiplattform und müssen auch auf einer im Vergleich schwachen, normalen PS4 mit 30FPS und bei Full HD laufen.
 
Gsync ist keine Frage des Grafikkartenpreises sondern eigentlich nur vom Monitor und daß man halt eine Grafikkarte von Nvidia hat. Und den Aufpreis für einen entsprechenden Monitor "übrig" hat natürlich. Freesync das gleiche bei AMD. Nur das Geräte mit Freesync im Gegensatz zu Gsync-Geräten nicht deutlich teurer sind als Geräte ohne. Aber auch mit einer GTX 960/970 dürfte eine Funktion wie Gsync funktionieren.

Wer sich vor einiger Zeit eine Grafikkarte der oberen Mittelklasse/Oberklasse gekauft hat, hat erst einmal Ruhe. Das stimmt, wenn man mit geringfügigen Kompromissen (extreme Details verringern, keine 100 fps in Shootern) leben kann und auch kein VR/4K möchte.

Ich denke die nächste große (generell kommende) PC-Aufrüstungswelle wird erst mit Einführung der neuen Konsolen kommen (PS5/XBOX Two). Das wird wohl 2020/21 der Fall sein tippe ich einmal, wenn ich schon beim Kaffeesatzlesen bin. :-D :-D

Weil dann durch die Bank weg die Hardwareanforderungen bei neuen Titeln deutlich ansteigen werden und man dann aufrüsten will, wenn man das neue Triple A-Spiel spielen will. Wie damals beim Wechsel von PS3 auf PS4.

Wer sich allerdings wirkliche Hardwarefresser als Spiel kauft für den dürfte es mit einer GTX 960/970 langsam eng werden. Erst Recht wenn er keine mittleren Details bei 20-30 fps will sondern nach mehr verlangt.

Für mich (habe eine GTX 1070) steht dieses Jahr bezüglich Grafikkarte nur dann ein Neukauf an, wenn sich das Thema VR bei mir "etabliert". Ich plane mir dieses Jahr irgendwann ein VR-Set zu kaufen. Und je nachdem wie sich meine GTX 1070 unter VR-Aspekten "schlägt" (ich spekuliere als VR-Titel z.B. auf ED in VR, Fallout 4 VR u.a.), denke ich diesbezüglich über eine "Aufrüstung" nach (das müßte dann aber schon eine Karte vom Kaliber einer GTX 1080ti sein, damit sich der Sprung überhaupt "lohnt"). Das ist aber wie gesagt "Luxus" und eigentlich nicht notwendig.

Im Normalfall müßte eine Karte wie die GTX 1070 je nach den Spielen die herauskommen noch so ca. 1-2 Jahre (bis ungefähr 2019/20) durchhalten können ohne extreme Kompromisse (wie low Details und 15 fps) eingehen zu müssen, wenn man bei einer Auflösung von FHD bleibt. Wer anspruchsloser ist vielleicht sogar noch länger.
 
Zuletzt bearbeitet von einem Moderator:
Prey oder Dishonored 2 oder Resident Evil 7 usw. läuft einwandfrei, ist grafisch aber halt auch was "altbacken" von der Technik her (nicht von der Atmosphäre, vor allem Dishonored 2! ).

Also ich musste jetzt schon etwas Schmunzeln wenn man diese Games als "altbackent" von der Technik bezeichnet :B


Also ich würde jeden Raten der es nicht eilig hat auf die neuen Geforce Karten zu warten die sehr wahrscheinlich auf der GPU Technology Conference 2018 die zwischen dem 26. bis 28. März 2018 präsentiert werden. "laut Nvidia die »bisher größte und beste GTC« werden" naja mal schauen
Natürlich werden die Karten teurer sein aber wenn ich mir die Preise der letzten 2 Jahre anschau war es ja auch eine Berg und Tal fahrt.

Ich zumindest gurke noch mit meiner 570 gtx herum werde aber heuer mir so ein neue Geforce gönnen auch wenn es mich jetzt schon sehr im Finger juckt mit einer 1070 oder 1060 gtx :P
daweil muss halt noch meine old lady ps4 herhalten :hust:B
 
Also ich musste jetzt schon etwas Schmunzeln wenn man diese Games als "altbackent" von der Technik bezeichnet :B
naja, es sind halt schon klar erkennbar viele "matschige" Texturen usw. , und man merkt das eben auch daran, dass ich trotz hoher Details viele FPS habe. Ich meinte das halt bezogen auf aktuelle Grafik-"Blockbuster"

Und die WIRKUNG der Grafik von Dishonored 2 ist natürlich trotzdem klasse.
 
naja, es sind halt schon klar erkennbar viele "matschige" Texturen usw. , und man merkt das eben auch daran, dass ich trotz hoher Details viele FPS habe. Ich meinte das halt bezogen auf aktuelle Grafik-"Blockbuster"

Und die WIRKUNG der Grafik von Dishonored 2 ist natürlich trotzdem klasse.

gebe ich dir absolut Recht ! glaube aber das es weniger ein Technischer Aspekt ist sondern viel mehr ein sehr zeitintensives Problem ist.
Hätten die mehr zeit gehabt glaube ich würde das anders aussehen.

Man darf auch nicht dem Aspekt vergessen das es auch im VR laufen musste.
 
Solange beide Hersteller keine Absatzprobleme sondern eher Lieferprobleme haben haben, solange werden wohl auch keine neuen Modelle auf den Markt kommen. Warum auch, verkauft sich alles ja auch so. Vielleicht führt das zu einem längeren Entwicklungszyklus und damit auch wieder zu einer echten Leistungssteigerung statt Refreshs und Umetikettierei.

Ich warte auf ein neues Nano Modell von AMD, aber so wie es momentan aussieht, kann ich da lange warten :(
 
Solange beide Hersteller keine Absatzprobleme sondern eher Lieferprobleme haben haben, solange werden wohl auch keine neuen Modelle auf den Markt kommen. Warum auch, verkauft sich alles ja auch so.
Denk mal ein wenig nach nach: mit DEM Argument dürfte es seit 15 Jahren keine neuen Karten mehr geben ^^ Kann also nicht sein.

Die Hersteller arbeiten im Gegenteil ständig an neuen Chips, um eine noch bessere Grafik flüssig zu ermöglichen und auch um eine bessere Leistung bei relativ gesehen geringeren Produktionskosten zu ermöglichen. Die können es sich gar nicht leisten, erst mal abzuwarten, ob die aktuelle Generation sich vielleicht gut genug verkauft um dann erst zu entscheiden, ob man neue Chips entwickelt oder eine Weile nix neues bringt. Und selbst wenn man merkt, dass man aktuell super verkauft: man weiß ja nicht, was die Konkurrenz macht. Stell Dir vor, Nvidia würde keine neuen Chips entwickeln, weil die GTX 10xx sich gut verkaufen, und dann kommt AMD in einem Jahr mit neuen Karten, die zum gleichen Preis 30-50% mehr Leistung als die GTX 10xx bringen und mit einer Top-Karte für 500€, die 20% schneller als eine GTX 1080 Ti ist - dann steht Nvidia praktisch vor der Firmenpleite, wenn die erst DANN anfangen, neue Chips zu entwickeln und währenddessen die GTX 10xx drastisch im Preis senken müssen...

Zudem verlangen Geschäftskunden so oder so nach mehr Power, völlig unabhängig davon, was auf dem "Consumer"-Markt abgeht. Bei Gamern könnte man ja noch sagen, dass die erst dann mehr Power brauchen, wenn die Spiele es wirklich verlangen. Aber für professionelle Anwendungen müssen die Hersteller sowieso immer weiter forschen und entwickeln, und dann wäre es wiederum dumm, bei den daraus resultierenden Chips keine Consumerkarten anzubieten, außer die neuen Karten wären bei Preis-Leistung grottig schlecht....
 
Denk mal ein wenig nach nach: mit DEM Argument dürfte es seit 15 Jahren keine neuen Karten mehr geben ^^ Kann also nicht sein.
[...]
Ich habe nicht gesagt dass die Entwicklung eingestellt wurde, sondern nur das keine neuen Modelle auf dem Markt kommen. Warum sollte man das tun wenn man Lieferprobleme und keine Absatzprobleme hat. Kannst ja ruhig weiterwerkeln, die neue Leistungsstufe muss aber erst raus wenn entweder dein Absatz sinkt, oder du neue Produktionskapazitäten geschaffen hast und dann ein Absatzproblem hast. Bei zwei Herstellern ist das wohl eher ein Bockspringen was dafür sorgt dass noch neue Modelle rauskommen. Mit den unterschiedlichen Kartenherstellern ist das wie mit Tankstellen, der Konkurrenzkampf untereinander hat kaum Auswirkungen, der eine nimmt vielleicht dem anderen ein Stück vom Kuchen ab den die Raffinerie an alle liefert.

Und Geschäftskunden verlangen immer mehr Power? Auch da gibt es Unterschiede. Viele sind verdammt zufrieden mit dem was sie haben und denken gar nicht an upgraden. Glaub mir, Firmen wissen wie's beim Wettbewerb aussieht. Gerade im Business Bereich wird alles langfristig geplant. Wenn ich eine Komponente X brauche, dann gibt's da garantierte Verfügbarkeiten. Ich bau doch kein Produkt Y wenn X in 3 Quartalen End of life geht.

Und nochmal. Was bringt es dir, wenn du eine Million Chips der Generation 2016 liefern kannst und eine Million Chips der Generation 2016 absetzt, dann noch Entwicklungsarbeit in ein Modell 2017 zu investieren (KOSTEN! Design, Prototypen, Testing, Software, Treiber, Support, etc) wenn du voraussichtlich bis 2018 eh nicht mehr verkaufen kannst. Dann kannst du dir 2017 einfach sparen, arbeitest an was anderem (einem Pro oder Enterprise Ableger) und fängst dann Ende 2017 an die Generation 2018 fertig zu machen. Mehrkosten muss auch ein Mehrerlös gegenüberstehen, sonst ist es betriebswirtschaftlich Unsinn. Und wenn du sagst, okay, die neuen Chips kann ich teurer verkaufen, was passiert dann mit dem Entry Segment? Es werden nicht mehr Chips.
 
Zurück