• Aktualisierte Forenregeln

    Eine kleine Änderung hat es im Bereich Forenregeln unter Abschnitt 2 gegeben, wo wir nun explizit darauf verweisen, dass Forenkommentare in unserer Heftrubrik Leserbriefe landen können.

    Forenregeln


    Vielen Dank
  • Kritk / Fragen / Anregungen zu Artikeln

    Wenn ihr Kritik, Fragen oder Anregungen zu unseren Artikeln habt, dann könnt ihr diese nun in das entsprechende Forum packen. Vor allem Fehler in Artikeln gehören da rein, damit sie dort besser gesehen und bearbeitet werden können.

    Bitte beachtet dort den Eingangspost, der vorgibt, wie der Thread zu benutzen ist: Danke!

Kolumne: Muss eine Gaming-Grafikkarte teuer sein?

AntonioFunes

Autor
Mitglied seit
29.09.2010
Beiträge
953
Reaktionspunkte
109
Jetzt ist Deine Meinung zu Kolumne: Muss eine Gaming-Grafikkarte teuer sein? gefragt.


Bitte beachtet: Der Kommentarbereich wird gemäß der Forenregeln moderiert.


lastpost-right.png
Zum Artikel: Kolumne: Muss eine Gaming-Grafikkarte teuer sein?
 
Schöner Beitrag. Kann ich beipflichten.
Ich habe auch immer so gekauft.
Das, was die meiste Leistung bringt, eher der (starke) Preisanstiegsgipfel kommt.
Mit Glück, kann man so eine Gafikkartengeneration überspringen.
Heutzutage eher der Fall, als noch vor 10 oder 20 Jahren, wo noch deutliche Shrinks in der Fertigung möglich waren.
Ich hatte auch lange Zeit eine R290 im PC, ehe ich dann auf Vega wartend (wartend,wartend,wartend...) in Zeiten der Mining-Krise in einem Tagestief (verzweifelt) zur knapp unter 500 Euro 1080 von KFA2 gegriffen habe.
Das war aber auch nur der Fall, weil ich eine längere Nutzungsdauer im Sinn hatte, und andere Karten für max. 300 Euro nicht die gewünschte Mehrleistung brachten (z.B. ne RX580 oder ähnliche mit 20-30%? pffffff! Ich hab nen 120hz TFT!).
Und eben weil wir derzeit ja eher geringere Leistungsunterschiede zwischen den einzelnen Generationen haben (+ max. 35% sind mir zu wenig, siehe 2000er Karten), wird die 1080 bei mir auch noch eine Weile laufen könne.
AC Odyssey läuft mit fluffigen rund 100hz in FullHD, da werde ich nicht gleich auf RTX 30xx oder Radeon 6xxx aufrüsten, selbst wenn die mir für 300 Euro 40 oder gar 50% Mehrleistung versprechen sollten (Wunschtraum, unter 500 Euro wirds nichts werden).
Es wird also noch ne Weile dauern, bis Raytracing wirklich angekommen und bezahlbar ist.
Dann ist ein Technikupgrade inkl. Leistungsplus für einen angemessenen Preis bis maximal 400 Euro für mich sicherlich auch wieder sinnig.
Ansonsten: bis es so weit ist, spiele ich erst einmal die ganzen Spiele, die ich immer schon mal spielen wollte.
Wieviele Triple-A Spiele habe ich in diversen Sales billig mitgenommen und auf LAger gelegt, nur um die mit der nächsten Karte endlich auf Sehr Hoch/Ultra zocken zu können?
Eher kauft man sich schon eine neue Karte, ehe man diesen Haufen überhaupt annähernd durchgezockt hat.
Vielleicht wird es ja sogar passieren, dass ich Metro 3 und Tomb Raider 3 erst in vielleicht 3 Jahren zocken werde - mit einer (preislich attraktiven!) Raytracing Karte, die auch genug Power hat für das Zusatzfeature.
Mal sehen. :)
 
Vernünftiger Artikel. Mach ich genauso. Derzeit habe ich eine Vega 56 die ich als Auslaufmodell gekauft habe. 218.-.
 
Das Problem ist halt einfach, daß a) die Preise immer weiter steigen und b) auch klamheimlich dazu die Kategorien nach unten verschoben werden.

Vor nicht allzuvielen Jahren bekamst halt ne Highendkarte für 500 Euro, 50 Euro weniger zahlst heute nun halt für ne vernünftige Mittelklassekarte, die dann ein paar Tage länger hält (was die Leistung anbetrifft) mit gutem Lüfter. Normal ist das nicht.

Das liegt einfach daran, daß AMD und Nvidia ein Quasimonopol bilden und auch garnicht die Intension haben sich da "gegenseitig fertig" zu machen. Zum Wohl des Kunden. Das ist wie wenn es nur zwei Autohersteller gäbe. Das ist total abnormal, wenn man bedenkt, daß die halbe Welt ein PC zuhause hat.

Ein gutes Beispiel wäre hier "Big Navi", welches sicher schon länger bei AMD in der Schublade liegt. Die hätten das vor nem halben Jahr veröffentlichen und damit mal wieder Nvidia "Konkurrenz" wenigstens simulieren können. Wollte man halt nicht. Stattdessen warten man gerade noch bis Nvidia am besten seine neue Generation (RTX 30XX) vorher veröffentlicht und man selbst dann wieder im Mittelfeld rumkriecht.

Besser wird das am Ende nur, wenn das Hardwareschrottkartell (wie ich es wenig liebevoll nenne) aufgebrochen wird. Auch ein dritter Grakahersteller (Intel) aus Nordamerika wird a nicht viel helfen. Wir brauchen hier dringend Hersteller in aller Welt, vor allem auch in Europa. 2-3 in Europa, noch 2-3 Grakahersteller in Asien, alle mit Fertigungsstaßen in den eigenen Regionen und dann wirst Du sehen was es für tolle Angebote aufeinmal wie durch ein Wunder gibt.
 
Du glaubst also, dass die Herstellung in Europa im gleichen Preisrahmen wie in Asien/China möglich wäre?

Der Vorteil bei weniger Anbietern ist halt auch, dass es wohl einfacher ist für die Hersteller der Games. Wenn da wieder ein 3Dfx oder so kommt, muss dies berücksichticht werden. Ich denke aber, dass man sich im Bereich Gaming dann (wieder vermehrt?) auf die Konsolen konzentrieren würde, da es dort striktere Standarts gibt. Kann dieses AMD/NVidia Duopol dem PC nicht auch einen gewissen Schub gegeben haben?
 
Du glaubst also, dass die Herstellung in Europa im gleichen Preisrahmen wie in Asien/China möglich wäre?

Ich weiß nicht wovon er träumt. Bei dem Lohn-/Preisgefüge und bei europäischen Zulieferern würde die gleiche GPU mal locker doppelt so viel Produktionskosten verursachen. Und glaubt er ernstlich, daß die Firmen dann (Preiskampf hin oder her) ihre Teile unter Gestehungskosten abgeben ? Von Kosten für Entwicklung ganz abgesehen?

Die GPU-Herstellung wird dank immer schmalerer Herstellung und immer stärkerer Leistung auch bezüglich Entwicklung teurer. Trotz Massenproduktion. Das bleibt nicht aus. Das sinkt zwar auch mit der Zeit. Trotzdem bewegt sich die Spirale diesbezüglich immer wieder leicht nach oben. Zumal mit den GPU ein kleinerer Markt bedient wird als bei den CPUS, weil letztere in jedem (auch Büro-PC) gebraucht werden. GPUs nur bei PC die mit grafisch aufwendigeren Anwendungen arbeiten (sprich Gamer-PC aber auch Grafik, Video etc.).

Klar sind die beiden GPU-Platzhirsche mangels weiterer Konkurrenz und gutem Namen teils teuer. Aber das sind jetzt nicht die Preissenkungen die er sich erhofft wenn andere jetzt in ein Marktduell einsteigen würden.

Was glaubst er denn warum selbst große Firmen wie Apple ihre Teile in China herstellen und zuliefern lassen (Foxconn) ? Apple rudert zwar bei den Aushängeschildern (Mac Pro) mit der Auslandsproduktion teils zurück aber eine 100%ige US-Wertschöpfung wird es selbst da trotzdem nicht geben. Auch wenn ein MacPro locker mal 5-stellig kosten kann.

Im CPU-Markt hatten wir früher z.B. schon mal 3 Firmen. 1 davon hat es nicht überlebt (Cyrix). Weil die mit den großen nicht mithalten konnte. Ich hatte mal in einen meiner PC so Mitte der 90er kurzzeitig 1 Cyrix-CPU verbaut. Die war eher meh.
 
Ich weiß nicht wovon er träumt...

Ich weiß schon, daß man es hierzulande mit dem Denken nicht mehr so hat, und sich dann noch Zusammenhänge durch Denken erschließen, da wird es ganz schwierig. Dafür nachplappern und gackern, was man medial aufs Ohr gedrückt bekommt, das geht schon wieder ganz gut. Ein Verweis auf die Masse, anwesende und ehrenhafte Diskutanten nehmen ich davon natürlich aus.

Fakt ist, daß die Herstellungswege mittlerweile immer weiter optimiert wurden. Wie erkläre ich das? In Asien sitzen keine Menschen in einem Steinbruch und schnitzen eine CPU zusammen, ich hoffe das erschließt sich. Es braucht also nicht für eine Million CPUs eine Million Chinesen, welche dort eine Woche lang sich LOHNKOSTENINTENSIV um das Zusammenschrauben deiner Hardware bemühen. Kannst Du das verstehen?

Das sind hochgradig optimierte Fertigungsstraßen, wo man vorne etwas reinschiebt und hinten etwas rauskommt, das ist nun grob vereinfacht, zeigt aber schon wohin die Reise geht. Und bei dem wenigen Personal (im Vergleich zu den Stückzahlen) kann man die Kosten einfach auf die hohen Stückzahlen umlegen und damit wird es billiger. Der Unterschied von wenigen Beschäftigten in einer Chipschmiede in China (welche billiger arbeiten als hier) zu einer Chipschmiede in Deutschland ist dann nicht mehr allzuhoch. Zudem kann man durch einen erweiterten Markt (also KEIN Quasikartell von z.B. AMD/Nvidia) mit mehreren Teilnehmern nochmal einen Rationalisierungs.- und Kostensenkungsdruck aufbauen bzw. für die Kunden MASSIV an Leistung gewinnen (Service, Preis/Leistung usw.).

Aber warum soll ich mich mit Marktmechanismen, mit wirtschaftlichen Strukturen oder ähnlichem beschäftigen? Was Globalismus sei und was dahinter steckt und ob es Sinn mache? WARUM? Denken macht aua im Kopf. Warum sich Wissen aneignen, wenn ich andere auch mit meiner Meinung (für deren Äußerung ich mich zudem einsetze, was dann auch schon wieder manchen schwerfällt, wenn diese einen "Bösen" gesichtet haben, das sind immer die, welche nicht so denken wie ich) belästigen kann?
 
Kaufen ist im Moment eine schlechte Idee. Nvidia sendet die Testkarten raus und die neue Serie kommt sehr bald auf den Markt. Dann werden die besprochenen Karten sehr schnell billiger.
 
Die Forschung als einer der teuersten Positionen deren Kosten über die Produktionsdauer auf die Produktpreise aufkalkuliert werden fällt wohl vom Baum. :rolleyes:

Und es bleibt Fakt, daß auch bei einer perfekten Produktionsoptimerung, bei Massenproduktion und damit sinkender Stückpreise usw. die vergleichbaren Produktionskosten in China trotzdem erheblich billiger sind als in Deutschland.

Um kostenmäßig mit einem Standort wie China gleichauf zu sein müßten in Deutschland für die gleiche Produktionsmenge locker nur maximal 25-30% des chinesischen Personals tätig sein. Und das ist definitiv nicht der Fall. Egal wie stark man optimiert. Zaubern kann keiner.

Somit ist die ganze von Dir so schön erklärte Struktur und Kostenkalkulation hinfällig, weil das ganze 1:1 auch in China umgesetzt wird. In China sind eher noch weniger Leute bei gleicher Produktionsmenge tätig, weil es dort keinen 8h Tag gibt.

Bei gleicher Personaldecke (in China wie gesagt eher noch weniger als in Deutschland weil es in China keine solch stringenten Arbeitsgesetze gibt wie in Deutschland) erhöht sich somit der Lohnkostenvorteil nochmals ein Stück.

Somit sind die Lohnkostenvorteile die man in China hat für einen EU-Standort nicht ansatzweise kompensierbar.

Egal was man macht. Man ist bei einer EU- oder gar einer deutschen Produktion durch die Lohnkosten erheblich teurer in der Kostenstruktur als bei einer Produktion in China. Genau deswegen lohnt das in China/Asien produzieren selbst dann immer noch extrem deutlich, wenn man am Ende auf die ganze Chose noch den Logistikaufschlag draufkalkuliert (Transport und Import-/Zollgebühren).

Ein reiner Standort in Europa hätte im Vergleich zu China/Asien massive Kostennachteile die sie an Kunden am Ende über die Preisbildung weitergeben müßten, wenn sie nicht ihren Laden in 6 Monaten dicht machen wollen.

Und sie könnten sich schon aus diesem Grund gar nicht auf einen Preiskampf mit einem Platzhirsch wie AMD oder Nvidia einlassen, die zudem dank der bisherigen Einnahmen eine kräftiger gefüllte Kriegskasse wie ein Neueinsteiger haben dürften.

Hinzu kommt: In China fallen Dinge wie Gewerkschaften, 35h Woche, deutsche Feiertage, Urlaubsregelungen, Firmenrenten, Streiks usw. alles weg und auch Dinge wie Arbeitsschutz und -dauer werden nicht so stringent gehandhabt wie in Deutschland.
Dazu niedrigere Gewerbesteuern usw.

Wer hier mal mit Denken anfangen sollte bist wohl eher Du.

Was glaubst Du warum so viele EU- aber selbst auch US-Firmen so viele Produktionslinien und Herstellungen nach Asien outgesourct haben?

Nicht nur nach China sondern auch nach Taiwan/HongKong (ist aber unter dem Strich das Gleiche), Thailand, Bangladesh/Indien (Klamotten).
 
Zuletzt bearbeitet von einem Moderator:
Sry, der Text verbreitet irgendwie uralte Weisheiten, die heutzutage kaum noch gelten.

Die GTX 1060 ist eine 4 Jahre alte Mittelklasse Karte und alle Spiele laufen damit in hohen Einstellungen. 2 Jahre stimmt also nicht.

DirectX 12 ist 5 Jahre alt und spielt selbst jetzt noch kaum eine Rolle. Stimmt also auch nicht. Zudem gibt es ja auch noch Vulkan.

Dann komme ich mal zu den "weniger weh tun, sich eine neue Mittelklasse Karte zu kaufen". Schon mal von Verkaufen gehört? Man bekommt nach 2-3 Jahren noch sehr ordentliche Preise für seine Grafikkarten, die 1/2 bis 2/3 zum Preis des Neugerätes beitragen. Also nein, tut nicht weh.

Zum Ram: Der Ram kostet eigentlich schon weniger Aufpreis, wie z.B. eine Karte mit einem ordentlichen Kühler. Weiter: Der Ram spielt für einige eine untergeordnete Rolle, weil sie es schlichtweg nicht brauchen. Denen sind Frametimes oder Auflösung egal. Und die Praxis zeigt es auch: Viele Spiele kommen mit wenig Ram sehr gut aus.

Ist der wahre Grund der plötzlichen Aufrüstung hier überhaupt genannt worden? Das sind nämlich nach wie vor seit langer Zeit die Konsolen. Nach jeder Konsolengeneration kommen Spiele, die entweder sehr gut aussehen oder was wohl eher zutrifft, die schlecht von Konsole auf PC portiert worden sind. Plötzlich reicht eine 3-4 Jahre alte Grafikkarte nicht mehr aus. Ein weiterer Grund sind Trends, z.B. Open World. Da fressen Spiele plötzlich Ram zum Frühstück.

Kolumne hin oder her, die Fakten sehen trotzdem etwas anders aus. Ansonsten stimme ich dem Artikel zu, mich störten nur ein paar Details, die irgendwie falsch rüberkaumen. Gerade in den letzten Jahren hat sich so viel verändert und so viel getan und als PCler kam man finanziell viel besser weg, also noch vor 10-20 Jahren.

Klar sollte man den Grafikkartenkauf gut Timen, aber mal ehrlich: Dann wartet man sich ein Loch in den Bauch. Ich würde eher zu bestimmten Zeiten (Mining) und bestimmte Modelle (wenig Ram, hohe Verlustleistung) oder bevorstehende Neuerscheinungen (Konsolen, Grafikkarten) zum Kauf abraten.
 
Besser wird das am Ende nur, wenn das Hardwareschrottkartell (wie ich es wenig liebevoll nenne) aufgebrochen wird. Auch ein dritter Grakahersteller (Intel) aus Nordamerika wird a nicht viel helfen. Wir brauchen hier dringend Hersteller in aller Welt, vor allem auch in Europa. 2-3 in Europa, noch 2-3 Grakahersteller in Asien

Ich mache mir da wenig Hoffnungen. Dafür müssten die alternativen Hersteller auch eigene Chip-Designs haben um unabhängig zu sein. Nicht mal Sony gibt für die Konsole eigene Grafikhardware in Auftrag, und Intel tut sich offensichtlich schwer. Wer bleibt da noch übrig der da was konkurrenzfähiges aus dem Hut zaubert?
 
War auch immer so ein Mittelklasse Käufer. Aber seit ich letztes Jahr zum ersten mal über 600 Euro für die RTX2070 ausgegeben habe, bin Ich auch zum ersten mal so richtig zufrieden (zocke nur in WQHD) Endlich einfach ohne Nachdenken alles auf Max und kein rumgespiele mehr, keine Schatten und Filter reduzieren. 144HZ Monitor wird auch mit ordentlich Frames bedient. Klar die anderen Karten damals haben es auch getan, aber spätestens nach 1-2 Jahren musste man dann schon etwas mehr abschalten als nur Filter und Schatten. Also Ich greif dann lieber doch mal etwas tiefer in die Tasche und hab lange Ruhe, wer weiß wann die Karte überhaupt mal in meiner Auflösung an die Grenzen kommt.
 
Zuletzt bearbeitet:
ich kaufe auch immer nur mittelklasse-karten. habe letzen november eine gtx1660 ti gekauft. hat auch in dem im artikel besprochene preissegment gekostet.

die grafikkarten vorher (gtx 970, gtx 290) haben auch ca. dasselbe gekostet.

und wenn man mit HD zufrieden ist(und das bin ich - mehr ist mir keinen € aufpreis wert) dann gehe ich davon aus, deaß ich erst in 4-5 jahrne eine neue grafikkarte brauche und bis dahin alles auf max-details auf HD spiele.
war ja bei den letzten karten nicht anders.

teuere modelle widerstreben mir hauptsächlich deshalb, weil man die eh nach spätstens 1-1/2 jahren wenn nicht früher um den preis bekomt, denn man für eine mittelklassse-karte zahlt. also man zahlt das doppelte für 1 jahr vorsprung.
 
War auch immer so ein Mittelklasse Käufer. Aber seit ich letztes Jahr zum ersten mal über 600 Euro für die RTX2070 ausgegeben habe, bin Ich auch zum ersten mal so richtig zufrieden (zocke nur in WQHD) Endlich einfach ohne Nachdenken alles auf Max und kein rumgespiele mehr, keine Schatten und Filter reduzieren. 144HZ Monitor wird auch mit ordentlich Frames bedient. Klar die anderen Karten damals haben es auch getan, aber spätestens nach 1-2 Jahren musste man dann schon etwas mehr abschalten als nur Filter und Schatten. Also Ich greif dann lieber doch mal etwas tiefer in die Tasche und hab lange Ruhe, wer weiß wann die Karte überhaupt mal in meiner Auflösung an die Grenzen kommt.
komisch, bei mir hat dafür eine RTX 2060 Super für nur 400€ gereicht. Nee, nicht komisch: die sind ja schließlich gleich stark ;) aber die 600€ für ne 2070 sind einfach viel zu viel IMHO. Und davor hat (auch bei WQHD) 4-5 Jahre lang eine R9 290 für ca. 250€ gereicht - von wegen "nur 1-2 Jahre"
 
Also mit meiner 1070 kann ich auch immer noch alles in Full HD auf so ziemlich Max spielen. Und die hat ja nun auch schon etwas Zeit aufm Buckel. Das mit den 1-2 Jahren kommt da nicht ganz so hin finde ich. Solange ich noch alles Ruckelfrei spielen kann, kommt mir da auch nix Neues rein.
 
komisch, bei mir hat dafür eine RTX 2060 Super für nur 400€ gereicht. Nee, nicht komisch: die sind ja schließlich gleich stark ;) aber die 600€ für ne 2070 sind einfach viel zu viel IMHO. Und davor hat (auch bei WQHD) 4-5 Jahre lang eine R9 290 für ca. 250€ gereicht - von wegen "nur 1-2 Jahre"

Schön für dich, aber wenn ich jetzt nicht ganz falsch liege kam die 2060 erst nach der 2070 und gab es schlicht bei meinem kauf noch nicht einmal und die 600 Euro waren damals, jetzt seh ich die schon unter 500. Daher ist so ein Vergleich kompletter Unsinn wenn die Grafikkarte es damals schlicht nicht gab. Da waren nur die 2080 die mir auch zu teuer war und die 2070, ansonsten gab es dann nur die 1080 noch. Abgesehen davon hab ich selbst bei der 2070 Spiele wo am Anschlag dann nur 40-50 Frames stehen bei 2560*1080. Da bin ich schon am teilweise was runterstellen. bei einem 144HZ Monitor 21:9 34 Zoll ist das dann irgendwie nicht wirtlich flüssig, da sollte das Ziel schon ca 100+ Frames sein damit das wirklich smooth aussieht. Muss aber meine Aussage mit letztes Jahr zurücknehmen, hab mal die Rechnung ausgekramt, das war Dezember 2018.
Aktuell gibt es halt auch keine wirklichen Quatensprünge mehr was neue Grafik angeht, da hat man lange etwas von der neuen karte. Weiß noch früher, da high End schon nach 2 Jahren komplett überholt.
 
Zuletzt bearbeitet:
Schön für dich, aber wenn ich jetzt nicht ganz falsch liege kam die 2060 erst nach der 2070 und gab es schlicht bei meinem kauf noch nicht einmal und die 600 Euro waren damals, jetzt seh ich die schon unter 500. Daher ist so ein Vergleich kompletter Unsinn wenn die Grafikkarte es damals schlicht nicht gab. Da waren nur die 2080 die mir auch zu teuer war und die 2070, ansonsten gab es dann nur die 1080 noch.
Die 2070 war damals einfach zu teuer, DAS war der Punkt, auf den ich hinaus wollte. Ich wollte nicht sagen "Mann bist du blöd, dass du keine 2060 super gekauft hast!"... Aber auch 500€ heute wären viel zu teuer, allerdings sind das ja eh nur Restposten, da die 2070 ja von der 2070 Super abgelöst wurde. Du musst da daher eher die Preise einer 2060 Super als Vergleich nehmen, die bei der Leistung einer 2070 entspricht und die es ab 390€ gibt - das zeigt, wie teuer die 2070 war, wenn du vor 1,5 Jahren Jahren noch 600€ bezahlt hast.

Heute wäre sowieso eine AMD RX 5700 XT optimal, die kostet ab 360€ und ist stärker als eine RTX 2070. Wenn man mehr Leistung will, geht es erst ab der 2070 Super weiter, aber die hat lächerliche 10-12% mehr Leistung für einen Aufpreis von über 100€... Weißt Du noch, was eine GTX 1080 damals gekostet hätte, als du eine Karte gesucht hast?

Abgesehen davon hab ich selbst bei der 2070 Spiele wo am Anschlag dann nur 40-50 Frames stehen bei 2560*1080. Da bin ich schon am teilweise was runterstellen. bei einem 144HZ Monitor 21:9 34 Zoll ist das dann irgendwie nicht wirtlich flüssig, da sollte das Ziel schon ca 100+ Frames sein damit das wirklich smooth aussieht.
ok, wenn du SO anspruchsvoll ist, dann hält eine 200-300€-Karte natürlich keine 2-3 Jahre... das kann man ja nicht ahnen.

Muss aber meine Aussage mit letztes Jahr zurücknehmen, hab mal die Rechnung ausgekramt, das war Dezember 2018.
Aktuell gibt es halt auch keine wirklichen Quatensprünge mehr was neue Grafik angeht, da hat man lange etwas von der neuen karte. Weiß noch früher, da high End schon nach 2 Jahren komplett überholt.
wenn man 100+ FPS-"Freak" ist, dann ja. Wenn man sie so lange behält und erst unzufrieden wird, bis es selbst auf mittleren Details schon teils ruckelt, hält sie natürlich viel viel länger. Aber selbst da ist es IMO besser, öfter eine günstigere Karte zu kaufen, also je nach Generation und dem, was man dafür bekommt, so 200-400€. Je nach dem, wie der Grafikkartenmarkt aussieht, reicht zum Kaufzeitpunkt eine 200€-Karte ja für maximale Details in WQHD, und ein Jahr früher oder später muss man 400€ für so eine Leistung ausgeben.
 
Zuletzt bearbeitet:
Das Anspruchsvoll (60+Frames) ist erst gekommen durch den besagten LG 21:9 34 Zoll 144Hz Monitor. Den hatte Ich mal als Schnäppchen für 240 Euro im Warehouse deal bei Amazon geschossen. Bei dem ist es halt tatsächlich so, das der irgendwie gefühlt gewisse Frames braucht, damit das Bild so richtig weich wirkt, wird sicher mach einer nicht so empfinden, aber Ich bin da recht empfindlich bei Shootern. Würde das nicht als Freak sehen und auch nur bei Shootern, Bei COD merke Ich das sofort am Trefferverhalten, das flutscht einfach besser. Ich brauche weder 4k noch sonst welchen Schnick schnack, aber einfach ein weiches Bild! Deswegen kommen auch Konsolen nicht in Frage. Hatte mal den Fimmel komplett auf Konsole umzusteigen, aber Framedrops, unsauberes ruckeliges Bild, extreme Ladezeiten (witcher zb) haben mich ganz schnell wieder an den PC getrieben. 30 Frames als Ziel ist für mich bei schnellen Spielen unspielbar, wenn nicht mindestens 60 da stehen, wird was geschraubt! Aber ja, die Karte war damals wirklich verdammt teuer, oder ja zu teuer, da kommen Wir auf einen Nenner.

Mit früher meinte Ich aber auch die Anfangszeiten am PC, da war eigentlich der ganze PC nach 1-2 Jahren schon veraltet :)
 
Zuletzt bearbeitet:
...
teuere modelle widerstreben mir hauptsächlich deshalb, weil man die eh nach spätstens 1-1/2 jahren wenn nicht früher um den preis bekomt, denn man für eine mittelklassse-karte zahlt. also man zahlt das doppelte für 1 jahr vorsprung.

Das ist nicht mehr so und an der letzten, vorletzten und auch aktuellen Generation zu sehen. Die Preise bleiben seit Jahren relativ stabil, selbst für gebrauchte zahlst Du oft nahezu den Neupreis. Bei dem Extrembeispiel mit der GTX 970 ging damals der Preis sogar hoch und kam erst zum Ende des Zyklusses wieder am Startpreis an. Ok, hatten am Ende dann auch etwas mit dem Mining zu tun. Aber auch die RTX Karten sind doch kaum nennenswert günstiger geworden, im Gegenteil NVidia speiste die Ti Käufer sogar mit Aufpreisen ab:
https://www.heise.de/newsticker/mel...eForce-RTX-2080-Der-grosse-Bluff-4169328.html
 
Das ist nicht mehr so und an der letzten, vorletzten und auch aktuellen Generation zu sehen. Die Preise bleiben seit Jahren relativ stabil, selbst für gebrauchte zahlst Du oft nahezu den Neupreis. Bei dem Extrembeispiel mit der GTX 970 ging damals der Preis sogar hoch und kam erst zum Ende des Zyklusses wieder am Startpreis an. Ok, hatten am Ende dann auch etwas mit dem Mining zu tun. Aber auch die RTX Karten sind doch kaum nennenswert günstiger geworden, im Gegenteil NVidia speiste die Ti Käufer sogar mit Aufpreisen ab:
https://www.heise.de/newsticker/mel...eForce-RTX-2080-Der-grosse-Bluff-4169328.html

Stimmt, hab gerade mal geschaut, meine Version der RTX2070 kosten nach 1,5 Jahren gerade mal 10-20 Euro weniger.
 
Zurück