• Aktualisierte Forenregeln

    Eine kleine Änderung hat es im Bereich Forenregeln unter Abschnitt 2 gegeben, wo wir nun explizit darauf verweisen, dass Forenkommentare in unserer Heftrubrik Leserbriefe landen können.

    Forenregeln


    Vielen Dank
  • Kritk / Fragen / Anregungen zu Artikeln

    Wenn ihr Kritik, Fragen oder Anregungen zu unseren Artikeln habt, dann könnt ihr diese nun in das entsprechende Forum packen. Vor allem Fehler in Artikeln gehören da rein, damit sie dort besser gesehen und bearbeitet werden können.

    Bitte beachtet dort den Eingangspost, der vorgibt, wie der Thread zu benutzen ist: Danke!

AMD Radeon VII: Erste Listungen, MSI mit Ankündigung

AntonioFunes

Autor
Mitglied seit
29.09.2010
Beiträge
952
Reaktionspunkte
109
Jetzt ist Deine Meinung zu AMD Radeon VII: Erste Listungen, MSI mit Ankündigung gefragt.


Bitte beachtet: Der Kommentarbereich wird gemäß der Forenregeln moderiert.


lastpost-right.png
Zum Artikel: AMD Radeon VII: Erste Listungen, MSI mit Ankündigung
 
Eine AMD-GPU teurer als Nvidia ? Verkehrte Welt. Es sei denn es fehlen Infos die den Mehrpreis rechtfertigen. Im Normalfall müßte die AMD dann bei dem Preis eher auf dem Leistungslevel einer RTX 2080ti sein. Nicht nur auf dem der RTX 2080.
 
Eine AMD-GPU teurer als Nvidia ? Verkehrte Welt. Es sei denn es fehlen Infos die den Mehrpreis rechtfertigen. Im Normalfall müßte die AMD dann bei dem Preis eher auf dem Leistungslevel einer RTX 2080ti sein. Nicht nur auf dem der RTX 2080.

Man sollte halt den Release mal abwarten und die Wochen danach. Denn die RTX 2080 kostet - wenn du bei Nvidia schaust - sogar 849€ "UVP" … Zudem kann es sein, dass die Radeon VII eher was für "Anwender" und nicht für Spieler ist.
 
Das meinte ich u.a. mit "mehr Infos". Das wäre dann so etwas ungefähr wie die neue ca. 4500 EUR?? teure Titan-GPU von Nvidia nur auf anderem Preis/Leistungslevel. Trotzdem nichts für Gamer, mehr für Anwender. Mal sehen. Aber auf dem Level der RTX 2080 fehlt tatsächlich Konkurrenz durch AMD. Dann könnte Nvidia nicht so wie sie es aktuell machen. Dann gäbe es zumindestens endlich mal etwas Konkurrenz. So wie bei den CPU.
 
Interessant ist der Artikel von PC Games Hardware: http://www.pcgameshardware.de/Radeon-VII-Grafikkarte-268194/Tests/Benchmark-Review-1274185/
Dort steht ja auch, dass sie für CAD und Videobearbeitung gedacht ist und die Spielegeneration mit Navi Chips noch ein paar Monate auf sich warten lässt.
wirklich eher GEDACHT ist, oder schneidet sie da einfach nur sehr gut ab?

Bei den dort geposteten Benchmarks liegt sie auf Höhe der RTX 2070 was die Radeon VII auch einfach tatsächlich viel zu teuer macht.
Ich würde da noch ein wenig warten, bei Release oder gar kurz vorher sind die Ergebnisse oft anders als 2-3 Wochen später, egal ob Nvidia oder AMD.

Mir persönlich wäre sie so oder so zu viel, außer sie würden nur 400€ kosten ;) Denn ich kaufe immer eher bis maximal 400€, also das, was aktuellste Games locker in Max sehr gut schafft und vermutlich mind 2. Jahre "hohe Details" packt.
 
Die ersten Benchmarks hauen mich da ja nicht so vom Hocker, evtl. tut sich da ja treibertechnisch noch was? Im Moment bin ich echt nah dran mir ne RTX 2080 zu bestellen. Ein wenig werde ich aber noch warten.
 
wirklich eher GEDACHT ist, oder schneidet sie da einfach nur sehr gut ab?

Ich würde da noch ein wenig warten, bei Release oder gar kurz vorher sind die Ergebnisse oft anders als 2-3 Wochen später, egal ob Nvidia oder AMD.

Mir persönlich wäre sie so oder so zu viel, außer sie würden nur 400€ kosten ;) Denn ich kaufe immer eher bis maximal 400€, also das, was aktuellste Games locker in Max sehr gut schafft und vermutlich mind 2. Jahre "hohe Details" packt.

Also zunächst, ich bin beim Kauf von Grafikkarten aktuell raus, ich habe ja gerade im Oktober den neuen Rechner mit GF 1070ti geholt und die Karte muss die nächsten drei, vier Jahre reichen.
Und ja, auch beim Preis wäre ich ohnehin raus, die 430 Euro der 1070ti waren schon arg über meiner normalen Schmerzgrenze, ich habe das so als "untergegangener" Preis im Komplettsystem verbucht.

Ob die Karte nun primär für CAD oder was auch immer gedacht ist, da musst du nicht mich fragen sondern AMD, die haben ja auch mit der Vega immer mal so komische Extraserien, die ich nicht zu den normalen Radeons zählen würde.
Ich halte die VII jetzt erst mal eher für ein Vorzeigeprodukt a la "seht her, wir sind zurück, wir können wieder mit NVidia mithalten. Gegen Ende des Jahres kriegt ihr dann unsere neue normale Radeon Gamer-Reihe mit Modellen von Einsteiger bis Profi, diesmal auch konkurrenzfähig".
 
Ob die Karte nun primär für CAD oder was auch immer gedacht ist, da musst du nicht mich fragen sondern AMD
Ich wollte nur wissen: stand es im Artikel, dass sie dafür "gedacht" sei, oder stand nur drin, dass sie dafür gut geeignet sei, und du hast es dann hier mit dem Wort "gedacht" gepostet. Das war alles, was ich wissen wollte, da ich keine Zeit hatte, den Artikel zu lesen... ^^
 
AMD wirbt auf ihrer Seite mit "außergewöhnliches erschaffen" und dann kommt gleich ein Blender Screen. Natürlich werben sie auch mit der "ersten 7nm Gaming Grafikkarte" und in 4k und 5k scheint sie wohl nicht so schlecht abzuschneiden. Laut Golem lässt sie sich auch leicht undervolten, um den max. Stromverbrauch auf 250 W zu drücken, ohne den Takt zu senken.

Im Grunde also eher für CAD, Videobearbeitung, 3d Modeling, weil man 16 GB sehr schnellen Speicher für relativ wenig Geld bekommt. Die 3x Displayport und 1x HDMI sind in dem Bereich auch von Vorteil.
 
Und 5K bei Spielen braucht man doch auch (noch) nicht. Noch nicht mal 4K ist breit genug etabliert. Viele Spieler spielen aktuell gerade mal auf WQHD. Die meisten Gamer aber spielen sogar noch auf FHD (wie ich z.B.). 4K-taugliche Grafikkarten (RTX 1070 eher noch aufwärts) wo man AAA-Shooter u.a. mit ordentlichen FPS auf vollen Details zocken kann kosten immer noch deutlich mehr als der Durchschnittsgamer bereit ist zu bezahlen. Da rede ich noch nicht mal vom passenden Monitor den man dazu rechnen muß. Und geschweige denn wenn dann noch Raytracing zum Einsatz kommt.

Die technischen Details klingen für mich tatsächlich somit eher nach einer 3D-/Rendering-/CAD-/Videeobearbeitungs-GPU für den professionellen Einsatz. Und da paßt dann auf einmal auch wieder die Preislage. Beim Vergleich zu den Gamingkarten wäre es eine verkehrte Welt gewesen.
 
Ja eben, als reine Zockerkarte eher uninteressant, als professionelle Karte mit der Option darauf zu zocken aber recht interessant.
 
Die technischen Details klingen für mich tatsächlich somit eher nach einer 3D-/Rendering-/CAD-/Videeobearbeitungs-GPU für den professionellen Einsatz. Und da paßt dann auf einmal auch wieder die Preislage. Beim Vergleich zu den Gamingkarten wäre es eine verkehrte Welt gewesen.
Wie gesagt: die RTX 2080 kostet bei Nvidia immer noch offiziell 849€ - ich würde da erst die Marktentwicklung abwarten, ob die Radeon VII nicht bald deutlich günstiger wird, wie es auch bei der RTX 2080 der Fall war. Wenn die Radeon VII nicht unter 650€ fällt, ist sie für Gamer ohne CAD&Co-Ambitionen natürlich Unfug.

Und für WQHD bzw Full-HD ist auch eine RTX 2080 sowieso ein Overkill und völlig unnötig. ;)
 
Ich finde es bei den Benchmarks übrigens schade, dass kein Fuill HD mehr gemacht wird sondern nur minimal WQHD und 4k. Denn da denke ich ist es interessant, wie schnell die langsameren Karten gerade im Vergleich auch wirklich sind.
Mir nützt es bei dem Vergleich nämlich gar nichts, wenn Karten unter 500 Euro bei 4k total überfordert sind, während sie in Full HD beim gleichen Game dann 80FPS schaffen und damit 10 FPS schneller sind als die 800 Euro Karte bei 4k.
 
Ich finde es bei den Benchmarks übrigens schade, dass kein Fuill HD mehr gemacht wird sondern nur minimal WQHD und 4k. Denn da denke ich ist es interessant, wie schnell die langsameren Karten gerade im Vergleich auch wirklich sind.
naja, In MANCHEN Games kann es passieren, dass vlt. der Abstand bei WQHD zB 50% beträgt, bei Full-HD nur noch 30%. Aber so eine Karte für über 600€ ist an sich eben wirklich nix für Full-HD. In Tests mit nicht so teuren Karten wird Full-HD aber an sich natürlich immer noch genutzt. Die PCGH ist aber auch ziemlich auf "Hardwarefreaks" ausgerichtet, Leute, die es gar nicht so sehr interessiert, wie viel schneller als eine zB RX 580 oder GTX 1060 so eine Karte ist, sondern die wollen so oder so eine Karte für 600-800€ kaufen und nur wissen, welche dann die beste ist.
 
Und für WQHD bzw Full-HD ist auch eine RTX 2080 sowieso ein Overkill und völlig unnötig. ;)
Wenn man in WQHD gerne 144 fps und außerdem noch etwas Luft nach oben für die Titel der kommenden 2, 3 Jahre haben möchte (und vielleicht auch mal den einen oder anderen schlecht optimierten Titel wie zuletzt Resident Evil 2), würde ich eine 2080 nicht unbedingt als Overkill bezeichnen.

Zu dem Preis und mit der Speichermenge käme mir aktuell sowieso nichts von Nvidia ins Haus. Wenn die nicht in der Lage sind, in einer Karte für über tausend(!) Euro 16 GB und in einer Karte für 600-700 Euro 12 GB zu verbauen, dann ist zumindest mir mein Geld dafür definitiv zu schade. Nicht, dass die Radeon VII für Gamer eine tolle Alternative wäre ...
 
Wenn man in WQHD gerne 144 fps und außerdem noch etwas Luft nach oben für die Titel der kommenden 2, 3 Jahre haben möchte (und vielleicht auch mal den einen oder anderen schlecht optimierten Titel wie zuletzt Resident Evil 2), würde ich eine 2080 nicht unbedingt als Overkill bezeichnen.
ja, wenn wenn wenn… aber wer 144 FPS in WQHD will, der ist definitiv ein Hardware/Gaming-Freak, da gelten andere Regeln ;)

Zu dem Preis und mit der Speichermenge käme mir aktuell sowieso nichts von Nvidia ins Haus. Wenn die nicht in der Lage sind, in einer Karte für über tausend(!) Euro 16 GB und in einer Karte für 600-700 Euro 12 GB zu verbauen, dann ist zumindest mir mein Geld dafür definitiv zu schade. Nicht, dass die Radeon VII für Gamer eine tolle Alternative wäre ...
12-16GB finde ich völlig überzogen wann soll das denn bitte "nötig" werden? Sicher nicht in den nächsten 5 Jahren. AMD hätte vlt auch eher zwei Radeon VII rausbringen sollen: eine mit 8GB und eine mit 16GB für "Profis"
 
ja, wenn wenn wenn… aber wer 144 FPS in WQHD will, der ist definitiv ein Hardware/Gaming-Freak, da gelten andere Regeln ;)
Ja und? Wovon reden wir denn hier? Karten wie 2080, Radon VII oder 2080 Ti bewegen sich alle deutlich jenseits der 500 Euro-Marke. Natürlich sind wir da im Bereich der Gaming-Freaks, wo denn sonst? Von einer 200 Euro-Karte für den Massenmainstream würde ich ja auch nicht 12 oder mehr GB Speicher verlangen ...
12-16GB finde ich völlig überzogen wann soll das denn bitte "nötig" werden? Sicher nicht in den nächsten 5 Jahren. AMD hätte vlt auch eher zwei Radeon VII rausbringen sollen: eine mit 8GB und eine mit 16GB für "Profis"
Das mag Deine Einschätzung sein und "nötig" ist ja sowieso immer relativ. Ich glaube nicht, dass es so lange dauern wird, bis man von mehr als 8 GB Speicher profitiert. Hier mal ein Zitat aus dem Radeon VII-Test von tomshw:

"... Aber natürlich sind durchschnittliche Bildraten nicht alles. AMD weiß, dass die große Stärke der Radeon VII in den 16 GB HBM2 samt 1 TB/s Bandbreite liegen. Daher findet AMD natürlich auch diverse zuckersüße Kirschen, wenn man Situationen aufzeigt, wo 8 GB und teilweise sogar 11 GB Grafikspeicher schon nicht mehr reichen, was zu hässlichen Frame Time Spikes führt, die sich im schlimmsten Fall sogar als Stottern zeigen. Das Remake von Resident Evil 2 ist so ein Kandidat, der mit maximalen Texturen und Grafiksettings auf der Radeon VII auch in Ultra-HD noch perfekt läuft. Denn selbst mit den 11GB einer GeForce RTX 2080 Ti kommt es hier schon zu fiesen Nachladerucklern, eine GTX 1080 Ti ist sogar mehrmals ausgestiegen. ..."

Klar, RE 2 mag auch nicht gerade übermäßig gut optimiert sein, aber von einer Grafikkarte deutlich jenseits der 1000 Euro-Marke erwarte ich eben genügend Reserven, um das (wenn schon nicht bei zukünftigen, so doch zumindest bei aktuellen Titeln) kompensieren zu können. Und RE 2 ist ein aktueller Titel - nichts, was erst in ein, zwei oder gar fünf Jahren auf den Markt kommt.

Du musst Dir mal reinziehen, dass man vor sechs Jahren für das Geld ein GTX680-SLI-Gespann bekommen hat - heute kriegst Du dafür eine Grafikkarte, die sich schon von einem schlecht optimierten RE 2-Remake aus dem Tritt bringen lässt. Ich bleibe dabei: Die 8 GB der 2080 und die 11 GB der 2080Ti (und auch die 6 GB der 2060) sind angesichts der Preise, die Nvidia für die Karten aufruft, eine einzige Frechheit.
 
Ja und? Wovon reden wir denn hier?
ich redete zuvor davon, dass eine RTX 2080 für einen "normalen" Spieler, der kein" Freak" ist, ein Overkill ist, dem du widersprochen hattest - aber deine Argumente bezogen sich eben nicht auf "normale" Gamer. Keine Sau verlangt 144FPS in WQHD bei aktuellen Titeln, außer eben echte Hardware/Gaming-Freaks.


Das mag Deine Einschätzung sein und "nötig" ist ja sowieso immer relativ. Ich glaube nicht, dass es so lange dauern wird, bis man von mehr als 8 GB Speicher profitiert. Hier mal ein Zitat aus dem Radeon VII-Test von tomshw:

"... Aber natürlich sind durchschnittliche Bildraten nicht alles. AMD weiß, dass die große Stärke der Radeon VII in den 16 GB HBM2 samt 1 TB/s Bandbreite liegen. Daher findet AMD natürlich auch diverse zuckersüße Kirschen, wenn man Situationen aufzeigt, wo 8 GB und teilweise sogar 11 GB Grafikspeicher schon nicht mehr reichen, was zu hässlichen Frame Time Spikes führt, die sich im schlimmsten Fall sogar als Stottern zeigen. Das Remake von Resident Evil 2 ist so ein Kandidat, der mit maximalen Texturen und Grafiksettings auf der Radeon VII auch in Ultra-HD noch perfekt läuft. Denn selbst mit den 11GB einer GeForce RTX 2080 Ti kommt es hier schon zu fiesen Nachladerucklern, eine GTX 1080 Ti ist sogar mehrmals ausgestiegen. ..."
Das liegt aber eher an der Bandbreite, nicht an der SpeicherMENGE. Das ist ja das, was ich meinte. Vermutlich würde die RTX 2080 Ti auch mit 22 oder 33 GB nicht hinterherkommen.

Sollte RE2 mehr als 11GB an Texturen&co im Video-RAM haben wollen, wäre das TOTAL misslungen und hätte auch nichts mit der Portierung zu tun, da die Konsolen nicht mal ansatzweise so viel RAM haben. bzw. FALLS es doch was mit der Portierung zu tun haben sollte, dann eher mit der Umsetzung AMD vs Nvidia. Die Konsolen nutzen ja AMD-Hardware, da könnte natürlich auch deswegen etwas nicht optimal sein und nicht wegen des RAMs.

Bis Spiele mal wirklich mehr als 8Gb brauchen, wird es noch eine Weile dauern. Dass Gamer mit extremen Ansprüchen vlt. mehr RAM bräuchten, ist ein anderes Thema. Aber für hohe Details bei Full-HD und WQHD wirst Du noch eine Weile problemlos mit 8GB auskommen.

Du musst Dir mal reinziehen, dass man vor sechs Jahren für das Geld ein GTX680-SLI-Gespann bekommen hat - heute kriegst Du dafür eine Grafikkarte, die sich schon von einem schlecht optimierten RE 2-Remake aus dem Tritt bringen lässt. Ich bleibe dabei: Die 8 GB der 2080 und die 11 GB der 2080Ti (und auch die 6 GB der 2060) sind angesichts der Preise, die Nvidia dafür aufruft, eine einzige Frechheit.
Die Preise wären auch mit 16GB eine Frechheit.
 
Zurück