• Aktualisierte Forenregeln

    Eine kleine Änderung hat es im Bereich Forenregeln unter Abschnitt 2 gegeben, wo wir nun explizit darauf verweisen, dass Forenkommentare in unserer Heftrubrik Leserbriefe landen können.

    Forenregeln


    Vielen Dank
  • Kritk / Fragen / Anregungen zu Artikeln

    Wenn ihr Kritik, Fragen oder Anregungen zu unseren Artikeln habt, dann könnt ihr diese nun in das entsprechende Forum packen. Vor allem Fehler in Artikeln gehören da rein, damit sie dort besser gesehen und bearbeitet werden können.

    Bitte beachtet dort den Eingangspost, der vorgibt, wie der Thread zu benutzen ist: Danke!

AMD Radeon RX 480: Neue Bilder zeigen Innenleben der Grafikkarte

Icetii

Autor
Mitglied seit
21.04.2016
Beiträge
3.425
Reaktionspunkte
51
Jetzt ist Deine Meinung zu AMD Radeon RX 480: Neue Bilder zeigen Innenleben der Grafikkarte gefragt.


Bitte beachtet: Der Kommentarbereich wird gemäß der Forenregeln moderiert.


arrow_right.gif
Zum Artikel: AMD Radeon RX 480: Neue Bilder zeigen Innenleben der Grafikkarte
 
So lange die Grafikkarten nicht Minimum 32 GB Vram haben und das verarbeiten können, besteht kein Grund mich von meiner r290 Sapphire zu trennen. Die Zukunft der Games wird lausig. Konsolen verstümmelte Ultra HD Ports die kaum noch Optimiert werden... hab mir am letzten Samstag Rise of the Tombraider gekauft und mal so die Einstellungen auf Ultra und 4K gestellt ,sehe da meine Grafikkarte ist nur halb ausgelastet und trotzdem erleide ich an vielen stellen FPS einbrüche. Bitte kommt mir nicht mit DX12, weil ich viele Leute kenne die haben Windows 10 und haben trotzdem FPS einbrüche. -.-
 
Vielleicht ist deine CPU zu lahm ...

Ein Core i7-4930k 6x3,4 GHZ zu langsam? Frage mich warum ich für den Chip dann 550€ hingeblättert habe wenn du sagst der ist zu langsam. Das liegt nur dran das Tomb Raider wieder ein schlechter Konsolen Port ist. Die CPU ist grad mal zu 10% ausgelastet.
 
das manche immer profilieren müssen wenn sie was nicht tun :rolleyes:
 
Aha, fetter Core i7, Radeon 290, 32GB RAM und Grafikkarte in 4k nicht ausgelastet aber trotzdem ruckelt Rise of the Tomb Raider. Da klingt so vieles falsch, dass ich gar nicht weiß, wo ich anfangen soll. Zunächst die R9 290 wird schon in 1080p bei RotTR bei Ultra an ihr Limit getrieben. Mit halber Auslastung ist da ohnehin nichts. Wieviel Speicher hat die 290? 2GB sind für Ultrasettings selbst bei 1080p zu wenig, da braucht die Karte schon 3 - 4 GB. Bei 4k brauchst du 6 - 8 GB RAM, sonst müssen die Texturen geswappt werden und ja, sonst ruckelt es halt, weil deine Karte zu schlecht bestückt ist. Alternativ musst du halt die Texturauflösung runter schrauben.
 
Die R9 290 hat 4 GB. Weiß nicht ob es von der überhaupt eine 2 GB-Version gibt. Aber meine hat 4 GB. Aber ruckelfreies 4K genießen halte ich trotzdem für nicht möglich mit der Karte. Da muß schon ein größeres Kaliber her. Die 480er soll ja ungefähr in dem Leistungslevel spielen wo die 960er/970er von Nvidia angesiedelt ist. Selbst da wird es imho eng mit 4k (meiner Meinung nach).

Würde wenn ich auf 4K gehen würde wollen eine 8 GB Karte nehmen (Nvidia 1080er aufwärts), 16 GB RAM, SSD und eine Skylake-CPU (Intel i7).
 
Stimmt, die R9 290 scheint es nur mit 4GB zu geben. Aber, das reicht bei modernen Titeln wie Witcher 3 oder Rise of the Tomb Raider, die wohl beide derzeit mit die grafische Speerspitze darstellen und extrem hochauflösende Texturen nutzen können halt nur für 1080p (oder halt schlechtere Texturen auswählen).

Die 480er soll doch sogar an die GF 980 rankommen und die 970 bei weitem überflügeln. Die R9 290 ist jedenfalls schon schneller als eine GF 960. Die GF 960 entspricht der R9 280(x) bzw. R9 380.
 
Stimmt, die R9 290 scheint es nur mit 4GB zu geben. Aber, das reicht bei modernen Titeln wie Witcher 3 oder Rise of the Tomb Raider, die wohl beide derzeit mit die grafische Speerspitze darstellen und extrem hochauflösende Texturen nutzen können halt nur für 1080p (oder halt schlechtere Texturen auswählen).

Die 480er soll doch sogar an die GF 980 rankommen und die 970 bei weitem überflügeln. Die R9 290 ist jedenfalls schon schneller als eine GF 960. Die GF 960 entspricht der R9 280(x) bzw. R9 380.
Die R9 290 ist an sich eine sehr gute Karte, da ist eine zB GTX 970 nur wenige Prozent schneller. Ultra in FullHD ist mit der R9 290 an sich immer noch bei allen Games drin, nur bei den Texturen muss man halt schauen, ob die mehr als 4GB brauchen - wenn ja, dann spielt man halt Ultra plus Texturen "nur" auf hoch...

Aber auf 4k, da bricht halt selbst eine GTX 980 Ti oder GTX 1080 im Vergleich zu FullHD komplett. Man hat da nun mal nur ca 1/3 der FPS wie bei FullHD. Diese beiden Top-Karten würden halt trotzdem 40-50 FPS schaffen. Eine R9 290, R9 390,. GTX 970 oder auch GTX 980 aber eben nur 25-30 FPS maximal.

Das hat aber Null mit "schlechtem Konsolenport" zu tun, sondern damit, dass kaum jemand schon in 4k spielt, die überwältigende Mehrheit aber in "nur" FullHD. Und ein Spielestudio entwickelt die Grafik dann logischerweise so, dass das Game auf "Ultra" und in FullHD mit einer guten Karte wie der R9 290, GTX 970 usw. in allr Regel noch flüssig mit 40-70 FPS läuft. Würden die Entwickler aber den Ultramodus so gestalten, dass der in 4K mit ner R9 290 oder GTX 970 oder so bei 50-60 FPS läuft, dann würden sich die ganzen User mit Full-HD-Monitoren kaputtärgern, weil es bei denen in FullHD dann um die 120-150 FPS wären und dies logischerweise im Umkehrschluss bedeutet, dass eine viel bessere Grafik drin gewesen wäre, die man auf FullHD noch mit 50-60 FPS spielen kann,

Das wird auch noch eine ganze Weile so bleiben: Ultramodus mit ner 300-500€-Karte wird in Full-HD auf 40-60 FPS laufen - auf 4k dann IMMER logischerweise mit nur 15-30 FPS maximal. 4k und Ultra gleichzeitig geht einfach nicht, außer mit nem SLI/CF aus mehreren Top-Karten.
 
Ich z.B. sehe keinen Sinn in 4k. Auf Konsole schon gar nicht da mein TV viel zu weit weg steht und am PC ... nunja ... für einige Anwendungen wie Bildbearbeitung wäre es mal ganz nett aber bei Spielen brauche ich das wirklich nicht. Ich fahre da lieber niedrigere Auflösung und habe dafür mehr FPS. Ich habe mir 4k jedenfalls schon gelegentlich angeschaut und der Mehrwert ist mir einfach viel zu gering, da geht es um minimale Details die man "in der Hitze des Gefechtes" weder bei Filmen noch bei Spielen überhaupt registriert sondern nur, wenn man explizit darauf achtet.
 
Ich z.B. sehe keinen Sinn in 4k. Auf Konsole schon gar nicht da mein TV viel zu weit weg steht und am PC ... nunja ... für einige Anwendungen wie Bildbearbeitung wäre es mal ganz nett aber bei Spielen brauche ich das wirklich nicht. Ich fahre da lieber niedrigere Auflösung und habe dafür mehr FPS. Ich habe mir 4k jedenfalls schon gelegentlich angeschaut und der Mehrwert ist mir einfach viel zu gering, da geht es um minimale Details die man "in der Hitze des Gefechtes" weder bei Filmen noch bei Spielen überhaupt registriert sondern nur, wenn man explizit darauf achtet.

Also die 4K Screenshots von Horizon: Zero Dawn finde ich schon sehr lecker. :X

http://www.pcgames.de/screenshots/original/2016/06/horizon-zero-dawn-e32016-0013-pc-games.png
http://www.pcgames.de/screenshots/original/2016/06/horizon-zero-dawn-e32016-0012-pc-games.png
http://www.pcgames.de/screenshots/original/2016/06/horizon-zero-dawn-e32016-0011-pc-games.png
http://www.pcgames.de/screenshots/original/2016/06/horizon-zero-dawn-e32016-0010-pc-games.png
http://www.pcgames.de/screenshots/original/2016/06/horizon-zero-dawn-e32016-0009-pc-games.png
http://www.pcgames.de/screenshots/original/2016/06/horizon-zero-dawn-e32016-0008-pc-games.png


Was man persönlich "braucht" muss man halt selber wissen. Für manche geht nix unter 144fps, wieder andere hätten am liebsten 8K, der nächste steht auf VR.
Bis das alles zusammen möglich sein wird fließt noch viel Wasser den Rhein entlang.^^
 
Haha, ja klar sehen solche Screenshots toll aus. Aber die haben ja nun überhaupt nichts mit Bildschirmauflösung und Betrachtungsabstand zu tun. Das ist ja letztlich der wichtige Faktor, ab wann erkennt das Auge überhaupt einen Unterschied. Und bei 4k bräuchte ich dann z.B. wahrscheinlich mind. ein 32 Zoll Display. Das ist dann aber langsam schon wieder fast zu groß für den Schreibtisch bzw. würde das mein Sichtfeld auch ziemlich ausfüllen und die große Fläche wäre unangenehm für die Augen, gerade bei hellen Hintergründen.
Ich habe das mal überschlagen, um beim TV einen wirklich, deutlichen Nutzen von 4k zu haben müsste ich bei meinen fast 4m Sitzabstand mind. einen 100 Zoll TV haben.
 
was mir grad noch auffällt: der i7-4930k ist ja Sockel 2011, da sind CPUs und auch die Mainboards sauteuer. Da wäre man deutlich glücklicher gewesen, wenn er damals nur nen Xeon E3-1230 v3 oder 1231 v3 genommen hätte für nur 250€. Die Xeons sind beim Takt quasi identisch, und man weiß bei Games, dass die mehr Kerne des i7-4930K so gut wie nie was bringen, d.h. der Xeon wäre da in Games vermutlich meistens fast gleichschnell. Vom gesparten Geld hätte man sich dann sogar fast eine GTX 980 Ti leisten können, die 50% mehr FPS als die R9 290 bringt. ^^

Sockel 2011 und 2011-3 zum Gamen ist halt Unsinn, außer man hat neben den Games noch Anwendungen, die klar von den teuren CPUs profitieren und die einem wichtig sind, so dass man den Mehrpreis "gerne" zahlt. Aber ansonsten ist die Leistung kaum besser als beim Sockel 1150 oder 1151. Teils in Games sogar schwächer, da manche der Enthusiasten-CPUs weniger Takt haben als ein zB i5-4650 bzw. i5-6500 oder Xeon E3 1230/1231 v3 bzw. i7-4770 bzw i7-6700 und die Mehr-Kerne das nicht ausgleichen.
 
Ja, sage ich auch immer. Nichts geht über GHz. Mehr Kerne bringen bei Spielen kaum was. Aber jeder meint ja inzwischen, sechs bis acht Kerne mit 3 GHz sind schneller als vier Kerne mit 4GHz, weil die neuen Spiele die ja angeblich gut ausreizen können. Habe ich allerdings noch nicht viel von gemerkt. Davon ab hatte ich eh noch kein Spiel, das meinen i5 3570k mit 3,8GHz Standardtakt auch nur halb auslastet, ich kann sogar ohne Framedrops das Spiel nebenher als hochwertiges Video kodieren lassen. Viele Kerne bringen nur was, wenn viele Anwendungen parallel was berechnen oder wenn ein Programm tatsächlich darauf ausgelegt ist. Sind aber die wenigsten, in der Regel nur so Titel wie Anno, die da viel KI im Hintergrund berechnen lassen.
 
Ja, sage ich auch immer. Nichts geht über GHz. Mehr Kerne bringen bei Spielen kaum was. Aber jeder meint ja inzwischen, sechs bis acht Kerne mit 3 GHz sind schneller als vier Kerne mit 4GHz, weil die neuen Spiele die ja angeblich gut ausreizen können. Habe ich allerdings noch nicht viel von gemerkt. Davon ab hatte ich eh noch kein Spiel, das meinen i5 3570k mit 3,8GHz Standardtakt auch nur halb auslastet, ich kann sogar ohne Framedrops das Spiel nebenher als hochwertiges Video kodieren lassen. Viele Kerne bringen nur was, wenn viele Anwendungen parallel was berechnen oder wenn ein Programm tatsächlich darauf ausgelegt ist. Sind aber die wenigsten, in der Regel nur so Titel wie Anno, die da viel KI im Hintergrund berechnen lassen.

Die 8 Threads eines Sockel 1150/1151 Core i7, die nicht so viel teurer als Core i5 sind, sind allerdings durchaus sinnvoll, in manchen Games bringen die schon was, und in 2-3 Jahren könnte es wg. der aktuellen Konsolen noch besser aussehen, da die Konsolen ja Achtkerner nutzen. Aber die Sockel 2011 und 2011-3 CPUs haben ja sogar 6 echte Kerne oder mehr und dann sogar 12 Threads - und das wird auf absehbare Zeit nun wirklich nichts für Gaming bringen, und selbst wenn doch: dann wäre es trotzdem besser (gewesen), sich aktuell oder vor 2-3 Jahren nen core i5/i7 für 200-300€ zu holen und dann halt - FALLS es dann mal so weit ist, dass mehr als 8 Threads was bringen - eine entsprechende neue CPU für erneut 200-300€, die dann sicher auch schneller als ein zu dem Zeitpunkt bereits veralteter 2011-/2011-3-Prozessor ist. ;)
 
Zurück