• Aktualisierte Forenregeln

    Eine kleine Änderung hat es im Bereich Forenregeln unter Abschnitt 2 gegeben, wo wir nun explizit darauf verweisen, dass Forenkommentare in unserer Heftrubrik Leserbriefe landen können.

    Forenregeln


    Vielen Dank
  • Kritk / Fragen / Anregungen zu Artikeln

    Wenn ihr Kritik, Fragen oder Anregungen zu unseren Artikeln habt, dann könnt ihr diese nun in das entsprechende Forum packen. Vor allem Fehler in Artikeln gehören da rein, damit sie dort besser gesehen und bearbeitet werden können.

    Bitte beachtet dort den Eingangspost, der vorgibt, wie der Thread zu benutzen ist: Danke!

Meinung zu GeForce RTX 3000: Hat AMD schon verloren?

Die Preisleistung stimmt bei der 3080 ...aber dafür hat Nvidia bei dieser Karte ganz klar an der Zukunftssicherheit mit "nur" 10GB VRAM gespart.
Eine 3080ti mit 20GB wir wahrscheinlich nächstes Jahr kommen, diese wird dann aber sicher bei 1100€+ angesiedelt sein.

Es wird wohl doch eine 3090 bei mir werden müssen.

Es wird irgendwann einen Verfall geben.. MEHR MEHR MEHR.. Für was eigentlich? 4k? Ein kleiner Teil spielt in 4 k und 8k wird sich nicht in den nächsten 10 Jahre nicht durchsetzen.
20gb Speicher halte ich für das unnötigste was man machen kann für Spieler.
Lieber Max 16 und ordentlich Geschwindigkeit.
Das ist glaube ich in der nächsten Zeit eh ein Problem. Bei den CPUs geht es doch auch nur noch um Kerne. Geschwindigkeiteb können nur noch maginal angehoben werden oder mit extreme Stromhunger..
Es muss hier mehr Effizienz her!
Der Grafikkarte Markt kommt mir so vor wie der amerikanische Automarkt in den 80ern und 90ern..Hubraum über alles. Irgendwann is halt Ende.
 
Das Problem bei 8K TV z.B. ist folgendes: Die EU schreibt ja das Energielabel vor. Die großen 8K-TV kommen da nur auf D oder so. Und die EU will einen maximalen Energieverbrauch vorschreiben. Das wird wohl auch dazu führen, daß die 65 oder gar 70" oder 80" 8K-TV gar nicht mehr verkauft werden dürfen (so 2025 soll es soweit sein). Es sei denn die Hersteller finden bis dahin entsprechende, energieeffiziente Lösungen. Momentan versuchen sie es über die geringere Helligkeit. Aber auch da sind für ein gutes Bild irgendwann natürliche Grenzen gesetzt. Ich befürchte, daß das Format 8K tot ist bevor es überhaupt etabliert ist. Aber 4K wird über kurz oder lang zum Standard werden. Auch beim Gaming. Das ist wie damals 640x480 und dann FHD. Die Entwicklung ist da. Und die Hardware ist langsam massentauglich um das ganze auch umzusetzen. Die Monitore werden genauso im Preis sinken so daß 4K in nicht allzu langer Zeit nicht mehr kostet als jetzt die Hardware für gutes FHD-Gaming.
 
Nvidia hat bei mir bisher zumindest zuletzt auch immer gewonnen... aber alleine die hirnverbrannte Idee, wegen dämlichen Treiberupdates auf Accountzwang (!) zu setzen, treibt mich eigentlich auch immer weit genug weg.
Accountzwang für Treiberupdates?
Wovon sprichst du da?
 
Gäbe es ein Bericht, vor der Vorstellung von nvidias neuen Karten, hätte sicher auch niemand damit gerechnet, wie stark und gleichzeitig günstig die neuen Modelle werden.

Da niemand in die Zukunft sehen kann, würde ich erstmal abwarten, was AMD macht und ob die Leistung die nvidia angegeben hat, in der Form auch stimmt.
 
Lieber Antonio, wenn man für die PCGH Newsmeldungen schreibt, sollte man sich vorher auch mit dessen Technikinfos beschäftigen.

"Denn dass die neuen Radeon RX 6000-Modelle (Ende Oktober oder im November erwartet) mehr als 40 bis 45 Prozent auf die Radeon RX 5700 XT drauflegen werden und somit die GeForce RTX 3070 einholen, scheint eher unwahrscheinlich zu sein."

Wie kann man also so einen Text verfassen, wenn alles eigentlich gegen diese persönliche Meinung(?) spricht?

Man darf doch bereits davon ausgehen, dass die Konsolen eine 5700XT stehenlassen wird.
Und der richtige Big Navi im PC wird nochmals größer, es werden ja sogar knapp doppelte Einheiten vermutet.
Also warum sollte davon bitte schön nicht mal 40% mehr Leistung übrig bleiben?
Diese 40% hat man alleine schon dadurch, dass die Fertigungstechnik verfeinert wird, etwas mehr Takt gegeben wird und die angedachte Designverbesserung von RDNA1 auf Version 2 vollführt, was einen großen Sprung bedeuten soll.
Und jetzt packen wir also noch massig weitere Recheneinheiten obendrauf.
Wer auch nur einen Funken Ahnung von Mathe hat, wird da sicher nirgendwo unter oder maximal bei lediglich 40% landen.
Selbst die schlechtesten Gerüchteküchen, die von NVidia-Fanboys getreut zu werden scheinen, wagen nicht einmal so eine desaströse Prognose rauszuhauen.
Nicht mal 3070 Leistung?
Was muss da alles schieflaufen, um das wahr werden zu lassen?
Natürlich kann man niemals alles völlig ausschließen, schließlich gurkt ein anderes rotes Objekt gerade in der Formel 1 auch plötzlich unerwartet 10 Plätze tiefer irgendwo im Niemandsland herum.

Tut mir Leid, die News lese ich jetzt gar nicht mehr weiter und breche ab, denn allzu viel an neuen Erkenntnissen in sachen Leistungseinschätzung brauche ich mir davon ja wohl nicht erhoffen.
<augenroll>
 
Es wird irgendwann einen Verfall geben.. MEHR MEHR MEHR.. Für was eigentlich? 4k? Ein kleiner Teil spielt in 4 k und 8k wird sich nicht in den nächsten 10 Jahre nicht durchsetzen.
20gb Speicher halte ich für das unnötigste was man machen kann für Spieler.
Lieber Max 16 und ordentlich Geschwindigkeit.
Das ist glaube ich in der nächsten Zeit eh ein Problem. Bei den CPUs geht es doch auch nur noch um Kerne. Geschwindigkeiteb können nur noch maginal angehoben werden oder mit extreme Stromhunger..
Es muss hier mehr Effizienz her!
Der Grafikkarte Markt kommt mir so vor wie der amerikanische Automarkt in den 80ern und 90ern..Hubraum über alles. Irgendwann is halt Ende.

20GB ist für 4K Spieler sicherlich nicht verkehrt, wenn damit Raytracing betrieben wird.
Für FullHD und WQHD werden sicherlich auch 12 bzw. 16GB eine zeitlang völlig reichen.
8GB in FullHD oder 12GB in 4K sind schon jetzt ausgereizt, und die richtigen Raytracingspiele kommen ja noch.
Wenn 4GB Speicher bei solchen teuren Karten um udn ab 500 Euro meinetwegen auch 50 Euro extra kosten mögen, darf man preislich nicht zu geizig sein, wenn dei Karte nicht sehr bald wieder zum alten Eisen gehören soll.
Ich möchte jedenfalls keinen Rechner im 4stelligen Bereich zusammenstellen, udn am Ende gibt es Mikroruckler durch 2 Kerne zu wenig oder fehlendem HAupotspeicher oder zu engem Grafikkartenspeicher.
 
Naja mal sehen wie sich der Markt bis nächstes Jahr entwickelt. Vielleicht schiebt Nvidia noch entsprechende ti-Varianten seiner Karten nach die dann die doppelte Speichergröße haben. Z.B. eine RTX 3070 mit 16 GB oder eine RTX 3080 mit 20 GB. Meinetwegen für die 3070ti dann 600 EUR (700 EUR Costum-Modell) und für die RTX 3080 ti dann halt 900 EUR (1000 EUR Costum). Da würde ich auf die RTX 3090 verzichten. Aber so ? Klar die Preise sind nicht ohne. Aber für die gebotene Leistung allemal gerechtfertigt.
 
Ähm unter Einbezug von AMD ist die 3050/3060 immer noch die Mittelklasse. Nur weil Nvidia erst bei der oberen Mitteklasse/Oberklasse anfängt heißt das nicht, daß es nicht Karten darunter gibt. ;)

Also du kannst AMD gar nicht einbeziehen, da es zu Big Navi noch gar nichts handfestes gibt, außer Innerein lesen, Glaskugel schauen und den Vogelflug durch Auguren interpretieren lassen.
Das Spiel wie man die Karten interpretiert, kann man ewig so weiter treiben.
Wenn du nur die neue Kartengeneration von NVIDIA nimmst, wäre die 3070 bei momentan drei ankündigten Karten sogar Unterklasse.
Bei 5 Karten innerhalb NVIDIAs neuer Generation Mittelklasse.
Andere Karten da mit in den Pool zu nehmen speziell wenn es sie noch nicht gibt ist ne ganz schöne Verzerrung - man kann die Liste länger und länger machen.
Wenn wir noch alle meistverwendeten Karten bis zur GTX 960 hinzuaddieren (Lange Liste auf Steam https://store.steampowered.com/hwsurvey/videocard/ ), ist die RTX 3070 absolutes Highend.
Könne es natürlich bis zur 580 GTX (Platz 86) https://www.pc-erfahrung.de/grafikkarte/vga-grafikrangliste.html treiben, dann ist natürlich auch jede Radeon RX 5700 knackiges Highend
 
Naja die kleinen Karten gibt es doch schon von AMD. Nur die großen Karten noch nicht

Das ist wovon ich gesprochen habe - du versuchst eine neue Generation mit der alten zu vermengen, sowas ist unlauter.
Es hat einen Grund warum sie die Big Navis nicht 5xxx benennen.
Oder sind die 2000er die kleinen Karten der 3000er Generation?
Nein.

By the way...
Die 2070 zeigt z.B. einer locker doppelt so teuren 2080ti die Rücklichter.
Und die Costum-Modelle der 2000er Reihe sind auch teurer als das Referenzdesign. Ganz normal.
Ich schwanke noch. Wollte mir eigentlich im kommenden Jahr die RTX 2080 holen. Aber vielleicht laß ich mich doch noch zur RTX 3090 hinreißen. Mal schauen. Oder es kommt eine RTX 2080ti mit 16 GB für um die 1000 EUR.
Dein Jonglieren mit der 2 und 3 machen deinen Text nicht besonders lesbarer...
 
Das ist wovon ich gesprochen habe - du versuchst eine neue Generation mit der alten zu vermengen, sowas ist unlauter.
Es hat einen Grund warum sie die Big Navis nicht 5xxx benennen.
Oder sind die 2000er die kleinen Karten der 3000er Generation?
Nein.

By the way...


Dein Jonglieren mit der 2 und 3 machen deinen Text nicht besonders lesbarer...

Dachte von der neuen Gen sind die kleinen Karten schon raus? Mein Fehler.

Aber was 2 und 3 betrifft: Natürlich vergleiche ich 2 und 3. weil mich als Besitzer der 2 interessiert welche Mehrleistung ich bei einem Wechsel auf die 3 bekomme. Wegen 10-20% macht das bei den Preisen keinen Sinn, bei 40-50% oder mehr hingegen schon.

Und die Bemerkungen sollen nur zeigen wie groß der Sprung ist wenn man die aktuellen Infos zugrundelegt.
 
Leaked 3080 Test Results (also immer mit nen bissl Salz nehmen ne und abwarten bis die NDA am Montag Nachmittag ausläuft. Dann kommen die richtigen Tests)

In 4k vs. a RTX 2080 Super
Far Cry 5: +62 %
Borderlands 3: +56 %
AC Odyssey: +48 %
Forza Horizon 4: +48 %

And in 3D Mark
3DMark Fire Strike Performance: 31.919 (+25 % vs. 2080 Ti, +43 % vs. 2080 S)
3DMark Fire Strike Extreme: 20.101 (+24 % vs. 2080 Ti, +45 % vs. 2080 S )
3DMark Fire Strike Ultra: 11.049 (+36 % vs. 2080 Ti, +64 % vs. 2080 S)
3DMark Fire Strike Time Spy: 17.428 (+28 % vs. 2080 Ti, +49 % vs. 2080 S)
3DMark Fire Strike Time Spy Extreme: 8.548 (+38 % vs. 2080 Ti, +59 % vs. 2080 S)
3DMark Fire Strike Port Royal: 11.455 (+45 % vs. 2080 Ti, +64 % vs. 2080 S)

The System used was a I9-10900k and 42 GB DDR in 4133 MHZ in CL17 Timing with 1000 Watt PSU (apparently the whole system "only" used 500 Watt's) and Driver was 456.16. The Presstest Driver.
 
Dachte von der neuen Gen sind die kleinen Karten schon raus? Mein Fehler.

Aber was 2 und 3 betrifft: Natürlich vergleiche ich 2 und 3. weil mich als Besitzer der 2 interessiert welche Mehrleistung ich bei einem Wechsel auf die 3 bekomme. Wegen 10-20% macht das bei den Preisen keinen Sinn, bei 40-50% oder mehr hingegen schon.

Und die Bemerkungen sollen nur zeigen wie groß der Sprung ist wenn man die aktuellen Infos zugrundelegt.

Äh guck dir mal die Texte an... du schreibst zum Beispiel "Oder es kommt eine RTX 2080ti mit 16 GB für um die 1000 EUR."
Ich würde verstehen, wenn du RTX 3080 Ti schreiben würdest, aber so macht das keinen Sinn.
NVIDIA hat noch nie nach Erscheinen einer neuen Generation, eine alte Generation mit größerem Speicher nachträglich auf den Markt gebracht.
Auch bei anderen Vergleichen, verschreibst du dich mit 2xxx und 3xxx... .

The System used was a I9-10900k and 42 GB DDR in 4133 MHZ in CL17 Timing with 1000 Watt PSU (apparently the whole system "only" used 500 Watt's) and Driver was 456.16. The Presstest Driver.
42GB DDR?
Den exotischen RAM würde ich gerne mal genauer in Augenschein nehmen. :-D
 
Solche Überschriften... nötig? Auch wenn im Text dann näher darauf eingegangen wird.
NVidia bietet die vorgestellten Karten ab 500€ an. Wer leistet sich schon eine Grafikkarte über 500€? Für mich und die meisten ein unwichtiger Bereich, schon weil viele nur leise Grafikkarten mit geringer Stromaufnahme bevorzugen. Der wichtigste Bereich liegt bei 150€ bis 350€ und dazu hat noch niemand neue Karten angekündigt, bzw vorgestellt.

Und Hurra die neuen sind schneller. Oh Wunder, sollen wir froh sein, dass sie nicht langsamer werden? ;)
Die letzte Generation war ja schießlich eher enttäuschend.
 
Hatte AMD denn irgendwas im High-End-Bereich aufzubieten? Da tummelten sich die Karten doch eher im Low und Mittelklassebereich. Habe nun jahrelang beide Anbieter durchgetestet und werden daher den Entschluss ziehen, in Zukunft Geforce zu bevorzugen.
 
xx50 = Einstiegsklasse
xx60= Untere Mittelklasse
xx70= Obere Mittelklasse
xx80= Oberklasse
xx90/Titan= Luxusklasse

Super/Ti-Versionen=Sport/Premium-Version d. jw. Klasse

;)
 
Äh guck dir mal die Texte an... du schreibst zum Beispiel "Oder es kommt eine RTX 2080ti mit 16 GB für um die 1000 EUR."
Ich würde verstehen, wenn du RTX 3080 Ti schreiben würdest, aber so macht das keinen Sinn.
NVIDIA hat noch nie nach Erscheinen einer neuen Generation, eine alte Generation mit größerem Speicher nachträglich auf den Markt gebracht.
Auch bei anderen Vergleichen, verschreibst du dich mit 2xxx und 3xxx... .


42GB DDR?
Den exotischen RAM würde ich gerne mal genauer in Augenschein nehmen. :-D

Ähm Tippfehler kannst Du behalten. Wenn Du minimal nachdenkst kommst Du selbst darauf. ;)
 
Und Raytracing ist auch ein Zugpferd. In den letzten Generationen hatte AMD bei den GPUs zumindestens im Oberklassesektor immer das Nachsehen gehabt. Und bei der jetzigen 3000er Generation wird es dank dem überraschend günstigen Preis-/Leistungsverhältnis von Nvidia für AMD auch in der Unter- und Mittelklasse eng. Wenn ich daran denke wenn RTX 3050 und 60 noch kommen und Nvidia beim VRAM nicht extrem geizt dann hat AMD ein schweres Los.

Ob AMD das umdrehen kann ist die Frage. Im Highendbereich kann AMD laut einhelliger Fachmeinungen spätestens ab einer RTX 3070 nicht mehr mithalten. Die Versuche von AMD brachten da zu hohen Energiebedarf, viel zu hohe Temperaturen und daß die Versuchskarten sich als Schutzmodi massiv heruntergetaktet hatten. Und das bei Karten auf dem Niveau einer RTX 3070. Von 3080 oder gar 90 will ich gar nicht erst anfangen.

Bei Youtube gibt es einige Infos.

Mir wäre es auch lieber wenn AMD und Nvidia auf Augenhöhe wären. Aber bei realer Betrachtung hat AMD etwas den Anschluss verloren. Umgekehrt im CPU-Sektor wo Intel AMD hinterherhängt.

was hat sich den so groß am preis geändert? kleines model von nvidia war doch schon immer bei 500€ ca. also was das 70er anbelangt.

Ich finde 3070 noch teuer. 3080 sowieso mit so wenig vram.

Die 3080 ti wird warscheinlich wieder bei 1000+ landen. Also für mich alles wie immer nix neues


Wo bitte ist eine 3070 Mittelklasse? Bleib mal auf dem Teppich. Wo lebst Du denn? Mittelklasse sind 3050/60. Und bis auf VRAM ist die 3070 fast auf Titan-Niveau.

Die 3000er Serie ist im Vergleich zur 2070 deutlich billiger fährt aber mit der 2000er Reihe Ski.

Die 2070 zeigt z.B. einer locker doppelt so teuren 2080ti die Rücklichter.

Und die Costum-Modelle der 2000er Reihe sind auch teurer als das Referenzdesign. Ganz normal.

Ich habe damals 630-650 EUR für meine Asus RTX 2070 OC bezahlt. Für das Geld bekomme ich jetzt locker eine Costum RTX 2070 OC die eine 2080ti locker einkassiert und für minimal mehr schon eine RTX 3080 die eine Titan an die Wand spielt.


Die echten benchmakrs würde ich auch noch abwarten ich glaube irgendwie so großen wie anfangs gehofft wird es kein vorsprung geben zum 2080ti. Nvidia kann viel erzählen aber ob man da immer alles glauben sollte naja. Lieber abwarten :-D

Schneller werden sie sein das ist sicher aber nicht so wie nvidia es gerne hätte. Also nicht falsch verstehen ^^
 
Die echten benchmakrs würde ich auch noch abwarten ich glaube irgendwie so großen wie anfangs gehofft wird es kein vorsprung geben zum 2080ti. Nvidia kann viel erzählen aber ob man da immer alles glauben sollte naja. Lieber abwarten :-D

Montag Nachmittag fällt die NDA, dann können die Tests veröffentlicht werden. Ob das jetzt US Zeit oder DE Zeit ist, das weis ich nicht.
 
Zurück