• Aktualisierte Forenregeln

    Eine kleine Änderung hat es im Bereich Forenregeln unter Abschnitt 2 gegeben, wo wir nun explizit darauf verweisen, dass Forenkommentare in unserer Heftrubrik Leserbriefe landen können.

    Forenregeln


    Vielen Dank
  • Kritk / Fragen / Anregungen zu Artikeln

    Wenn ihr Kritik, Fragen oder Anregungen zu unseren Artikeln habt, dann könnt ihr diese nun in das entsprechende Forum packen. Vor allem Fehler in Artikeln gehören da rein, damit sie dort besser gesehen und bearbeitet werden können.

    Bitte beachtet dort den Eingangspost, der vorgibt, wie der Thread zu benutzen ist: Danke!

Intel Core 9000: Testanalysen und Kaufberatung zu CPUs

AntonioFunes

Autor
Mitglied seit
29.09.2010
Beiträge
952
Reaktionspunkte
109
Jetzt ist Deine Meinung zu Intel Core 9000: Testanalysen und Kaufberatung zu CPUs gefragt.


Bitte beachtet: Der Kommentarbereich wird gemäß der Forenregeln moderiert.


lastpost-right.png
Zum Artikel: Intel Core 9000: Testanalysen und Kaufberatung zu CPUs
 
AMD Ryzen 7 2700X Pinnacle Ridge ja 6 12 3,7 (4,3) GHz

Hat er nicht 8 Kerne und 16 Threads?
 
Na, dann passte es ja, dass ich den i7 8700k vor ein paar Wochen genommen habe und muss nicht bereuen, nicht noch auf die neue Generation gewartet zu haben. Der ein wenig schnellere 9900k wäre mir dann doch zu teuer gewesen und der 9700k hat zwar für 100 Euro mehr 8 Kerne aber dafür kein Hyperthreading und ist bei Spielen quasi genauso schnell.
 
Ich muss sagen: Der 9700k reizt mich. Evtl. gibt's bei mir ja ne Aufrüstung um die Weihnachtszeit herum bzw. kurz danach. Mein "alter" Ryzen ist zwar ganz nett, aber wenn Singlecore-Performance gefragt ist, kann der einfach nicht mithalten.
 
Ich muss sagen: Der 9700k reizt mich. Evtl. gibt's bei mir ja ne Aufrüstung um die Weihnachtszeit herum bzw. kurz danach. Mein "alter" Ryzen ist zwar ganz nett, aber wenn Singlecore-Performance gefragt ist, kann der einfach nicht mithalten.
Welchen Ryzen hast du denn?
Merkst du das beim Arbeiten/Spielen? Oder ist das einfach der Enthusiasten-Reiz?

Ich muss bei dem Thema auch immer mit meinem Enthusiasmus kämpfen ^^
Hab nen i7 6700 (non k) damals gekauft, weil ich Verbrauch/Leistung toll fand und eh nie übertakten wollte. Jetzt sind wir schon bei Generation 9xxx angekommen und es reizt mich schon, aber nötig ist es absolut nicht, wenn ich mal vernünftig rangehe...:-D
 
Welchen Ryzen hast du denn?
Merkst du das beim Arbeiten/Spielen? Oder ist das einfach der Enthusiasten-Reiz?

Ich muss bei dem Thema auch immer mit meinem Enthusiasmus kämpfen ^^
Hab nen i7 6700 (non k) damals gekauft, weil ich Verbrauch/Leistung toll fand und eh nie übertakten wollte. Jetzt sind wir schon bei Generation 9xxx angekommen und es reizt mich schon, aber nötig ist es absolut nicht, wenn ich mal vernünftig rangehe...:-D

Nen 1600X. Und ich merke es vor allem bei Flugsimulationen, die nicht vernünftig für Multicoresysteme optimiert sind. Das sind vor allem X-Plane 11 und DCS World, die beide massiv besser laufen auf hochgetakteten Intel-Systemen.
 
Hab nen i7 6700 (non k) damals gekauft, weil ich Verbrauch/Leistung toll fand und eh nie übertakten wollte. Jetzt sind wir schon bei Generation 9xxx angekommen und es reizt mich schon, aber nötig ist es absolut nicht, wenn ich mal vernünftig rangehe...:-D

Wenn mein alter Rechner nicht den Geist aufgegeben hätte, dann würde ich die nächsten Jahre auch noch locker mit meinem alten i5 3570k längs kommen. Die jährlichen Generationssprünge sind eigentlich wirklich nur winzig.
Allerdings spiele ich auch anders als Neawoulf keine solchen Simulationen.
 
Es ist schon sehr ernüchternd zu lesen, wie kümmerlich die Leistungszuwächse in den letzten Jahren geworden sind. Man merkt wirklich, dass die gegenwärtige Prozessortechnologie ihre Grenzen erreicht hat.

Wenn ich überlege dass ich früher meinen Prozessor spätestens alle 3 Jahre tauschen musste um überhaupt irgendein aktuelles Spiel zum Laufen zu kriegen (Sprünge von 60 auf 233 auf 800 MHz usw.).
Schon damals hatte ich gelesen, dass eines Tages bei ca. 4 GHz Schluss sein würde. Das würde keine harte Grenzen sein, aber um diesen Wert herum würde die Taktraten-Erhöhung zum Erliegen kommen. Günstige Casual-Rechner würden etwas darunter liegen, Spiele-Rechner etwas höher. Und genau so ist es tatsächlich gekommen.

Ärgerlich: Als Kind war ein Rechner eine Großinvestition. Da musste ich aber ständig aufrüsten, um einen spieletauglichen PC zu haben. Heute könnte ich mir jeden Monat einen neuen Komplett-PC kaufen, brauche aber im Grunde nur noch alle 3 Jahre die Grafikkarte und alle 10 Jahre die CPU tauschen.
 
Es ist schon sehr ernüchternd zu lesen, wie kümmerlich die Leistungszuwächse in den letzten Jahren geworden sind. Man merkt wirklich, dass die gegenwärtige Prozessortechnologie ihre Grenzen erreicht hat.

Wenn ich überlege dass ich früher meinen Prozessor spätestens alle 3 Jahre tauschen musste um überhaupt irgendein aktuelles Spiel zum Laufen zu kriegen (Sprünge von 60 auf 233 auf 800 MHz usw.).
Schon damals hatte ich gelesen, dass eines Tages bei ca. 4 GHz Schluss sein würde. Das würde keine harte Grenzen sein, aber um diesen Wert herum würde die Taktraten-Erhöhung zum Erliegen kommen. Günstige Casual-Rechner würden etwas darunter liegen, Spiele-Rechner etwas höher. Und genau so ist es tatsächlich gekommen.

Ärgerlich: Als Kind war ein Rechner eine Großinvestition. Da musste ich aber ständig aufrüsten, um einen spieletauglichen PC zu haben. Heute könnte ich mir jeden Monat einen neuen Komplett-PC kaufen, brauche aber im Grunde nur noch alle 3 Jahre die Grafikkarte und alle 10 Jahre die CPU tauschen.

Nunja, der Pentium 4 hatte schon beinahe 4GHz vor 10 - 15 Jahren. Leistungsmäßig gab es dann mit den Core 2 Duo und Core 2 Quad Prozessoren schon einen gewaltigen Leistungssprung mit erheblich weniger GHz und dann eben nochmals bei den Core i Prozessoren. Aber letztere sind inzwischen eben auch schon ewig auf dem Markt und Intel hat es auch nicht nötig, da etwas besseres zu machen, die Konkurrenz durch AMD hat jahrelang geschlafen und kommt erst jetzt so langsam mal wieder in die Hufe.
Die Leistung reicht ohnehin bei den meisten für den alltäglichen Bedarf, normale Anwendungssoftware und Windows selbst sind inzwischen sogar genügsamer als vor zehn Jahren. Einzig bei Spielen, Videoschnitt, 3D Grafik usw. kann man nie genug Power haben.

Hätte man mir vor zwölf Jahren gesagt, dass auch 2018 / 2019 und darüber hinaus 4GB RAM für einen normalen Multimedia-Rechner weiterhin völlig ausreichend sind, dann hätte ich das kaum geglaubt. Ist aber tatsächlich so.
Eine SSD in einen 10 - 15 Jahre alten Multimedia Rechner gepackt macht den so flott, als wäre es ein neuer PC.
 
Eine SSD in einen 10 - 15 Jahre alten Multimedia Rechner gepackt macht den so flott, als wäre es ein neuer PC.
SSD lohnen eigentlich immer, besonders Spiele mit Objekt- & Geländestreaming profitieren enorm davon, aber allein schon der Windowsstart boostet enorm.
Das bei den purzelnden Preisen ums mehr. ;)

Es wird nur Zeit das Spiele endlich mehr Multicore ausnutzen, selbst bei den "besseren" ist ja bei 4 Kernen der Support fast immer am Ende.
In Punkto Takterhöhung wird da mMn eh nicht mehr so viel passieren.
 
Einzig bei Spielen, Videoschnitt, 3D Grafik usw. kann man nie genug Power haben.

Das, und natuerlich alles, was so im engineering und wissenschaftlichen Bereich ablaeuft. Simluationen und big data Analysen profitieren natuerlich extrem von multi-thread Berechnungen (weswegen da auch inzwischen sehr viel auf GPU Berechnungen gesetzt wird).

Und da machine learning, (gerade deep learning) auch im alltag immer interesasnter fuer Anwendungen werden duerfte und gerade artificial neural networks auch sehr stark von parallelem processing profitieren koennte ich mir auch vorstellen, dass sich mittelfristig Rechner Architektur auch darauf ausruchten wird. Den (wirklich allerersten kleinen) Anfang macht ja NVidia schon mit den RTX Karten, die auch speziell dafuer designt wurden. Koennte mir vorstellen, dass das auch immer wichtiger wird, wenn wir mal soweit sind, dass Anwendungen quasi "mit uns lernen sollen".
Koennte aber natuerlich auch sein, dass sich davon nicht viel auf den Endgeraeten abspielt, sondern eher auf den Servern, weil dann die Unternehmen natuerlich auch gleich noch Daten sammeln koennen (siehe Amazon oder Google heute). Schwer zu sagen wo genau der Mainstream da hingehen wird...
 
Deep Learning ist mir aus Mangel an Vorstellungskraft diesbezüglich momentan mega suspekt.
Programmierung nebst Logik ist klar, aber das Lobgehudel was man als "Otto-Normalo" bezüglich Deep Learning mitbekommt läßt bei mir die "Marketing"-Glocken läuten, ähnlich wie bei Quantencomputer.
 
Es ist schon sehr ernüchternd zu lesen, wie kümmerlich die Leistungszuwächse in den letzten Jahren geworden sind. Man merkt wirklich, dass die gegenwärtige Prozessortechnologie ihre Grenzen erreicht hat.

Wenn ich überlege dass ich früher meinen Prozessor spätestens alle 3 Jahre tauschen musste um überhaupt irgendein aktuelles Spiel zum Laufen zu kriegen (Sprünge von 60 auf 233 auf 800 MHz usw.).
zum Einen hast du logischerweise bei der Miniaturisierung von Technik am Anfang viel höhere Sprünge als später, wenn man die Technik schon sehr weit verkleinert hat. Und in den 90er Jahren sowie Anfang der 2000er waren CPUs halt noch vergleichsweise "am Anfang". Zum anderen sind die Taktwerte der falsche Ansatz. Eine moderne CPU mit 3,0 GHz ist schneller als eine CPU von vor 10 Jahren mit 3,5 GHz. Bei den Taktwerten gibt es eben auch gewisse Grenzen, wie Du ja auch schreibst, ab denen es nicht mehr effizient wäre, noch höher zu takten. Und daher versucht man die Leistung eher durch architektonische Dinge zu verbessern, was auch gelingt. WENN man eine passende Anwendung hat, bekommt man durchaus 15-20% mehr Leistung alle 3-4 Jahre.

Hinzu kommt, dass du früher noch nicht das Phänomen hattest, dass extrem viele Leute eine Spielekonsole haben UND fast alle PC-Games auch für Konsolen erscheinen. Vor allem letzteres hat zur Folge, dass die Entwickler bei der geforderten CPU-Leistung nicht übertreiben dürfen, da die Spielekonsolen sonst nicht hinterherkommen. In ihrem Kern sind die Game auf die CPUs einer PS4 und Xbox One S ausgelegt, die nun auch schon ein paar Jahre alt sind und selbst bei Release nicht die Top-CPUs waren. Auch deswegen sind die CPU-Anforderungen in den letzten ca 10-15 Jahren immer nur sehr langsam angestiegen, am PC wurde die Grafikkarte dann das VIEL wichtigere Bauteil, denn bei der Grafik können PC-Games mehr bieten als Konsolen, da dies viel weniger von der CPU abhängt. Gäbe es keine Spielekonsolen, dann müsste man - da bin ich sicher - immer noch alle 2-3 Jahre eine neue CPU kaufen, wenn man immer zB mindestens "hohe" Details spielen will, da die Entwickler sich jeweils an den neuesten CPUs orientieren und das Spiel daraufhin anlegen.
 
Zurück