6Gefällt mir
  • 2 Beitrag von RoteRosen
  • 1 Beitrag von sukram89
  • 2 Beitrag von coolbit
  • 1 Beitrag von Spiritogre
  1. #1
    Autor
    Avatar von AntonioFunes
    Registriert seit
    29.09.2010
    Beiträge
    262
    Jetzt ist Deine Meinung zu AC Valhalla: Grafik-Tuning und Benchmarks mit Nvidias RTX 3090 gefragt.


    Bitte beachtet: Der Kommentarbereich wird gemäß der Forenregeln moderiert.


    Zum Artikel: AC Valhalla: Grafik-Tuning und Benchmarks mit Nvidias RTX 3090

  2. #2
    Benutzer

    Registriert seit
    23.08.2006
    Beiträge
    91
    Es fehlt mal wieder leider die Optimierung für Mobile-Grafikkarten.
    Ich habe einen I7 9750H mit einer RTX 2080 MaxQ. Egal welche Einstellungen ich verwende (niedrig bis extrem) die FPS bleiben zwischen 20 bis 25. Der Benchmark selbst hat in extrem eigentlich einen schnitt zwischen 50 und 60 ausgegeben.
    Heißt also wieder abwarten bis alles sauber gepatcht wurde.

  3. #3
    Erfahrener Benutzer

    Registriert seit
    27.05.2014
    Beiträge
    331
    hier schon mal die benchmarks auf den next-gen konsolen.
    auf der ps5 läuft es flüssiger als auf der series-x.


  4. #4
    Erfahrener Benutzer
    Avatar von RedDragon20
    Registriert seit
    15.08.2009
    Beiträge
    11.508
    Zitat Zitat von Y0SHi Beitrag anzeigen
    hier schon mal die benchmarks auf den next-gen konsolen.
    auf der ps5 läuft es flüssiger als auf der series-x.

    Läuft das Spiel auf der PS5 und XBox mit nativen 4K?
    "Die Freiheit eines Menschen liegt nicht darin, dass er tun kann was er will - sondern darin, dass er nicht tun muss was er nicht will."

    Mein System:
    CPU: Intel Core i7 9700K || Mainboard: MSI MPG Z390 GAMING PLUS Intel Z390 || RAM: 16GB (2x 8192MB) G.Skill Aegis DDR4-3000
    GPU: MSI GTX 1080 Gaming X || Gehäuse: Phanteks Enthoo Pro Midi Tower || CPU Kühler:
    beQuiet! Dark Rock Pro 4

  5. #5
    Erfahrener Benutzer

    Registriert seit
    27.05.2014
    Beiträge
    331
    Zitat Zitat von RedDragon20 Beitrag anzeigen
    Läuft das Spiel auf der PS5 und XBox mit nativen 4K?
    auf der series x ja, auf der ps5 nicht.
    dafür hat die ps5 solide 60 fps und kein frame-pacing so wie auf der series x.
    es sind auf der ps5 aber definitiv dynamisch irgendwas zwischen 1440p und 4k.

    in summe läuft der erste multi-port ohne patch somit auf der ps5 am besten.
    ein patch könnte tearing und frame pacing auf der series x noch beseitigen... könnte.

    die leistung der next-gen konsolen ist im bezug zum preis ein absoluter hammer.
    bin begeistert, da schon der erste open world multi-port super performt.

    hole mir die ps5 mit laufwerk irgendwann 2021.
    hoffe bis dahin gibt es eine 2TB variante.

    die günstige series s wird denke ich keinen anklang finden.
    lohnt sich nicht. ist zwar günstiger, aber 30 fps habe ich auch auf meiner ps4 slim.

    hier der last-gen benchmark.



    und so sieht ein optimiertes spiel 2020 auf 2014 konsolen-hardware aus


  6. #6
    Erfahrener Benutzer
    Avatar von Phone
    Registriert seit
    25.02.2004
    Ort
    Hannover
    Beiträge
    2.512
    Zitat Zitat von Y0SHi Beitrag anzeigen
    auf der series x ja, auf der ps5 nicht.
    dafür hat die ps5 solide 60 fps und kein frame-pacing so wie auf der series x.
    es sind auf der ps5 aber definitiv dynamisch irgendwas zwischen 1440p und 4k.

    in summe läuft der erste multi-port ohne patch somit auf der ps5 am besten.
    ein patch könnte tearing und frame pacing auf der series x noch beseitigen... könnte.

    die leistung der next-gen konsolen ist im bezug zum preis ein absoluter hammer.
    bin begeistert, da schon der erste open world multi-port super performt.

    hole mir die ps5 mit laufwerk irgendwann 2021.
    hoffe bis dahin gibt es eine 2TB variante.

    die günstige series s wird denke ich keinen anklang finden.
    lohnt sich nicht. ist zwar günstiger, aber 30 fps habe ich auch auf meiner ps4 slim.

    hier der last-gen benchmark.

    und so sieht ein optimiertes spiel 2020 auf 2014 konsolen-hardware aus

    Das ist nicht korrekt...beide haben dynamisches 4k dabei scheint sogar die XsX weiter zu dropen als die PS5


    Zitat Zitat von RedDragon20 Beitrag anzeigen
    Läuft das Spiel auf der PS5 und XBox mit nativen 4K?
    Beides 4k dynamisch

    Und auch in deinem Video wird davon geredet das beide Versionen nicht Nativ laufen...Ubisoft hat sogar ihren Blogeintrag diesbezüglich geändert das beide Spiele bei gleichen Einstellungen laufen..

    So oder so bin ich mal gespannt was denn die Leute nun sagen...der 2. Multi Titel wo die XsX nicht den "Vorteil" ihrer Leistung ausspielen kann oder allgemein besser performt...
    Ich warte immer ab und nach und nach sieht man das MS wieder den Hermann macht anstatt zu liefern, ich dachte sie hätten draus gelernt...

  7. #7
    Erfahrener Benutzer
    Avatar von RoteRosen
    Registriert seit
    31.10.2020
    Beiträge
    219
    Zitat Zitat von Y0SHi Beitrag anzeigen
    auf der series x ja, auf der ps5 nicht.
    dafür hat die ps5 solide 60 fps und kein frame-pacing so wie auf der series x.
    es sind auf der ps5 aber definitiv dynamisch irgendwas zwischen 1440p und 4k.

    in summe läuft der erste multi-port ohne patch somit auf der ps5 am besten.
    ein patch könnte tearing und frame pacing auf der series x noch beseitigen... könnte.

    die leistung der next-gen konsolen ist im bezug zum preis ein absoluter hammer.
    bin begeistert, da schon der erste open world multi-port super performt.

    hole mir die ps5 mit laufwerk irgendwann 2021.
    hoffe bis dahin gibt es eine 2TB variante.

    die günstige series s wird denke ich keinen anklang finden.
    lohnt sich nicht. ist zwar günstiger, aber 30 fps habe ich auch auf meiner ps4 slim.

    hier der last-gen benchmark.


    und so sieht ein optimiertes spiel 2020 auf 2014 konsolen-hardware aus
    Das Spiel ist aber auch absolut scheiße programmiert. Ich meine, hey, die Anvil Engine ist mittlerweile wie alt? 10-11 Jahre!? Die wird kontinuierlich weiterentwickelt, macht aber seit AC:Unity ständig massive Probleme und enthält bis heute Bugs, die es schon vor 10 Jahren in der Engine gab. Auf der anderen Seite hat R* mit der Rage Engine auch seit 12 Jahren?! (kp obs vor GTA4 was damit gab) die selbe Engine in der Nutzung, da läuft alles sauber...Verstehe nicht woher die Diskrepanz kommt. Ist die Qualität nicht wichtig bei UbiSoft, nur die Quantität?

    @Topic: Wie man auf allerlei Seiten mittlerweile lesen kann, ist das Spiel halt einfach mal wieder scheiße optimiert worden, mal noch 2-3 Patches abwarten bis die Leistung der gelieferten Grafik entspricht. Immerhin können Spiele heutzutage flüssig in 4k so aussehen: 4k60FPS - Ultra Setting
    bligg und LarryMcFly haben "Gefällt mir" geklickt.

  8. #8
    Erfahrener Benutzer

    Registriert seit
    09.07.2004
    Ort
    Ascona
    Beiträge
    230
    Absolut grässliche Farben bekomme von diesem Nebel und Rotstich Farben (sieht im realen sicher schön aus) Kopfschmerzen und bugs ohne ende Leute die schweben Tiere die unter der schneedecke herumlaufen usw usw

  9. #9
    Erfahrener Benutzer

    Registriert seit
    19.09.2009
    Beiträge
    150
    Zitat Zitat von Phone Beitrag anzeigen
    So oder so bin ich mal gespannt was denn die Leute nun sagen...der 2. Multi Titel wo die XsX nicht den "Vorteil" ihrer Leistung ausspielen kann oder allgemein besser performt...
    Ich warte immer ab und nach und nach sieht man das MS wieder den Hermann macht anstatt zu liefern, ich dachte sie hätten draus gelernt...
    Ubisoft entwickelt das Spiel. Was kann MS dafür wenn Ubisoft die Mehrleistung nicht ausnutzt?
    LesterPG hat "Gefällt mir" geklickt.
    "Egal was man versucht zu bewegen, die universelle Dummheit der Menschen sorgt dafür, dass es zerstört wird." (Jespar, Enderal)

  10. #10
    Erfahrener Benutzer
    Avatar von Phone
    Registriert seit
    25.02.2004
    Ort
    Hannover
    Beiträge
    2.512
    Zitat Zitat von sukram89 Beitrag anzeigen
    Ubisoft entwickelt das Spiel. Was kann MS dafür wenn Ubisoft die Mehrleistung nicht ausnutzt?
    Also können die PlayStation Besitzer auch sagen das die Entwickler schuld sind weil sie die Bandbreite der SSD nicht nutzen?
    Von MS hieß es doch "so einfach zu programmieren wie am PC"

    Wie schon viele vermutet haben ist die reine Mehrleistung nicht relevant.

    Mir geht es auch in erster Linie nur darum nicht immer so hoch zu stapeln, wie es MS immer macht.

    Wir können eigentlich froh sein das die neuste Generation so viel Features bietet und es dadurch Standards gibt.

  11. #11
    Erfahrener Benutzer

    Registriert seit
    27.05.2014
    Beiträge
    331
    erbärmlich wie schlecht eine aktuelle high-end-enthusiasten GPU in dem titel performt.
    im vergleich zur xbox series x oder ps5... eine lachnummer, die nvidia da abliefert.

    Zitat Zitat von Phone Beitrag anzeigen
    Das ist nicht korrekt...beide haben dynamisches 4k dabei scheint sogar die XsX weiter zu dropen als die PS5

    Beides 4k dynamisch

    Und auch in deinem Video wird davon geredet das beide Versionen nicht Nativ laufen...

    juckt doch niemanden. sie laufen irgendwo zwischen 1440p und 4k und nach nem patch läuft der titel auch auf der series x rund.
    beide konsolen erreichen stable 60 fps.

    auflösung ist nicht alles. auf der ps4 slim läuft viel dynamisch zwischen 900 und 1080p. davon bekommt man aber nichts mit.
    ein spiel wie uncharted 4 von 2014 sieht selbst in 900p noch besser aus, als ein großteil der aktuellen 2020 multis in 4k.

    für ein release-multi-game wie valhalla, liefert die ps5 und series x brachiale leistung ab... da kann man nichts sagen.
    hätte nicht gedacht, das die ps5 und series x schon bei nem release open world titel mit aktueller grafik so gut performen.

    für mich ist es fix. ich hole mir eine ps5 mit 2TB irgendwann 2021. 1TB ist mir sowieso zu wenig.
    ich warte u.a. auch erst mal spiderman 2 ab und forbidden west.
    auch warte ich gespannt auf ff7 remake episode 2.

    nvidia und AMD und intel können sich ihre desktop-hardware in den a. stecken.
    den schrott kauft doch niemand mehr. die pc architektur war schon vor 10 jahren am ende.
    gut das apple mit dem M1 nun endlich mal was macht.
    20 stunden akkulaufzeit in nem macbook air mit apple m1...
    bye bye intel
    einzig AMD renoir wäre noch konkurrenzfähig, sofern AMD jetzt nicht locker lässt.

    das ich mir nen gaming-rechner bastel ist absolut ausgeschlossen.
    neben brauchbarer hardware zu nen vernüftigen preis, fehlen ja auch noch nen haufen games. primär sony und nintendo exklusives.
    Geändert von Y0SHi (15.11.2020 um 21:05 Uhr)

  12. #12
    Erfahrener Benutzer
    Avatar von Phone
    Registriert seit
    25.02.2004
    Ort
    Hannover
    Beiträge
    2.512
    Zitat Zitat von Y0SHi Beitrag anzeigen
    erbärmlich wie schlecht eine aktuelle high-end-enthusiasten GPU in dem titel performt.
    im vergleich zur xbox series x oder ps5... eine lachnummer, die nvidia da abliefert.




    juckt doch niemanden. sie laufen irgendwo zwischen 1440p und 4k und nach nem patch läuft der titel auch auf der series x rund.
    beide konsolen erreichen stable 60 fps.

    auflösung ist nicht alles. auf der ps4 slim läuft viel dynamisch zwischen 900 und 1080p. davon bekommt man aber nichts mit.
    ein spiel wie uncharted 4 von 2014 sieht selbst in 900p noch besser aus, als ein großteil der aktuellen 2020 multis in 4k.

    für ein release-multi-game wie valhalla, liefert die ps5 und series x brachiale leistung ab... da kann man nichts sagen.
    hätte nicht gedacht, das die ps5 und series x schon bei nem release open world titel mit aktueller grafik so gut performen.

    für mich ist es fix. ich hole mir eine ps5 mit 2TB irgendwann 2021. 1TB ist mir sowieso zu wenig.
    ich warte u.a. auch erst mal spiderman 2 ab und forbidden west.
    auch warte ich gespannt auf ff7 remake episode 2.

    nvidia und AMD und intel können sich ihre desktop-hardware in den a. stecken.
    den schrott kauft doch niemand mehr. die pc architektur war schon vor 10 jahren am ende.
    gut das apple mit dem M1 nun endlich mal was macht.
    20 stunden akkulaufzeit in nem macbook air mit apple m1...
    bye bye intel
    einzig AMD renoir wäre noch konkurrenzfähig, sofern AMD jetzt nicht locker lässt.

    das ich mir nen gaming-rechner bastel ist absolut ausgeschlossen.
    neben brauchbarer hardware zu nen vernüftigen preis, fehlen ja auch noch nen haufen games. primär sony und nintendo exklusives.
    Trotzdem hätte ich da eine Frage... Ich merke an ich habe weder XSX noch ps5...

    Wie kann es sein das die stärkere Konsole mit mehr Technologie (angeblich... Aber eh schon widerlegt)
    Die so nahe am PC ist doch schlechter perform?
    Warum muss gerade die gepatcht und optimiert werden?

    Mir wurde fast 6 Monate von allen Seiten etwas anderes suggeriert... XD


    Wie auch immer... In anbetracht der hohen Kosten für eine 3090 sehe ich hier kaum Mehrwert.
    Das Game lässt sich ja auch auf den 20ern gut zocken
    Geändert von Phone (16.11.2020 um 08:25 Uhr)

  13. #13
    Erfahrener Benutzer

    Registriert seit
    26.03.2001
    Beiträge
    178
    Zitat Zitat von Y0SHi Beitrag anzeigen
    erbärmlich wie schlecht eine aktuelle high-end-enthusiasten GPU in dem titel performt.
    im vergleich zur xbox series x oder ps5... eine lachnummer, die nvidia da abliefert.




    juckt doch niemanden. sie laufen irgendwo zwischen 1440p und 4k und nach nem patch läuft der titel auch auf der series x rund.
    beide konsolen erreichen stable 60 fps.

    auflösung ist nicht alles. auf der ps4 slim läuft viel dynamisch zwischen 900 und 1080p. davon bekommt man aber nichts mit.
    ein spiel wie uncharted 4 von 2014 sieht selbst in 900p noch besser aus, als ein großteil der aktuellen 2020 multis in 4k.

    für ein release-multi-game wie valhalla, liefert die ps5 und series x brachiale leistung ab... da kann man nichts sagen.
    hätte nicht gedacht, das die ps5 und series x schon bei nem release open world titel mit aktueller grafik so gut performen.

    für mich ist es fix. ich hole mir eine ps5 mit 2TB irgendwann 2021. 1TB ist mir sowieso zu wenig.
    ich warte u.a. auch erst mal spiderman 2 ab und forbidden west.
    auch warte ich gespannt auf ff7 remake episode 2.

    nvidia und AMD und intel können sich ihre desktop-hardware in den a. stecken.
    den schrott kauft doch niemand mehr. die pc architektur war schon vor 10 jahren am ende.
    gut das apple mit dem M1 nun endlich mal was macht.
    20 stunden akkulaufzeit in nem macbook air mit apple m1...
    bye bye intel
    einzig AMD renoir wäre noch konkurrenzfähig, sofern AMD jetzt nicht locker lässt.

    das ich mir nen gaming-rechner bastel ist absolut ausgeschlossen.
    neben brauchbarer hardware zu nen vernüftigen preis, fehlen ja auch noch nen haufen games. primär sony und nintendo exklusives.
    Sorry, aber selten hab ich so viel unreflektierten Nonsense in einen post gelesen. Ich will jetzt garnicht das Fass aufmachen und PC und Konsolen vergleichen, dass da die Konsolen den leichteren Stand in Sachen Optimierung haben ist bekannt. Aber jetzt den Abgesang auf die grossen Hardwarehersteller anzustimmen ist Blödsinn. Wo wären den die Konsolen, wenn zb. AMD nicht auch kontinuirlich andere Hardware entwickeln und verkaufen würde? Mal davon abgesehen, dass AMD mit den "paar" Konsolen alleine kaum überleben würde. Ja und dann bringen die super kundenfreundlichen Typen von apple den M1 raus, na da kann man Intel ja einstampfen. Zahlt ja jeder gerne Apple Preise. Gehts noch gut soweit?
    Geändert von coolbit (16.11.2020 um 09:54 Uhr)
    Spiritogre und LarryMcFly haben "Gefällt mir" geklickt.
    Wer kämpft kann verlieren. Wer nicht kämpft, hat schon verloren.

  14. #14
    Erfahrener Benutzer

    Registriert seit
    08.03.2010
    Beiträge
    732
    Zitat Zitat von Y0SHi Beitrag anzeigen
    erbärmlich wie schlecht eine aktuelle high-end-enthusiasten GPU in dem titel performt.
    im vergleich zur xbox series x oder ps5... eine lachnummer, die nvidia da abliefert.




    juckt doch niemanden. sie laufen irgendwo zwischen 1440p und 4k und nach nem patch läuft der titel auch auf der series x rund.
    beide konsolen erreichen stable 60 fps.

    auflösung ist nicht alles. auf der ps4 slim läuft viel dynamisch zwischen 900 und 1080p. davon bekommt man aber nichts mit.
    ein spiel wie uncharted 4 von 2014 sieht selbst in 900p noch besser aus, als ein großteil der aktuellen 2020 multis in 4k.

    für ein release-multi-game wie valhalla, liefert die ps5 und series x brachiale leistung ab... da kann man nichts sagen.
    hätte nicht gedacht, das die ps5 und series x schon bei nem release open world titel mit aktueller grafik so gut performen.

    für mich ist es fix. ich hole mir eine ps5 mit 2TB irgendwann 2021. 1TB ist mir sowieso zu wenig.
    ich warte u.a. auch erst mal spiderman 2 ab und forbidden west.
    auch warte ich gespannt auf ff7 remake episode 2.

    nvidia und AMD und intel können sich ihre desktop-hardware in den a. stecken.
    den schrott kauft doch niemand mehr. die pc architektur war schon vor 10 jahren am ende.
    gut das apple mit dem M1 nun endlich mal was macht.
    20 stunden akkulaufzeit in nem macbook air mit apple m1...
    bye bye intel
    einzig AMD renoir wäre noch konkurrenzfähig, sofern AMD jetzt nicht locker lässt.

    das ich mir nen gaming-rechner bastel ist absolut ausgeschlossen.
    neben brauchbarer hardware zu nen vernüftigen preis, fehlen ja auch noch nen haufen games. primär sony und nintendo exklusives.
    Alter was bist du denn für ne nummer?
    Kann man eigentlich noch mehr blödsinn verzapfen als du?

    Was kann denn bitte nvidia dafür wenn ubi zu dumm zum optimieren ist??

    Nur Idioten unterwegs

  15. #15
    Erfahrener Benutzer
    Avatar von Spiritogre
    Registriert seit
    18.05.2008
    Beiträge
    9.412
    Kanaltyp(en)
    Gamer
    Homepage
    rpcg.blogspo...
    Zitat Zitat von coolbit Beitrag anzeigen
    Ja und dann bringen die super kundenfreundlichen Typen von apple den M1 raus, na da kann man Intel ja einstampfen. Zahlt ja jeder gerne Apple Preise. Gehts noch gut soweit?
    Das ist so ein Ding. ARM gilt generell eben als sparsam beim Stromverbrauch aber dafür schlecht in der Leistung.
    In Notebooks werden deswegen niedrig getaktete, abgespeckte Prozessoren eingebaut, die im Vergleich zum Desktop merklich langsamer sind aber eben auch weniger Strom verbrauchen. Da kann es also durchaus Sinn machen, auf ARM zu setzen.

    Genau genommen, für einen Office Rechner reicht auch ein zehn Jahre alter Core i3 für so ziemlich alles aus. Die normalen Arbeiten am Desktop belasten CPUs seit ewigen Zeiten kaum noch, selbst Windows ist ja mit Version 10 resourcenfreundlicher als selbst Vista / 7 / 8 von vor über zehn Jahren läuft also selbst auf einem uralten Rechner der nach XP Zeit besser, als es die Systeme damals getan haben. Selbst mit 4GB RAM kommt man da gut längs.

    Seien wir ehrlich, jedes Smartphone, und die nutzen ARM, ist heute schnell genug um als Desktop-Rechner zu fungieren. Maus, Tastatur und Monitor drann und los gehts.

    Der Grund für Apples ARM Prozessor ist also tatsächlich der Stromverbrauch. Dass das Teil dann noch schneller ist als Intels / AMDs Mobilprozessoren ist ein kleiner Bonus.
    Nur ist halt nicht jeder Computer ein Notebook... und dort wo brachiale CPU Power benötigt wird, da machen diese ARM und Mobilprozessoren nun mal keinen Stich.

    Wobei natürlich heute auch viel über die Grafikkarte läuft, bei der Videkodierung etwa. Vor ein paar Jahren hat AMD damit Werbung gemacht, dass ihre Ryzen CPUs schneller Videos kodieren können als die von Intel. Verschwiegen haben sie dabei, dass das völlig irrelevant ist, weil niemand das via CPU macht, denn egal ob NVidia oder AMD Grafikkarte, die sind bei der Videokodierung 100 Mal schneller als jede CPU.

    Eine AMD Instinct MI 100, das alte Modell hatte noch Radeon im Namen, ist etwa eine Grafikkarte ohne Grafikausgänge, quasi eine GPU, welche viele Berechnungen wo CPUs schwach sind durchführen soll, also als eine Art Extraprozessor.

    Alles außerhalb der Apple und Linux Welt wird übrigens noch ewig auf X86 setzen, denn die seit Jahrzehnten existierende Software lässt sich maximal emulieren und keiner setzt sich hin und kompiliert jetzt jedes Windows Spiel komplett neu.
    Geändert von Spiritogre (16.11.2020 um 17:14 Uhr)
    coolbit hat "Gefällt mir" geklickt.
    Gamers love to play Games - Mein Blog über Spiele aller Art: https://rpcg.blogspot.com
    Artworks, Fanart, Cosplay, Anime, Spiele-Cover, Screenshots sowie aktuelle News Rund um RPGs und Co.: https://spiritoger.tumblr.com/


  16. #16
    Erfahrener Benutzer

    Registriert seit
    26.03.2001
    Beiträge
    178
    Zitat Zitat von Spiritogre Beitrag anzeigen
    Das ist so ein Ding. ARM gilt generell eben als sparsam beim Stromverbrauch aber dafür schlecht in der Leistung.
    In Notebooks werden deswegen niedrig getaktete, abgespeckte Prozessoren eingebaut, die im Vergleich zum Desktop merklich langsamer sind aber eben auch weniger Strom verbrauchen. Da kann es also durchaus Sinn machen, auf ARM zu setzen.

    Genau genommen, für einen Office Rechner reicht auch ein zehn Jahre alter Core i3 für so ziemlich alles aus. Die normalen Arbeiten am Desktop belasten CPUs seit ewigen Zeiten kaum noch, selbst Windows ist ja mit Version 10 resourcenfreundlicher als selbst Vista / 7 / 8 von vor über zehn Jahren läuft also selbst auf einem uralten Rechner der nach XP Zeit besser, als es die Systeme damals getan haben. Selbst mit 4GB RAM kommt man da gut längs.

    Seien wir ehrlich, jedes Smartphone, und die nutzen ARM, ist heute schnell genug um als Desktop-Rechner zu fungieren. Maus, Tastatur und Monitor drann und los gehts.

    Der Grund für Apples ARM Prozessor ist also tatsächlich der Stromverbrauch. Dass das Teil dann noch schneller ist als Intels / AMDs Mobilprozessoren ist ein kleiner Bonus.
    Nur ist halt nicht jeder Computer ein Notebook... und dort wo brachiale CPU Power benötigt wird, da machen diese ARM und Mobilprozessoren nun mal keinen Stich.

    Wobei natürlich heute auch viel über die Grafikkarte läuft, bei der Videkodierung etwa. Vor ein paar Jahren hat AMD damit Werbung gemacht, dass ihre Ryzen CPUs schneller Videos kodieren können als die von Intel. Verschwiegen haben sie dabei, dass das völlig irrelevant ist, weil niemand das via CPU macht, denn egal ob NVidia oder AMD Grafikkarte, die sind bei der Videokodierung 100 Mal schneller als jede CPU.

    Eine AMD Instinct MI 100, das alte Modell hatte noch Radeon im Namen, ist etwa eine Grafikkarte ohne Grafikausgänge, quasi eine GPU, welche viele Berechnungen wo CPUs schwach sind durchführen soll, also als eine Art Extraprozessor.

    Alles außerhalb der Apple und Linux Welt wird übrigens noch ewig auf X86 setzen, denn die seit Jahrzehnten existierende Software lässt sich maximal emulieren und keiner setzt sich hin und kompiliert jetzt jedes Windows Spiel komplett neu.
    Das ist schön erklärt, danke dafür.
    Ich wollte eigentlich nur zum Ausdruck bringen, das mir dieses ständige Markenbashing auf den Sack geht. Da wird Nvidia runtergemacht, weil das Zeug zu teuer ist, gleichzeitig wünscht man sich das Monopol einer noch teureren Marke herbei. Da werden Preise von anno dazumahls mit den Preisen von heute verglichen ohne näher drauf einzugehen, warum das so ist. Da hält Apple eine Folie mit einem absolut nichtssagenden Diagramm ins Bild und kurz darauf schreien alle RIP Intel. Ich raffs nimmer.
    Wer kämpft kann verlieren. Wer nicht kämpft, hat schon verloren.

  17. #17
    Erfahrener Benutzer
    Avatar von McDrake
    Registriert seit
    22.03.2001
    Beiträge
    20.426
    Blog-Einträge
    3
    Meinung :
    Finds schade, dass ein Tuningguide für eine Graka gemacht wird welche kaum lieferbar ist und demzufolge wenig User hat.
    Wäre ein Guide für gänginge Grakas nicht sinnvoller?
    ____________________________________________
    Grosse und bunte Bildsignaturen sind doof.

Berechtigungen

  • Neue Themen erstellen: Nein
  • Themen beantworten: Nein
  • Anhänge hochladen: Nein
  • Beiträge bearbeiten: Nein
  •