Der Artikel ist absolut nicht lesenswert, da er auf falschen Tatsachen beruht und andere auslässt. Nebenbei wird hier nix von Digitalfoundry beigesteuert, alles aus dem Mund von Microsoft ohne Kommentar. Warum glaubst du, gibt es keine?
Wie zum Beispiel:
Die CU's, bei seinem Beispiel geht er davon aus, dass es bei 16ROPs bleibt, die PS4 hat aber 32 ROPs. Das ist ein riesen Unterschied, die Tatsache, dass sie das weglassen, spricht Bände. Und selbst bei 16 ROPs wären mehr CU's sehr hilfreich gewesen, wie man am Beispiel 7770 und 7790 sehen kann:
AnandTech | Bench - GPU13
Sie haben (und das steht nebenbei im Text) 2 CU's deaktiviert um weniger Ausschuss bei der Produktion zu haben. 14 sind drauf, 2 deaktiviert für eine geringere Ausschußrate.
6% mehr Leistung mit dem mini Upclock an der GPU oder bis zu 15% mehr bei aber gleichzeitig mehr Ausschuss und demzufolge auch weniger funktionsfähige Konsolen zum Launch, was soll Microsoft da sagen?
Er sagt, Sony hätte dem zugestimmt, dass 14 CU's absolut balanced wären. Das ist eine Lüge, das hat Sony nie gesagt. Sony sagte lediglich, dass 14+4 eine Option wäre, bei der 4 CU's für GPGPU genutzt werden können, weil sie gerne mehr GPGPU bei den Spielen sehen würden. Denn dadurch wäre eine große Steigerung der Performance möglich, da CPU und GPU gleichzeitig auf den gleichen Datensatz im Ram zugreifen können (ganz vereinfacht gesagt). Das hat Cerny im Interview extra nochmal erwähnt, dass sie das niemals gesagt haben.
Jetzt will ich mal sehen, wie sie von 12 CUs noch welche für GPGPU nutzen können, ohne die Grafik dermaßen einbrechen zu lassen...
Zum Ram, so viel Text um so wenig zu sagen. Nur weil der eDRAM bei der Xbox360 die bessere Variante ggü der PS3 war, ist sie dieses mal bestimmt nicht die bessere Variante. Das sind natürlich nur Kostengründe, sie benutzen es, weil es billiger ist. Es ist schwieriger zu entwickeln und die schlechtere Variante was Performance angeht, es gibt nur einen Grund warum sie nicht selbst GDDR5 nutzen: Kosten sparen wegen Kinect.
Die Fillrate ist doppelt so groß, 53 MHz fehlen noch bei der X1, aber ist auch nicht so wichtig. Die Fillrate insgesamt will man erst gar nicht ansprechen...
http://wimages.vr-zone.net/2013/07/PS4-and-Xbox-One-GPU.jpg
Der ganze Artikel sieht nur nach Schadensbegrenzung aus. Einmal sagen sie "oh, die CPU begrenzt unsere Frames, wir müssen ein paar mehr MHz höher takten." Und dann auf ein Mal wieder: "Die GPU braucht etwas mehr Takt, sie begrenzt unsere Frames."
Sehr schön, ein Flaschenhals begrenzt den anderen. Neues Buzzword von Microsoft: "
BALANCE
Sony hat zwar eine stärkere GPU und den besseren Ram und hUMA, aber wir haben ja die absolute Balance....
Als ob Sony unnütz Geld in Hardware stecken würde, eine bessere GPU verbaut für nix. Wer das glaubt, hat die PR von Microsoft wirklich verdient..
Wann hast du dir das letzte mal beim aufrüsten gedacht: Scheiss auf eine bessere Grafikkarte, ich hab doch balance (wtf).
Ach ich schreib schon wieder viel zu viel zu diesem langsam echt nervigen Thema...
Nebenbei:
"This article confirms several things we knew:
1) The PS4 unified memory approach is easier to program for than the Xbone
2) Most of the fancy audio HW in Xbone is reserved for Kinect processing
3) The 218GB/s number Albert Pennello came up with was totally bogus. The 204GB/s number is unachieveable on actual code. The best real code will ever do is 140-150/GB/s, and that's only if the memory access pattern of read/writes/banks is perfect. Otherwise, you get 109GB/s.
4) The Move Engines are Microsoft just renaming DMA engines which have been around for decades.
5) Only Xbone has a an HDMI input, which helps make it the "center of your home entertainment system"
Net: The PS4 is a significantly more powerful piece of gaming hardware (Xbone wins at TV input though). Xbone fans can't argue "secret sauce" anymore. The more facts we get from Microsoft, the more the "secret sauce" argument of ESRAM/low latency/audio blocks/balanced performance/etc., becomes moot."