AW: Gründe für schwache Performance des R600
meine meinung:
-deutlich schlechtere auslastung oder deutlich mehr verwaltungsoverhead, da die recheneinheiten relativ gering an der zahl und relativ komplex sind - man kann zwar mehrere anweisungen kombinieren um eine bessere auslastung zu erreichen, aber das führt in sich zu mehr rechenbedarf
-niedriger takt (nvidia taktet die skalarprozessoren mit ~ doppeltem chiptakt)
eher waage:
-deutlich größere latenzen beim speicherzugriff:
wärend nvidia eine kleine anzahl von skalareinheiten mit einem speicherkanal zu einem cluster zusammenfasst, müssen bei ati alle anfragen über den ringbus an den passenden controller und zurück. wenn daten von anderen speicherkanälen benötigt werden, ist das von vorteil - aber gerade bei massivem einsatz von shadern, wo also jede recheneinheiten selbstständig große mengen von zwischenergebnissen produziert, könnte die nvidia lösung vorteile bringen.
zum treiber:
der r600 hat bereits jetzt eine schlechtere bildqualität als der g80 und -laut ati- sind die treiber bereits sehr weit entwickelt (weiter als bei nvidia, wie sie nicht müde werden zu betonen) und wenn man bedenkt, dass der r600 seit rund 6-12monaten lauffähig ist und seitdem fast nur am pcb rumgebastelt wurde, dann hatten die treiberprogrammierer auch wirklich mehr als genug zeit, um einen treiber zu entwickeln, der die karte optimal nutzt.
alle optimierungen, die jetzt noch kommen, dürften zu lasten der qualität gehen oder hochgradig spielspezifisch sein - mir ist beides egal, ne grafikkarte muss in der anwendung und bei der qualität, die ich will, optimale perfomance bieten, nicht in der anwendung, die gerne für benchmarks genutzt wird und in der qualität, die ein tester gerade nicht von der nächst schlechteren unterscheiden kann.