• Aktualisierte Forenregeln

    Eine kleine Änderung hat es im Bereich Forenregeln unter Abschnitt 2 gegeben, wo wir nun explizit darauf verweisen, dass Forenkommentare in unserer Heftrubrik Leserbriefe landen können.

    Forenregeln


    Vielen Dank
  • Kritk / Fragen / Anregungen zu Artikeln

    Wenn ihr Kritik, Fragen oder Anregungen zu unseren Artikeln habt, dann könnt ihr diese nun in das entsprechende Forum packen. Vor allem Fehler in Artikeln gehören da rein, damit sie dort besser gesehen und bearbeitet werden können.

    Bitte beachtet dort den Eingangspost, der vorgibt, wie der Thread zu benutzen ist: Danke!

Special - Nvidia PhysX: Ohne und mit Physik-Effekte - Spiele im direkten Videovergleich

AW:

I
Da wird die Nicht-PhysX Version künstlich schlecht gemacht.
Genauso der Nebel in Batman, welcher mit PhysX korrekt simuliert wird, falls da jemand durchläuft. Ist ja nettes Feature, aber man hätte ihn auch ohne die Simulation einbauen und damit Nicht-PhysX Leuten eine bessere Athmosphäre bieten können. Stattdessen wird er ganz gestrichen, damit der Unterschied größer wird.

Genauso ist es. Man soll ja die Hardware kaufen. Ich finde die ATI-Karten ohne Zweifel gut, hatte selbst die X1950 Pro und war damit sehr zufrieden. Aber jetzt muss ich bei NVidia bleiben, denn sonst würden mir all diese
Effelte eben fehlen. Hoffe, dass NVidia bald nachzieht, und DX 11er-Karten auf den Markt wirft. Von PhysX profitiert man derzeit allerdings weit mehr als von DX 11.
Tja mal sehen, was da noch kommt.
Fair finde ich es aber nicht.
 
AW:

Ich finds aber teilweise auch scheiße, was die Entwickler da verzapfen, um die PhysX-Effekte zu pushen.
Beispiel die Banner. Mit PhysX sind die beweglich und zerstörbar, ohne gar nicht erst vorhanden. Man könnte sie ja wenigstens statisch einbauen und zur Not mit kleinen Skripten animieren. Bei Batman oder Mirrors Edge haben die ja meistens keinen Sinn außer die Effekte demonstrieren.
Da wird die Nicht-PhysX Version künstlich schlecht gemacht.
Genauso der Nebel in Batman, welcher mit PhysX korrekt simuliert wird, falls da jemand durchläuft. Ist ja nettes Feature, aber man hätte ihn auch ohne die Simulation einbauen und damit Nicht-PhysX Leuten eine bessere Athmosphäre bieten können. Stattdessen wird er ganz gestrichen, damit der Unterschied größer wird.
Genauso ist es.

Die Effekte könnte man ruhig drinnen lassen, wenn auch abgespeckt. Und wehende fahnen, nebel etc. gibt es schon seit urzeiten, wenn auch vielleicht nicht dynamisch.
 
AW:

Ich finds aber teilweise auch scheiße, was die Entwickler da verzapfen, um die PhysX-Effekte zu pushen.
Beispiel die Banner. Mit PhysX sind die beweglich und zerstörbar, ohne gar nicht erst vorhanden. Man könnte sie ja wenigstens statisch einbauen und zur Not mit kleinen Skripten animieren. Bei Batman oder Mirrors Edge haben die ja meistens keinen Sinn außer die Effekte demonstrieren.
Da wird die Nicht-PhysX Version künstlich schlecht gemacht.
Genauso der Nebel in Batman, welcher mit PhysX korrekt simuliert wird, falls da jemand durchläuft. Ist ja nettes Feature, aber man hätte ihn auch ohne die Simulation einbauen und damit Nicht-PhysX Leuten eine bessere Athmosphäre bieten können. Stattdessen wird er ganz gestrichen, damit der Unterschied größer wird.

Stimmt, bedenke jedoch das all diese Effekte garnicht geplant waren seitens Rocksteady. Geplant war einfach nur ein weiterer Konsolen Port ohne eine großartige Physik. Nvidia hat daraufhin die Iniative ergriffen und mit Rocksteady über AA ingame und Physx geredet. Noch dazu ist Physx eben kostenlos und die Physx Werkzeuge sind einfach zu bedienen und ausgereift. Es war also nicht viel zu machen seitens Rocksteady.
 
AW:

Ich finds aber teilweise auch scheiße, was die Entwickler da verzapfen, um die PhysX-Effekte zu pushen.
Beispiel die Banner. Mit PhysX sind die beweglich und zerstörbar, ohne gar nicht erst vorhanden. Man könnte sie ja wenigstens statisch einbauen und zur Not mit kleinen Skripten animieren. Bei Batman oder Mirrors Edge haben die ja meistens keinen Sinn außer die Effekte demonstrieren.
Da wird die Nicht-PhysX Version künstlich schlecht gemacht.
Genauso der Nebel in Batman, welcher mit PhysX korrekt simuliert wird, falls da jemand durchläuft. Ist ja nettes Feature, aber man hätte ihn auch ohne die Simulation einbauen und damit Nicht-PhysX Leuten eine bessere Athmosphäre bieten können. Stattdessen wird er ganz gestrichen, damit der Unterschied größer wird.
das einzig was wirklich scheiße ist, ist das amd es immer noch nicht geschafft hat ihre karten auch mit physik unterstützung auszustatten. ganz schwache leistung von amd und defintiv ein sehr guter grund warum ich bei nvidia bleiben werde.
 
AW:

das einzig was wirklich scheiße ist, ist das amd es immer noch nicht geschafft hat ihre karten auch mit physik unterstützung auszustatten. ganz schwache leistung von amd und defintiv ein sehr guter grund warum ich bei nvidia bleiben werde.
Dir ist schon klar, dass AMD nicht einfach so PhysX unterstützen dürfen. Das wurde schon weiter oben im Thread thematisiert.
Am klügsten wäre es von nVidia die seperaten PhysX-Karten im Sortiment zu lassen. Wenn dann die Preis bei etwa 50 Euro läge, hätten sie eine ganz andere Aktzeptanz, bleiben weiterhin Marktführer und damit gibts auch mehr Spiele, die das unterstützen.
Wenn AMD (meinetwegen sogar in Zusammenarbeit mit Havok) einen Konkurrenten auf die Beine stellen würden, gäbe es einen Krieg wie bei BluRay vs HDDVD. Am Ende setzt sich das eine durch, weil keiner eine friedliche Koexistenz anstrebt und der Verlierer ist immer der Kunde (Stichwort Exklusivtitel).
Am besten für alle wäre ein offener Standard, aber das wird wohl Wunschdenken bleiben.
 
AW:

das einzig was wirklich scheiße ist, ist das amd es immer noch nicht geschafft hat ihre karten auch mit physik unterstützung auszustatten. ganz schwache leistung von amd und defintiv ein sehr guter grund warum ich bei nvidia bleiben werde.
Dir ist schon klar, dass AMD nicht einfach so PhysX unterstützen dürfen. Das wurde schon weiter oben im Thread thematisiert.
Am klügsten wäre es von nVidia die seperaten PhysX-Karten im Sortiment zu lassen. Wenn dann die Preis bei etwa 50 Euro läge, hätten sie eine ganz andere Aktzeptanz, bleiben weiterhin Marktführer und damit gibts auch mehr Spiele, die das unterstützen.
Wenn AMD (meinetwegen sogar in Zusammenarbeit mit Havok) einen Konkurrenten auf die Beine stellen würden, gäbe es einen Krieg wie bei BluRay vs HDDVD. Am Ende setzt sich das eine durch, weil keiner eine friedliche Koexistenz anstrebt und der Verlierer ist immer der Kunde (Stichwort Exklusivtitel).
Am besten für alle wäre ein offener Standard, aber das wird wohl Wunschdenken bleiben.
sicher kann amd nicht einfach das nvidia physx übernehmen, aber sie könnten ein eigenes auf die beine stellen um endlich konkurrenzfähig zu sein. ich kann mich erinnern das vor einiger zeit auch bei amd mal die überlegung da war das zu tun sich dann aber doch dagegen entschieden wurde. und ich denke es liegt auch durchaus im bereich des machbaren das ganze so zu entwickeln, das spielehersteller ohne große probleme beide kartenhersteller gleichzeitig unterstützen können.

was die seperaten physx karten angeht, das wäre kaum sehr sinnvol für nvidia, würden sie doch einen entscheidenden vorteil gegenüber amd aufgeben und somit riskieren das ihnen kunden verloren gehen die sich genau wegen physx lieber nvidia karten kaufen.
 
AW:

Ich war immer nVidia Pro eingestellt. Doch dann hab ich vor eineinhalb Jahren mir eine HD4870 gekauft und bin heute noch zufrieden mit ihr :)

Deshalb neige ich ein klein wenig zu AMD. Gut, AMD hat kein PhysX, aber das P/L-Verhältnis stimmt einfach mehr. nVidia hat den Zug verpasst für mich.
 
Wie viel Mehraufwand brauchen Programmierer um extra auf PhydiX solche Effekte zu programmieren?
Oder wird da ein Effekt programmiert und dann, ganz vereinfacht geschrieben:
Wenn Physx = Flagge animiert
Ohne Physx = Flagge weglassen
Also zwei verschiedene Pfade?

Ich glaube Batman auf der Box hatte die Plastikvorhänge auch, oder?
Sehr schnelle Rechenknechte könnten das doch auch darstellen.

Könnte man dann nicht einfach einen "Pfad" schreiben so in der Art:
Schneller Rechner ohne Physx = Flagge animiert.

Bin da echt nicht im Bilde.
Wäre aber mal nen Bericht wert :)
 
Könnte man dann nicht einfach einen "Pfad" schreiben so in der Art:
Schneller Rechner ohne Physx = Flagge animiert.
Das geht doch ohne Probleme. PhysX kann auch bei reinen AMD Systemen ohne weiteres aktiviert werden. Das funktioniert ja auch problemlos, nur spielen kann man es dann nicht mehr.

Ich habe einen Q9550 der mit 3,6 GHz läuft, 8GB RAM und eine ATI HD4870 mit 1GB in meinem Rechneknecht. Aktiviere ich bei Batman oder auch Mirrors Edge Physx, habe ich eine Dia Show (bei Batman ca. 3-6 FPS). Ohne PhysX laufen beide Titel mit 65 FPS+

Ich habe ein wenig die Vermutung, das die Software (Spiel / PhysX Code) erkennt ob eine AMD Karte im Rechner steckt und die Performance der Berechnung dann absichtlich so grottenschlecht ist. Ich meine, ganz ehrlich, für ein paar Fähnchen im Wind oder Nebeleffekte bricht doch die Performance nicht um 90% - 95% ein, oder?

Ich werde auch in Zukunft nicht wegen PhysX auf Nvidia wechseln. Falls Nvidia allerdings eine interessante Karte auf den Markt wirft, wird sie gekauft wenn der Zeitpunkt passt. Allerdings glaube ich das kaum da die Nvidias meist mehr Strom ziehen und ein ganzes Stück teurer sind als vergleichbare ATI Karten (mit denen ich bisher durchweg gute Erfahrungen gemacht habe, während mir schon 3 Nvidia Karten abgeraucht sind).

Grüße,

Flo

PS: Cryostasis läuft erstaunlicher Weise auch mit PhysX ganz passabel
 
Könnte man dann nicht einfach einen "Pfad" schreiben so in der Art:
Schneller Rechner ohne Physx = Flagge animiert.
Das geht doch ohne Probleme. PhysX kann auch bei reinen AMD Systemen ohne weiteres aktiviert werden. Das funktioniert ja auch problemlos, nur spielen kann man es dann nicht mehr.

Ich habe einen Q9550 der mit 3,6 GHz läuft, 8GB RAM und eine ATI HD4870 mit 1GB in meinem Rechneknecht. Aktiviere ich bei Batman oder auch Mirrors Edge Physx, habe ich eine Dia Show (bei Batman ca. 3-6 FPS). Ohne PhysX laufen beide Titel mit 65 FPS+

Ich habe ein wenig die Vermutung, das die Software (Spiel / PhysX Code) erkennt ob eine AMD Karte im Rechner steckt und die Performance der Berechnung dann absichtlich so grottenschlecht ist. Ich meine, ganz ehrlich, für ein paar Fähnchen im Wind oder Nebeleffekte bricht doch die Performance nicht um 90% - 95% ein, oder?

Ich werde auch in Zukunft nicht wegen PhysX auf Nvidia wechseln. Falls Nvidia allerdings eine interessante Karte auf den Markt wirft, wird sie gekauft wenn der Zeitpunkt passt. Allerdings glaube ich das kaum da die Nvidias meist mehr Strom ziehen und ein ganzes Stück teurer sind als vergleichbare ATI Karten (mit denen ich bisher durchweg gute Erfahrungen gemacht habe, während mir schon 3 Nvidia Karten abgeraucht sind).

Grüße,

Flo

PS: Cryostasis läuft erstaunlicher Weise auch mit PhysX ganz passabel
das die nvidia karten teurer sind is ja logisch die sind ja auch besser. und das sie mehr strom brauchen ist auch klar, mehr leistung braucht nun einmal mehr strom.

und drei nvidia karten abgeraucht? also das klingt für mich sehr danach als hättest du mit den karten irgendwas falsch gemacht...schonmal abgestaubt? oder zu sehr übertaktet? oder von irgendnem billighersteller? also wenn da nicht irgendwas schiefgelaufen ist können eigentlich kaum so viele karten kaputtgehn, egal ob nvidia oder ati. mir ist jedenfalls noch nie ne karte kaputtgegangen.
 
Natürlich wären animierte Plastikvorhänge
auch locker auf ATi Grafikkarten möglich. Ich
glaube schon das erste SplinterCell hat davon
regen Gebrauch gemacht und brachte damit
keine Grafikkarte übermäßig zum Schwitzen.
Das Problem ist der Aufwand. Wenn eine
nVidia Karte PhysX hardwaremaßig anbietet, ist
es für den Programmierer wahrscheinlich sehr
einfach Physikobjekte einzubinden. Vielleicht
sogar einfach nur "Objekt im Editor anklicken,
als "PhysX" definieren und irgendein Preset
auswählen (Plastikvorhang, Holzkiste,
Glasscheibe etc.) Den Rest übernimmt dann
der Hardware-Renderer. Sollte der Vorhang
nun auch auf nicht PhysX Karten flüssig
umherwabbern, müsste der Proggi dafür eine
aufwändige physikalische Simulation
programmieren oder irgendeine Middleware
lizensieren und in den Code einbinden.
Dann gibt es eben noch die Möglichkeit der
Softwareemulation. Der Hardware-PhysX
Renderer wird per Software emuliert.
Klar, dass das so richtig langsam ist. Einen
spezialisierten RISC-Chip durch Software zu
emulieren frisst einfach übermäßig viele
Ressourcen.

Wenn die Programmierer sich tatsächlich auf
PhysX einschießen sollten, muss ATi sich was
überlegen. Zum Beispiel auf ihren Karten
ebenfalls einen Physik-Prozessor
einzubauen,der zu PhysX kompatibel ist, aber
vielleicht noch die eine oder andere zusätzliche
Funktion bietet...
 
Der Punkt ist einfach und das verstehen viele ja anscheind nich das PhysX physikalisch korrekte berechnungen anstellt z.b in Batman AA bewegt ihr euch durch eine nebelwand und der nebel wird von der spielfigur weggedrückt (wie in echt auch halt) fangt ihr an euch im nebel zu drehen fängt der nebel auch an sich zu verwirbel und mitzudrehen. Warum diese games mit PhysX soviel power brauchen ist auch irgendwie klar wenn man sich mal mit PhysX beschäftig, den in Batman aber auch in games wie Darkest of Days und Mirrors Edge bestehen die nebel als beispiel aus über 100.000 einzelnen partikeln (je größer der nebel desto mehr partikel) und jeder Partikel davon wird physikalisch korrekt einzeln berechnet. In Cryostasis als beispiel wird sogar das Wasser physikalisch korrekt berechnet was auch nich gerade wenig partikel sind. Ich selber nutzte ein GTX 280 als graka im moment und als ich Batman AA bekommen und gespielt habe hab ich schon gemerkt das auf hoher PhysX einstellung die performace einbrach von durchschnittlich 45 auf unter 25 Fps bei max. grafikeinstellungen. Es war zwar spielbar aber man hat es gemerkt das die leistung einbrach (verständlich da ja ein teil der graka zur PhysX berechnung abgestellt wurde) und somit hatte ich mir noch eine GTS250 dazugehollt die nur noch PhysX berechnet und die Fps von 25 ( max.PhysX auslastung ohne 2te karte) auf über 60 Fps (max. PhysX auslastung mit 2ter karte) anhob und sogar mehr Fps brachte als vorher und das trotz max. grafik. Das PhysX auf ATI karten nicht geht is auch irgend mehr als logisch, der ATI treiber hat ja auch kein PhysX SDK im treiber und im allgemeinen keine unterstütztung seitens Nvidia. Es gibt zwar ein paar tricks womit es doch geht aber die bringen bei weitem nich die leistung. Schade ist es nur das die Games entwickler zu wenig PhysX nutzten aber alles in allem finde ich es eine gute sache und wette das PhysX mit der kommenden Fermi generation ein gutes comeback erleben wird.
 
Die Frage in Bezug auf Realismus ist doch die:
Brauche ich eine sich korrekt verhaltende Nebelwand oder reicht es mir, wenn sich diese einigermaßen realisitsch verhällt?
Meine Antwort:
Wenn das Spielerlebnis nicht getrübt wird und die Nebelwand immer noch schick aussieht, nein brauche ich nicht.

So lange stehe ich meistens sowieso nicht vor Nebelwänden (weder im realen noch im digitalen Leben) um feststellen zu könne, dass sich diese nicht zu 100% korrekt verhällt.
 
AW:

Verarschung pur zu Lasten des Kunden.

Diese Effekte sind ein Witz- ich sagte es schon einmal.

Beispielsvergleich: Mirrors Edge mit den Plastikvorhängen.
Diese Effekte gab es schon beim ersten SplinterCell-Teil.
PhysX ist geil. Die Veränderungen sind klein aber sie tragen viel zur Atmosphäre bei.

Zu Deinem Beispiel mit ME2, daß die Effekte ohne Physx auch gehen sollte jedem klar sein, nur nicht bei gleichbleibender Performance.
 
Zurück