• Aktualisierte Forenregeln

    Eine kleine Änderung hat es im Bereich Forenregeln unter Abschnitt 2 gegeben, wo wir nun explizit darauf verweisen, dass Forenkommentare in unserer Heftrubrik Leserbriefe landen können.

    Forenregeln


    Vielen Dank
  • Kritk / Fragen / Anregungen zu Artikeln

    Wenn ihr Kritik, Fragen oder Anregungen zu unseren Artikeln habt, dann könnt ihr diese nun in das entsprechende Forum packen. Vor allem Fehler in Artikeln gehören da rein, damit sie dort besser gesehen und bearbeitet werden können.

    Bitte beachtet dort den Eingangspost, der vorgibt, wie der Thread zu benutzen ist: Danke!

News - Nvidia: Grafikprozessor mit Physikfunktionen

Administrator

Administrator
Mitglied seit
07.03.2011
Beiträge
14.394
Reaktionspunkte
0
Jetzt ist Deine Meinung gefragt: Hier kannst Du deinen Kommentar zum Artikel veröffentlichen und mit anderen Lesern darüber diskutieren.

arrow_right.gif
Zum Artikel: http://www.pcgames.de/aid,458500
 
Ageia, die bereits seit geraumer Zeit an einer Extrakarte für Physikfunktionen arbeiten, wird diese Meldung nicht freuen.

das halte ich noch für untertrieben, das dürfte wohl eher den todesstoss darstellen.
 
wenn der preis im preis/leistungsverhältnis gut steht, dann würde ich das sicher kaufen und weiterempfehlen können :-D
 
Bonkic am 21.03.2006 08:43 schrieb:
Ageia, die bereits seit geraumer Zeit an einer Extrakarte für Physikfunktionen arbeiten, wird diese Meldung nicht freuen.

das halte ich noch für untertrieben, das dürfte wohl eher den todesstoss darstellen.
ja, aber eine grafikkarte mit integrierter physikfunktionen ist einfach auch praktischer als eine zusätzliche physikkarte.
ich habe schon länger meine zweifel, ob sich reine physikkarten durchsetzen können, glaube eher nicht. so hingegen, als integrierter teil einer graka eher schon.
 
Bonkic am 21.03.2006 08:43 schrieb:
Ageia, die bereits seit geraumer Zeit an einer Extrakarte für Physikfunktionen arbeiten, wird diese Meldung nicht freuen.

das halte ich noch für untertrieben, das dürfte wohl eher den todesstoss darstellen.
Ich finde das eigentlich schade.
OK der angepeilte Preis der PhysX Karten war etwas deftig. 50-100€ findde ich in Ordnung.

Aber sinnvoll wäre die Einbindung von einer speziell für Physik erschaffenen Recheneinheit sicherlich gewesen.
Macht es doch einfacher genau die Befehle zu programmieren die die Karte kann. Die Grafikkarte die auch Physik kann, muss die Physik berechnen, die Grafik rechen, die Grafik tlw. bei Dual Core Prozzis auch auf den zweiten Kern legen. Das kann ja gar nicht gut gehen?!?!
Ich hoffe nur das Spiele nicht in Zukunft völlig verschiedene Hardwareanforderungen haben werden. Eines unterstützt nur PhysX, das andere das Havok-zeug, das nächste macht das über Quadcore....... :|
Am Ende ist der Kunde der Dumme, da er für das volle Spielerlebnis alle Systeme braucht und sich dumm und dämmlich zahlt, da kein Spiel alles zugleich braucht.
HanFred am 21.03.2006 08:51 schrieb:
ja, aber eine grafikkarte mit integrierter physikfunktionen ist einfach auch praktischer als eine zusätzliche physikkarte.
Und für was gibt es dann GPU und Soundkarte?
Wäre doch viel einfacher alles über die CPU zu rechnen?
 
crackajack am 21.03.2006 08:52 schrieb:
Und für was gibt es dann GPU und Soundkarte?
Wäre doch viel einfacher alles über die CPU zu rechnen?
ja, aber vielleicht ist da weniger möglich als mit einem extrachip?
ich bin sicher, dieselbe diskussion wurde schon bei der einführung von 3D-beschleunigern geführt. und wer weiss, vielleicht setzen sich ja doch eines tages physikkarten durch. aber wenn's das in kombination mit einer graka gibt, dann prophezeihe ich dem kombiprodukt einfach mehr chancen. kaufe doch selber lieber eine karte als zwei. aber dann schon lieber mit extra physikchip und das hat NVidia nicht vor, wenn ich das richtig verstehe.
 
crackajack am 21.03.2006 08:52 schrieb:
Und für was gibt es dann GPU und Soundkarte?
Wäre doch viel einfacher alles über die CPU zu rechnen?

Hmm, also ich würde sagen, das hat sich deswegen durchgesetzt, weil nicht jeder die gleiche Grafik- / Soundleistung haben möchte.

Aber eigentlich finde ich die Idee den Physikchip in die Grafikkarte zu integrieren gar nicht so verkehrt. Denn eine schnelle Grafikkarte kauft man sich ja in erster Linie um Spiele zu beschleunigen, genauso wie einen Physikbeschleuniger. Sehr viele Erweiterungsplätze bieten moderne Mainboards eh nicht mehr und PixelShader sind denke ich auch jedem Programmierer ein Begriff, weswegen so etwas auch sicherlich schneller angenommen werden würde (und fehlerunanfälliger wäre), als eine komplett neue Technik.
 
Bonkic am 21.03.2006 08:43 schrieb:
Ageia, die bereits seit geraumer Zeit an einer Extrakarte für Physikfunktionen arbeiten, wird diese Meldung nicht freuen.

das halte ich noch für untertrieben, das dürfte wohl eher den todesstoss darstellen.

ja, es war eigentlich klar, dass sich NVIDIA und ATI die Butter in Bezug auf Physikschaltkreise nicht vom Brot nehmen lassen.
 
Viper am 21.03.2006 09:20 schrieb:
crackajack am 21.03.2006 08:52 schrieb:
Und für was gibt es dann GPU und Soundkarte?
Wäre doch viel einfacher alles über die CPU zu rechnen?
Hmm, also ich würde sagen, das hat sich deswegen durchgesetzt, weil nicht jeder die gleiche Grafik- / Soundleistung haben möchte.
Grafik (und Sound; auf EAX oder Surround allgemein kann man verzichten.) ist ja etwas skalierbares.

Aber wie soll etwas schlechtere Physik aussehen?
Blödes Beispiel:
Ein Ball prallt beim Besitzer von der nvidia/havok Combo korrekt vom Boden ab.
Der PhysX Besitzer schaut genauso wie der ATI Besitzer in die Röhre, weil beide Systeme nicht unterstützt werden? Da hüpft der Ball halt irgendwie weg?

Wie soll den das Gameplay für alle gleich bleiben?
z.B. Bombing Run bei UT2007
oder das Fahrverhalten der Wagen in UT2007
usw.

Ich will einen einzigen Standard!
Wenn die Physik in der graka ist, von mir aus. Aber dann bitte auch in der ATI-Karte und die Programmierer sollen dann alle diese Schnittstelle nutzen.....

Aber nun ja man sieht ja das es Glide gegeben hat, das immer noch OpenGL existiert bzw. immer noch DirektX. (Welches von beiden besser ist, ist mir ja egal, aber für was zwei Standards?)
 
crackajack am 21.03.2006 09:29 schrieb:
Viper am 21.03.2006 09:20 schrieb:
crackajack am 21.03.2006 08:52 schrieb:
Und für was gibt es dann GPU und Soundkarte?
Wäre doch viel einfacher alles über die CPU zu rechnen?
Hmm, also ich würde sagen, das hat sich deswegen durchgesetzt, weil nicht jeder die gleiche Grafik- / Soundleistung haben möchte.
Grafik (und Sound; auf EAX oder Surround allgemein kann man verzichten.) ist ja etwas skalierbares.

Aber wie soll etwas schlechtere Physik aussehen?
Blödes Beispiel:
Ein Ball prallt beim Besitzer von der nvidia/havok Combo korrekt vom Boden ab.
Der PhysX Besitzer schaut genauso wie der ATI Besitzer in die Röhre, weil beide Systeme nicht unterstützt werden? Da hüpft der Ball halt irgendwie weg?

Wie soll den das Gameplay für alle gleich bleiben?
z.B. Bombing Run bei UT2007
oder das Fahrverhalten der Wagen in UT2007
usw.

Ich will einen einzigen Standard!
Wenn die Physik in der graka ist, von mir aus. Aber dann bitte auch in der ATI-Karte und die Programmierer sollen dann alle diese Schnittstelle nutzen.....

Aber nun ja man sieht ja das es Glide gegeben hat, das immer noch OpenGL existiert bzw. immer noch DirektX. (Welches von beiden besser ist, ist mir ja egal, aber für was zwei Standards?)

Quatsch :B

es wird einfach so sein wie bei den ersten 3D Grakas - die Funktionen (zB Havok Engine) ist doch schon im Spiel integriert.
Ich denke mal bei "normalen" PC rechnet das dann halt die CPU - bei denen mit Karte wird die CPU für andere Sachen entlastet (KI usw).
Sicherlich wird es dann auch irgendwann spezielle Funktionen geben die man NUR mit Physik Chip aktivieren kann (so in der Art wie auch HDR bei Grafikkarten - ist ein kann aber geht auch ohne).
Langfristig wird sich da eh ein Standart durchsetzen - und dann ist eben auf jeder Grafikkarte (oder vllt sogar schon aufm Board) son PhysikChip standartmässig drauf. So war es ja mit Grafikkarten und Soundkarten (ich erinnere an AdLib das zb NUR Musik gab - keine effekte)
 
crackajack am 21.03.2006 08:52 schrieb:
Und für was gibt es dann GPU und Soundkarte?
Wäre doch viel einfacher alles über die CPU zu rechnen?


Die X86 CISC Prozessoren, und die somit notwendige Softwarelogik, benötigen die 10-100 fache Geschwindigkeit eines DSP, bzw. Prozessors, der auf spezielle Funktionen getrimmt ist.

... nur mal so am Rande erwähnt.
 
xdave78 am 21.03.2006 09:44 schrieb:
Quatsch :B

es wird einfach so sein wie bei den ersten 3D Grakas - die Funktionen (zB Havok Engine) ist doch schon im Spiel integriert.
Ich denke mal bei "normalen" PC rechnet das dann halt die CPU - bei denen mit Karte wird die CPU für andere Sachen entlastet (KI usw).
Sicherlich wird es dann auch irgendwann spezielle Funktionen geben die man NUR mit Physik Chip aktivieren kann (so in der Art wie auch HDR bei Grafikkarten - ist ein kann aber geht auch ohne).
Langfristig wird sich da eh ein Standart durchsetzen - und dann ist eben auf jeder Grafikkarte (oder vllt sogar schon aufm Board) son PhysikChip standartmässig drauf. So war es ja mit Grafikkarten und Soundkarten (ich erinnere an AdLib das zb NUR Musik gab - keine effekte)
Ich könnte mich nicht daran erinnern das die Physikengine von Far Cry oder Doom3 (*hust*) Havok geheißen hätte.
Ich könnte mich daran erinnern, dass die Havokengine in Max Payne 2 einfach lächerlich gewirkt hat.
Ich könnte mich an die Physikengine von Unreal2 erinnern und wie hieß die?Karma
Ich denke UT2007 setzt auf PhysX. (?)

Also wieviele Spiele haben Havok? (HL2, Vampire Bloodlines *hust* und kA)

Ich sehe einfach das Problem, das die Programmierer schon ewig brauchen um 64 bit überhaupt auf das gleiche Niveau wie 32 bit zu bringen.
Ich sehe erst in näherer Zukunft eine ordentliche Unterstützung für Dual Core bzw. eben flexiblere Engines. (Dual Core Treiber)
Da kann ich so ein "welche Physikengine wird sich durchsetzen" genauso wenig gebrauchen wie BR vs. HD-DVD.

IXS am 21.03.2006 09:54 schrieb:
crackajack am 21.03.2006 08:52 schrieb:
Und für was gibt es dann GPU und Soundkarte?
Wäre doch viel einfacher alles über die CPU zu rechnen?


Die X86 CISC Prozessoren, und die somit notwendige Softwarelogik, benötigen die 10-100 fache Geschwindigkeit eines DSP, bzw. Prozessors, der auf spezielle Funktionen getrimmt ist.

... nur mal so am Rande erwähnt.
Die Frage war auch nicht wirklich ernst gemeint. ;) Ich weiß schon in etwa was ein RISC und ein CISC prozzi ist und kann.
DArum verstehe ich ja nicht warum man der Physik nicht einen eigenen Prozzi spendiert.
 
ich glaub ihr seht das zu eng. Da steht doch, dass die Physikengine über das SM3.0 beschleunigt werden soll. Also kommen keine speziellen neuen Schaltungen in den Chip und so wären grundsätzlich auch ATIs SM3 Karten zur beschleunigung fähig. Klar ist dann natürlich, dass die Physikbeschleunigung zu lasten der Grafik-Shader-Leistung geht, denn es werden dafür ja die gleichen Resourcen des Chips benuzt. Ob sich das also lohnt bleibt abzuwarten.

Dass sich eine Extrakarte zur Phyikbeschleunigung durchsetzten würde hab ich schon immer bezweifelt. Was soll denn da noch alles kommen. Brauch ich dann demnächst einen Rechner mit 10 PCI(e) slots um ein Spiel zu spielen? Ping-Beschleunigerkarten wurden auch schon angekündigt (halte ich für absoluten Humbug!). Kommt dann noch der KI-Beschleuniger, der Strategiespielbeschleuniger, der Grafikbeschleunigerbeschleuniger?

Das einizige was hier noch beschleunigt wird, ist das Loch in meinem Geldbeutel!
 
crackajack am 21.03.2006 09:29 schrieb:
Aber nun ja man sieht ja das es Glide gegeben hat, das immer noch OpenGL existiert bzw. immer noch DirektX. (Welches von beiden besser ist, ist mir ja egal, aber für was zwei Standards?)

Ähm, schonmal überlegt, dass es 3D Grafik nicht nur in Spielen gibt? OpenGL ist DER Industriestandard. Eine offene, frei benutzbare Schnittstelle.

Ich glaube auch, dass die Ageia Karten eher in der Industrie Verwendung finden werden. Da gibt es IMHO bessere Verwendungsmöglichkeiten. Für Spieler ist eine integrierte Physikeinheit besser.
 
tiflsc am 21.03.2006 10:20 schrieb:
crackajack am 21.03.2006 09:29 schrieb:
Aber nun ja man sieht ja das es Glide gegeben hat, das immer noch OpenGL existiert bzw. immer noch DirektX. (Welches von beiden besser ist, ist mir ja egal, aber für was zwei Standards?)

Ähm, schonmal überlegt, dass es 3D Grafik nicht nur in Spielen gibt? OpenGL ist DER Industriestandard. Eine offene, frei benutzbare Schnittstelle.
:S
Ähm, schonmal überlegt, dass ich genau deswegen "immer noch DirektX" geschrieben habe. Ich weiß schon das DX der "unnötige Fremdkörper" ist.
Ich sitze hier auch auf einem Rechner der ohne Quadro Karte ziemlich dürftig laufen würde.

Und das ist ja mein Problem mit der ganzen Geschichte. Solange es mehrere Standards gibt, kocht jeder Programmierer sein eigenes Süppchen, weil er diese oder jene Hardware einfach besser findet.
Und der Kunde hat dann bei der Grafikschiene bei ATI mit OpenGL Spielen Probleme und hatte eine Zeitlang mit nvidia bei DirektX Titeln Probleme. :(
 
crackajack am 21.03.2006 09:58 schrieb:
Ich könnte mich nicht daran erinnern das die Physikengine von Far Cry oder Doom3 (*hust*) Havok geheißen hätte.
Ich könnte mich daran erinnern, dass die Havokengine in Max Payne 2 einfach lächerlich gewirkt hat.
Ich könnte mich an die Physikengine von Unreal2 erinnern und wie hieß die?Karma
Ich denke UT2007 setzt auf PhysX. (?)
HALLO..aufwachen :p

Du weisst was "zB" heisst oder :B
 
crackajack am 21.03.2006 09:29 schrieb:
Aber wie soll etwas schlechtere Physik aussehen?
Blödes Beispiel:
Ein Ball prallt beim Besitzer von der nvidia/havok Combo korrekt vom Boden ab.
Der PhysX Besitzer schaut genauso wie der ATI Besitzer in die Röhre, weil beide Systeme nicht unterstützt werden? Da hüpft der Ball halt irgendwie weg?

Also so wie ich das verstanden habe, stellt eine Physikbeschleunigerkarte dem Programmierer einfach ein paar Standardfunktionen zur Verfügung, die sie eben dann recht flott berechnen kann. Ich denke da vielleicht an so Sachen, wie Impulssatz, Drallsatz, Reibungsgesetz, etc. bei dem der Programmierer dann nur noch ein paar Parameter vorgeben muss und sich um die Verarbeitung keine sorgen mehr machen muss.
Und für Computer, die so eine Karte nicht haben, muss er diese Funktionen dann selber schreiben und sie von der CPU berechnen lassen.

Aber ich stimme dir voll zu, dass es eigentlich nicht sein darf, dass sich Gegenstände in der gleichen Situation an verschiedenen Computern unterschiedlich verhalten. Wie will man denn dann noch Multiplayer-Spiele programmieren? Da ist es dann sicher Aufgabe der Hersteller dafür zu sorgen, dass es auf PCs mit unterstützter Beschleunigerkarte eben einfach nur schneller läuft, also die selben Funktionen zu nutzen.
 
crackajack am 21.03.2006 10:34 schrieb:
Ähm, schonmal überlegt, dass ich genau deswegen "immer noch DirektX" geschrieben habe. Ich weiß schon das DX der "unnötige Fremdkörper" ist.


DX der Unnötige Fremdkörper :B

DirectX ist eine komplette Library um dem Programmierer die Arbeit abzunehmen...
Direct Draw
Direct 3D (OpenGL greift nur hier )
Direct Sound
Direct Play
Direct Input
....

Ich beschreibe so etwas eher als durchdachtes Konzept.
OpenGL ist dagegen so etwas wie eine Notlösung für die Industrie, damit nicht das komplette Tohuwabohu ausbricht...
Und, es ist gerade die Industrie, die Angst vor Standards hat, da somit eigene Patente sehr schnell in der Versenkung verschwinden.
 
Jared am 21.03.2006 10:18 schrieb:
Brauch ich dann demnächst einen Rechner mit 10 PCI(e) slots um ein Spiel zu spielen? Ping-Beschleunigerkarten wurden auch schon angekündigt (halte ich für absoluten Humbug!). Kommt dann noch der KI-Beschleuniger, der Strategiespielbeschleuniger, der Grafikbeschleunigerbeschleuniger?

Das einizige was hier noch beschleunigt wird, ist das Loch in meinem Geldbeutel!

hehe
 
Jared am 21.03.2006 10:18 schrieb:
Kommt dann noch der KI-Beschleuniger, der Strategiespielbeschleuniger, der Grafikbeschleunigerbeschleuniger?

Dabei fällt mir grad auf, dass das ja überhaupt die Idee ist! Eine Zusatzkarte die Shaderprogramme beschleunigt. Diese wird dann zu Abwechslung mal auf die Grafikkarte statt aufs Mainboard gestöpselt und ATI und nVidia können endlich 2fach,4fach und 8fach abkassieren (SLI / CFschon erfunden).

*zumPatentamtRenne* :-D
 
Zurück