• Aktualisierte Forenregeln

    Eine kleine Änderung hat es im Bereich Forenregeln unter Abschnitt 2 gegeben, wo wir nun explizit darauf verweisen, dass Forenkommentare in unserer Heftrubrik Leserbriefe landen können.

    Forenregeln


    Vielen Dank
  • Kritk / Fragen / Anregungen zu Artikeln

    Wenn ihr Kritik, Fragen oder Anregungen zu unseren Artikeln habt, dann könnt ihr diese nun in das entsprechende Forum packen. Vor allem Fehler in Artikeln gehören da rein, damit sie dort besser gesehen und bearbeitet werden können.

    Bitte beachtet dort den Eingangspost, der vorgibt, wie der Thread zu benutzen ist: Danke!

DirectX 12: Video zeigt höhere Fps mit Kombi aus integrierter Intel- und Geforce-Grafik

PCGH_Thilo

Chefredakteur PCGH
Mitglied seit
29.03.2001
Beiträge
225
Reaktionspunkte
5
Jetzt ist Deine Meinung zu DirectX 12: Video zeigt höhere Fps mit Kombi aus integrierter Intel- und Geforce-Grafik gefragt.


Bitte beachtet: Der Kommentarbereich wird gemäß der Forenregeln moderiert.


arrow_right.gif
Zum Artikel: DirectX 12: Video zeigt höhere Fps mit Kombi aus integrierter Intel- und Geforce-Grafik
 
"...eine heterogene Multiadapter-Technik unter DirectX 12 und mit der Unreal Engine. Eine Kombi aus integrierter Intel-GPU und diskreter Geforce-Grafik..."

Könnte mir das mal bitte jemand erklären/übersetzen was da Technisch gemacht wurde? Wo kommt die Intel GPU her und was soll eine "diskrete" Geforce-Grafik sein?
 
Wie bei SLI oder CrossFire werden die Grafikberechnungen aufgeteilt.
In diesem Falle zwischen einer Nvidia Grafikkarte, also, die ganz normale separate Steckkarte (daher "diskret")
und dem integrierten Grafikchip auf den Intel Core Prozessoren.

Und "heterogen" vermutlich, weil die Arbeit, im Gegensatz zu SLI/CF, nicht gleichmäßig aufgeteilt wird.
 
hab das video jetzt nicht gesehen, aber das bedeutet ganz einfach, dass sowohl interne gpu (also der grafikteil der cpu) als auch die eigenständige, separate (steck-) grafikkarte für die grafikberechnung zuständig sind.

das ist ja nicht der normalfall.
 
Zuletzt bearbeitet:
Sprich es werden berechnungen der Grafikkarte, auf den entsprechenden Teil der CPU ausgelagert.
Wie funktioniert das mit Grafikkarten die 2 GPU haben? Wer übernimmt da die Aufteilung? Denn Grafikkarte, teilt ja zwischen den beiden GPU auf und DX12 will davon ja noch ein Teil auf die CPU auslagern...?
 
Ich denke mal, dass normal der Grafikkartentreiber die Verteilung der Last auf die diskrete Multi-GPU Lösung übernimmt.

Und DirextX12 dann nochmal von er "Grafikkarte" (egal, wieviele da jetzt im Verbund werkeln) auf die iGPU auslagert.

Ach ja, Besitzer eines Xeons oder P Prozessors werden davon freilich nicht profitieren können. Aber ob's so viel ausmacht, wird sich zeigen.
Ich glaube, es gibt im Prinzip jetzt schon solchen Mischmasch auf dem Desktop, unter DX11 aber mit eher mäßigem Erfolg.

edit: "Lucid Virtu MVP" oder "HyperFormance". Kenne das von meinem Z77 Mainboard. Die Möglichkeit, die iGPU zum Grafikberechnen
zu Verwenden, kam so mit IvyBridge auf. Kann was bringen, muss aber nicht.
 
Recht herzlichen Dank Euch zwo!
 
Sprich es werden berechnungen der Grafikkarte, auf den entsprechenden Teil der CPU ausgelagert.
Wie funktioniert das mit Grafikkarten die 2 GPU haben? Wer übernimmt da die Aufteilung? Denn Grafikkarte, teilt ja zwischen den beiden GPU auf und DX12 will davon ja noch ein Teil auf die CPU auslagern...?
Nein. So ist es nicht. Es gibt schon immer einen gewissen Teil der Grafik, den die CPU berechnen musste. Dieser Teil konnte bis DirectX11 nur ungleichmäßig auf die vorhandenen CPU Kerne verteilt werden, z.B. CPU Core 1 hat den Hauptanteil. Dies hat dazu geführt, dass es in Spielen immer wieder zu Begrenzungen der fps durch die Single-Thread Performance der CPU gekommen ist (single thread perf = Leistung eines Kerns, Intel hat meist eine deutlich höhere single thread performance als AMD). Mit DirectX12 lässt sich dieser Teil nun besser auf alle vorhandenen Kerne aufteilen, so dass bei single thread limitierten Szenarien zu deutlich höheren fps kommen sollte.

Was hier nun vorgestellt wird hat nichts damit zu tun, sondern ist ein neues Feature (Multi adapter). Nun ist es möglich, dass z.B. die in den meisten CPUs integrierte Grafikeinheit sich direkt am Renderprozess beteiligt. Bei SLI oder Crossfire teilen sich die GPUs nicht das Rendern eines einzelnen Frames, sondern jede GPU rendert ein eigenes Bild (dies führt später zu Problemen der Synchronisierung -> Mikroruckler). In diesem Fall hier übernimmt die integrierte Grafikeinheit aber kein eigenes Bild, sondern beteiligt sich am Rendern eines einzelnen Frames, in dem es z.B. weniger rechenintensive Aufgaben wie Post-FX Effekte übernimmt (dies sind alle Effekte, welche am eigentlich bereits fertig gerenderten Bild, noch gemacht werden, z.B. ist FXAA eine post-render Antialiasing Methode).
 
Zurück