Ähm was? Hier geht es um Photogrammetrie, es wird also aus mehreren Bilder ein HighPoly 3D Model erstellt mit einer Textur welche aus allen Bildern generiert wird. Und dieses Modell kann man dann (je nachdem wie man es Fotografiert hat) auch aus allen Blickrichtungen sehen und hat hier keinerlei Limitation.
... sofern man beim Fotographieren auch
sämtliche Blickrichtungen berücksichtigt hat.
Und das hört sich in der Theorie einfach an, wird aber schon bei alltäglichen Gegenständen zur Mammutaufgabe.
Beispiel:
- ein Gefäß, in dem Kugelschreiber, Bleistifte, Schere etc stehen. Um sämtliche Flächen und mögliche Blickwinkel inklusive entsprechender Tiefen Informationen korrekt abbilden zu können, braucht man eigentlich schon einen Film, der sich in einer 360° Kamerafahrt um das Objekt bewegt. Bewegungen nach Oben und Unten dabei nicht vergessen.
Was dabei rauskommt, wenn man Blickwinkel vergißt, kann man bei diesen Beispielen sehen (ja, andere Technologie, aber die Fehlerursache ist identisch: der fehlende Blickwinkel):
Beispielsweise bei dem X-Faß ganz rechts. Wenn man sich da die beiden blauen rechteckigen Behälter auf der obersten Ebene von oben ansieht, haben die extreme Löcher in den Wänden. Der eine hat zudem eine schräge Wand, die wahrscheinlich ebenfalls vom Blickwinkel herrührt.
Rein technisch ist es natürlich möglich, ganze Urwälder damit darzustellen.
Aber der Aufwand, diese einzuscannen, wächst mit größerem Areal (und damit Sichweite und vor allem -winkeln) ins Gigantische.
Bei einem einzelnen Objekt - zB einer Topfpflanze - ist das noch relativ schnell machbar, aber selbst bei einer kleinen Szene wie 50m² Urwald hat man ja schon bei wenigen cm Blickwinkel Unterschied Unmengen an Flächen, die man vorher nicht sah.