Auf dem Boden bleiben!
Viele dieser Filmszenen bestehen aus mehreren Layern und werden mittels eines Compositing-Tools zusammengesetzt und aufeinander abgestimmt (Colormastering, Schatten und Lichtbereiche anpassen, Transparenz bei Konturen usw.). Dazu gesellen sich noch etliche volumetrische Effekte wie z.B. Nebel, Rauch, Dunst usw, um einer Szene mehr Tiefe zu verleihen.
Warum macht man das so? Einerseits kann man z.B. eine Charakteranimation noch bearbeiten und verfeinern, wärend finale Hintergründe und andere Dinge für die Szene schon berechnet werden. Andererseits kostet die Berechnung der kompletten CG-Szene enorm viel Rechenleitung, dass sogar eine erstklassige Renderfarm an ihre Grenzen stösst.
Alleine das Vieh auf Bild 2 hat so viele Haare, dass nurschon deren Physikberechnungen ne halbe Ewigkeit dauert. Mal ganz abgesehen was die Lichtberechnung an Rechenleistung kostet...
Solche Szenen wie sie nVidia mit dem Bugatti vorführt, lassen mich eher kalt, denn ich könnte jede Wette eingehen, dass gewisse Berechnungen, gerade im Bezug auf Reflektionen und Beleuchtung schonmal vorab gemacht wurden. Beweisen kann ich dies selbstverständlich nicht.
Mal ganz abgesehen davon, hat die Szene praktisch keinen Hintergrund und keine weiteren komplexen Objekte mit organischen Oberflächen, aufwändiger Physik, Partikelsystem, Bones, Muskulatur, Haare usw.
Also wo bleibt da die Komplexität und wo schöpft man alle Möglichkeiten eines sinnvollen Raytracings aus? So gut wie garnicht!
Raytracing macht für mich nur dann Sinn, wenn die Szene auch ne entsprechend hohe Komplexität erreicht, damit die Qualität des Renderings lohnenswert wird. (Jaja, blöd formuliert ich weiss!)