Studios, die mit großen LED-Wänden bestückt sind und sich für Virtual Production eignen, werden häufig als LED-Volumes oder als XR-Studios (für Extended Reality) bezeichnet.
Statt Greenscreen steht im Studio dann eine große, oft auch gebogene LED-Wand, zusammengesetzt aus vielen nahtlos aneinandergefügten LED-Panels. Wichtig ist dabei, dass die einzelnen Panels einen geringen Pixel-Pitch von weniger als 3 mm bieten, damit eine Kamera die im Studio aufnimmt, den Hintergrund nicht mehr als gerastertes Bild wahrnimmt, sondern wie eine echte Szenerie.
Es gibt auch LED-Volumes mit LED-Decke und LED-Boden, um damit auch realistische Spiegelungen und Schatten erzeugen zu können.
Bespielt werden die LED-Panels in der Regel mit fotorealistischen, computergenerierten, animierten Hintergründen. Dabei wird also auf den LED-Flächen nicht einfach nur ein vorproduzierter Videoclip abgespielt, sondern der Hintergrund wird jeweils in Echtzeit von sehr leistungsfähigen Engines erzeugt: nur so entsteht ein absolut realistisch wirkender Hintergrund.
Wenn die Kamera innerhalb eines LED-Volumes bewegt wird, wird das Hintergrundbild live angepasst. So entsteht nicht der »falsche«, unrealistische Hintergrund, wie er in älteren Filmen oft bei Fahraufnahmen per Rückprojektion realisiert wurde, sondern man hat einen dreidimensionalen Eindruck: Wenn die Kamera durch das LED-Volume fährt oder sich bewegt, passen sich die einzelnen Objekte im Hintergrund an die jeweilige Perspektive an. Ein Beispiel: Fährt die Kamera an einem virtuellen Objekt, etwa einem Baum oder Möbelstück vorbei, sieht die Kamera, was sich hinter einem solchen virtuellen Objekt versteckt.
Dafür ist sehr leistungsfähige Echtzeit-Computertechnik erforderlich, eine umfassende Serverstruktur ist notwendig. Auf den schnellen Rechnern arbeiten LED-Volumes mit Realtime Engines aus dem Games-Bereich: meist sind das Unreal Engines und eine passende Grafik-Software von Epic Games — aber es gibt auch andere Systeme.
Unreal bietet die enorme Leistungsfähigkeit, die für LED-Volumes nötig ist, Unreal Engine wird weltweit auch verstärkt im VR- und TV-Bereich eingesetzt, etwa auch in Greenscreen-Studios im Live-VR-Umfeld.
Damit die Engines wissen, was die Kamera sieht, wird genau getrackt, wie sich die Kamera im 3D-Raum bewegt wird und es werden auch die Objektivdaten erfasst. Nur dann kann ein wirklich realitätsnahes Bildsignal erzeugt werden.
Es gibt ganz unterschiedliche Tracking-Systeme für die Kameras und auch für die Darsteller, denn die sollen ja etwa auch realistische Schatten erzeugen.
Um dieses Grund-Setup für die virtuelle Produktion in einem LED-Volume herum, haben sich zahlreiche technische Lösungen entwickelt, die weitere Möglichkeiten eröffnen.