IBC2013: Lichtfeld-Videoaufnahmen Fraunhofer-Style
Drehen mit 16 in einem Array angeordneten Kameras und erst im Nachhinein den genauen Blickwinkel und die Schärfeebene der jeweiligen Szene festlegen: Könnte das die Zukunft der Filmproduktion sein? Das Fraunhofer IIS jedenfalls zeigte während der IBC2013 erste Studien, wie das funktionieren könnte.
Dass die Bildgestaltung sich auch in der Postproduction noch in puncto Schärfeebene und Blickwinkel drastisch umändern lässt: Vielen Kameraleuten dürfte diese Vorstellung ein Graus sein. Und dennoch könnte es so kommen. Das was mit der Lichtfeldkamera Lytro bei Standbildern möglich ist, könnte man mit einem etwas anderen Ansatz auch mit Videoaufnahmen machen. Das Fraunhofer Institut für Integrierte Schaltungen (IIS) zeigte im Rahmen der IBC2013 die Kombination aus einer Algorithmik und einem Kamera-Array, die es erlauben, erst nach dem Dreh zu entscheiden, wo die Schärfe liegen, und aus welchem genauen Blickwinkel man auf das Bildobjekt blicken will. Man kann aber auch den aus »Matrix« bekannten Effekt, umsetzen, dass eine Szene einfriert und man dann den Blickwinkel ändert (auch als Bullet Time, Frozen Reality und Slice-Effekt bekannt).
Das für die Aufnahme genutzte Kamera-Array misst 30 x 30 cm. »Das Array besteht aus insgesamt 16 Kameras, die in vier Zeilen und vier Spalten angeordnet sind«, erläutert Frederik Zilly, Gruppenleiter am IIS. Die 16 Kameras sammeln die Lichtstrahlen an verschiedenen Punkten der Ebene ein, auf der sich die Kameras befinden. Die Forscher sprechen davon, dass sie somit teilweise das Lichtfeld der Szene einfangen, statt nur einer speziellen Perspektive.
Schon bei der Aufnahme werden aber nicht nur die Bilddaten erfasst, sondern es kommt Software zum Einsatz die Metadaten ermittelt: »Für jeden Pixel, den die Kameras aufnehmen, schätzt die Software die Tiefe ab. Sie ermittelt also, wie weit das abgebildete Objekt vom Kamera-Array entfernt ist. Aus dieser Tiefeninformation können in der Postproduktion Zwischenbilder errechnet werden, so dass wir virtuell die Daten nicht nur von 4 mal 4 Kameras, sondern von 100 mal 100 Kameras haben«, sagt Zilly.
Ist das Array etwa auf einen Schauspieler gerichtet, so schauen die jeweils äußeren Kameras ein wenig hinter den Akteur. Sie haben einen anderen Blickwinkel als die Kameras, die sich in der Mitte der Anordnung befinden. Dies erlaubt es dann in der Postproduction, virtuell um eine Person oder einen
Gegenstand herumzufahren, den Blickwinkel sowie die Schärfenebene und Schärfentiefe der Aufnahme nachträglich zu modifizieren.
Die notwendige Software und Algorithmik für die Aufnahmen mit dem Kamera-Array haben die Forscher bereits entwickelt. Auch die grafische Benutzeroberfläche für die Aufnahme am Filmset gibt es bereits. An der Benutzeroberfläche für die Nachbearbeitung hingegen arbeiten die Forscher momentan noch. Sie soll in etwa einem halben Jahr fertig sein. Dann planen die Wissenschaftler, einen Stop-Motion-Film zu drehen, weil sich dieses Sujet besonders für Testläufe der Software eignet. »So können wir Interessenten zeigen, welche Möglichkeiten sich beim Einsatz des Kamera-Arrays bieten«, führt Frederik Zilly aus.
Empfehlungen der Redaktion:
06.07.2013 – Lytro Lichtfeldkamera: jetzt auch in Deutschland
13.09.2013 – IBC2013: This is how we do it
01.10.2013 – IBC2013-Video: Fraunhofer IIS zeigt HDR-Kameratechnologien
16.09.2013 – IBC2013-Video: Mikrokamera von Fraunhofer IIS
15.10.2013 – IBC2013: Alle Meldungen im Überblick