Mehr K, mehr Raw, mehr Daten?
Es wurde mal als »Vicious Circle« beschrieben, oder auch als Spirale des Bösen: Kaum gibt es schnellere Rechner, gibt es eine neue, aufgeblähte Software, die den Rechner wieder langsamer macht. Also braucht man schon bald wieder einen neuen Rechner — und so weiter.
Nur selten entwickeln Hersteller eine wirklich effizientere, schlankere Software, die neue Hardware-Ressourcen sinnvoll nutzt. Oft hat man sogar den Eindruck, es werde der gleiche alte Schrott immer weiter mitgeschleppt und es werde immer schlampiger und verschwenderischer programmiert. Statt die neuen Möglichkeiten sinnvoll zu nutzen, wird einfach mit der wachsenden Prozessorleistung rumgeaast.
Immer mehr Anwender haben darauf aber offenbar keine Lust mehr. Manchmal liegt die Kunst eben in der Beschränkung: Warum sollte man in Raw aufnehmen, wenn man ohnehin weiß, dass man am Ende ein HD-Video fürs Web haben will? Weil man dann später die gleichen Daten auch in höherer Qualität aufbereiten kann. Ach ja? Wer will denn in fünf Jahren den Versicherungs- oder Autowerbespot nochmal in höherer Qualität aufbereitet sehen? Wer archiviert denn die Daten oder macht gar einen »digitalen Negativschnitt« mit den Raw-Daten? Mag sein, dass dies vereinzelt stattfindet, aber an der Realität der meisten Anwender geht das kilometerweit vorbei. Da geht es drum, schnell und effizient mit überschaubaren Datenmengen zu operieren.
Niemand sagt, dass es das High-End nicht geben solle und dass es nicht extreme Anforderungen und extreme Workflows geben dürfe. Ganz im Gegenteil: Viele Technologien entstehen nur, weil es am oberen Ende einen Bedarf und Hunger danach gibt, die Grenzen zu verschieben — und erst später sickert das dann langsam auf das Niveau der »Normalverbraucher« durch.
Dennoch: Wer heute das Spielfilm-Wiederverwertungs-Wunder von morgen dreht, das später in vielen weiteren Schnittversionen und Qualitätsstufen auf den Markt kommen soll, der muss natürlich vorsorgen und sollte mit den höchsten Datenraten und abgefahrensten Techniken arbeiten. Aber es gibt eben auch den ganz anderen, viel größeren Markt, der sich mit solchen Überlegungen kaum belasten kann, weil er dafür sorgen muss, dass sich sein aktuelles Equipment möglichst zügig amortisiert. Und das tut es eben mit effizienten Datenraten und Workflows am besten.
Manchmal kann man den Eindruck gewinnen, dass solche Aspekte bei der Jagd nach immer höheren Auflösungen, Bild- und Datenraten auf der Herstellerseite etwas ins Hintertreffen geraten: Immer wieder flammt etwa bei Messen wie der NAB2014 das auf, was bei Consumer-Fotoapparaten der Megapixel-Wahn war und ist — eine im Grunde sinnlose Rekordjagd, die am Bedarf der allermeisten Anwender komplett vorbeigeht.
Empfehlungen der Redaktion:
03.04.2014 – NAB2014: So berichtet film-tv-video.de aus Las Vegas