Cloud, Editing, Messe, NAB, NAB2025, Video: 14.04.2025

Videoschnitt in der Live-Produktion – neu gedacht

Die BBC präsentierte auf dem AWS-Stand die neueste Version des innovativen Open-Source-Projekts »Time Addressable Media Store« (TAMS). Jens Gnad von Logic erläutert, wie das Ganze funktioniert.

Dieses Architekturdiagramm zeigt das Konzept, wie ein Time Addressable Media Store (TAMS) im Mittelpunkt eines schnellen Workflows zur Verarbeitung von Live- oder Near-Live-Video- und Audioinhalten steht.


Jens Gnad von Logic Media Solutions erläutert das TAMS-Konzept.

Die TAMS- Initiative, die bereits auf der IBC vorgestellt wurde, denkt den Ansatz des Videoschnittverfahrens komplett neu.

Im Gegensatz zu traditionellen Methoden, die auf dedizierte, hochperformante Speichersysteme für Growing Files angewiesen sind, arbeitet TAMS mit einem völlig anderen Konzept: Live-Videosignale werden nicht als anwachsende Dateien, sondern als einzelne »Chunks« gespeichert – ähnlich dem HLS-Verfahren (HTTP Live Streaming).

©Nonkonform
TAMS-Präsentation am Stand von AWS.

Diese Chunks können in ihrer Länge variieren – von einzelnen Frames bis hin zu den auf der Messe demonstrierten den auf der Messe demonstrierten Chunks mit einer Länge von zwei Sekunden. Sobald ein Chunk fertiggestellt ist, wird er abgelegt und steht sofort für die Verarbeitung durch angeschlossene Systeme zur Verfügung – sei es ein Videomischer, Player oder Schnittsystem.

©Nonkonform
Jens Gnad.

Der besondere Vorteil dieses Ansatzes liegt darin, dass jede Datei nur einmal existieren muss. Nach der einmaligen Erstellung kann mit jedem TAMS-kompatiblen Gerät darauf zugegriffen werden. Mittlerweile gibt es bereits Cloud-Native-Editoren und Videoschnittsysteme, die nativ mit diesem Format arbeiten können, sowie Videomischer von AWS-Partnerunternehmen und einen neuen Open-Source-Player für die sofortige Wiedergabe.

©Nonkonform
Es gibt schon jetzt diverse TAMS-Anwendungen.

Die Besonderheit dieses Ansatzes besteht darin, dass TAMS den Videoschnitt auf objektbasierten Speichern wie AWS S3 ermöglicht – sowohl in der Cloud als auch on-premises. Dies eliminiert den Bedarf an teuren, hochperformanten Spezialservern und macht den Videoschnitt deutlich flexibler und kostengünstiger.

Das Projekt ist auf GitHub verfügbar und kann dort heruntergeladen werden.

AWS-Präsentation: TAMS-Workflow
©AWS
 
      1. Alle Medien werden in einem Time Addressable Media Store (TAMS) gespeichert. Dieser enthält blockweise Medien auf Objektspeichern mit einer API, um die Verbindung zwischen Inhalt und Medienessenz herzustellen.
      2. Live-Video-Feeds werden als kleine Medienblöcke hochgeladen und im TAMS registriert, um den Effekt wachsender Inhalte zu erzielen.
      3. Dateibasierte Inhalte können je nach Bedarf nativ oder in Teilen vor dem Import hochgeladen werden.
      4. Inhalte können nahezu in Echtzeit verarbeitet werden, wobei zusätzliche Versionen, wie z. B. Proxys, generiert werden, die durch Benachrichtigungen vom Speichersystem ausgelöst werden.
      5. Die Inhaltsanalyse kann asynchron und nahezu in Echtzeit erfolgen und ermöglicht einen schnellen Zugriff auf die Ergebnisse von Modellen des maschinellen Lernens und der künstlichen Intelligenz (KI/ML). Beispiele hierfür sind die Live-Untertitelung, die Erstellung von Highlights und Content Logging.
      6. Es kann eine einfache Bearbeitung auf Clip-Basis durchgeführt werden, und die daraus resultierenden Bearbeitungen können unter Verweis auf den Originalinhalt wieder im TAMS veröffentlicht werden.
      7. Craft Editing kann auf Inhalte aus dem TAMS zugreifen und neue Segmente zurückveröffentlichen.
      8. Inhalte aus dem Speicher können als Echtzeit-Videostream in Regien von linearen Channel Playout Facilities wiedergegeben werden.
      9. TAMS API kann einfach in HTTP Live Streaming (HLS) konvertiert werden, um das Streaming von Live- oder On-Demand-Inhalten aus dem TAMS zu ermöglichen.
      10. Clips und Dateien können aus dem Store exportiert werden, um sie für andere Zwecke zu verwenden, z. B. für die schnelle Verbreitung von Inhalten auf Social-Media-Plattformen.
      11. Das Media-Asset-Management-System (MAM) verwaltet Verweise auf die im TAMS gespeicherten Inhalte zusammen mit den zugehörigen umfangreichen redaktionellen und zeitbasierten Metadaten.