Filmen mit Video Codec, verschiedene Formate vs. RAW, was bringt das?

Einsatz von Videocodecs

H.264 | MP4 | MPEG-2 | AVC | AVCHD | ProRes und viele mehr

Videocodecs erstellen digitale Videodaten in einer Containerdatei. Einige Codecs benötigen hierfür einen zusätzlichen Decoder für die Dekodierung.

Die Zeiten von Video-CD (MPEG-1) sind vorüber. Heute hat man die Qual der Wahl zwischen, MPEG-2 (ISO 13818 / H.262), MPEG-4/H.264 (dazu gehören AVC, AVCHD), VP7 (z.B. Skype), Apple ProRes 422 und 4444, Sony HDCAM, Panasonic DVCPRO und AVC Intra und verlustfreien Codecs wie AVlzlib, Ffmpeg oder MSU und viele mehr. Es scheint einen förmlich zu erschlagen und darum soll dieser Beitrag einen Überblick und etwas Ordnung in das Thema Video-Codecs verschaffen.

Bei einer Videoaufnahme gibt es folgende Schritte:

  1. Der Sensor zeichnet das Bild auf. Da die Datenmenge vom Kamerasensor sehr groß ist, komprimiert der integrierte DSP der auf einer mathematischen Grundlage die Bildinformationen vor dem Speichervorgang. Kurz gesagt, es wird „gespart“.
  2. Beim Import in die Video-Bearbeitungssoftware geht es nun wieder an das Dekomprimieren. So kann das Videomaterial entsprechend bearbeitet werden.
  3. Beim Export dann wird das Video erneut komprimiert, auf das finale Format (je nach Anwendung). Erneut werden die Daten hierfür neu berechnet.

Bei diesem Vorgang gibt es nicht nur zahlreiche mögliche Fehlerquellen, sondern auch Qualitätsunterschiede.

Die Bitrate zeigt hierbei, wie Informationen pro Sekunde verarbeitet werden. Je die Bitrate also ist, um so höher ist die Qualität Ihres Videos. Dies zeigt sich nicht immer beim Betrachten des Materials, jedoch bei weiterer Verwendung in einer Software, bzw. bei der Postproduktion. YouTube reduziert solche Werte auf ein Minimum, daher ist der Unterschied von höheren Bitraten nicht erkennbar nach dem Upload. 10 Mbit/s oder mehr sind gewünscht, werden aber noch weiter reduziert. YouTube ist aber ein größer angelegtes Thema (wie auch Vimeo) und soll in einem späteren Bericht umfangreich erklärt und beschrieben werden.

In Zeiten günstiger Speicherkarten oder Kameras, welche den Anschluss einer SSD erlauben, sollte man also bei der Aufnahme die höchstmögliche Bitrate wählen!

Einige Kameras und NLEs bieten die Möglichkeit, des Farbsamplings. Die Menge der Farbinforationen kann hierbei gewählt werden. TV-Aufzeichnungen oder Videos im Internet verwenden überwiegend ein Sampling von 4 zu 2 zu 0. Auch hier bedeutet mehr Information bei den Farben größere Dateien.

Um sicher zu stellen, dass die Software den Codec unterstützt gibt es Codec-Pakete, die man installieren kann. Hierbei ist vor allem das sehr beliebt „k-lite Codec Pack“ zu nennen. Professionelle NLE unterstützen jedoch die neueren Codecs fast immer.

Selten, aber hier und da wird vielleicht noch eine DVD oder Blue-Ray bebrannt. DVD ist hierbei immer MPEG-2 und nur Blue-Ray unterliegt dem H.264.

Zusammengefasst

Die Datenmenge wird auf Kosten der Bildqualität reduziert (mal mehr, mal weniger). Egal ob nun H.264 oder der seit 2007 verwendete ProRes Codec von Apple verwendet wird, vor allem im Bereich der Bildbearbeitung eröffnen sich sich deutlich mehr Möglichkeiten.  Bei der Postproduktion ist ein RAW Workflow von unschätzbarem Wert, ermöglich höhere Qualität, spart Zeit und wertvolle Nerven bei Grading.

Egal wie „gut“ der Codec ist, das Projekt sollte wertvoll genug sein, dass man auf diesen Kompromiss in der heutigen Zeit verzichtet.

Was bringt die RAW Video Aufnahme?

256 gegen 16.384 bzw. 65.536

Rohdaten enthalten sehr viel mehr Informationen als Videocodecs.

Bei einem 8-Bit Format liegen je Farbkanal nur 256 Tonwerte/Helligkeitsabstufungen vor. Dem stehen 16.384 Helligkeitsabstufungen bei einem RAW Format (14-bit) gegenüber. Bei 16-bit sind es sogar 65.536 Abstufungen und selbst bei 12 bit noch immer das sechzehnfache, als dies bei einem Codec der Fall ist.

Selbst bei unkomplizierten und einfachen Aufnahmen unter sehr guten Lichtverhältnissen lässt es sich schnell erklären, warum man in der so wichtigen Postproduktion einen ganz anderen Spielraum und Möglichkeiten hat.  Das betrifft alle Werte, von den Tiefen, den Mitten, bis zu den Lichtern. Wer viele tausende Euro in eine Video-Set investiert, solle sich mit Kompromissen nicht zufriedengeben. Mehr noch, man sollte maximale Qualität erwarten dürfen.

Schon viele Jahre bietet Green-Lantern die Möglichkeit das aus Sensoren zu holen, was die Firmsoftware bewusst ausbremst. Es gibt keine 300 verschiedenen Sensoren, oder DSPs, dahinter steckt tatsächlich nur die „interne Bildbearbeitung“ (nennen wir es mal so). Auch Blackmagic-Design zeigt, dass zu Preis ab 1200 Euro mit Rohdaten aufgezeichnet werden kann. Da zudem der Preis für Speicher sich weiter reduziert, AMD mit einem RYZON 9 nicht nur ein unfassbares Preis-/Leistungsverhältnis auf den Markt gebracht hat, sondern INTEL bei den Prozessoren nun überflügelt, gibt es im professionellen Bereich kaum noch Gründe für die Kamera-Aufnahme in einem Video-Codec Format zu speichern und diese erst nachträglich in der Postproduktion in RGB-Bilder zu umzuwandeln.

Ob völlig unkomprimiert, oder komprimierte Rohdaten, ein Workflow im RGB Farbraum ist eine andere Welt, erhöht auch den Dynamikumfang und ermöglicht eine völlig andere Postproduktion. Nebenbei sei bemerkt, wir alle wissen, dass sich Software extrem weiter entwickelt. Welche Möglichkeiten man mit neuen Algorithmen aus Farbräumen und dem Dynamikumfang kitzeln kann, können wir heute nicht wissen. Jeder Profi-Fotograf besitzt seine Raw Rohdaten. Die Filmbranche kann dies nun auch im semiprofessionellen Bereich tun und sollte es tun.

Raw ist nicht gleich Raw

Ein standard Raw-Format gibt es nicht!

Jeder Hersteller speichert seine Raw-Daten mit einer eigenen Komprimierung. So etwas wie ein DNG für Film-/Videokameras gibt es leider nicht. ArriRAW, Bayer-Pattern, BlackmagicRaw, De-Bayering, SonyRAW, CanonRAW, REDCODE R3D Raw und viele mehr …. RAW ist also nicht gleich RAW. Qualitätsunterschied möchte ich den Anbietern hier nicht unterstellen. Weiterhin müsste man dazu die jeweils verwendete Software berücksichtigen. Natürlich kann Resolve am besten mit BlackmagicRAW umgehen, Adobe ist sehr gut bei CanonRAW (war/ist bei Foto auch schon so) und Sony kann eben gut mit Sony. Es ist ja einleuchtend: Liegt den Herstellern alles an Informationen vor, um die komprimierten Rohdaten der Kamera lesen zu können.

Zusammengefasst

Wenn es auch längere Renderzeiten gibt, nicht nur die Software entwickelt sich weiter, die Prozessoren ebenfalls. Wer mühsam ein Filmprojekt realisiert hat muss den höheren Speicherbedarf nicht mehr scheuen und kann auch in vielen Jahren noch auf Rohmaterial seines Projekts. Die aktuelle Entwicklung zeigt es in allen Bereichen: Die Aufnahme im Video-Codec verliert für professionelle Produzenten und Kameraleute zunehmend an Relevanz.