Warum Komprimierung?

 Die Übertragung, Aufzeichnung oder Bearbeitung von Bildern und Tönen erfolgt mit elektrischen Signalen. Je mehr Informationen in einem Bild übertragen werden müssen, d.h. je mehr Bilddetails (Schärfe), Farbwerte, Graustufen, umso mehr Daten werden benötigt zur Beschreibung. Hohe Bildqualität benötigt viele Daten. Viele  Daten bearbeiten braucht schnelle und aufwendige Technik und viel Speicherplatz. Das kostet Geld.

Die Lösung besteht in einer Reduzierung der Datenmenge bei gleichzeitiger maximaler Erhaltung der zumindest wahrgenommenen Qualität. Das wird erreicht mit einer Komprimierung der Daten.
 

Was ist Komprimierung?

 Man unterscheidert grundsätzlich zwischen verlustfreier und verlustbehafteter Komprimierung. Verlustfrei bedeutet, das eine Komprimierung vollständig rückgängig gemacht werden und beliebig oft wiederholt werden kann ohne Datenverlust. (Auch die Stenografie ist eine verlustfreie Datenkomprimierung!)

Bei einem Bild kann man verlustfrei komprimieren, in dem man z.B. die Beschreibungsart ändert. Nehmen wir an, ein Bild bestände aus einer einheitlich blauen Fläche. Nun kann man üblicherweise die 720x576 Bildpunkte einzeln mit der Kennzeichnung blau übertragen oder die Information senden „ 414.720 blaue Bildpunkte“ . Auch bei normalen Bildern gibt es viele Flächen gleicher oder ähnlicher Farbe und Helligkeit, die sich so zusammenfassen lassen.
 

Prinzipien der Komprimierung

 Verlustfreie Komprimierung erreicht nicht die gewünschte starke Datenreduktion. Deshalb verwendet man in der Praxis vorwiegend verlustbehaftete Komprimierung. Am Beispiel Video soll erklärt werden, warum trotzdem erstaunlich hohe Qualitäten erreicht werden.

Die Informationen, die ein Bild beschreiben, kann man in drei Bestandteile unterteilen:

1. Der redundante Bestandteil
Dazu gehören Elemente, die mehrfach wiederholt werden, z.B. der Hintergrund eines Nachrichtensprechers aber auch benachbarte Bildpunkte mit identischem Wert.

2. Der irrelevante Bestandteil
Das menschliche Auge kann bestimmte Bestandteile der objektiv vorhandenen Bildinformationen nicht erkennen.

3. Der Kernbestandteil
Dies ist der verbleibende wesentliche Teil der Informationen, der weder redundant noch irrelevant ist.

Die Grenzen sind natürlich unscharf und vor allem die irrelevanten Bestandteile sind nur subjektiv zu definieren.

Es gibt unterschiedliche Kompressionsverfahren, die unterschiedlich bewerten und manchmal bei sehr starker Komprimierung auch den Kernbestandteil verändern. Das führt natürlich zu erkennbaren Bildfehlern. Der prozentuale Anteil der Redundanz und Irrelevanz ist abhängig vom aktuellen Bildinhalt, d.h. der Menge an Details und der Geschwindigkeit der Bewegung von Bildinhalten. Der Bedarf an zu übertragenden Informationen wird also im Laufe eines Filmablaufs mehr oder weniger werden.


 

Die Datenrate

 Mit Datenrate bezeichnet man die Menge der Daten, die pro Sekunde übertragen werden. Dieser Begriff begegnet dem Videoamateur bei der Grundeinstellung seiner Capture- oder Bearbeitungssoftware.

Wie schon erwähnt, steigt die Datenrate mit der Komplexität von Bildern und ist im Ansatz nicht über längere Zeit konstant. Das ist manchmal störend, weil die Datenrate die Leistungsfähigkeit des Rechners oder der Festplatte übersteigen könnte. Dann werden Bilder ausgelassen und das Ergebnis sind ruckelnde Bewegungen. Deshalb geht man in der Praxis auf zweierlei Art mit der Datenrate um:

1. Variable Datenrate, konstante Qualität
Man läßt die schwankende Datenrate zu, weil man sicher ist, daß die vorhandene Technik damit fertig wird. Der Vorteil ist konstante Qualität aber im Detail unkalkulierbare Datenmengen für ein Projekt.

2. Konstante Datenrate, variable Qualität
Die Aufzeichnung auf Magnetbänder und die Übertragung über Sendestrecken ist mit variablen Datenraten nicht möglich. Deshalb hat man Komprimierungsalgorithmen entwickelt, die eine konstante Datenrate liefern, aber zum Ausgleich bei komplexen Bildfolgen die Qualität entsprechend heruntersetzen.

Digitale Kameras zeichnen den digitalen Datenstrom auf miniDV-Kassetten mit konstanter Datenrate auf. Es wurde dafür eine Datenrate von 3,6 Mbyte/sec gewählt, die hoch genug ist, um ein Rückfall der Qualität bei komplexen Bildern auszugleichen. Im professionellen Bereich arbeitet man mit ansonsten gleicher DV-Komprimierung auch mit doppelter Datenrate (DVCPRO), um Verluste bei Neucodierungen zu reduzieren.

 

Kodierungen

 Es gibt eine Fülle von Verfahren, um Komprimierungen durchzuführen. Die meist bekanntesten sind DV, M-JPEG, MPEG-1, MPEG-2, MPEG-4, VC1, wmv, AVCHD usw.. Auf Windowsrechnern findet man noch weitere Codecs (Codec heißt Codieren/Decodieren), wie z.B. Cinepak Codec, Intel Indeo(R) Video, Microsoft Video, Microsoft RLE, Apple Quicktime usw.

Bevor es DV gab und man analoges Material mit einer speziellen Karte digitalisierte, wurde dafür das Format M-JPEG benutzt. Das M steht hier für Motion. Leider ist M-JPEG nicht genormt und es gab je nach Lieferanten für die Digitalisierungskarte unterschiedliche Parameter, mit denen das komprimierte Video in ein *.avi-File abgelegt ist. Dadurch sind solche *.avi-Files auch nur wieder auf demselben Rechner oder Rechner mit gleicher Konfiguration abspielbar.

Das MPEG-1-Verfahren kann nur gering aufgelöste Bilder mit einem viertel der für Fernsehzwecke erforderlichen Pixel erzeugen und sollte deshalb für die Videoausgabe nicht verwendet werden.

Das MPEG-2-Verfahren ist in verschiedenen Varianten genormt und wird im professionellen Bereich inzwischen intensiv genutzt für die Aussendung (DVB) und Archivierung von Fernsehbeiträgen und die Herstellung von DVD-Disks. Die Varianten beziehen sich auf unterschiedliche Bitraten und Unterschiede in der Kodierung der Farbanteile.

Ein hoher Kompressionsgrad wird erreicht durch Einbeziehung der Redundanz aufeinander folgender Bilder. Nach einem voll genutzten Bild (I-Frame) folgen mehrere Bilder (B- und P-Frames), die nur Unterschiede zu den vorangegangen und zukünftigen Bildern als Informationen halten. Deshalb kann in einer Gruppe solcher Bilder (Group of Pictures = GOP) normalerweise nicht geschnitten werden. Man kann natürlich ein MPEG erzeugen, in dem es nur I-Frames gibt, dann macht der bildgenaue Schnitt keine Probleme. Man verliert damit natürlich erheblich an Komprimierungsgewinn.

Es gibt aber auch Lösungen, bei denen ein MPEG-Datenstrom bildgenau geschnitten werden kann, indem man z.B. an gewählten Schnittpunkten mit zusätzlich eingefügten I -Frames den MPEG-Strom neu formiert. Die Schnittsoftware kann aber auch den Datenstrom zur Bearbeitung in eine Folge von vollen Bildern umrechnen und damit den Schnitt problemlos machen. Heutige Rechner sind dazu schnell genug.

I-Frames sind die einzigen voll gespeicherten Bilder in einem MPEG-kodierten Videoteil. Sie werden auch Keyframes genannt, weil andere Bilder bei der Komprimierung sich darauf beziehen. Da die I-Frames im Datenstrom den meisten Platz brauchen, werden bei hohem Kompressionsgrad so wenig wie möglich I-Frames benutzt.

P-Frames beziehen sich auf das vorherige Bild. Das kann entweder ein I-Frame oder jedes andere Bild sein und ist Referenzpunkt zu einer weiteren Folge von P-Frames. Die P-Frames sind stark komprimiert und enthalten nur die Änderungen gegenüber dem Referenzbild.

B-Frames beziehen sich sowohl auf das vorhergehende, als auch auch auf das nächste Bild und sie sind noch mehr komprimiert als P-Frames. Sie enthalten zu wenig Informationen, um als Referenzbilder benutzt werden zu können.

Eine Group of Pictures (GOP) beinhaltet ein I-Frame und eine einstellbare Zahl von P- und B-Frames (normalerweise GOP mit 15 Frames)

Der Bildvergleich findet statt durch Aufteilung des Gesamtbildes in Makro-Blocks von 16x16 Pixeln. Durch Vergleich dieser Blocks können Unterschiede leicht festgestellt werden. Ähnlichkeiten werden ignoriert. Wenn ähnliche Blocks ihre Position beim nächsten Bild geändert haben, wird nur die Bewegung des Blocks notiert.

Eine weitere Methode ist die Spatial Redundancy. Die Makroblocks werden in weitere Blocks von 8x8 Pixel aufgeteilt, um die Änderungen in Farbe und Helligkeit über die Zeit zu verfolgen.

 
MPEG-3 ist in eine Erweiterung von MPEG-2 eingegangen und existiert nicht mehr als eigenständige Norm.

Von Microsoft erhält man den Mediacoder MPEG-4. Diese Kodierung ist gedacht für „ streaming video “ in Präsentationen und im Internet mit sehr hoher Kompression und entsprechend niedrigerer Qualität. Für anspruchsvolle Videoproduktionen ist diese Kodierung nicht gedacht und auch nicht brauchbar.

Ebenfalls ein propietärer Video-Codec kommt von Microsoft “Windows Media Video” (wmv). Es existieren drei Versionen von WMV, die ähnlich zu MPEG-4 sind. Eine Variante dazu ist VC-1, einer der auch bei Blu-Ray Disks verwendeten Codecs.

H.264/MPEG 4 AVC ist ein neuer Standard für hocheffeziente Kompression und für HDTV geeignet. Es wird für gleiche Qualität nur ein drittel der Datenmenge von MPG 2 benötigt.

Neu ist auch der “Advanced Video Codec High Definition” (AVCHD) als digitales Aufzeichnungsformat für HD-Kameras. Es verwendet den H.264/MPEG 4 AVC Codec . Der Codec wird unterstützt von Nero, Pinnacle, Grass Valley Edius, Corel Ulead Videostudio, Magix Video Deluxe, Final Cut Pro und MacroSystem. AVCHD wird hauptsächlich verwendet für das Speichern auf DVD, Festplatte oder Speicherchip.

 



Die DV-Kodierung wurde schon erwähnt. DV ist ein Aufzeichnungsformat für digitale Kameras.

Wenn der Schnittrechner mit einem Anschluss für DV-Signale ausgestattet ist, erreicht man für den Amateurbereich die derzeit höchstmögliche Qualität beim Schnitt. Der Anschluss ist bekannt unter den Namen „ Fire-Wire “ (Apple), i-Link (Sony) oder unter der technischen Normen-Bezeichnung IEEE1394.

Der grösste Vorteil ist, dass keine verlustreichen Umkodierungen mehr vorgenommen werden müssen. Die Videosegmente liegen auf dem DV-Band schon als Datenfiles vor und werden zur Schnittbearbeitung in den Rechner kopiert und nicht neu digitalisiert und codiert. Während der Bearbeitung werden nur neu erzeugte Videoteile wie Überlagerungen, Blenden usw. neu gerechnet (gerendert). Die ursprünglichen eventuell gekürzten Videoclips werden niemals neu gerechnet und damit verändert und gehen beim Zurückspielen auf das DV-Band in Ursprungsqualität wieder zurück. Der Komprimierungsgrad von DV ist 5:1 und die Qualität vergleichsweise hoch.

 

Hinweise für die Praxis

 Jede der oben genannten Kodierungen sind verlustbehaftete Komprimierungen. Es sollte deshalb schon beim Ausgangsmaterial darauf geachtet werden, die Schwächen der Verfahren nicht zu deutlich werden zu lassen.

• Das schlimmste, was man einem Komprimierungs-Codec anbieten kann, sind verrauschte Bilder, wie sie z.B. entstehen, wenn man bei der Aufnahme von dunklen Szenen die Kameraverstärkung anhebt.
Der Komprimierungsalgorithmus hält das Rauschen für bildwichtige Details und steigert entweder erheblich die Datenrate oder senkt die Qualität drastisch, je nach Voreinstellung.

• Importierte Grafiken oder Schriften aus anderen Programmen sollten nicht als komprimierte *.avi -Files in das Schnittprogramm eingeführt werden, sondern unkomprimiert. Sonst muß das Schnittprogramm diese Files wieder dekomprimieren, um sie mit den anderen Videoteilen zusammenzuführen und dann erneut komprimieren. Kanten werden fransig und unscharf. Bieten Sie dem Schnittprogramm nur unkomprimierte Filmstücke oder Scannerbilder an, wenn sie mit anderen Videoteilen überlagert werden müssen.

• Es müssen bei allen Vorgängen immer genau die gleichen Parameter bezüglich Größe des Bildes (704x576, 720x576,768*576 pixel), der Bilder/Minute und des Codecs eingestellt sein. Sonst muss das Material neu berechnet werden, was länger dauert und zusätzliche Verluste erzeugt.

Es gibt Schnittprogramme, die das Eingangsmaterial, egal in welchem Codec es daher kommt, in ein fast verlustfreies Arbeitsformat umrechen, das nur für die Bearbeitung gebraucht wird. (z.B. Canopus HQ) Für die spätere Ausgabe wird dann wieder in ein gewünschtes Format zurückgerechnet. Das Zwischenformat erzeugt sehr viel größere Dateien, was aber bei heutigen Speichergrößen kein Problem ist. Dafür ist es aber für die Software leichter, damit zu arbeiten und Geschwindigkeit wird gewonnen. Außerdem kann man auf der Timeline beliebige Codecs gemischt bearbeiten. Die Qualität von Neuberechnungen (Effekte, Titel, Keys usw.) ist wesentlich höher.

• Es kann vorkommen, dass man auf fertig gerenderten Videos deutlich sogenannte Artefakte sieht. Einzelne Bildteile werden in groben Kästchen gezeigt oder an Kanten ist das Bild unruhig und zerrissen. Solche Artefakte deuten daraufhin, dass entweder das Bild mehrfach codiert und decodiert worden ist oder das der Komprimierungsvorgang mit zu vielen Informationen überfordert wurde, bzw. die Datenrate und damit die Qualität zu niedrig eingestellt war.
 

Kompression und Qualität

 Bei der Digitalisierung von Videoclips kann man den Kompressionsgrad einstellen. Zwischen Kompressionsgrad und Qualität gibt es zwar eine Beziehung, die aber nicht fest definiert werden kann, da auch das Kompressionsverfahren und die Definition der Qualität eine Rolle spielt.

Die Qualität ist besonders schwer zu definieren. Das sieht man, wenn man versucht, ein Testbild mit unterschiedlichen Datenraten von z.B. 1,2 MByte/sec oder 1,8 MByte/sec zu digitalisieren; man sieht keinen Unterschied. Für das MPEG-Format wird es noch schwieriger. Es fehlt die Bewegung. Die oft angeführten Vergleiche mit VHS, S-VHS oder Betacam treffen nur ungefähr. Erst wenn Mehrfachcodierungen erfolgt sind oder Schriften hineingerendert sind, bemerkt man die Unterschiede, die vielleicht vorher nicht zu erkennen waren.