Was ist MP3?
MP3 ist ein Kompressionsverfahren für Musikdateien (Audiodateien). MP3 verkleinert Audiodateien auf einen Bruchteil ihrer ursprünglichen Größe. Wenn man einen Titel einer Audio CD direkt auf die Festplatte kopiert, benötigt dieser ca. 50 MB. Im MP3-Format sind es nur noch knapp 5 Megabyte. Sicherlich werden die meisten von euch jetzt sagen: Ja toll, und dementsprechend sieht dann auch die Qualität der MP3s aus. In verschiedenen Testreihen hat sich aber bestätigt, dass die Unterschiede zwischen MP3 und normalen Audio CD's nicht im hörbaren Bereich des menschlichen Gehörs liegen. Das heißt im Klartext, dass MP3s genauso gut klingen wie CD's mit voll Bandbreite.
Vorteile des MP3-Formats:
[] Die winzige Dateigröße erlaubt es, ein sehr großes Musikarchiv auf der Festplatte zu haben
[] MP3 stellt die absolute Verfügbarkeit von Musik dar. Mit einem Mausklick kann man genau das hören, was man will. Lästiges Suchen nach der richtigen CD entfällt
[] Einfache Handhabung und Austausch von MP3s, zum Beispiel die Weitergabe an einem Freund, den dies ist ja noch im legalen Rahmen
[] Neue Verkaufsstartegien sind möglich, zum Beispiel Verkauf von aktuellen Tracks direkt über das Internet, was für den Nutzer natürlich sehr bequem ist
Funktionsweise:
Ich habe versucht, die teilweise komplizierten Zusammenhänge möglichst einfach darzustellen, deswegen ist meine Beschreibung nicht ganz 100%ig korrekt.
MP3 ist genaugesagt der MPEG Layer 3 und stammt aus der Videokompression (MPEG=Motion Picture Expert Group) und dient der Audio-Kompression bei digitalen Videos. MP3 wurde vom Frauenhofer Institut (Erlangen) und Thompson Multimedia entwickelt.
MP3 kann als "Abfallprodukt" der Videokompression bezeichnet werden. Als eigenständiges Format für Musik hat es sich aber erst in den letzten 3 Jahre renommiert.
Zur Kompressionstechnik:
Viele von euch denken sicher, dass die MP3 - Kompression allgemeinen Kompressionsalgorithmen wie z.B. denen von Zip sehr ähnlich ist. Dies ist aber komplett anders.
Die MP3 Kompression muss sich also gewaltig von den normalen Algorithmen unterscheiden.
Um Grundlegende Dinge von Audiosignalen verstehen zu können, solltet ihr euch die Beschreibung von Samples / Sekunde und Bitrate anschauen. Als Beispielsignal dient hier die Sinuskurve.
44 100 Samples / Sekunde bei 16 Bit:
22 000 Samples / Sekunde bei 16 Bit:
44 100 Samples / Sekunde bei 8 Bit:
Bitrate:
Unter Bitrate versteht man, wie "fein" die einzelnen Klangstufen voneinander abgetrennt sind. Wenn ein Ton grafisch dargestellt wird - so wie oben - kann man seine Bitrate sehr gut an der "Treppchenbildung" erkennen. Die Bitrate wird - wie der Name schon verrät - in Bit angegeben. D.h. ein Ton mit 8 Bit hat genau 256 Abstufungen. Ein Ton mit 16 Bit hat genau 65536 Abstufungen.
Samples:
Unter Samples versteht man, wie viele Abstufungen ein Ton pro Sekunde hat. Ein Ton mit 22100 Samples hat also 22100 Hz - also hat 22100x pro Sekunde eine neue Abstufung - eine Änderung des Tones.
Nach der Nyquist-Theorie muss die Sample-Frequenz doppelt so hoch sein, wie die höchste Frequenz, die man speichern möchte. Das menschliche Ohr nimmt Frequenzen im Bereich von 20 Hz bis 20 kHz auf. So ergibt sich eine Freqenz von 44.1 kHz, die bei Audio-CD's verwendet wird.
Maskierung:
Unter Maskierung versteht man, dass ein Audiosignal ein anderes überdeckt. Beispiel: Das Klicken eines Weckers. Es ist eigentlich deutlich hörbar - doch sobald der Wecker anfängt zu klingeln, ist das Klicken nicht mehr hörbar. Das Geräusch ist zwar weiterhin existent - doch nicht mehr hörbar. Und genau diesen Effekt benutzt das MP3 Kompressionsverfahren. Leise Signale werden von lauten Signalen überdeckt und werden nicht mehr mitgespeichert. Das gilt auch für Folgesignale, die allein eigentlich laut wären. Beispiel: Ein Presslufthammer maskiert das Klingeln eines konkret krassen Handys. Bedingt durch das menschliche Gehör ist unmittelbar nach dem Ausschalten des Presslufthammers immer noch kein Handysignal zu hören. Durch Maskierung spart man gewaltig Speicherplatz - für das menschliche Gehör ist der Unterschied dennoch nicht hörbar.
Sub-Band Coding:
Dieses Verfahren hängt eng mit dem Maskierungsverfahren zusammen. Das Audiospektrum wird in mehrere Frequenzbänder aufgeteilt. Die Bitrate der einzelnen Frequenzbänder ist variabel. Für die wichtigen Bänder wird mehr Platz verwendet als für die unwichtigen Bänder, in manchen Fällen werden sehr unwichtige Bänder gar ganz weggelassen. Beispiel hierzu: Wamdue Project - King Of My Castle. Die ersten 20 Sekunden des Liedes ist ein monotoner Bass. Folglich werden die Höhen und Mittelstufen (-> 1 KHz bis 16 KHz) nur mit einer geringen Bitrate übertragen. Denn die Höhen und Mittelstufen spielen am Anfang dieses Liedes kaum eine Rolle. Das spart Speicherplatz und ist wieder mal nicht hörbar - für das menschliche Gehör.
Predictive Coding:
Das Wissen über das vorhergehende Signal wird für die Vorhersage des nächsten Samples benutzt (siehe oben!). Es wird also nur noch die Differenz der Samples gespeichert.
Joint Stereo:
Ein normales Audiosignal (von Musikstücken) hat 2 Kanäle. Einen für rechts und einen für links. Aber eigentlich ist der Unterschied zwischen beiden Kanälen nicht besonders groß. Und genau da setzt Joint Stereo an: Auf beiden Kanälen ist hier das gleiche Signal - also ein Monosignal. Nur einzelne Frequenzbänder unterscheiden sich in der Lautstärke. Beispiel: In einer Musikaufnahme ist das Schlagzeug links, die Gitarre in der Mitte, und der Sänger rechts. Auf einer CD sind explizit beide Kanäle ausgeführt. Bei MP3 ist links und rechts das gleiche Signal - nur dass dabei die Frequenzbänder, die das Schlagzeug benutzt auf dem linken Kanal relativ lauter sind - die Frequenzbänder des Sängers sind hingegen auf dem rechten Kanal relativ lauter.
Die eigentlichen Kompression:
Prinzipiell schlüsseln die Audio-Kompressionsverfahren das Signal nach Frequenzen auf. Das Signal wird mit Fourier- und der diskreten Kosinus-Transformation in Frequenzen umgewandelt. Die Zahlenkolonnen wurden also mit verschiedensten Algorithmen, u.a. Kosinus/Sinus-Transformationen codiert.[/img]