- Frage: WAV- und AIFF-Dateiformat: Was ist der Unterschied?
- Antwort: AIFF und WAV haben genau die gleiche Qualität
- Wann sollte man also WAV / AIFF und wann MP3 / M4A usw. verwenden?
- Wie sich Downsampling auf die Audioqualität auswirkt
- Was ist eine WAV-Datei und wie kann ich sie abspielen?
- WAV und AIFF verwenden die gleiche Kodierungsmethode!
- WAV und AIFF Encoding weiter erklärt
- Da WAV- oder AIFF-Dateien verlustfrei sind, können sie eine Menge S P A C E !
- Die aufregende Welt der Pulscodemodulation
- Gängige Abtastraten sind:
- Qualitätsanalyse über das Nyqust-Shannon-Sampling-Theorem
- Diskussion und Schlussfolgerung
- So AIFF vs. WAV? Was ist besser? Fazit: Es gibt absolut keinen Unterschied in der Qualität. Man kann beides verwenden. Ich würde sagen, WAV ist etwas verbreiteter.
Frage: WAV- und AIFF-Dateiformat: Was ist der Unterschied?
Welches ist für Audio am besten geeignet? Mp3 und Mp4 sowie FLAC und andere weniger verbreitete Formate machen einen kleinen Teil der Audiodateien da draußen aus… aber was ist besser WAV oder AIFF?
Antwort: AIFF und WAV haben genau die gleiche Qualität
WAV wird hauptsächlich für PCs und AIFF hauptsächlich für MACs verwendet, aber beide können auf praktisch allen Computern und Geräten abgespielt werden. Beide verwenden die gleiche Art der Kodierung, die zu einer relativ großen Dateigröße führt, aber eine höhere Klangqualität als mp3 m4a oder andere kleinere Dateien bietet.
Wann sollte man also WAV / AIFF und wann MP3 / M4A usw. verwenden?
Wenn es Ihnen auf Geschwindigkeit und geringe Dateigröße ankommt, verwenden Sie mp3. Zum Beispiel im Internet oder in einer E-Mail. Niemand möchte eine 50 MB große Datei herunterladen, um einen Song auf seinem Handy zu hören oder einem Freund eine kurze Melodie zu schicken. Wenn Sie auf einer Website oder auf YouTube streamen, wird dort wahrscheinlich ein verlustbehaftetes Dateiformat ähnlich wie mp3 verwendet. Eigentlich ist mp3 nur eine Videodatei ohne den Videoteil.
Wie sich Downsampling auf die Audioqualität auswirkt
Zur Veranschaulichung: Stellen Sie sich vor, das obere Bild ist Ihre Audiodatei in voller Qualität und das untere ist Ihre heruntergesampelte mp3-Datei. Dem unteren Bild fehlt die wahrgenommene Klarheit und Tiefenschärfe des oberen Bildes. Dies ist ein ähnliches visuelles Konzept, wie mp3s und andere verlustbehaftete Formate in der Lage sind, der Originaldatei ziemlich nahe zu kommen, aber es fehlen die Daten, um die vollständige Wellenform darzustellen.
Bild vor dem Downsampling der Daten
Bild nach dem Downsampling der Daten (verlustbehaftete Datenkompression)
Dieses Bild zeigt, wie ein downgesampeltes Bild eine geringere Qualität als das Original haben kann, um Platz zu sparen. Im Großen und Ganzen sieht es ungefähr gleich aus, aber bei näherer Betrachtung erkennt man den Verlust von Details. Genau wie ein verpixeltes JPEG können Audiodateien, die zu stark verlustbehaftet komprimiert sind, glanzlos sein und so klingen, als fehlten ihnen die Details einer WAV- oder AIFF-Datei. Das obere Bild stellt eine WAV- oder AIFF-Datei dar, das untere Bild eine MP3- oder MP4-Datei, wobei das Bild keine tatsächliche Darstellung ist, sondern nur veranschaulichen soll, wie sich die Komprimierung auf die Qualität auswirkt.
Was ist eine WAV-Datei und wie kann ich sie abspielen?
Fast alle Telefone und Computer (einschließlich Macs und Windows-Benutzer) können eine WAV-Datei abspielen. Im Allgemeinen kann AIFF auf einem Apple-Produkt wie einem iPhone oder einem Mac OS-basierten Computer abgespielt werden, aber fast jeder Media Player wie VLC oder iTunes kann beide abspielen. Wave-Dateien wurden ursprünglich von IBM und Microsoft entwickelt und sind ein Roh-Audioformat aus der Zeit, bevor es das Internet gab. Obwohl es sehr alt ist, ist das Format sehr einfach und besteht im Wesentlichen aus einer mathematischen Funktion zur Beschreibung einer Schallwelle.
WAV und AIFF verwenden die gleiche Kodierungsmethode!
AIFF und WAV basieren auf dem gleichen IFF* (Interchange File Format) AVI, ANI und WAV verwenden alle RIFF (Resource Interchange File Format), eine Variante von IFF*, die auf Datenstücken basiert, die als Chunks bezeichnet werden. Es gibt den Hauptdatenchunk sowie den Namenschunk, den Interpretenchunk, den Copyrightchunk usw., denen zusätzliche Daten für diese Kategorien hinzugefügt werden können. Außerdem können WAV- und AIFF-Dateien mehrere Kanäle haben, z. B. nur einen Monokanal, zwei Stereokanäle, 5.1 (sechs Kanäle), 8 Kanäle oder mehr.
*David bemerkte „…, AIFF ist nicht von RIFF abgeleitet. Sowohl AIFF als auch RIFF wurden von IFF abgeleitet, das 1985 von Electronic Arts veröffentlicht wurde. Außerdem war AIFF 3 Jahre älter als RIFF. Es kann nicht auf RIFF basieren. Sie sind sich sehr ähnlich.“
*Danke für die Korrektur David! Also, AIFF ist von IFF abgeleitet, WAV verwendet RIFF, das ebenfalls von IFF abgeleitet ist (Danke für die Klarstellung!)
WAV und AIFF Encoding weiter erklärt
Beide, AIFF und WAV, sind verlustfreie Dateiformate, das heißt, es gibt keinen Datenverlust. Das Dateiformat unterscheidet sich geringfügig, aber die digitalen Informationen werden als exakte mathematische Darstellung der Wellenform gespeichert. WAV und AIFF verwenden beide PCM (Pulse Code Modulation), um die Daten so zu kodieren, dass der Qualitätsverlust möglichst gering ist. WAV und AIFF haben CD-Qualität oder „Studioqualität“, wobei CD 16 Bit und „Studioqualität“ in der Regel 24 Bit oder mehr hat. Die allgemeine Faustregel lautet: Wenn Sie mit 16 Bit aufnehmen, rendern Sie die Dateien mit 16 Bit. Wenn Sie mit 24 Bit aufnehmen, rendern Sie Ihre Mischungen mit 24 Bit. Dateien können immer auf eine niedrigere Bitrate heruntergesampelt werden. Zum Beispiel können 24 Bit leicht auf 16 heruntergesampelt werden, aber wenn man einmal bei 16 ist, ist es ziemlich nutzlos, zu 24 Bit zurückzukehren.
Da WAV- oder AIFF-Dateien verlustfrei sind, können sie eine Menge S P A C E !
Sowohl WAV- als auch AIFF-Dateien können mit Zeitstempeln, Tempoinformationen und anderen Arten von Informationen wie Markern kodiert werden. Pro Tools oder Logic können WAV- oder AIFF-Dateien erstellen. Laut Internet-„Quellen“ besteht der Unterschied in der Byte-Reihenfolge. AIFF ist für Motorola-Prozessoren und WAV-Dateien für Intel-basierte Mikroprozessoren optimiert, aber in Wirklichkeit gibt es keinen Leistungsunterschied.
Die aufregende Welt der Pulscodemodulation
Die Pulscodemodulation ist eine mathematische Methode zur digitalen Darstellung analoger Signale. Sie wird in digitalen Audiogeräten verwendet. Die Amplitude (auch bekannt als das Energieniveau oder die Lautstärke eines Tons) wird an verschiedenen Punkten gemessen. Die Häufigkeit, mit der die Amplitude pro Sekunde gemessen wird, wird als Abtastrate bezeichnet. So bedeutet beispielsweise eine Abtastrate von 44,1k, dass 44.100 Abtastungen pro Sekunde erfasst werden. Bei 96k wird der Ton 96.000 Mal pro Sekunde gemessen.
Die Bitrate ist die Anzahl der Schritte auf dem „Messstab“, mit dem die Amplitude gemessen wird. 16 Bit und 24 Bit sind die gebräuchlichsten, aber die allgemeine Idee ist, dass eine höhere Bitrate präziser ist. 24 Bit haben einen höheren Dynamikbereich als 16 Bit oder eine präzisere Messung, da 24 Dateneinheiten gemessen werden können, im Gegensatz zu nur 16 Bit, die 6 Schritte weniger auf der Skala haben.
Das mag zwar eine leichte Vereinfachung sein, aber Sie verstehen die Idee. Mehr Bits sind besser. Eine höhere Abtastrate ist genauer.
Gängige Abtastraten sind:
- 44.1 16 Bit (CD-Qualität)
- 48k 16bit (DVD-Video-Qualität)
- 96k 24 bit DVD-Audio-Qualität (DVD-A)
Im Studio werden oft 48k 24bit oder 96k 24bit als „Studio-Qualität“ verwendet und dann später heruntergerechnet. Die meisten Leute wollen keine 96k WAV-Dateien. Sie sind einfach zu groß, und wer hört sich heutzutage schon „besser als CD-Qualität“ an. Vielleicht Audiophile und Studioleute, aber viele hören auch mp3 oder verlustbehaftete Versionen. Deine Songs müssen in allen Formaten gut klingen, und sich in den verschiedenen Versionen zu verheddern, kann ein Kaninchenbau sein, in den man nicht hinabsteigen möchte. Viel großartiges Material wurde mit 44.1k aufgenommen, viel schreckliches Material wurde mit 192k (oder noch höher!) aufgenommen, aber das macht es nicht besser, wenn es von Anfang an nicht gut klingt.
Qualitätsanalyse über das Nyqust-Shannon-Sampling-Theorem
Das Nyquist-Theorem oder Shannon-Sampling-Theorem ist eine mathematische Formel zur Bestimmung der theoretischen maximalen Frequenz, die man mit verschiedenen Abtastraten reproduzieren kann. Das Nyquist-Theorem besagt, dass Frequenzen unterhalb der Hälfte der Abtastrate in Kilohertz rekonstruiert werden können. Der Bereich des menschlichen Gehörs liegt schätzungsweise bei 20hz-20khz. Nach dieser Formel sollte 44,1k also in der Lage sein, Frequenzen bis zur 20k-Grenze gut wiederzugeben (wobei 20k kaum wahrnehmbar ist, und da 2,5k bis 5k immer noch in den „höheren Tonlagen“ registriert werden und 10k und 12k sehr hoch sind, ist 20k keine besonders nützliche Frequenz, wenn es um das Mischen von Audio geht).
Diskussion und Schlussfolgerung
Nach meiner Erfahrung macht die Bitrate (16 Bit vs. 24 Bit) oft einen größeren Unterschied als die Abtastrate (z.B. 44.1k vs. 48k)
Für manches Material mag 96k oder 192k etwas besser klingen, aber die enorme Dateigröße ist es nicht wert. Das Material wird irgendwann auf mp3 heruntergesampelt, und es gibt andere Dinge wie die endgültige Verstärkung, die wichtiger sind. Überprüfen Sie die Ausgangsverstärkung Ihrer Datei mit einem Messgerät und vergewissern Sie sich, dass Sie nicht übersteuern und ein wenig Spielraum für die Wandler und das Downsampling lassen.
Warum also überhaupt 96k verwenden? Wenn man sicherstellt, dass Frequenzen bis 40k abgedeckt sind, hat man eine sehr genaue Version des Sounds, die man zum Heruntermischen auf 44,1k oder etwas Vernünftigeres verwenden kann. Die meisten Plugins können 96k verwenden, und die meisten Hörtests zeigen Qualitätsunterschiede zwischen 44,1k und 96k. 192k kann verwendet werden oder sogar noch höher, aber darüber könnte man in Bezug auf die wahrnehmbare Qualität gegenüber der Dateigröße diskutieren. Probieren Sie es selbst aus.
Es gibt buchstäblich Hunderte von Faktoren, die den Klang einer Aufnahme beeinflussen. Die Wahl des Mikrofons und die Platzierung, Vorverstärker, Wandlerqualität und Anti-Aliasing, Taktung sowie die physikalische Umgebung spielen eine Rolle und verändern den Klang viel stärker als 48k vs. 96k oder 44.1 vs. 48k. Machen Sie sich also nicht zu viele Gedanken darüber.