George Lucas
Walk of Fame
Immer wieder ist zu lesen, dass die neuen Tonformate wie z.B. Dolby TrueHD und DTS-HD MA besser klingen als die datenreduzierten und "verlustbehafteten" Tonformate in 5.1.
An dieser Stelle möchte ich mal von einem Vergleich berichten, an dem ich im letzten Jahr teilgenommen habe.
Teilnehmer waren u.a. zwei Tonmeister, der Studiobesitzer und mehrere Journalisten.
In einem Tonstudio wurde das Original-Master mehrfach umgewandelt (immer vom Original ausgehend).
Die Ziel-Datenraten betrugen:
- 24,5 Mbit/s
- 1,5 Mbit/s
- 0,6 Mbit/s
- 0,34 Mbit/s
- 0,128 Mbit/s
Außerdem wurden vom Original ausgehend in Dolby Digital und DTS gewandelt.
Das Original wurde vorgespielt (ca. 2,5 Minuten) und war ein Filmsoundtrack. Dieser bestand aus einer Mischung von Musik, Männer/Frauenstimmen und heftigen Sub/Oberbassanteilen.
Ab diesem Zeitpunkt wusste niemand, welches Tonformat oder welche Datenrate gerade abgespielt worden ist, vom Seminarleiter mal abgesehen.
Trotz Goldohren der Tonmeister (die sogar nachweislich 0,5 dB Lautstärkenunterschiede heraushören konnten) und eines Journalisten (schreibt für ein Hifi-Magazin) war niemand in der Lage einen deutlichen Unterschied zwischen den einzelnen Formaten herauszuhören - Ausnahme: Ein Tonformat hob sich deutlich hörbar für alle Beteiligten von den übrigen ab. Dieses wurde von allen reproduzierbar immer wieder erkannt. Wir waren zunächst alle davon Überzeugung, dass es sich um das Original handeln musste, weil es sich am besten anhörte. Vor allem die Höhen waren etwas klarer und darüber hinaus war deutlich mehr Feinauflösung herauszuhören.
Das Ergebnis überraschte allerdings. Hierbei handelte es sich nicht um das Original, sondern um das Tonformat mit 0,128 Mbit/s. Das Original hat niemand eindeutig aus all den Soundformaten heraushören können.
Interessant war vielmehr, weshalb sich das Tonformat mit der größten Datenreduzierung klanglich von allen anderen so deutlich hörbar absetzen konnte. Die anschließenden Messungen zeigten auf, dass die 0,128 Mbit/s-Datei massive Artefakte enthielt. Diese entstanden zum Teil schon während der massiven Datenreduzierung als auch zusätzlich während der Wiedergabe/Decoding. Diese Artefakte wurden aber vom Gehirn als Töne "interpoliert" und somit als bessere "Feinauflösung" interpretiert.
Woher stammen also die so oft beschriebenen Unterschiede der einzelnen Tonformate auf der Blu-ray?
Das Original wird vom Tonstudio am verschiedene Drittverwerter weitergegeben. Das sind u.a. Synchrostudios und Verwerter für Kino, TV und DVD/Blu-ray. In Deutschland wird leider immer wieder für der "Neumischung" nach der Synchronisation die Dynamik reduziert, weil die Deutschen das "angenehmer finden" als die zum Teil brachialen Lautstärkeunterschiede. Das TV reduziert die Dynamik sogar soweit, dass Explosionen und Dialoge nahezu gleich laut erscheinen.
Wenn nun die Originalfassung mit der Synchro verglichen wird, ergeben sich immer wieder hörbare Unterschiede. Gute Beispiele für "verhunzte" dt. Soundtracks sind z.B. BLADE und ARMAGEDDON, denen jegliche Dynamik im direkten Vergleich abgeht.
Es "funktioniert" aber auch anders herum. Das engl. Original von INDIANA JONES 4 (Dolby TrueHD 5.1) klingt dermaßen "gebremst" und komprimiert, dass hier sogar die datenreduzierte dt. Dolby Digital 5.1-Spur klare Vorteile besitzt.
Fazit:
Dolby TrueHD und DTS-HD MA klingen nachweislich nicht besser/schlechter als ihre datenreduzierten Tonnormen. Unterschiede im Klang sind nur dann hörbar, wenn das Original entsprechend verändert wird.
An dieser Stelle möchte ich mal von einem Vergleich berichten, an dem ich im letzten Jahr teilgenommen habe.
Teilnehmer waren u.a. zwei Tonmeister, der Studiobesitzer und mehrere Journalisten.
In einem Tonstudio wurde das Original-Master mehrfach umgewandelt (immer vom Original ausgehend).
Die Ziel-Datenraten betrugen:
- 24,5 Mbit/s
- 1,5 Mbit/s
- 0,6 Mbit/s
- 0,34 Mbit/s
- 0,128 Mbit/s
Außerdem wurden vom Original ausgehend in Dolby Digital und DTS gewandelt.
Das Original wurde vorgespielt (ca. 2,5 Minuten) und war ein Filmsoundtrack. Dieser bestand aus einer Mischung von Musik, Männer/Frauenstimmen und heftigen Sub/Oberbassanteilen.
Ab diesem Zeitpunkt wusste niemand, welches Tonformat oder welche Datenrate gerade abgespielt worden ist, vom Seminarleiter mal abgesehen.
Trotz Goldohren der Tonmeister (die sogar nachweislich 0,5 dB Lautstärkenunterschiede heraushören konnten) und eines Journalisten (schreibt für ein Hifi-Magazin) war niemand in der Lage einen deutlichen Unterschied zwischen den einzelnen Formaten herauszuhören - Ausnahme: Ein Tonformat hob sich deutlich hörbar für alle Beteiligten von den übrigen ab. Dieses wurde von allen reproduzierbar immer wieder erkannt. Wir waren zunächst alle davon Überzeugung, dass es sich um das Original handeln musste, weil es sich am besten anhörte. Vor allem die Höhen waren etwas klarer und darüber hinaus war deutlich mehr Feinauflösung herauszuhören.
Das Ergebnis überraschte allerdings. Hierbei handelte es sich nicht um das Original, sondern um das Tonformat mit 0,128 Mbit/s. Das Original hat niemand eindeutig aus all den Soundformaten heraushören können.
Interessant war vielmehr, weshalb sich das Tonformat mit der größten Datenreduzierung klanglich von allen anderen so deutlich hörbar absetzen konnte. Die anschließenden Messungen zeigten auf, dass die 0,128 Mbit/s-Datei massive Artefakte enthielt. Diese entstanden zum Teil schon während der massiven Datenreduzierung als auch zusätzlich während der Wiedergabe/Decoding. Diese Artefakte wurden aber vom Gehirn als Töne "interpoliert" und somit als bessere "Feinauflösung" interpretiert.
Woher stammen also die so oft beschriebenen Unterschiede der einzelnen Tonformate auf der Blu-ray?
Das Original wird vom Tonstudio am verschiedene Drittverwerter weitergegeben. Das sind u.a. Synchrostudios und Verwerter für Kino, TV und DVD/Blu-ray. In Deutschland wird leider immer wieder für der "Neumischung" nach der Synchronisation die Dynamik reduziert, weil die Deutschen das "angenehmer finden" als die zum Teil brachialen Lautstärkeunterschiede. Das TV reduziert die Dynamik sogar soweit, dass Explosionen und Dialoge nahezu gleich laut erscheinen.
Wenn nun die Originalfassung mit der Synchro verglichen wird, ergeben sich immer wieder hörbare Unterschiede. Gute Beispiele für "verhunzte" dt. Soundtracks sind z.B. BLADE und ARMAGEDDON, denen jegliche Dynamik im direkten Vergleich abgeht.
Es "funktioniert" aber auch anders herum. Das engl. Original von INDIANA JONES 4 (Dolby TrueHD 5.1) klingt dermaßen "gebremst" und komprimiert, dass hier sogar die datenreduzierte dt. Dolby Digital 5.1-Spur klare Vorteile besitzt.
Fazit:
Dolby TrueHD und DTS-HD MA klingen nachweislich nicht besser/schlechter als ihre datenreduzierten Tonnormen. Unterschiede im Klang sind nur dann hörbar, wenn das Original entsprechend verändert wird.