Archiv Sound, Video, MP3 und Co 8.736 Themen, 38.491 Beiträge

Abtastraten bei der Digitalisierung von Musik

Olaf19 / 21 Antworten / Flachansicht Nickles

Hallo zusammen.

Mal wieder eine theoretische Frage, die mich schon recht lange beschäftigt.
Wenn man Musik in CD-Qualität digital aufnehmen will, benötigt man eine Datenbreite von 16 bit und eine Abtastrate von 44100 Hz = 44,1 kHz. Letzteres ist auf den ersten Blick unverständlich, da das menschliche Ohr nur bis 20 kHz hören kann - und das auch nur in jungen Jahren. Alles, was darüber liegt, ist schon Ultraschall.

Es gilt aber das nach einem schwedischen Physiker benannte "Nyquist-Theorem": Die Abtastrate von Audio-Material muß mindestens bzw. mehr als doppelt so hoch sein wie die höchste Frequenz des Nutzsignals - also (über) 40 kHz Abtastrate für 20 kHz im Nutzsignal. Sonst kommt es zu sog. "Artefakten" (Störanteilen im Nutzsignal). Bei diesen Artefakten handelt es sich um Spiegelungen von Frequenzen aus dem Ultraschallbereich in den hörbaren Bereich hinein.

Vor einigen Jahren habe ich mit einem AKAI-Sampler recht höhenlastiges Material mit der halben Sampling-Rate, nämlich 22,05 kHz aufgenommen. Und in der Tat: Das Ergebnis klang "muffig", d.h. die Höhen waren in ihrer Klangqualität hörbar beeinträchtigt, obwohl die Abtastrate 10% über der höchsten hörbaren Frequenz gelegen hat.


Herr Nyquist hatte also recht. Nun zu meiner schlichten Frage: Weiß jemand, warum das so ist?
Wie ist diese akustische Fata Morgana - denn um nichts anderes handelt es sich bei diesen Frequenz-Spiegelungen - zu erklären?
Es sollte mich nicht allzu sehr wundern, wenn dieser Thread mit null Antworten im Nickles-Archiv verschwindet - aber einen Versuch ist es mir wert.

Danke schon mal für Eure Antworten.

CU
Olaf19

Abtasttheorem nach Shannon rill
LP-Direktschnitte rill
LP-Direktschnitte Olaf19
Herman Munster Olaf19 „Abtasttheorem nach Shannon“
Optionen

Historisch genau genommen ist die (damals) moderne Direct-to-Disc-Aufnahmetechnik in Punkto Dynamikumfang technisch sogar noch hinter den allerallerallerersten Walzenphonographen zurück! Vielleicht kennt jemand das alte Bild, Edison auf nen Stuhl geflözt wie hingegossen, den Kopf in die rechte Hand gestützt, dem Phonographen vor ihm lauschend. Diese alten Dinger, bei denen der Schall waagerecht in Bienenwachs geritzt wurde, hatte einen Dynamikumfang von fast 150dB!! Damit könnte man ein unter Vollast laufendes Düsenjägertriebwerk aus kurzer Entfernung aufzeichnen (wenn auch nur kurzzeitig wegen der kurzen Walzenzylinder), ohne irgendetwas zur Begrenzung tun zu müssen. Trotzdem alles unverzerrt! DAS! mach mal mit heutiger Aufnahmetechnik!

O ja, das mit den Direct-to-Disc-Aufnahmen war schon ne tolle Sache. Für den Hörer. Die Musiker fanden das nicht so prall. Einige der Scheiben mußten über ein Dutzend mal komplett nochmal gespielt werden, weil der Toningenieur den Vorschub des Schneidediamanten schon wieder an der entscheidenden BUMMS!-Stelle zuwenig weit vorgestellt hatte, sodaß sich die Rillen zunahe kamen bis überschnitten. Dieses Problem hatte man auch mit der legandären "1812" von Telarc. Erst eine Handsteuerung des Schneidediamanten (die Automatik verweigerte SOOOO große - wenngleich erforderliche - Vorschubabstände) beseitigte das Problem. Trotzdem mußte noch eine zweite, entschärfte, Serie hergestellt werden, weil schon der erste der 17 oder 18 echten Kanonenschüsse praktisch alle vorhandenen Tonabnehmer mitsamt den Armen aus der Rille katapultierte. Nur ganz wenige konnten die Erstauflage abspielen.

Ne tolle Erfindung waren auch die DMM-Platten (Direct Metal Mastering; die "Master"-Scheibe zur Vervielfältigung im Presswerk wurde direkt in eine Kupferscheibe geritzt). Leider war das auch schon die vorletzte Neuentwicklung auf dem Vinylsektor, die letzte, die Digitalaufnahmen mit Piezo-Tonabnehmern "wie gehabt" einzuspeisen in den HiFi, hat sich dann ja nicht mehr gegen die CD behaupten können.

Tja, das waren noch Zeiten... schnief! Diese ellenlangen Tiraden, ob "naß" oder "trocken" abspielen besser ist... *augenwisch*

Wie man sieht, muß "technischer Fortschritt" nicht zwangsläufig verknüpft sein mit "besser".

Aus einem ähnlichen Grund wie dem Shannon-Theorem muß ja die Bildwiederholrate eines Monitors ein zigfaches der Bilderstellungsrate des menschlichen Auges betragen. Das menschl. Auge macht 18 Bilder pro Sekunde. Erst ab über 72Hz (4faches der Augenrate) sieht niemand mehr ein "flimmern", dreiviertel der Leute ab 54Hz (3fach), egal, bei welcher Auflösung. Aber das hat weniger mit Mathe als vielmehr mit Biologie zu tun.