Damit kann man Audio wunderbar verstümmeln.
https://www.tagesschau.de/wirtschaft/technologie/30-jahre-mp3-100.html
Also bei der Bitrate nicht untertreiben. A
Damit kann man Audio wunderbar verstümmeln.
https://www.tagesschau.de/wirtschaft/technologie/30-jahre-mp3-100.html
Also bei der Bitrate nicht untertreiben. A
Damit kann man Audio wunderbar verstümmeln.
Ja, die Menschheit wurde um den wahren Sound gebracht. Seit 1995 hören wir nur noch verstümmelte Musik...
Seit 1995 hören wir nur noch verstümmelte Musik...
Eigentlich ist das schon seit 1982 der Fall, als die Audio-CD eingeführt wurde...
Und in den 60er Jahren die Kassettenrecorder?
@ the Wasp
Übrigens, wann gab es eigentlich keine verstümmelte Musik? Wann gab es denn den "wahren Sound"?
Wann gab es denn den "wahren Sound"?
Bis zum Urknall.
Dann hat Gott, der alte Elektriker, dass Licht eingeschaltet und die ganze Sache ist ihm um die Ohren geflogen (Urknall). Der Sound der himmlischen Heerscharen dürfte danach nicht mehr der selbe gewesen sein.
Der "wahre" Sound, ist doch immer der, den es gerade nicht mehr gibt.
Der "wahre" Sound, ist doch immer der, den es gerade nicht mehr gibt.
Schon immer oder wieder oder hergezaubert? Der Sound vom
Ja, ist das jetzt ein Fall von "Nachhalltigkeit"? A
Das ist ja mal richtig cool! Danke für den Link!
Der Sound vom SCHWARZEN LOCH.
Der macht niemandem Probleme, da er sehr niederfrequent ist. Das Problem mit dem Hören betrifft i.d.R. die hohen Frequenzen.
Sehr gute Erklärung.
Der "wahre" Sound, ist doch immer der, den es gerade nicht mehr gibt.
So isset, besonders wenn man Hörgeräte verwendet.
Habe momentan "Kinder" im Ohr, da reichen auch 128kbps, Hauptsache man mag die Musik.
Was nutzt der "wahre Sound" der Kammermusik, wenn die Haare abstehen.
Und in den 60er Jahren die Kassettenrecorder?
... Und was ist mit dem Grammophon?
Gilt das nicht generell für digitalisierte Musik (und das digitalisieren überhaupt): Aus einem analogen Strom werden werden Segmente herausgeschnitten und wieder zusammengesetzt, eine Summe von Teilen wird für das Ganze erklärt?
Nein, so pauschal kann man das nicht sagen. Zu bedenken wäre zudem: es gibt Vinyl-Schallplatten mit digital aufgenommener oder digital re-masterter Musik (wurde in den 80er Jahren heftigst beworben), ebenso wie CDs mit analog aufgenommener Musik – sozusagen Mischformen.
Der YouTube-Kanal von AudioUniversity hat einige Videos zu dem Thema, allerdings alles auf Englisch und inhaltlich weit fortgeschritten. Hier zum Beispiel: https://www.youtube.com/watch?v=1YviIsCbT9Q
Recherchiert man zu Stichworten wie analog digital myth debunked, findet man weitere sehr aufschlussreiche Videos zum Thema:
https://www.youtube.com/watch?v=30EznMSZMBU (Mastering-Ingenieur Alain Paul, einer meiner absoluten YouTube-"Lieblinge")
https://www.youtube.com/watch?v=cIQ9IXSUzuM (Monty Montgomery)
https://www.youtube.com/watch?v=cD7YFUYLpDc (nochmals AudioUniversity)
HTH
Olaf
Ich habe mich ausdrücklich auf das digitalisieren "überhaupt" bezogen (das auch für die Musik gilt): bei der Digitalisierung analoger Vorlagen entsteht immer ein Informationsverlust, weil digitale Systeme endliche Bitraten verwenden und damit nie die unendliche Genauigkeit analoger Signale abbilden können.
Analoge Signale sind kontinuierlich. Sie enthalten unendlich viele Informationen pro Zeit- oder Raumeinheit. Beispiel: Ein analoges Musiksignal kann theoretisch unendlich feine Änderungen in der Lautstärke und Frequenz haben.
Ein digitalisiertes Musiksignal kann das nicht. Es segmentiert. Dadurch gehen Informationen verloren, die zwischen den Abtastpunkten oder zwischen den Quantisierungsstufen lagen.
Ich verkenne nicht die vielen praktischen Vorteile der Digitalisierung, insbesondere die unbegrenzte Möglichkeit der Verbreitung. Deshalb ist unsere Welt digital geworden.
Ich aber wollte auf den Verlust der Originalität hinweisen, den ich als Traditionalist bedaure.
weil digitale Systeme endliche Bitraten verwenden und damit nie die unendliche Genauigkeit analoger Signale abbilden können.
Sorry, aber genau solche Überlegungen sind mit "myths debunked" gemeint. Ich habe mir gerade vorhin noch einmal das Video von Alain Paul angesehen (https://www.youtube.com/watch?v=30EznMSZMBU), wo er dieses Thema aus der Sicht eines professionellen Mastering-Ingenieurs gut erklärt. U.a. weist er darauf hin, dass eine unendlich hohe Auflösung rein molekular-physikalisch gar nicht möglich ist, und auch, dass die Auflösung analoger Technik nicht automatisch höher liegt als bei digital, nur weil es "analog" ist.
Unser menschliches Ohr hört Frequenzen bis maximal 20 kHz, und das auch nur bis zu einem Lebensalter von ca. 20 Jahren. Mit Anfang 20 fängt das Gehör bereits an zu altern.
Schon die "alte" CD hat eine Abtastrate von 44.1 kHz, also mehr als der Verdoppelung der maximal hörbaren Frequenz; moderne digitale Systeme haben 96 oder gar 192 kHz. Das gilt in Fachkreisen schon als ziemlicher Overkill.
CU
Olaf
also mehr als der Verdoppelung der maximal hörbaren Frequenz
Die doppelte Abtastfrequenz braucht es aber auch minimal um die ursprüngliche Signalfrequenz rekonstruieren.
Die doppelte Abtastfrequenz braucht es aber auch minimal um die ursprüngliche Signalfrequenz rekonstruieren.
Stimmt! Ich wollte mich nur nicht in zu viele Details verlieren.
Ja, mit einer Abtastfrequenz von 20 kHz kann ich keine 20 kHz aufzeichnen, zumindest nicht ohne hörbare Artefakte. Im günstigsten Fall klingt die Aufnahme dann "muffig". Mindestens der 1. Oberton, die Oktave = doppelte Frequenz, sollte vorhanden sein.
Andernfalls entsteht das sog. "Aliasing". Einen solchen Effekt gibt es auch im Film, etwa, wenn ein Propellerflugzeug landet und der Propeller langsam ausläuft, an Umdrehungen verliert. Irgendwann ist ein Punkt erreicht, an dem die optische Täuschung entsteht, dass sich der Propeller in die entgegengesetzte(!) Richtung dreht.
Das hängt mit der im Film verwendeten Bildrate (frames per second) zusammen, und das betrifft analoges Filmmaterial ebenso wie digitale Bilder.
CU
Olaf
Unser menschliches Ohr hört Frequenzen bis maximal 20 kHz, und das auch nur bis zu einem Lebensalter von ca. 20 Jahren. Mit Anfang 20 fängt das Gehör bereits an zu altern.
Ganz genau.
Schon die "alte" CD hat eine Abtastrate von 44.1 kHz, also mehr als der Verdoppelung der maximal hörbaren Frequenz; moderne digitale Systeme haben 96 oder gar 192 kHz. Das gilt in Fachkreisen schon als ziemlicher Overkill.
Das wird immer gern übersehen - oder sollte ich hier sagen "überhört"?
Dadurch gehen Informationen verloren, die zwischen den Abtastpunkten oder zwischen den Quantisierungsstufen lagen.
Ja. Aber wer hört den Unterschied.
Bei einer guten Samplingrate und guter Bitrate dürfte es schwer fallen für unsere lärmgeplagten Ohren.
Also bei 48kHz und 320 kbit/s reden wir bei Otto Normalo sicher nicht von kastrierter Musik und es ginge sogar noch besser. Aber die entfernten Abfalltöne hört doch eh keiner...
Als die digitalisierte Musik das Licht der Welt erblickte, war es das Ende des Gekrächzes.
die unendliche Genauigkeit analoger Signale
Die "eingebildete unendliche Genauigkeit analoger Signale" müsste es wohl genauer heißen.
Ein analoges Musiksignal kann theoretisch unendlich feine Änderungen in der Lautstärke und Frequenz haben.
Wie Du schon sagst: "theoretisch".
Ich weiß schon,
warum ich meine Musik-CD-Sammlung mit den 70er 80er und 90er noch habe :-)
Gruß
Weil du ein Messi bist? ;-)
Die Zeitschrift c't hat im Jahr 2000 einen Test mit musiktrainierten Testhörern gemacht. Im Ergebnis konnten die Testhörer die CD-Aufnahmen nicht von MP3-Aufnahmen unterscheiden, die mit 256 kBit/s codiert waren:
https://www.heisegroup.de/presse/Gut-kodierte-MP3-Dateien-klingen-wie-Audio-CD-1610369.html
Der Test wurde im April 2000 wiederholt und lieferte ähnliche Ergebnisse:
mit 256 kBit/s codiert
Sollte auch das Minimum sein. Der Platzbedarf ist ja heutzutage
vernachlässigbar. Andy
Den Unterschied zwischen einer 128 und 256 kBit-Aufnahme hörst auch du seit Jahrzehnten nicht mehr. Für das Heraushören von Unterschieden benötigen selbst Experten Vergleichsaufnahmen. 128kBit reichen völlig aus. Niemand von uns verbringt seine Zeit im Tonstudio, wo Verluste durch Kodierung hörbar sind. MP3 ist aber veraltet. MP4 kann das längst viel besser und verbraucht trotzdem weniger Speicher. Trotzdem ist MP3 nach wie vor sehr leistungsfähig, weshalb auch viele Musiker bis heute MP3 nutzen, siehe Audacity. Das Gerede über Qualitätsverluste bei MP3 ist vor allem ein akademisches.
Den Unterschied zwischen einer 128 und 256 kBit-Aufnahme hörst auch du seit Jahrzehnten nicht mehr.
Volle Zustimmung. Ich mit meinen 75 Lenzen auch schon lange nicht mehr.
Trotzdem ist MP3 nach wie vor sehr leistungsfähig, weshalb auch viele Musiker bis heute MP3 nutzen, siehe Audacity
Ganz genau. Der Downloadhelper mit der CoApp hat sogar noch ein besonderes Feature: Das Ding kann MP3-Dateien zu MP3HQ konvertieren und unser jugendlicher Nachbar behauptet, dass er da deutliche Unterschiede - vor allem bei den hohen Frequenzen hören kann.
Für mich macht das irgendwie keinen Unterschied. Aber mit meinem HyperXCloudII-Wireless Headset habe ich immer noch ein riesiges Klangerlebnis. - Man muss nur aufpassen, dass die Lautstärke nicht zu hoch eingestellt ist, was das dann das alte Trommelfell noch mehr schädigen könnte....
dann das alte Trommelfell noch mehr schädigen könnte....
LOL. A
LOL. A
Was soll daran lustig sein? Das erschließt sich mir wirklich nicht. Alt werden ist nicht lustig, sondern i.d.R. schmerzhaft.
Alt werden ist nicht lustig, sondern i.d.R. schmerzhaft.
leider kommt man um das Alt werden nicht herrum.
Man ist immer so Alt wie man sich fühlt.
Immer lustig und vergnügt, bis das der A.... im Sarge liegt.
Gruß nach HH
unhold06
Immer lustig und vergnügt, bis das der A.... im Sarge liegt.
Gutes Motto....
stammt nicht von mir.
Ist eine Textzeile aus dem Lindisong (Grande Finale)
Ist eine Textzeile aus dem Lindisong (Grande Finale)
... Weiß ich doch....
Ist wie beim Auto, Fahrwerk hat Mängel, Getriebe hakt, Motor rappelt, aber die Musik spielt noch wie in alten Zeiten.
War doch hier ein Musik-Tröt, oder?
Gruß
h1
[256 kBit/s] Sollte auch das Minimum sein.
Der Platzbedarf ist ja heutzutage vernachlässigbar.
Zur Orientierung: Pulse Code Modulation (.wav oder .aiff) = unkomprimiertes Audio hat ca. 1378 kBit/s (= 44.100 Hz x 2 Stereokanäle x 16 Bit = 1.411.200 Bit ≈ 1378 kBit). Somit entsprechen 256 kBit bereits einer Kompression von über 80%, also ungefähr so viel wie die MiniDisk in den 90ern.
Da hat man also schon eine ganze Menge gespart. Ich habe mich zu "MP3-Zeiten" immer für 320 kBit/s entschieden, das sind immer noch über 75% Datenersparnis. Unterschiede hätte ich wohl eher nicht herausgehört. Ich wollte einfach nur sicherstellen: falls es einmal nicht gut klingen sollte, kann es wenigstens nicht an der Bitrate gelegen haben.
CU
Olaf
Wer in etwa Kenntnis davon hat, wie ein menschliches Ohr
funktioniert, wird sich eh an den Kopf fassen was da für ein
Aufwand betrieben wird. Jeder hört anders, viele trainieren
ihr Ohr anders und viele hören schwer in allen Varianten.
Hammer, Amboss und Steigbügel lassen grüßen, von
Schnecken, Haaren und Trommeln mal abgesehen.
Ganz genau
Ferner ist zu bedenken, dass das MP3-Format, ähnlich der MiniDisk von Sony, seinerzeit als eine Art Ersatz für die analoge Kompaktkassette betrachtet wurde. Und da hält MP3 spätestens ab 128 kbps locker mit, ganz abgesehen von weiteren praktischen Vorzügen: keine Gleichlaufschwankungen, kein Bandsalat, keine verschmutzten Schreib- oder Leseköpfe, keine schleichende Verschlechterung der Audioqualität durch lange Lagerung von Medien. Das ist alles schon sehr angenehm.
CU
Olaf
keine Gleichlaufschwankungen, kein Bandsalat, keine verschmutzten Schreib- oder Leseköpfe, keine schleichende Verschlechterung der Audioqualität durch lange Lagerung von Medien.
Ganz zu schweigen von: Keine abgenutzen Diamanten im im Tonabnehmer des Plattenspielers, die dann die schönen Vinyls zerkratzen und zu Rauschen und Knaxen führen.
Im Ergebnis konnten die Testhörer die CD-Aufnahmen nicht von MP3-Aufnahmen unterscheiden, die mit 256 kBit/s codiert waren.
Ganz genau. Und es ist ja einfach so:
Schon über 20jährige hören diese Frequenzen i.d.R. nicht mehr.