Hallo zusammen!
In Zusammenarbeit mit einer US-amerikanischen Universität hat eine Firma eine Datenbank entwickelt, die insgesamt 273 GB Metadaten von rund 1 Million Musiktiteln von rund 45.000 Interpreten enthält. Erfasst wurden Musikstücke von den 20er Jahren bis heute: http://www.golem.de/1103/81975.html
Sinn der Übung: Die Daten sollen den Entwicklern von Musiksoftware zur Verfügung stehen. Damit wird dann eine gezielte Suche nach passenden Titeln, z.B. zu einer bestimmten Stimmung, Tempo, Stilrichtung usw. möglich, auch ähnliche Titel können leichter gefunden werden. Wie nützlich das in der Praxis sein wird, muss man abwarten - die Idee finde ich aber erst einmal ganz spannend.
Übrigens schon ziemlich abgefahren, dass dies ganze Zeugs mehrfach(!) auf eine aktuelle handelsübliche Festplatte passt *g*.
FYI
Olaf
Archiv Sound, Video, MP3 und Co 8.736 Themen, 38.491 Beiträge
Das sind eine Million Datensätze zu Songs, nicht die Songs...
Ja, die Überschrift ist unglücklich gewählt!
Hört sich ziemlich interessant an. Bis jetzt habe ich die meisten "guten" Tracks auf Youtube gefunden. Wenn man eine Datenbank hätte, in der man gezielt suchen könnte, das wäre was feines ...
Würde mir auch gefallen. Bleibt nur abzuwarten, ob diese Datenbank für jeden von uns zugänglich ist oder nicht doch nur für registrierte Musiksoftware-Entwickler, evtl. sogar nur für Firmen aus dieser Branche. Interesant zu wissen wäre noch, mir was für einer Software man darauf zugreifen müsste - ideal wäre natürlich via Browser und Download als Tabellenkalkulation.
YouTube ist eine schöne Schatzkammer, wenn auch die technische Qualität der Titel arg schwankt. Da du immer Tipps bekommst, was dich noch so alles interessieren könnte - so ganz nach dem Amazon-Prinzip: dir hat A gefallen, also könntest du auch B mögen - findest du auch auf YouTube viele Titel auf assoziativem Wege.
CU
Olaf
Ganz ehrlich, ich finde eher, dass 273GB eine stattliche Größe ist für ein paar Zeilen Text pro Song. Mir ist nicht so ganz klar wo da da diese enorme datenmenge herkommt.
Da ist auf jeden Fall viel Luft drin und komprimiert dürfte die Datei viel kleiner sein...
273 kb pro Musiktitel finde ich jetzt nicht so dramatisch. Um das abschließend beurteilen zu können, müsste man wissen, was da im einzelnen alles parametrisiert worden ist und was für Datenformate zum Einsatz kommen.
CU
Olaf
Das wären ca. 250 kb pro song - ich kann mir gut vorstellen, dass man diese Größe (sogar komprimiert) mit Infos über einen song füllen kann.
Interessant sind ja viele dinge, wie Rythmus, Instrumentalisierung usw. - um aus den Daten Listen zu bestimmten Gemütszuständen o.Ä. Erstellen zu lassen, braucht man schon etwas mehr Infos als Interpret und Titel.
Ein sample aus dem Lied könnte auch dabei sein, sei es zur Vorschau oder für Dinge wie Melodieerkennunng.
Gruß,
Yan
Ja, an solche Dinge dachte ich auch. Gut denkbar wären auch Notenbeispiele, entweder als Bilddatei oder in einem speziellen Format, z.B. von Cubase.
CU
Olaf
http://labrosa.ee.columbia.edu/millionsong/pages/field-list
http://labrosa.ee.columbia.edu/millionsong/pages/example-track-description
Lesen bildet und die Daten sind für nen Normaluser absolut nicht prikelnd und Noten gibts natürlich auch nicht...
Jetzt vielleicht noch nicht, aber das Modell ist ja noch ausbaufähig.
Allerdings muss ich dir in einem Punkt recht geben, wenn das Datenmaterial so dürr ausfällt wie in deinen Links zu columbia.edu angegeben, dann sind 270 kB pro Musiktitel doch ein bisschen happig.
CU
Olaf
Noten wirds AFAIK übrigens in ner legalen Datenbank auch nie geben.
Wenn es nur kurze Zitate sind, dürfte das rechtlich unbedenklich sein. Zumal man ja keine Original-Partituren einsetzen muss, eine reduzierte Fassung würde schon reichen, notfalls nur mit Hauptstimme, Bass und etwas Percussion.
CU
Olaf