Perspektiven einer datenbasierten und computergestützten Musikforschung

Welche Rolle spielt datenbasierte und computergestützte Forschung in Ihren Augen in der (deutschen) Musikwissenschaft? 

Da sich Systematische Musikwissenschaft (Musikpsychologie, Akustik, empirische Musiksoziologie) primär als empirische Wissenschaft versteht, spielen dort Daten und die entsprechende Software zur Datenauswertung (z. B. Statistik-Software) eine zentrale und ganz selbstverständliche Rolle im Forschungsprozess – und das nicht erst seit der Jahrtausendwende. 

In der Historischen Musikwissenschaft gibt es zumindest vereinzelte Ansätze zu einer computergestützten Forschung, z. B. indem Textsammlungen (historisches Musikschrifttum) computergestützt inhaltsanalytisch ausgewertet oder Notenrepertoires statistisch beschrieben und hinsichtlich von Mustern durchsucht werden. Inwieweit der von Fabian Moss erwähnte derzeitige Hype um digitale Noteneditionen zu mehr datenbasierter Forschung führen wird, bleibt abzuwarten – zumindest wird eine solche Forschung durch immer mehr Noten in computerlesbaren Formaten sowie durch verbesserte OMR (optical music recognition) zunehmend möglich.

Bei Audiodaten – wie sie ja Grundlage der Forschung in der Musikethnologie, Jazz- und Popularmusikforschung, aber vielfach auch der historischen Aufführungsforschung sind – kann man inzwischen auf das immense Wissen aus dem Music Information Retrieval und die entsprechenden Tools (in der Regel online und open access, bei GitHub oder eigenen Websites hinterlegt) zurückgreifen: Hier gibt es noch großes Forschungspotenzial, insbesondere was das repertoirebezogene Fine-Tuning durch maschinelles Lernen (KI) betrifft.

Welche Chancen gibt es, Daten aus dem Kulturleben für wissenschaftliche Zwecke zu nutzen? Wo sehen Sie Verbesserungspotential für einen Datenaustausch?

Statistiken des Kulturlebens (z. B. von verschiedenen Interessenverbänden oder Kulturinstitutionen) werden in der Regel nicht einschließlich der Rohdaten, sondern nur in Form von Auswertungen durch die entsprechenden Institutionen veröffentlicht. Hier könnte etwa das Musikinformationszentrum (MIZ) des Deutschen Musikrats, das solche Statistiken kontinuierlich sammelt und aufbereitet, darauf hinwirken, auch die jeweilige Datengrundlage (z. B. als csv-Dateien) Forscher*innen zur Verfügung zu stellen – oder NFDI könnte diese Aufgabe übernehmen? Ob die entsprechenden Verbände und Institutionen überhaupt dazu bereit sind, ihre Rohdaten zu teilen, ist allerdings fraglich, da es sich ja zum Teil um Geschäftsgeheimnisse handelt. Bei kommerziell arbeitenden Forschungsinstitutionen wie der Gesellschaft für Konsumforschung oder dem Sinus-Institut – die beide höchst relevante Erhebungen zum gegenwärtigen Musikleben durchführen! – wäre das vermutlich vor allem eine finanzielle Frage.

Die FAIR-Prinzipien zielen auf Nachnutzbarkeit und Interoperabilität von Daten, das bedeutet einen Wandel hin zum offeneren Teilen der eigenen Forschungsdaten. Wie verändert Digitalität unsere Zusammenarbeit? 

Computer und Internet – und das ist wohl in diesem Zusammenhang mit dem Buzzword „Digitalität“ gemeint – vereinfachen und beschleunigen die Zusammenarbeit über Fächergrenzen hinaus –, vorausgesetzt die Forscher*innen sind dazu bereit. Forschen im Team wird zur Regel. Dies stellt zugleich Anforderungen an die Wissenschaftler*innen, ihre Forschungsdaten in einer Form zu präsentieren, die für Andere nachvollziehbar ist und durch die Daten für Andere nutzbar werden. Dabei denke ich nicht nur an die Verwendung gängiger Datenformate, sondern ebenso an die Dokumentation und Kommentierung der Daten – was Sorgfalt und damit Arbeitszeit erfordert, dann aber in der Regel auch der Forschungsqualität zugutekommt. Dies eröffnet nicht zuletzt Perspektiven für übergreifende Metastudien, wie sie etwa in der internationalen Musikpsychologie seit der Jahrtausendwende vermehrt durchgeführt werden. 

Gerade eine Internationalisierung der deutschsprachigen Musikwissenschaft, der Austausch und die Zusammenarbeit mit einer internationalen Forschungs-Community könnten hiesigen Forscher*innen neue Impulse geben. So werden etwa die Daten und Tools des Jazzomat Research Project inzwischen weltweit genutzt und haben zu internationalen Kooperationen geführt. 

Welche Herausforderungen erleben Sie beim Forschungsdatenmanagement?

Die üblichen Herausforderungen sind Fragen der Anonymisierung bei Daten aus qualitativen und quantitativen Befragungen sowie urheberrechtliche Probleme, sobald es um Noten- und Audio-Daten geht. Hier bewegt man sich oft in einer urheberrechtlichen Grauzone. Dürfen wir eigentlich Notendateien einfach so aus dem Internet fischen, in ein einheitliches Format transferieren und dann zum Download zur Verfügung stellen – wie wir es in einem Lehrprojekt zur computergestützten Musikanalyse praktiziert haben? (Ganz abgesehen davon, dass nur ein Teil der Noten aus wissenschaftlichen Projekten stammt und die Datenqualität der anderen Noten daher fragwürdig ist.) In puncto Audio-Daten verfügt das Musikarchiv der Deutschen Nationalbibliothek zwar über Unmengen digitalisierter (und bereits gerippter!) Audio-Dateien – nämlich aus den Pflichtexemplaren aller in Deutschland veröffentlichten Tonträger seit 1973. Diese riesige Datenbank darf die Räumlichkeiten der DNB jedoch leider nicht verlassen.

Besonders problematisch wird es bei der Erforschung des Musiklebens im Internet, z. B. von YouTube-Videos, Blogs, Kundenrezensionen. Solche Daten verschwinden manchmal einfach so über Nacht aus dem Netz, zugleich betritt man eine urheberrechtliche Grauzone, wenn man diese Inhalte abspeichert und dokumentiert und anschließend anderen zugänglich macht – gerade bei Plattformen wie YouTube, hinter denen eine große ökonomische Macht steht.

Wie kann man den wissenschaftlichen Nachwuchs für digitale Forschung vorbereiten?

Pflichtkurse in empirischen Forschungsmethoden (quantitativ und qualitativ), Statistik und Programmieren bereits im Grundstudium. Wobei das Programmieren ein Paradebeispiel dafür ist, dass die gerade viel diskutierten KI-Systeme durchaus sinnvoll und offensiv im Studium eingesetzt werden können: nämlich als Programmierhilfe! ChatGPT liefert solide Programmierlösungen z. B. für den Einsatz der python-Library music21 – wobei die Studierenden natürlich um Grundkenntnisse im Programmieren dennoch nicht herumkommen, wollen sie diese Vorschläge in ihren eigenen Forschungen sinnvoll verwenden.

Zugleich wage ich die Prognose, dass aufgrund der komfortablen Möglichkeiten zur Textgeneration durch KI in Zukunft neben mündlichen Prüfungen vor allem eigene Forschungsprojekte im Studium immer zentraler werden – auch im Musikwissenschaftsstudium, das sich ja in manchen Bereichen bislang oft auf Text- (und Noten-)Exegese beschränkt hat. Ein Grund mehr, sich mit empirischer Forschung und Methoden der Datengenerierung und Datenauswertung (was heutzutage immer mit Computereinsatz einhergeht) frühzeitig im Studium zu beschäftigen.

Zur Person: Martin Pfleiderer ist Professor für Musikwissenschaft, Geschichte des Jazz und der populären Musik am Institut für Musikwissenschaft Weimar-Jena der Hochschule für Musik FRANZ LISZT Weimar.

Kommentar schreiben

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert. Bevor der neue Kommentar sichtbar wird, muss er freigeschaltet werden. Dies kann einen kurzen Moment in Anspruch nehmen.