Digitale Interpretationsforschung: Tautologie oder bleibende Herausforderung?

Digitalisierung ist ein Diskussionsthema für Alle und Keinen. Einerseits wird spätestens nach der Pandemie wohl jeder, der diesen Blog konsultiert, in irgendeiner Form in der akademischen Lehre und Forschung eigene digitale Kompetenzen besitzen. Andererseits bleibt wissenschaftliche Forschung oft von Spezialkenntnissen vor allem bei der Programmierung und Codierung abhängig, die in unserem Fach bislang nicht als eigener Lehrinhalt vermittelt werden. Pflichtkurse im Programmieren werden weder in den Schulen noch in einem musikwissenschaftlichen Modulhandbuch mal so eben eingeführt. Ein pragmatischer Weg könnte es sein, entsprechende Fort- und Weiterbildungen stärker zu nutzen, zum Beispiel gezielt auch für studentische Hilfskräfte. Das Schlagwort der Digitalisierung entlastet also nicht von der Differenzierung.

Die musikwissenschaftliche Interpretationsforschung zum Beispiel nutzt digitale bzw. digitalisierte Quellen in einer sehr spezifischen Weise. Ältere Tonträgerformate müssen zwingend in irgendeiner Form digitalisiert werden, um mithilfe softwaregestützter Verfahren ausgewertet werden zu können (beinahe ein Monopol besitzt hierfür derzeit der Sonic Visualiser). Dies unterscheidet sich von digitalen Editionen oder digitalisierten Archivquellen, bei denen es für die eigene Forschung nicht unbedingt relevant ist, ob die Quelle weiterhin durch einen Archivbesuch vor Ort oder am Bildschirm ausgewertet wird.

Allerdings besitzt der auf einem Tonträger gespeicherte Klang sozusagen keine eigene Digitalität: Anders als Schrift- und Notenzeichen ist der Klang ein „dichtes“ Medium, bei dem Nebengeräusche, Filter- und Transfereffekte etc. zwingend dazu führen, dass die digitalisierte Version konkrete Verluste oder zumindest Verschiebungen gegenüber der nicht-digitalen Vorlage aufweisen wird (wobei wir bei eingescannten Farbabbildungen sensibler für solche Verluste scheinen als bei Tonträgern).  

Auch darum positioniert sich die Interpretationsforschung zwischen historischen und systematischen Zugängen innerhalb der Musikwissenschaft. Dadurch entstehen allerdings digitale Nischenkulturen, sodass Software mit wenig intuitiver Benutzungsoberfläche nur von einzelnen Personen oder einem einzelnen Forschungsstandort genutzt werden kann. Der Graben zwischen einer einigermaßen naiven Anwendung digitaler Tools (der Autor darf sich selbst zu dieser Gruppe zählen) und passgenauen selbstprogrammierten Lösungen scheint weiterhin groß.

Hilfe zur Selbsthilfe scheint geboten: Bei einer eigenen rezenten Publikation zu diesem Thema sollen die Zugangsbarrieren durch „Supplementary Materials“ reduziert werden. YouTube-Tutorials  sind Benutzer-handbüchern durch das visuelle Vorführen der Arbeitsschritte überlegen, was sich seminardidaktisch bestätigen lässt (und das Erstellen solcher Arbeitsleistungen anstelle der schriftlichen Hausarbeit ist ein effektiver Weg, digitale Kompetenzen zu stärken); eine Mailingliste kann auch für Q&A zu Software-Problemen oder auch Lösungen genutzt werden; Datenrepositorien erlauben eine transparente Kontrolle und Weiterbenutzung der Forschungsdaten, die in diesem Fall nicht von einzelnen Probanden, sondern von Tonträger-Produktionen entstammen. Dadurch ist es besonders sinnvoll, diese Daten für eventuelle weitere Forschungen zu denselben Interpret*innen bereitzustellen.

Den relevanten Punkt hat Hans-Joachim Hinrichsen früh für das Forschungsfeld zusammengefasst: „Wir dürfen also alles messen, was wir messen können. Wir müssen aber wissen, was wir eigentlich wissen wollen” (von Loesch, Weinzierl 2011).

Das Tempo bleibt die Eigenschaft, die sich am besten in einer musikalischen Aufführung messen lässt; bereits die Messung von Lautstärke-Pegeln stößt auf Herausforderungen, während quasi-räumliche Klangstaffelungen weiterhin nur sehr schwer empirisch objektivierbar scheinen.

Vor allem scheint mir demzufolge wichtig, dass Desiderate benannt werden, was digitale Tools eigentlich für konkrete Forschungszwecke jeweils bereits leisten und in naher Zukunft leisten sollen. Dabei wäre es ein wünschenswertes Signal, wenn – als Forschungscluster oder durch gemeinsame Drittmittel-Anträge – eine gezielte Weiterentwicklung von Software-Lösungen spezifisch für das musikwissenschaftliche Arbeiten angestrebt wird. Solche bedarfsorientierten Kooperationen zwischen Informatik, Signalverarbeitung und Musikwissenschaft sind im deutschen Forschungsraum bislang oft von privater Initiative und Finanzierung (wie bei der Entwicklung von Anwendungen zur „Vermessung“ musikalischer Gestaltung: Expressive Means) oder von entsprechenden Doppelqualifikationen der Projektleitenden abhängig (bspw. Music Performance Markup).

Unzweifelhaft versteht die Musikwissenschaft unter Digitalisierung noch zu häufig und vorschnell: „Dasselbe noch einmal machen“ (Stichwort: Digitale Editionen). Diese konservative Fachausrichtung zu beklagen, fällt jedoch eigentlich auch unter dieses Prinzip. Das wissenschaftliche Arbeiten wird auch in der Musikwissenschaft immer stärker auf Kollaborationen angewiesen sein (und sich darin anderen Wissenskulturen anpassen). Digitalisierung sollte demzufolge bedeuten: „Etwas Neues machen, dafür mehr als bislang von Anderen lernen und so die Zusammenarbeit der verschiedenen Teilbereiche der Musikwissenschaft stärken“.

Zur Person: Julian Caskel vertritt derzeit eine Professur für Historische und Systematische Musikwissenschaft an der Folkwang Universität der Künste Essen.

Literatur

Gemessene Interpretation. Computergestützte Aufführungsanalyse im Kreuzverhör der Disziplinen, hrsg. von Heinz von Loesch und Stefan Weinzierl, Mainz; Berlin [u. a.], 2011

Kommentar schreiben

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert. Bevor der neue Kommentar sichtbar wird, muss er freigeschaltet werden. Dies kann einen kurzen Moment in Anspruch nehmen.