Digitale Methoden: Chancen, Implikationen und Kritik der Kritik

Wird nach den Chancen digitaler Methoden für die Musikwissenschaft gefragt, so stellt sich zunächst die Frage, was mit „Musikwissenschaft“ gemeint sei. Die Systematische Musikwissenschaft, die sich in ihren Methoden teils an die Naturwissenschaften, teils an die Sozialwissenschaften anlehnt, ist ohne Anwendung digitaler Verfahren längst nicht mehr zu denken. Die Arbeit mit großen Datenmengen und ihre statistische Auswertung ist auf den Computer angewiesen. Clusterungen, semantische Netzwerkanalysen, Faktorenanalysen usw. setzen den Rechner als substanzielles Arbeitsinstrument voraus.

Ein Teil des Problems – und dass es ein Problem ist, zeigt sich schon daran, dass hier die (eigentlich doch auf der Hand liegenden) Chancen diskutiert werden müssen – besteht darin, dass wahrscheinlich die Historische Musikwissenschaft gemeint ist, wenn von „Musikwissenschaft“ die Rede ist, vielleicht auch insgesamt die „kultur-“ oder „geisteswissenschaftlich“ ausgerichteten Teilbereiche der Musikwissenschaft (also historische und ethnologische Musikwissenschaft). Nur dort scheint eine solche Diskussion nötig zu sein – in der Systematischen Musikwissenschaft wäre die Frage absurd.

Die sich immer weiter entwickelnde Digitalisierung der historischen Quellen, sowohl textsprachlicher als auch musikalischer Natur, lässt aber die Arbeit mit großen Datenmengen auch für die historische Forschung immer realistischer und fruchtbarer erscheinen. Stets strebte historische Forschung eine möglichst gute Materialsättigung an; nur stieß sie eben leicht an ihre Grenzen – entweder weil die Quellen nicht überliefert waren (da kann auch die Digitalisierung nichts ändern) oder weil zu große Quellenkorpora nicht von einzelnen Personen ausgewertet werden konnten. Letzteres wird nun zunehmend möglich. Genau darin liegt die große Chance: Die stark auf Close Reading und individuelle Kontextanalyse ausgerichtete historische Forschung kann nun durch Anwendung unterschiedlichster Verfahren der digitalen Analyse und der Korpusforschung erweitert, komplementiert und konturiert werden. Im Umkehrschluss heißt dies auch, dass historische Forschung, die diese Möglichkeit hat, sie aber nicht nutzt, ihren Status als Wissenschaft verliert, weil Quellen nicht wider besseres Wissen ausgeblendet werden dürfen, sofern sie für die Schlussfolgerungen relevant sind.

Qualitative Textanalyse unter Einbeziehung quantitativer Aspekte mithilfe entsprechender Softwares und die digitale Analyse musikalischer Korpora werden daher in der Historischen Musikwissenschaft eine zunehmende Rolle spielen, wenn – und das ist leider nicht gewiss – sich die Disziplin zu einer Identität als Wissenschaft bekennt im Sinne der Tradition dieses Begriffs von Aristoteles über Thomas von Aquin, Francis Bacon, Max Weber und Karl Popper bis hin zur aktuellen Praxis sozialwissenschaftlicher und naturwissenschaftlicher, aber auch des größten Teils geschichtswissenschaftlicher Forschung (anstatt sich in den Criticism oder in Formen vermeintlich künstlerischen Verstehens historischer Quellen zu verlieren; vgl. hierzu Nille 2018).

Die Digitalisierung der editorischen Praxis ist fraglos gut und wichtig, stellt aber hinsichtlich der methodischen Entwicklung der Historischen Musikwissenschaft keinen vergleichbar qualitativen Sprung dar. Allerdings liefert sie unentbehrliches Forschungsmaterial, sofern digitalisierte Text-, Noten- oder Audio-Korpora ihr Hauptziel bilden. (Die historisch-kritischen Editionen, die im Laufe der vergangenen Jahrzehnte mit Akademie-Mitteln erstellt wurden, werden ihren Wert einbüßen, wenn sie nicht digitalisiert werden; derzeit muss sich die entsprechend verfahrende Forschung auf unzuverlässige Digitalisate aus dem Netz oder ad hoc produzierte Dateien verlassen.)

In dem Maße, in dem besser gesicherte Aussagen über Quellen der Vergangenheit (und indirekt also über diese Vergangenheit selbst) getroffen werden können – was durch digitale Verfahren der Fall ist –, können bisher oft bloß auf die Erfahrung und subjektive Einschätzung der Forschenden gestützte Aussagen objektiviert werden. Eine Aussage wie: Sachverhalt X ist charakteristisch für die kompositorische Praxis der Kultur, der Epoche, des Stils Y, wird sich, wenn digitalisierte Korpora vorliegen, sehr viel besser fundieren lassen. Dass die Argumentation in historischen Wissenschaften immer wieder auf das individuelle Hintergrundwissen der Forschenden angewiesen ist (siehe Tucker 2004), entbindet diese nicht von der Pflicht, sie zu überprüfen und nachzuweisen, sobald dies aufgrund von digitalisierten Daten möglich ist.

Der irrigerweise immer wieder als Gegenkonzept zu empirischen Verfahren verstandene Begriff „Hermeneutik“ ist doppeldeutig. Zum einen meint Hermeneutik die Lehre von der Interpretation, die sich, vereinfacht, in einer Spiralbewegung von Lektüreevidenz über Interpretationshypothese, weitere Lektüreevidenz, Interpretationsmodifizierung usw. bis zur Festigung einer Interpretation vollzieht (vgl. Stegmüller 1974). Die klassische Quelleninterpretation, das Close Reading, die qualitative und die quantitative Textanalyse – sie alle kommen ohne sie nicht aus. Zum anderen meint Hermeneutik oft eine sehr viel undurchsichtigere Form von Gelehrsamkeit, die die Schwierigkeit und ab einem bestimmten Punkt vielleicht sogar Unmöglichkeit, Quellen der Vergangenheit aus ihrem historischen Kontext heraus exakt zu verstehen, in eine Tugend umzuwandeln versucht: Johann Gustav Droysen verwendete dafür den unscharfen Begriff des „Geistes“, Wilhelm Dilthey setzte den schwammigen Begriff des (geisteswissenschaftlichen) „Verstehens“ gegen den des (naturwissenschaftlichen) „Erklärens“; und Gadamer setzte auf die Idee der einen Traditionszusammenhang voraussetzenden „Horizontverschmelzung“. In dieser Form der Hermeneutik werden der subjektive oder geschichtsspezifische Bias, eigentlich Probleme historischer Wissenschaft, in eine Tugend umgemünzt. Je mehr Evidenzen zugänglich und dank digitaler Verfahren auswertbar werden, desto weniger müssen sich die Kulturwissenschaften in derartige fast mystische Konzepte des Verstehens flüchten. Die Hermeneutik im ersten Sinn verliert dadurch nicht ihren Wert und ihre Bedeutung.

Die Hürden, die die Akzeptanz digitaler Verfahren behindern, sind derzeit noch interdisziplinärer Natur: Ohne Grundlagen in Statistik und Informatik lassen sie sich nicht anwenden. Es besteht aber die doppelte Möglichkeit einer Überwindung dieser Hürden: Erstens können, wie es in der Systematischen Musikwissenschaft der Fall ist, diese Grundlagen in das Fach so integriert werden, dass sie bald nicht mehr als „interdisziplinär“ zu bezeichnen sind. So wie es früher üblich war, das Latinum für das Musikwissenschaftsstudium zu verlangen, ohne dass daraus interdisziplinäre Hürden abgeleitet worden wären, so könnten informatische und statistische Grundlagenkenntnisse zu den Propädeutika des Fachs gemacht werden.

Derzeit fehlen diese Kompetenzen noch bei den weitaus meisten Historischen Musikwissenschaftler:innen. Das notwendige methodische und vor allem handwerkliche Umdenken erschwert die Bereitschaft, sich auf die neuen Verfahren einzulassen, erheblich. Ordinarii und Ordinariae, zu deren Selbstbild es selbstverständlich gehört, das Handwerk ihres Faches aus dem Effeff zu beherrschen, stehen plötzlich als Anfänger:innen da. Das schürt Gegenreaktionen. (Personen dieser Gruppe sitzen in den entscheidenden Gremien der wichtigsten deutschen Drittmittelgeber und verhindern dort erfolgreich innovativere Forschungsanträge.) Tatsächlich vermute ich, dass die wissenschaftstheoretischen Vorbehalte gegen mehr Empirie in der Historischen Musikwissenschaft fadenscheinig und vorgeschoben sind, bestenfalls sich auf Unwissen und Unverständnis gründen. Mit dem alten Positivismus-Streit hat all das nichts zu tun, denn empirische Forschung und stärker evidenzbasierte Forschung führen natürlich keinesfalls zum Positivismus, der theoriefreie Wissenschaft für möglich hielt.

Die immer wieder angeführten Kritikpunkte, mit denen der Status quo der historischen Methoden gewahrt werden soll, beziehen sich auf (1) die Individualität der überlieferten Dokumente, (2) den Kontext jeder einzelnen Quelle und (3) die Komplexität historischer Quellen. In der Tat ist es so, dass jedes Dokument in der Geschichte ein Unikat darstellt und ihm daher Aspekte eignen, die keinem anderen Dokument zukommen; und ebenso muss jedes Dokument aus seinem Kontext heraus betrachtet werden, denn seine Entstehung verdankt sich einmaligen, vielschichtigen Vorgängen und Akteur:innen. Quantitative Forschung muss hier vereinfachen. Doch das sind keine tragfähigen Gegenargumente gegen quantitative Verfahren und Korpusforschung. Die Begründung für diese Aussage ist so simpel, dass einmal mehr deutlich wird, dass die Kritik in erster Linie dazu dient, den Status quo zu wahren, letztlich also der Bequemlichkeit der fest im Sattel sitzenden Wissenschaftler:innen. Denn erstens (1) stellt die quantitative Forschung die Individualität der Dokumente gar nicht in Frage, sondern fokussiert eben auf überindividuelle Aspekte. Beide Ansätze ergänzen sich demnach und sollten entsprechend kombiniert werden. Insbesondere lässt sich das Individuelle gar nicht erkennen, wenn nicht zuvor das Allgemeine bestimmt wurde. Streng genommen setzte daher die klassische Methode Wissen quantitativer Art voraus, über das sie gar nicht verfügte (sie ersetzte es durch das subjektiv geprägte Hintergrundwissen).

Darüber hinaus (2) kann die Rolle, die der Kontext für das Verständnis eines Dokuments spielt, in ganz analoger Weise nur dann erkannt werden, wenn das Dokument vergleichbaren Dokumenten anderer Kontexte gegenübergestellt wird. Wie sollte sich denn anders der Zusammenhang plausibel machen lassen? Wenn viele Dokumente sehr unterschiedlicher Kontexte denselben Inhalt aufweisen, wird eine Interpretation, die diesen Inhalt allein aus dem spezifischen Kontext ableitet, kaum überzeugen können. Wieder gilt daher, dass quantitative Ansätze die besondere Rolle des Kontextes in Einzelfällen erst sichtbar machen können.

Und schließlich (3) arbeitet Wissenschaft grundsätzlich mit Vereinfachungen. Sobald aus individuellen Zeugnissen z. B. eine Geschichtserzählung geformt wird, liegt eine hochgradige Vereinfachung vor. In gewisser Weise ist Vereinfachung geradezu das Ziel der Wissenschaft: Ein Modell, ein Narrativ oder eine Theorie, die Quellen zu erklären vermögen, stellen Vereinfachungen der komplexen Partikularitäten dar, aber sie sind das, was Wissenschaft anstrebt. Wenn Wissenschaft diese Vereinfachung ablehnt, kann sie keine Aussage mehr über die Quellen leisten. Ob im Einzelfall eine Vereinfachung zur „over-simplification“ führt, kann nur in Bezug auf konkrete Studien diskutiert werden.

Generell gilt, dass die Anwendung digitaler Verfahren nicht alle bisherigen Verfahren über den Haufen werfen, sondern sie ergänzen soll. Jede Person mit einer wissenschaftlichen Einstellung müsste eigentlich jegliche Chance auf neue Erkenntnisse begrüßen, anstatt sie aus voreiligen Vorbehalten heraus sofort abzulehnen (wie ich es leider immer wieder erlebt habe). Zurzeit fehlt bei einer Mehrheit Historischer Musikwissenschaftler:innen die Offenheit, sich überhaupt auf die neuen Methoden einzulassen. Eine wirkliche wissenschaftliche Haltung ist vielen Musikhistoriker:innen, die sich eher als Bewahrer von Kulturerbe und Hochkultur begreifen, offensichtlich fremd.

Zur Person: Frank Hentschel ist Professor für Historische Musikwissenschaft an der Universität zu Köln.


Literatur

Christian Nille, „‚Künstlerische‘ und ‚wissenschaftliche Kunstgeschichte‘“, in: Kunstgeschichte. Open Peer Reviewed Journal, 2018.

Aviezer Tucker, Our Knowledge of the Past, Cambridge 2004.

Wolfgang Stegmüller, Das Problem der Induktion. Humes Herausforderung und moderne Antworten. Der sogenannte Zirkel des Verstehens, Darmstadt 1974, Nachdr. 1991

Ein Kommentar

  • Martin Pfleiderer sagt:

    Sehr schöner Text, alles gut auf den Punkt gebracht – vielen Dank!
    Ich hoffe sehr, dass durch diesen Problemaufriss eine Diskussion in der historischen Musikwissenschaft angeregt wird.

    Eine (vielleicht etwas naive) Idee zur Korpusforschung und deren derzeit noch eher dünnen Datengrundlage; denn es kann ja nicht darum gehen, Gesamtausgaben einzuscannen und anschließend mit OMR in (fehlerhafte) Notendateien zu konvertieren. Wäre es nicht denkbar, die großen Notenverlage dazu zu überreden, oder besser: davon zu überzeugen, ihre Notendateien, die seit dem Aufkommen der Noteneditoren (Finale, Sibelius usw.), also seit ca. der Jahrtausendwende die Grundlage ihrer Notenausgaben bilden, den Musikforscher*innen zur Verfügung zu stellen? Die Dateien liegen doch sicher ungenutzt auf irgendwelchen Verlags-Computern und könnten ziemlich einfach in die gängigen, analysetauglichen Formate (MusicXML, MEI) konvertiert werden. (Viele historische Musikwissenschaftler*innen haben doch gute Kontakte zu den Verlagen…)

Kommentar schreiben

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert. Bevor der neue Kommentar sichtbar wird, muss er freigeschaltet werden. Dies kann einen kurzen Moment in Anspruch nehmen.