Steht die Musiktheorie vor einem End of Theory?
Bei diesem Blogbeitrag geht es um die Zukunft der Musiktheorie … Nein, fangen wir noch einmal an: Bei diesem Beitrag geht es darum, wie neue Datenquellen und die Künstliche Intelligenz die weitere Entwicklung der Theoriebildung beeinflussen könnten.
Musik-Streaming-Dienste wie etwa Spotify haben in letzter Zeit große Datenberge angehäuft. Diese Daten beschreiben detailliert das Online-Hörverhalten, wie etwa wer sich welche Aufnahmen zu welchem Zeitpunkt anhört, wie lange, in welcher Abfolge usw.[1] Diese Datenquellen sind, so scheint es, für die datenbasierte Erforschung sowohl soziokultureller als auch „innermusikalischer“ Themen äußerst wertvoll. Insbesondere daten- und technologieintensive Forschungsbereiche wie Music Information Retrieval benötigen für ihre Arbeit immer umfangreichere Datenquellen.
Die Datensammelpraktiken der Streamingdienste werfen jedoch ethische und gesellschaftliche Probleme auf, die die Musikforschung nicht einfach ignorieren kann. Ein zusätzliches, davon getrenntes Problem ist, dass der private Besitz der Daten, die für solche Untersuchungen benötigt werden, die Forschung in eine abhängige Position bringen und somit kritische oder grundlagenorientierte Theoriebildung gefährden könnte. Das ist der gegenwärtige Standpunkt, was Daten betrifft.
Bei der Künstlichen Intelligenz zählen zu den jüngsten Fortschritten die direkte Verarbeitung von Audio (anstelle von Notation) sowie die Entwicklung neuer Hardware, die groß angelegte Projekte ermöglicht. Zu den bekanntesten Beispielen zählt hier das Musikgenerierungsprojekt „Jukebox“ der industrienahen Forschungseinrichtung OpenAI,[2] die bereits mit großangelegten und in den Medien vieldiskutierten Projekten wie GPT-3 und ChatGPT Bekanntschaft erlangt hat. In „Jukebox“ wurden dabei kurze Klangbeispiele in verschiedenen Musikstilen direkt generiert, ohne den Umweg über die Notation zu nehmen. Fertige Programmier-Toolkits bieten für Musik zudem mittlerweile ein ähnliches Maß an Benutzerfreundlichkeit, wie sie schon seit einiger Zeit für die Literaturwissenschaft vorhanden war. So bündelt etwa das populäre Toolkit „music21“ viele Verfahren der computergestützten musikalischen Analyse und Statistik.[3]
Zusammen weisen diese jüngsten Entwicklungen darauf hin, dass es in der musikalischen Theoriebildung in naher Zukunft, und vermutlich schon jetzt, ein schnelles Wachstum von Forschungsprojekten geben könnte, die von dieser neuen Verfügbarkeit von Daten und Technologie profitieren wollen, wobei noch unklar ist, inwieweit die Daten von den Unternehmen tatsächlich zur Verfügung gestellt würden.
Es ist deshalb dringend notwendig, eine noch breitere Diskussion sowohl über die potenziellen Vorteile als auch über die Herausforderungen eines solchen datenbasierten und technologieintensiven Ansatzes zu führen. Zu den wichtigsten heute schon vorhandenen Publikationen mit thematischem Bezug zu diesem Gebiet zählen Untersuchungen der kulturellen Auswirkungen der Musikempfehlungspraktiken der Streamingdienste (die mit denselben musikalischen Datensammlungen und KI-Technologien operieren) und Arbeiten zur KI-Ethik.[4]
Dabei ist ein daten- und technologiebasierter Ansatz für die Musiktheorie eigentlich erstaunlich antiintuitiv. Eine jahrtausendealte Tradition verbindet musikalische Klänge und menschliches Denken. Seit Jahrhunderten war es immer der Mensch, dessen Eigenheiten das Verstehen der Musik bestimmten, von der Eingrenzung des Frequenzbereichs anhand des menschlichen Hörvermögens und bis hin zur grundlegenden Rolle, die menschliche Kognition und menschliche Emotionen bei der Analyse der Musik spielen.
Das technische Werkzeug der Künstlichen Intelligenz und die Daten, mit denen es operiert, erlauben nun aber zunehmend, einige Arbeitsabläufe menschlicher Akteure zu imitieren. Musikalische Bereiche, die davon bereits betroffen sind, und in denen traditionell menschliches Musikwissen zum Einsatz kam, sind unter anderem die Musikempfehlung (Streamingdienste), die Gruppierung von Werken nach Ähnlichkeit und die Erstellung von Stilimitationen (KI-Komposition).
Wichtig ist: All diese Tätigkeiten können heute von der Technik imitiert werden, ohne dass dabei Konzepte menschlicher Musiktheorie wie Harmonie- oder Rhythmustheorien zum Einsatz kommen müssten. Wo frühere computerbasierte Komposition noch das explizite Wissen menschlicher Experten in Algorithmen überführte, extrahiert heute KI-Technologie implizites musikalisches Wissen aus Werken – und kann dabei nicht nur Notation verarbeiten, sondern auch Audio, mit all den musikalischen Details, die der Notation nicht zugänglich sind.
Deshalb ist es wichtig, die Zukunft der musikwissenschaftlichen Theoriebildung – vor allem die Bildung neuer deskriptiver Methoden und entsprechender Fachtermini – im Kontext der Entwicklungen auf dem Gebiet der KI und der Datensammlung zu betrachten. Es steht dabei die Frage im Raum, wie die Position menschlicher Akteure in der Musikforschung zukünftig beschaffen sein könnte.
Viele unterschiedliche Aspekte sind dabei relevant, darunter:
- Die Forschungsgrundlage (Daten) und oft auch das Forschungsinstrument (KI-Hardware) befinden sich in vielen Fällen im privaten Besitz von Musikunternehmen. Dies kann zu Machtungleichheiten zwischen Musikunternehmen und den Forschenden führen, die solche Daten nutzen wollen, es kann andererseits auch dazu führen, dass anderen Forschungsmethoden der Vorzug gegeben wird, die das Problem des Datenzugangs umgehen.
- Es könnte zu einer Spannung kommen zwischen hypothesengeleiteten (auf explizites menschliches Musikwissen aufbauenden) und „theoriefreien“, also rein datenbasierten Ansätzen, die auf solche Vorannahmen bei der Auswertung der Daten bewusst verzichten.
- Es könnte durch die Nutzung von Daten der Musikunternehmen zu einer weiteren Verstärkung des ohnehin schon sichtbaren Kontrasts zwischen den soziokulturell ausgerichteten und den eher „musikimmanenten“ Fragestellungen kommen, denn die Unternehmen dürften an bestimmten Forschungsfragen nicht interessiert sein.
In diesem kurzen Blogbeitrag werde ich nur zwei Unterbereiche dieses größeren Themas berühren können, in Hoffnung auf weitere Diskussionen:
- Die Implikationen einer quasi theoriefreien Datenauswertung in der Musikforschung, zusammengefasst unter dem seit mehr als einem Jahrzehnt bestehenden Stichwort „End of Theory“.
- Ethische Probleme und Machtgefälle bei der Nutzung von Datenquellen, die sich im Besitz von Musikunternehmen befinden.
End of Theory
Die Grundidee eines ‚End of Theory‘-Ansatzes besteht darin, dass umfassende Datensammlungen und leistungsstarke computergestützte Verfahren eine Theoriebildung im bisherigen, menschlichen Sinne obsolet machen würden. Es werden also Daten ohne vorherige Aufstellung einer leitenden oder zu überprüfenden Hypothese maschinell ausgewertet. Damit sollen Zusammenhänge sichtbar werden, die bisher von bestehender Theorie eher verdeckt als beleuchtet wurden. Man geht hier davon aus, dass für eine nützliche und hilfreiche Theorie die Rekonstruktion einer Kausalität oft nicht mehr notwendig ist, und dass Korrelationen in Daten vollkommen ausreichen, um Aufgaben sinnvoll zu lösen.
Dieser Ansatz ist seit etwa einem Jahrzehnt zu einer ganz realen Herausforderung für menschliche Theoriebildung geworden, sowohl in Natur- als auch zunehmend in den Geisteswissenschaften. Die unabdingbare Grundlage sind nach Vorstellung der Anhänger dieser Strömung große Datensammlungen, und diese sind heute nun einmal im privaten Besitz von Spotify, Youtube, Google, Apple usw.
Bis jetzt sind die grundlegenden Bausteine der Komposition, Improvisation, Hörerfahrung und Analyse menschlich geblieben, das heißt es kommen darin Begriffe und Vorstellungen zum Einsatz, die durch Jahrhunderte der Theoriebildung und der Praxis in verschiedenen musikalischen Traditionen der ganzen Welt entstanden waren. Es garantiert aber niemand, dass diese Begriffe angesichts neuartiger Möglichkeiten der Datenauswertung und der bisher wirklich unerhörten Detailliertheit der Informationen über das Hörverhalten weiterhin als adäquat angesehen werden.
Sie können sich verschieben, und es wird sicherlich auch seitens der Anhänger des ‚End of Theory‘-Ansatzes Bemühungen geben, die heute existierende menschliche Theoriebildung grundsätzlich in Frage zu stellen.
Ethische Probleme und Machtgefälle
In der Wissenschaftsgeschichte ist es eine weithin einflussreiche Vorstellung, dass sich der Wandel im theoretischen Denken in Form von Paradigmenwechseln vollzieht: Ab einem Punkt, und zwar wenn neue Messungen nicht mehr ausreichend durch die bestehende Theorie erklärt werden können, taucht eine neuartige Theorie auf, gefolgt von einer Phase relativer Stabilität, bis aufgrund wiederum neuer, widersprechender Daten ein erneuter Paradigmenwechsel fällig wird.
Es deutet vieles darauf hin, dass die großen Datensammlungen über das Hörverhalten, die durch Streaming-Dienste erstellt wurden, eine solche neuartige Messung darstellen, die zu einem Paradigmenwechsel im musikalischen Denken und in der Musiktheorie führen kann.
Dies ist sowohl eine Chance, da damit neue Forschungsbereiche entstehen würden, als auch ein Problem: aufgrund vielfach in der Forschung beanstandeter ethischer Defizite bei der Erhebung und Verwendung von Nutzer:innendaten, aber auch aufgrund des Machtgefälles, das das Eigentum an diesen Daten zwischen dem Unternehmen und der Forschung kreiert.
Es ist absehbar, dass eine breitere Bewegung in der Musikforschung entstehen wird, die darauf abzielt, diese neuen Möglichkeiten zu nutzen und mit den Daten von Streaming-Diensten und Social-Media-Unternehmen zu arbeiten. Kleinere Projekte werden bereits von den internen Forschungseinheiten der Unternehmen durchgeführt. Da die Grundlagenforschung jedoch kein zentrales Anliegen für diese Firmen darstellt, ist es wahrscheinlich, dass größere, ehrgeizigere Projekte aus der akademischen Gemeinschaft selbst hervorgehen werden.
In dieser neuen Situation werden auch Förderorganisationen grundsätzlich entscheiden müssen, welche Art von Forschung und welche Nutzung welcher Daten ethisch zulässig sind und welche nicht. Eine vielversprechende Perspektive ist die Initiative, Datensammlungen mit Labels zu kennzeichnen, die auf potenziell intrusive oder voreingenommene Praktiken bei der Datenerhebung hinweisen.[5]
Schlussbemerkung
In diesem kurzen Beitrag habe ich einige der zentralen Probleme, aber auch Potentiale angesprochen, die sich für die musikalische Theoriebildung aus der Verwendung von kommerziellen Daten und der KI-Verfahren ergeben könnten.
Breit angelegte datenbasierte Untersuchungen des Musikhörens sind erst seit kurzem durch die Erstellung massiver Datensätze der Streaming-Dienste möglich geworden, und die musikwissenschaftliche Forschung hat noch nicht begonnen, diese neuen Möglichkeiten des Paradigmenwechsels voll auszuschöpfen.
Jetzt ist deshalb der richtige Moment, um eine Diskussion anzufangen, wie man mit der neuen Welt des musikalischen Big Data und des Machine Learning umgehen will. Meiner Meinung nach kommen wir langfristig nicht darum herum, dass die Forschung diese neuen Daten und Techniken nutzen wird, aber wir müssen nach Wegen suchen, es auf eine Weise zu tun, die die ethische Dimension ernst nimmt und die Unabhängigkeit der Forschung stärkt.
Auch in der Vergangenheit sah sich die Musiktheorie bereits mehreren technologischen und medialen Umbrüchen ausgesetzt, wie etwa als Tonwiedergabe und Klangvisualisierung musikwissenschaftliche Selbstverständlichkeiten in Frage stellten. In allen solchen Fällen konnte sich die Musiktheorie bisher weiter als Werkzeug für die Analyse und Komposition von Musik behaupten, indem sie sich an die neuen Gegebenheiten anpasste. Es ist an der Zeit, konkret über ihre Zukunft in der Ära der künstlichen Intelligenz und des musikalischen Big Data nachzudenken.
Zur Person: Dr. Nikita Braguinski forscht über Musiktechnologie und die Diskurse des Mathematischen in der Musik. Dieser Blogbeitrag basiert auf einem Vortrag, der bei der Jahrestagung 2022 der Gesellschaft für Musikforschung präsentiert wurde.
[1] Eric Drott, „Music as a Technology of Surveillance“, Journal of the Society for American Music 12, Nr. 3 (August 2018): 233–67, https://doi.org/10.1017/S1752196318000196.
[2] Prafulla Dhariwal u. a., „Jukebox: A Generative Model for Music“, arXiv:2005.00341 [cs, eess, stat], 30. April 2020, http://arxiv.org/abs/2005.00341.
[3] Michael Scott Cuthbert und Christopher Ariza, „music21: A toolkit for computer-aided musicology and symbolic music data“, hg. von J. Stephen Downie und Remco C. Veltkamp, 11th International Society for Music Information Retrieval Conference (ISMIR 2010), 2010, 637–42.
[4] Georgina Born u. a., „Artificial intelligence, music recommendation, and the curation of culture. A white paper.“ (CIFAR, Univ. of Toronto, 2021), https://srinstitute.utoronto.ca/s/Born-Morris-etal-AI_Music_Recommendation_Culture.pdf; Marina Estévez Almenzar u. a., „Glossary of Human-Centric Artificial Intelligence“ (Publications Office of the European Union, 2022), https://data.europa.eu/doi/10.2760/860665; AI HLEG, „Ethics Guidelines for Trustworthy AI“ (Publications Office of the European Union, 2019), https://data.europa.eu/doi/10.2759/346720.
[5] Timnit Gebru u. a., „Datasheets for datasets“, Communications of the ACM 64, Nr. 12 (19. November 2021): 86–92, https://doi.org/10.1145/3458723.
Kommentar schreiben