Digitaler Musikgebrauch: Darüber sprechen und philosophieren

von Hannes Wagner und Magdalena Zorn

Ein modales Sprachspiel

In den Medienwissenschaften gibt es seit langem das Einverständnis, dass technische Geräte wie das Radio oder das Smartphone keine durchsichtigen Fensterscheiben sind, die uns den ungehinderten Blick auf eine Welt dahinter freigeben. Das McLuhan’sche Paradigma,[1] wonach das Medium selbst eine Botschaft hat, stellt Musikwissenschaft vor allem dann vor Herausforderungen, wenn sie es mit Aufführungen zu tun hat. Da technische Medien der Musikaufführung – um mit McLuhan zu sprechen – selbst Bedeutungen artikulieren, die sich in der übertragenen Musik – ihrerseits zugleich Medium und Botschaft – imprägnieren, charakterisiert sich das Phänomen des digitalen Musikgebrauchs der Gegenwart durch eine komplexe Konvergenz verschiedenartiger Vermittlungs- und Bedeutungsinstanzen. Die übliche Rede von der Musik kann die medial verlinkte Musik, ihre ästhetisch-technischen Interrelationen dann nicht mehr greifen. Da der Anfang von Begriffsarbeit im Sprechen als einer „Lebensform“[2] liegt: Wie können wir mediensensibel über digitalen Musikgebrauch sprechen?

Als heuristisches Werkzeug wäre ein ‚Sprachspiel‘ denkbar, das, indem es vom alltäglichen Sprechen erheblich abweicht, dazu geeignet ist, neue Bedeutungsgehalte des Musikalisch-Medialen zu Tage zu fördern. Der übliche sprachliche Zugriff auf Aufführungs- und Erfahrungssituationen, in denen Musik- und technischer Mediengebrauch konvergieren, geht im Deutschen wie im Englischen vom Rekurs auf lokale Präpositionen aus: eine Beethoven-Symphonie erklingt im Radio, der Song einer Künstlerin ist uns auf Youtube zugänglich. Mit solchen lokalen Präpositionen werden verschiedene technische Intermedien zwischen der Musik und unseren Sinnen als Orte definiert. Benutzen wir Youtube oder Spotify, so hören wir allerdings nicht nur auf technischen Übertragungskanälen, sondern wir nehmen gemäß den jeweiligen Übertragungsdispositiven in einer bestimmten Art und Weise Kontakt zur Musik auf: Nur durch das Radio entsteht Musik-im-Radio, nur im Rahmen des digitalen Dispositivs Musik-auf-Youtube. So kommen wir dem Musikbegriff in Kulturen des Digitalen in der Musikwissenschaft schon allein dadurch näher, indem wir probeweise ein zugegebenermaßen künstliches Sprachspiel anwenden, das auf modalen Präpositionen beruht, wie gemäß, entsprechend etc. Eine solche Mediensensibilisierung schlug der Phänomenologe Maurice Merleau-Ponty vor, indem er verdeutlichte, dass wir genaugenommen nicht auf ein Bild blicken, sondern „selon le Bild“[3]. Wir schauen gemäß einem Bild, das uns nicht nur sein Sujet und seine Farben und Formen mitteilt, sondern zugleich auch die Gesetze seines Geschautwerdens.

Merleau-Pontys Sprachspiel wirkt wie eine Linse, die das profane Verständnis vom musikalischen Aufenthaltsort im digitalen Medium, das die Alltagssprache befördert, medientheoretisch seziert. User*innen von Videospielen verabreden sich in der Realität so, als ob sie Plätze besuchen würden: „Sehen wir uns in World of Warcraft?“ In derselben topischen Logik versammelten sich im April des Jahres 2020 Tausende von ihnen zu einem Musikfestival im Videospiel Minecraft.[4] Während jene, begleitet von ihrer kartographierenden Sprache, in lokalem Sinne in ein Second Life eintauchten, können Vertreter*innen einer musikwissenschaftlichen Aufführungswissenschaft in der Reflexion das Erfahrungserlebnis entsprechend des Multimediums des Videospiels konkretisieren und über Alleinstellungsmerkmale aufklären.

Der Begriff von Nur-Musik

Die Analyse digitaler Musikkulturen auf das beschriebene modale Sprachspiel zu stützen, hätte weitreichende Konsequenzen, die nicht nur das Musikalisch-Digitale selbst betreffen. Steht die Musik in digitalen Kulturen unter dem Stern solcher Sprachhandlungen, so werden das Wörtchen ‚gemäß‘ und seine Äquivalente auch in anderen Bereichen des Musikalisch-Medialen ihre Vormachtstellung beanspruchen: Musik-entsprechend-digitalen-Medien trifft auf Musik-gemäß-einer-Radioübertragung, aber auch auf Musik-gemäß-des-im-Konzertsaal-Seins usw. Hinter dem singularischen Wort ‚Musik‘ kommt schlussendlich eine unüberschaubare Fülle an medialen Verschachtelungen hervor. Alle Musik in Geschichte und Gegenwart, das folgt als Quintessenz aus dem mediensensiblen Sprechen über digitale Kulturen, ist mit nicht-musikalischen Instanzen verbunden und jedes Gemenge an Medien produziert ein jeweils spezifisches Ensemble an Botschaften, die untereinander nur durch ein Netz aus ‚Familienähnlichkeiten‘ verbunden bleiben.[5]

Während die Grenzen der mediendifferenzierenden Sprachspiele deutlich wurden, die ein sinnvolles Sprechen über Musik von einem Reich der babylonischen Sprachverwirrung trennen, erhärtet sich aber auch der Verdacht, dass es Nur-Musik vielleicht gar nicht gibt, und dass es lediglich unser Sprechen darüber ist, das diese Vorstellung noch am Leben hält. Diese Hypothese, die das modale Experiment zu Tage förderte, muss für bestimmte, bis heute dominierende Traditionen der Musikreflexion nicht nur höchst abwegig klingen, sondern auch als kritische Einlassung in eine ganz bestimmte Denktradition wahrgenommen werden. Angesprochen ist das bekannte, in der Musikgeschichte spätestens seit dem 19. Jahrhundert dominante Narrativ einer ‚autonomen‘ Musik, das den amerikanischen Philosophen Peter Kivy noch Ende des 20. Jahrhunderts zum prägnanten Buchtitel Music Alone verhalf.[6] Hinter der Erzählung, dass Musik nichts mehr als Musik sei, eine Narration, die wesentlich auch zum medientheoretischen Postulat einer ausschließlich auf sich selbst verweisenden Tonkunst führte, stand der Versuch, sie von anderen künstlerischen Ausdrucksformen abzugrenzen. Ihre buchstäbliche Sprachlosigkeit wurde dabei ostentativ zum positiven Bestimmungsmerkmal umgewertet. Konstitutiv ist diese Strategie der Immunisierung der Musik im Wettstreit der Künste mithilfe des Unsagbarkeitstopos von Eduard Hanslicks Schrift Vom Musikalisch-Schönen (1854) bis hin zu aktuelleren musik- und medienphilosophischen Überlegungen. So lautet das sorgfältig durchgeführte Argument des Philosophen Matthias Vogel im Jahr 2005, dass der ‚musikalische Gedanke‘ aufgrund seiner Unübersetzbarkeit einem ‚musikalischen Medium‘ im Singular vorbehalten sei, das sich durch eine „Menge von Tätigkeitstypen“ definieren lasse, die tautologisch auf den musikalischen Gedanken zurückverweisen: „ein F singen, ein Β singen, einen Ton mit der halben Dauer eines Taktes singen usw.“[7] Die auf das Zum-Klingen-Bringen fokussierte Definition von Musik ist konsequent, läuft aber geradewegs wieder auf die medienvergessene Vorstellung zu, die mit Musik interagierenden Medien, vom Konzertsaal bis hin zu digitalen Technologien, als durchsichtige Fensterscheiben aufzufassen.

Der Idee, musikalische Aufführungen über das Medium des Musikalischen zu bestimmen, verpflichtete sich um die Mitte des 20. Jahrhunderts ebenso der Musikphilosoph Theodor W. Adorno in seinem eigenen Sprechen über Musik. Und weil Radiomusik, die fortan selbst eine Beethoven-Symphonie im heimischen Wohnzimmer verfügbar machte, weit über das rein Musikalische hinausweist, begegnete er ihr mit vernichtender Kritik. Adornos Verdikt basiert auf der Behauptung, dass das Vermittelnde, in diesem Fall das technische Medium Radio, die Einheit der autonomen Musik störe. Sein Aufsatz „The Radio Symphony: An Experiment in Theory“ (1941) könnte heute als Manifest eines erweiterten Musikbegriffs gelten, mit dem der Medienkonvergenz von Musik in technischer Übertragung der theoretische Boden bereitet worden wäre, hätten den Autor seine Bewertungen der Botschaften des Apparats ‚Radio‘ nicht zum Urteil bewogen, dass diese die autonome ‚great music‘ Beethovens trivialisieren.[8] Die von ihm im Abgleich mit seinem Konzept von Nur-Musik negativ bewerteten Elemente von Radiomusik erscheinen aus verändertem Blickwinkel in der Tat als definitorische Merkmale eines eigenständigen Begriffs von Radiomusik, in den die Gedankenfigur des gemäß Eingang gefunden hat. Radiomusik umfasst bis heute die von Adorno beschriebenen Eigenheiten: das Hören en passant, aber auch die Kollision zwischen der audiblen Kunst auf der einen Seite und der visuellen Umgebung der privaten Lebenswelt von Hörer*innen sowie der haptischen Affordanz des technischen Geräts, das dazu auffordert, ein- und ausgeschaltet zu werden, auf der anderen Seite.[9]

In Adornos Merkmalsbeschreibung wirkt Radiomusik wie ein technisch ausgefeiltes Vergrößerungsglas, das eine von Musikästhetik und ‑philosophie aufgrund der puristischen Definition von Nur-Musik bis heute verdrängte, aber lebendige Praxis von Musikerfahrung sichtbar macht. Selbst die Realität einer Liveaufführung, die sich durch Kopräsenz in einem Konzertsaal, einem Opernhaus oder auf einem Festivalgelände auszeichnet, umfasst: Ablenkung von der Musik und Hinwendung zu Zeichen aus anderen als der audiblen Sinnessphäre. Die innige Miene der Konzertmeisterin oder das Parfum des Sitznachbarn tragen auch im bürgerlichen Konzert eine multimediale Weite in das musikalische Medium hinein, sodass sich musikalische Erfahrung weit über die Grenzen des Klingenden hinaus ausdehnt. Musik, mit welchen Instrumenten oder Techniken sie auch vermittelt wird, tendiert offenbar zum Hypermedium, dessen Menge an Tätigkeitstypen in der Wirklichkeit gerade „nicht durch eine Grenze abgeschlossen“[10] ist.

Die zweifache Intermedialität des Musikalisch-Digitalen

Von Interesse ist nun die Bestimmung des spezifischen Orts der Nur-Musik in der digitalen Sphäre. Als Stoffprobe des Musikalisch-Digitalen kann das Smartphone dienen, das unangefochten gebräuchlichste technische Medium der Musikvermittlung der Gegenwart. Gerade Apple investierte in den letzten Jahren intensiv in Kopfhörer-Technologien. Den neuesten Werbungen von Apple und Samsung nach zu urteilen jedoch verliert Musik im Kosmos des Smartphones an Autonomie und geschieht nebenbei. Als Verkaufsargumente dienen nämlich vor allem eine qualitativ hochwertige Kamera und optimale technische Voraussetzungen für die Nutzung von Videospielen; auf die Beschreibung einer außergewöhnlichen Klangqualität hingegen wird in diesen Werbungen verzichtet.[11] Welche Funktion hat Musik gemäß dem Smartphone? Ihr Gebrauch dient wohl vor allem dazu, die variablen Realitäten der mobilen User*innen – den Weg zur Arbeit, diverse Freizeitaktivitäten – mit alternativen affektiven Nuancen einzufärben.

Die multimodale Einbettung von Musik in digitalen Räumen ist ganz im Unterschied zur klassischen Konzertsituation und weitaus radikaler als im Fall von Radiomusik apparativ vorkonstruiert. Wenn das lateinische ‚inter‘ der Ort einer Vermittlung ist, dann stiftet die musikalische Erfahrung gemäß dem Digitalen stets auf zwei Ebenen Konvergenz zwischen Medien. Intermedial ist die Erfahrung in der „Convergence Culture“[12] des Musikalisch-Digitalen (1) als Verschaltung der Wahrnehmungsmedien des Hörens, Schauens und Tastens, aber auch (2) als Verschaltung zwischen Subjekt und apparativen Technologien. Dieser Befund zeigt sich abermals prägnant am Beispiel des Smartphones. Als digitales Taschenmesser ermöglicht es beides: aufgrund verschiedenster Anwendungsmöglichkeiten eine Verknüpfung von unterschiedlichen Sinnesaktivitäten und, weil es am Körper getragen wird, eine Hybridisierung der Medien Mensch und Maschine.

Abbildung 1: Anfrage zu „Gould Goldberg-Variationen 1955“ gemäß YouTube

Gerade das Interface als graphisch-haptische Objektivierung des zweifachen Verschaltungsvorgangs spricht das Subjekt unentwegt als Multimedium an, das in der Kontaktaufnahme mit Tiefentechnologie gleichzeitig sehen, berühren und hören soll. Indem das Nebeneinander und die Gleichzeitigkeit verschiedener Sinnestätigkeiten dieserart das musikalische Handeln im Kosmos des Digitalen bestimmen, bildet sich ein Wandel in Normen des Musikverstehens ab. Im Gegensatz zur „laboratory situation“[13] des bürgerlichen Konzertsaals, in dem Rezipient*innen bloß hören sollen, gelingt Musikverstehen gemäß Youtube häufig nur mit allen Sinnen. Eine besonders gebräuchliche Handlung auf dem Videoportal ist die Aktivierung des Auge-Hand-Feldes. So muss eine Userin, bevor sie Glenn Goulds Goldberg-Variationen hören kann, häufig zunächst den Play-Button betätigen (Abbildung 1). Rezeption wird in diesem Fall von einer empfangenden zu einer produzierenden Tätigkeit umgewertet, bei der Hörer*innen ähnlich einem Orchestermusiker oder einer Dirigentin mit Blicken und Gesten den Sprechakt realisieren: „Es werde Musik!“. Sie reagieren damit auf einen Sprechakt des digitalen Apparats: „Du sollst die téchne des Schauens und Tastens verstehen, um zu hören!“, lautet dessen normativer Imperativ.

Abbildung 2: Abbildung eines Albencovers mit Playeransicht auf dem User-Profil bei Instagram
Abbildung 3: Beispiel eines Live-Feeds bei Spotify

Das Interface bereitet unser Hören zudem nicht nur für unsere eigenen, sondern auch für die Blicke anderer User*innen auf. Der Onlinedienst Instagram zum Teilen von Fotos und Videos bietet jedem Benutzer und jeder Benutzerin den Service, den jeweils favorisierten Song als Albencover mit Playeransicht auf dem Profil abzubilden und den persönlichen Musikgeschmack damit vor den Augen der Community zu inszenieren (Abbildung 2). Bei Spotify wiederum besticht ein ‚Live-Feed‘, der für die Gemeinschaft der Hörenden in Echtzeit einsehbar macht, welche*r User*in jetzt gerade welchem Musikstück lauscht (Abbildung 3). Mit den beschriebenen Werkzeugen werden Musik und die Online-Performance der jeweils Hörenden dem urteilenden Blick von Mitmenschen zugänglich gemacht. Dabei tut sich hinter der vermeintlich unübersetzbaren Musik eine enorme intersubjektive Übersetzungsleistung auf: „mein Hören als dein Blick“.

Vor allem die Quantifizierung des eigenen und fremden Musikerlebens ist bei Streamingdiensten, in sozialen Medien und auf Musikplattformen apparativ einkomponiert. Auf einer Website wie Soundcloud wird die Zeit der musikalischen Wahrnehmung über die Zeitleiste der Aufnahme automatisch in Zahlenverhältnisse übersetzt. Der Benutzer oder die Benutzerin hat dabei theoretisch die Möglichkeit,die Relationen zwischen jenem Abschnitt des abgespielten Musikstücks, der schon gehört wurde, und jenem Abschnitt, der noch zu hören ist, im Blick zu behalten. Auf diese Weise ökonomisiert das Dispositiv des Interfaces die Zeit des Hörens und bringt sie in Zusammenhang mit einem okularen Leistungsprinzip. Das Auge kalkuliert die Leistung, die das Hören erbringt.

Digitale Reflexion von Subjektivität

Abbildung 4: Rihannas Selfie „Listening to ANTI“, (25. Januar 2016)

Hinter dem Intermedialitätsparadigma digitaler Musikkulturen kommt damit auch ein spezielles Subjektivitätsparadigma zum Vorschein: das hörende Ich definiert sich im Spiegel des fremden, von außen kommenden Blicks. Mit dem Begriff der Subjektivität führt das Sprechen gemäß des durchökonomisierten Musikalisch-Digitalen schließlich zu einem praktischen Philosophieren über dessen Sinnangebote. Kein Phänomen steht derart exemplarisch für die Verschränkung von Selbst- und Fremdwahrnehmung im Konzept der digitalen Subjektivität wie das ‚Musical Selfie‘, das Sumanth Gopinath und Jason Stanyek in ihrem einschlägigen Artikel aus dem Jahr 2019 als Technologie des Selbst ergründen.[14] Im Sinne des autobiographischen Prinzips wird Selbstreflexion vor den Augen und Ohren der Netzöffentlichkeit technologisch realisiert. Verschiedene Strategien gelangen dabei zur Anwendung, neben der Praxis des Kuratierens (‚curation‘) von Playlists, die die Vorlieben eines Einzelnen öffentlichkeitswirksam komprimieren, auch die Inszenierung einer auditiven Abschirmung (‚enclosure‘) des musikalischen Subjekts von der störenden Außenwelt. Schule machte dabei 2016 ein fotografisches Selfie der Künstlerin Rihanna auf Twitter: hinter mit Juwelen bestückten High End-Headphones der Marke Dolce & Gabbana als Requisite, die technisch dazu in der Lage ist, Störgeräusche aus der Umgebung zu filtern, hört die R&B-Künstlerin auf dem Foto mit verträumt-konzentriertem Blick ihrem eigenen Album ANTI zu. Die Bildunterschrift „Listening to ANTI“ unterstreicht dazu passend die selbstreflexive Geste (Abbildung 4). Das Statement des inszenierungswilligen Subjekts fällt deutlich aus: „Ich bin, was ihr seht: die Hörerin meines Selbst.“

Ist bereits von Rihanna nicht ohne Weiteres zu behaupten, dass sie auf der Suche nach ihrem Selbst mit Subjekten kommuniziert, die tatsächlich als Subjekte präsent sind, so trifft dies erst recht nicht auf Fälle von Dialogizität im Netz zu, in denen Menschen algorithmisch konstruierten Scheinsubjekten zuhören, wie es konstitutiv für Aufführungen durch ‚Music Deepfakes‘ ist. Musikalische Tiefenfälschungen reproduzieren künstlich die Stimmen von berühmten Stars, sodass Bob Dylan auf Youtube den Song „Baby One More Time“ von Britney Spears singt, ohne ihn jemals tatsächlich interpretiert zu haben. Hinter der Interpretation Bob Dylans steht kein reales Subjekt mehr, sondern ein informatisches Experiment; hörbar wird seine Stimme für uns nur als ob sie von einem Subjekt stammte. Solche Pseudosubjektivität gemäß digitalen Musikaufführungen wirft für die Musikphilosophie Fragen auf. Die Paradoxie kann gar nicht deutlich genug hervorgehoben werden: Wir wissen, während wir hören, dass hinter den digitalen Stimmen keine Subjekte als Erzeuger stehen, aber erwarten nichtsdestoweniger, dass sie human klingen. Wieso, lässt sich mit David Trippett fragen, wächst in Kulturen des Digitalen das Interesse an menschlichen Stimmen, die im Sinn einer musikalischen Ontologie hochgradig künstlich sind? „Why does it matter how human-like these machinic voices can sound?”[15]

Eine Antwort darauf ist naheliegend: Subjekte schenken den menschengleichen, musikalischen Fakes deshalb Gehör, weil sie von der fremden, künstlichen Instanz Auskunft darüber erwarten, was es eigentlich heißt, im Unterschied zu Algorithmen und Künstlicher Intelligenz ein Selbst aus Fleisch und Blut zu sein. Vielleicht steht ausgerechnet die Geste der humanen Behauptung hinter dem intermedialen Dialog des Subjekts mit fortgeschrittener digitaler Technologie. Praktisch realisiert wäre damit die Empfehlung im antiken Gebot des „Erkenne dich selbst!“ oder eine Variante des Blicks in das eigene Spiegelbild (Abbildung 5). An die Stelle des Spiegelbilds jedoch tritt das Musikalisch-Digitale als technologisches Negativ, dass das Subjekt in seiner Verschaltung mit Maschinen deshalb funktionalisiert, weil es seinen eigenen Sinn abtasten will. Der französische Philosoph Jean-Luc Nancy hat für eine solche philosophische Handlung das triftige Sprachbild vom „the ex– as proper“[16] des Subjekts kreiert.

Abbildung 5: Cindy Sherman: Untitled Film Still #56 (1980). Aus: Cindy Sherman: The Complete Untitled Film Stills. New York 2003, 49.

Und so führt das Sprechen und praktische Philosophieren über digitalen Musikgebrauch schließlich zur Vermutung, dass die unterschiedlichsten Agent*innen implizit eine philosophische Tätigkeit ausführen. Der Sprachphilosoph Wittgenstein hat sich eingehend mit dem Umstand auseinandergesetzt, dass das Wort ‚ich‘ auf zweierlei Weise Verwendung finden kann: im Rahmen einer Erfahrungsaussage und im Rahmen einer Reflexion dieser Erfahrungsaussage, die eine Erfahrung zweiter Ordnung bewirkt. Wittgenstein erklärt diese entscheidende Differenz mit Beispielsätzen:

„Ich nehme wahr, daß ich bei Bewußtsein bin“? – Aber wozu hier die Worte „Ich nehme wahr“ – warum nicht sagen „Ich bin bei Bewußtsein“? – Aber zeigen die Worte „Ich nehme wahr“ hier nicht an, daß ich auf mein Bewußtsein aufmerksam bin? – was doch gewöhnlich nicht der Fall ist. – Wenn es so ist, dann sagt der Satz „Ich nehme wahr, daß …“ nicht, daß ich bei Bewußtsein bin, sondern, daß meine Aufmerksamkeit so und so eingestellt sei.[17]

Wittgenstein beschreibt eine Reflexionshandlung, die in Form von Fragen aus der Interaktion zwischen Subjekt und künstlichen Stimmen in Räumen des Digitalen emergiert. Gemäß dem Musikalisch-Digitalen zu handeln, bedeutet zunehmend auch, die Differenzen und Indifferenzen zwischen humanen und informatischen Intelligenzen zu erfragen, und umfasst damit vor allem auch die Erwartungshaltung, in der intermedialen musikalischen Interaktion Mensch-Maschine Antworten zu erhalten.[18]

Zu den Autor*innen: Hannes Wagner studiert am Institut für Musikwissenschaft der Ludwig-Maximilians-Universität München. PD Dr. Magdalena Zorn ist ebendort Akademische Rätin.


[1] Vgl. Marshall McLuhan: Understanding Media: The Extensions of Man. New York: McGraw-Hill 1964.

[2] Ludwig Wittgenstein: Philosophische Untersuchungen. Kritisch-genetische Edition. Hg. Joachim Schulte u. a. Frankfurt am Main 2001, 1 § 23.

[3] Zitiert nach: Emmanuel Alloa: „Seeing-as, seeing-in, seeing with: Looking through images.“ In: Richard Heinrich u. a. (Hg.): Image and Imaging in Philosophy, Science and the Arts: Proceedings of the 33rd International Ludwig Wittgenstein-Symposium in Kirchberg 1. Kirchberg 2011 (= Publications of the Austrian Ludwig Wittgenstein Society. New Series 16), 179–190, hier 186. Der Autor referiert auf das Manuskript im Fonds Merleau-Ponty der BNF, vol. VIII: 346. Hervorhebung durch den Autor und die Autorin.

[4] Vgl. Travis M. Anders: „Thousands gathered Saturday for a music festival. Don’t worry: It was in Minecraft.“ In: The Washington Post (15. April 2020), https://www.washingtonpost.com/technology/2020/04/15/minecraft-music-festival-american-football-nether-meant/ (Aufruf: 26. Januar 2021).

[5] Vgl. Wittgenstein: Philosophische Untersuchungen 1, § 65.

[6] Vgl. Peter Kivy: Music Alone: Philosophical Reflections on the Purely Musical Experience. Ithaca: Cornell University Press 1990.

[7] Beide Zitate aus: Matthias Vogel: „Medienphilosophie der Musik.“ In: Mike Sandbothe, Ludwig Nagl (Hg.): Systematische Medienphilosophie. Berlin: Akademie-Verlag 2005, 163–179, hier 176. Hervorhebung im Original.

[8] Vgl. Theodor W. Adorno: „The Radio Symphony: An Experiment in Theory.“ In: Robert Hullot-Kentor (Hg.): Current of Music: Elements of a Radio Theory (2006). Cambridge: Polity 2009, 144–162.

[9] Vgl. Magdalena Zorn: „Musik mit dem Radio hören: Über den Begriff der musikalischen Aufführung.“ In: Freie Beiträge zur Jahrestagung der Gesellschaft für Musikforschung 2019#Freie Beiträge zur Jahrestagung der Gesellschaft für Musikforschung 2019 1, https://nbn-resolving.org/urn:nbn:de:bsz:14-qucosa2-725994, 2020, 359–367 (Aufruf: 27. Januar 2021).

[10] Wittgenstein: Philosophische Untersuchungen 1, § 68.

[11] Vgl. Apple, „Introducing iPhone 11 – Apple.“ 28. Juli 2020, Video 2:02, https://www.youtube.com/watch?v=IPvSAtAsMM4 (Aufruf: 27. Januar 2020). Samsung, „Galaxy S20 Ultra: Official Introduction“, 11. February 2020, Video 3:04, https://www.youtube.com/watch?v=x0Kv_QRWR-I (Aufruf: 27. Januar 2020).

[12] Vgl. Henry Jenkins: Convergence Culture: Where Old and New Media Collide. New York: New York University Press 2006.

[13] Judith Becker: »Exploring the Habitus of Listening: Anthropological Perspectives«. In: Patrik N. Juslin, John A. Sloboda (Hg.): Handbook of Music and Emotion: Theory, Research, Applications. Oxford 2010, 127–157, hier 128.

[14] Vgl. Sumanth Gopinath and Jason Stanyek: „Technologies of the Musical Selfie.“ In: Nicholas Cook, Monique M. Ingalls, David Trippett (Hg.): The Cambridge Companion to Music in Digital Culture. Cambridge: Cambridge University Press 2019, 89–118.

[15] David Trippett: „Digital Voices: Posthumanism and the Generation of Empathy.“ In: Nicholas Cook, Monique M. Ingalls, David Trippett (Hg.): The Cambridge Companion to Music in Digital Culture. Cambridge: Cambridge University Press 2019, 227–248, hier 241.

[16] Jean-Luc Nancy: „Our World: An Interview. “ Angelaki 8/2 (2003), 43–54, hier 51. Vgl. dazu Erich Hörl: „Die künstliche Intelligenz des Sinns: Sinngeschichte und Technologie im Anschluss an Jean-Luc Nancy.“ In: ZMK 2 (2010), 129–147.

[17] Wittgenstein: Philosophische Untersuchungen 1, § 417.

[18] Vgl. dazu die Hypothese Philip Auslanders, wonach die Wahrnehmung des Angesprochenseins konstitutiv für die Sphäre des Digitalen ist. Philip Auslander: „Digital Liveness: A Historico-Philosophical Perspective.“ In: A Journal of Performance and Art 34/ 3 (2012), 3–11.