Zehn Thesen
These 3: Die Digitalisierung erlaubt der Theatermusik, im Dialog mit der Inszenierung interaktiver und flexibler zu sein
von David Roesner
Erschienen in: Recherchen 151: Theatermusik – Analysen und Gespräche (11/2019)
Seit der Einführung des MIDI-Standards (Musical Instrument Digital Interface) und von digitalen Samplern vor etwa dreißig Jahren sind die Möglichkeiten, digital aufzunehmen, zu bearbeiten, abzuspielen, zu speichern, in Echtzeit verschiedenste Parameter zu manipulieren, virtuelle Instrumente anzusteuern und eben jegliche Klänge zu sampeln und komponierbar zu machen, exponentiell gewachsen. Gleichzeitig ist eine breite Auswahl an Instrumenten und Interfaces entstanden – Keyboards, Saiten-, Blas- und Schlaginstrumente sowie Touchscreens –, die MIDI-tauglich gemacht wurden.74 Es ist außerdem möglich geworden, live entstehende Bild- und Tonereignisse sowie Bewegungen über Grenzflächenmikrofone und tracking cameras in Programmen wie MaxMSP und Jitter unmittelbar mit digitalen Ton-, Bild- oder Lichtsignalen zu verschalten. All das hat dazu geführt, dass unter anderem auch die Theatermusik, die nicht von Musikern*innen ›live‹ gespielt wird (was häufig aus finanziellen Gründen nicht infrage kommt), eine stärkere ›liveness‹ erhält, indem sie viel stärker auf die subtilen Variationen in Tempo, Pausen, Tonfall und Dynamik, in denen sich Aufführungen der gleichen Inszenierung von Abend zu Abend unterscheiden, reagieren kann, statt als fixierte Aufnahme immer gleich abgespielt werden zu müssen.75
74Siehe zum Vergleich Millie Taylors detaillierte Studie zum Einzug der Elektronik und später Digitalität in der Royal Shakespeare Company: »Electronics, Sound and...