Computer-
und Videospiele – dazu gehören kleine Handyspiele, aber auch riesige
Online-Multiplayerspiele – sind heute die größte Unterhaltungsindustrie der
Welt. Sie haben Filme oder Musik wirtschaftlich bereits deutlich überholt und
bilden weltweit einen bedeutenden Teil des Arbeitsmarktes. In Deutschland
beschäftigt die Branche heute 13.000 Menschen mit einem deutlichen Trend nach oben
(BIU 31.05.2016). (aktuelle Zahlen:
https://www.game.de/marktdaten/beschaeftigte-in-der-deutschen-games-branche-2019/)
Spiele zeichnen sich durch ihre Interaktivität und Nicht-Linearität
aus. Anders als in Filmen bestimmen die Spielenden durch ihr aktives Eingreifen
den Verlauf des Spiels und an welcher Stelle sie zu welchem Zeitpunkt gerne
sein möchten. Dieser grundlegende Unterschied zu anderen Medienformen hat gravierende
Auswirkungen auf alle Teile des Entwicklungsprozesses von Spielen, auch auf die
Musik. Um ein optimales Spielerlebnis zu vermitteln, muss die Musik auf
Aktionen der Spielenden reagieren, ohne dabei zu springen oder störend zu
wirken. Die Musik soll „adaptiv“ sein, aber möglichst – wie wir es aus dem Kino
oder dem Fernsehen gewohnt sind – ein einheitlich geschlossenes Erlebnis unterstützen.
Zudem soll sie auch weiterhin Funktionen wie eine Kontrapunktierung des im Bild
Gesagten oder das Hinzufügen einer weiteren Erzählebene erfüllen. Aber der oder
die normalerweise Musik linear an der Zeitachse entlang entwickelnde Komponist*in
weiß doch nicht, zu welchem Zeitpunkt die Spielenden an einer bestimmten Stelle
ankommen. Wie geht das also? Der Workshop wird genau auf diese Fragestellungen
eine Antwort geben.