IRMAT 2.0 Projektbeschreibung

IRMAT dBâle Festival 2012Die gängigsten Eingabegeräte, über die heute ein Mensch mit einem Computer interagieren kann, sind Maus und Tastatur sowie Controller für Videospiele (Joystick, Control-Pads von Spielkonsolen, etc.). Hinzu gekommen sind Touchscreen- Interfaces, die zusehends populärer werden und sich als Standard - insbesondere für mobile Anwendungen - etablieren. Für die besonderen Anforderungen, die eine Aufführung Elektronischer Musik an ein Interface stellt, können diese Eingabegeräte jedoch nicht zufriedenstellend adaptiert werden. IRMAT zielt darauf ab, neuartige Möglichkeiten der Human-Computer-Interaction zu erforschen und zu erproben. Damit soll sowohl der Zugang zur Aufführungspraxis Elektronischer Musik neu definiert - als auch ein Instrument geschaffen werden, das als experimentelle Umgebung für Performer und Medienkünstler auch ausserhalb der Musik zukunftsweisend ist.

Das Forschungsprojekt IRMAT 2.0 gliedert sich in das HSM-Forschungsfeld Kommunikation Mensch & Maschine ein und befasst sich in erster Linie mit Problemstellungen bei der Aufführungspraxis elektronischer Musik. Dazu zählt vor allem die Schwierigkeit, performative Geste und damit in Verbindung stehenden Klang in sinnvolle und produktive Zusammenhänge zu bringen. Anders als bei traditionellen mechanischen Musikinstrumenten ist bei elektronischen Musikinstrumenten die Klangerzeugung nicht direkt an die Klangsteuerung gekoppelt. Mit IRMAT wird ein System geschaffen, das es ermöglicht, bestimmte Parameter der elektronischen Klangerzeugung zu musikalischen Parametern wie Dynamik, Artikulation oder Ausdruck zusammenzufassen und als solche musikalisch zu gestalten. Bei IRMAT ist die Interaktion von Körper und Instrument nicht durch die unveränderliche Physis eines traditionellen Instruments vorgegeben, sondern kann durch die Konzipierung bestimmter IRMAT-Applikationen jeweils neu definiert und dadurch verschiedensten Erfordernissen der musikalischen Praxis angepasst werden. Vom Computer generierte elektronische Klänge und Klangstrukturen sollen im Sinne eines Musikinstrumentes spielbar gemacht werden. Mithilfe der Multi-Touch-Technologie wird das Forschungsteam einen Lösungsansatz auf der Interface-Ebene vorstellen. Ziel ist es, der Musikerin/dem Musiker die Möglichkeit zu geben, auf intuitive Weise mit Parametern der elektronischen Klangerzeugung zu interagieren. Dies soll mittels Finger- und Hand-Tracking und Gestenerkennung möglich werden. Wesentlicher Bestandteil ist das visuelle Feedback der Aktionen, welches simultan zur Klangbearbeitung durch das Computersystem auf der Benutzeroberfläche generiert wird. Auf der Spieloberfläche können zudem mit Referenzmarkierungen (fiducials) versehene, beliebig geformte physische Objekte platziert und frei bewegt werden. Sie stellen der Interpretin/dem Interpreten eine weitere, haptische Ebene der Bedienbarkeit des Instrumentes zur Verfügung.