Capturer l’instant : La captation du geste au service du spectacle

Article rédigé en partenariat avec le Laboratoire Arts & Technologies de Stereolux

Que ce soit du point de vue de l’expérience théâtrale, de la pratique instrumentale ou de l’interaction avec les publics, l’utilisation de capteurs transformant gestes et mouvements des interprètes en données, son ou lumière modifie la perception du corps scénique. Tour d’horizon des initiatives en la matière.

Anne Dubos – Photo © Little Heart Movement

Modélisation et analyse de sons et de gestes, développement de systèmes de captation de mouvements et instruments augmentés, … l’équipe du département Interaction, Son, Musique, Mouvement de l’Ircam (Institut de recherche et coordination acoustique/musique) pilote de nombreuses recherches et développements autour des nouvelles interfaces pour la musique électronique, mais s’intéresse également aux techniques de synthèse sonore, comme le logiciel libre CataRT basé sur l’utilisation de vastes bases de données. “Toutes ces technologies sont régulièrement utilisées lors de concerts et d’installations dans des productions de l’Ircam ou ailleurs, avec des esthétiques complètement différentes”, explique Frédéric Bevilacqua, responsable du département.

Instruments augmentés, interfaces utilisant des capteurs de mouvement comme les Modular Musical Objects ou encore utilisation de technologies mobiles sur smartphones ou tablettes, … Pour le concert participatif Chloé x Ircam à la Gaîté Lyrique (Paris) en 2015, le public était invité à utiliser les dernières technologies web audio développées par l’Institut. Lors de ce live interactif entre artiste et public, les spectateurs, connectés à un réseau Wi-Fi local indiquant leur position dans la salle, recevaient des sons envoyés par l’artiste en live sur leur smartphone afin de lancer des séquences musicales collectives.

Les applications et prototypes développés par l’Ircam foisonnent. “Nous pouvons augmenter un instrument existant acoustique ou électrique par un ajout de capteur, comme par exemple, l’archet augmenté avec un capteur de mouvement”, ajoute F. Bevilacqua, citant également l’exemple de la jonglerie musicale de Jérôme Thomas et de ses capteurs intégrés aux balles de jonglage. Pour La Princesse légère, un opéra aux échos de conte musical présenté en création mondiale en décembre 2017 à l’Opéra de Lille et programmé à l’Opéra Comique en mars 2018, la compositrice colombienne Violeta Cruz a choisi les capteurs R-IoT de l’Ircam qui transforment les mouvements en signaux musicaux. Dans son spectacle, les mouvements des agrès manipulés sur scène par les danseurs sont traduits en données numériques et intégrés au discours musical, ainsi enrichi par les improvisations des interprètes.

Dernièrement, leur prototype Coloop, sorte de “ghetto blaster du XXIe siècle”, a même remporté une étoile de l’Observeur du Design 2018, un prix organisé par l’APCI (Agence pour la promotion de la création industrielle). Réalisé en collaboration avec Nodesign, cet objet hybride et nomade piloté par smartphone rassemble les fonctionnalités d’une enceinte, d’un instrument de musique et d’une table de mixage permettant de jouer, mémoriser et exécuter des samples.

Expérimentés sur scène, les prototypes et applications développés par l’Ircam sortent aussi de leur labo pour être testés directement auprès des communautés d’utilisateurs. Lors d’un hackathon au Music Tech Fest de Berlin en 2016 —un festival itinérant dédié aux technologies musicales—, l’Ircam présentait son capteur R-IoT. D’ailleurs, l’Institut a intégré le programme européen #Musicbricks qui propose à des centres de recherche en technologie musicale de développer des prototypes de manière collaborative avec des utilisateurs, optimisant ainsi les phases de développement et le design d’usage. Plus récemment, à Nantes, le Laboratoire Arts & Technologies de Stereolux organisait un atelier-conférence sur le thème “Interaction gestuelle et collective de médias numériques : nouvelles perspectives pour le spectacle vivant” avec F. Bevilacqua et la chorégraphe Anne Dubos. L’occasion pour l’Ircam de présenter ses technologies d’interaction gestuelle avec des médias numériques comme, par exemple, des capteurs de mouvement sans fil permettant à des performeurs (musiciens, danseurs, acteurs) de manipuler avec leur corps des sons et des environnements visuels.

Au cours de la game jam “smartphones et mouvements” organisée au fablab de la Cité des sciences avec le Gamelab du CRI (Centre de recherches interdisciplinaires) en octobre 2016, des équipes constituées de chercheurs, d’artistes de scène, de designers sonores et de développeurs ont imaginé par équipe des “jeux collectifs poétiques alliant mouvement, son et musique” grâce à toute une palette de logiciels, bibliothèques d’interfaces et applications Soundworks dédiées aux expériences musicales avec smartphones associées aux capteurs de mouvement R-IoT de l’Ircam, à des kits de bio-capteurs ou au contrôleur Movuino développé par le CRI. Parmi les idées ayant émergé de ce week-end de prototypage créatif et fun figurait un orchestre basé sur les rythmes du cœur ou encore un système de réalité virtuelle pour se voir à la troisième personne.

Dans le même esprit bon enfant, les Culture Experience Days de l’Adami —sortes de hackathons organisés par la Société civile pour l’administration des droits des artistes et musiciens interprètes— invitent chaque année artistes de scène et techno-créatifs à produire en équipe des prototypes pour la scène, à customiser des instruments ou à imaginer des accessoires qui sont présentés en démo à l’issue de la session devant des professionnels du spectacle vivant. Lors de la dernière édition, organisée à la Gaîté Lyrique en novembre 2017, s’est retrouvée pêle-mêle une quarantaine de musiciens, comédiens, danseurs, circassien, vidéastes, metteurs en scène, makers, développeurs, techniciens du spectacle, designers visuels, designers d’interface, et autres sound designers.

 

La suite de cet article dans le N°217 de l’Actualité de la Scénographie > Acheter ce numéro