Logiciels Audiosculpt & Modalys : Sculptures et chimères sonores

À l’Ircam, la recherche est toujours au service de la création. Les deux logiciels que nous allons découvrir ouvrent de nouvelles perspectives à tout type de créateurs sonores, qu’ils soient musiciens, réalisateurs sonores ou bien encore plasticiens. Ils sont le fruit d’années —voire de décennies— de recherche, durant lesquelles les échanges entre scientifiques et artistes ont pu affiner les objectifs et atteindre un résultat désormais remarquable.

Logiciel Audiosculpt 3 – Photo © Jean-François Thomelin

Recherche tout azimut

Loin des industriels fournissant toujours plus d’outils se substituant à notre libre-arbitre et proposant des “Lego®” musicaux nous faisant croire que l’on vient d’être effleuré par Euterpe, l’Ircam conçoit sans cesse des outils pointus, parfois d’un abord ardu, mais qui deviennent essentiels aussitôt essayés. Nous avons rencontré les concepteurs de deux de ces logiciels qui vont nous expliquer leur genèse, ainsi qu’un bref principe d’utilisation.

Dans une certaine mesure à l’Ircam, la recherche est appliquée ; on peut même dire que parfois l’application précède et génère la recherche : pour chaque projet, le compositeur est entouré de techniciens, mais aussi d’un réalisateur en informatique musicale (RIM) qui va pouvoir interpréter en termes techniques les désirs de l’artiste, et ainsi faire remonter les demandes aux équipes de recherche. Des échanges vont donc pouvoir s’établir entre le plateau et les chercheurs, malgré une temporalité de travail différente.

Audiosculpt, le bistouri audio

L’équipe Analyse/Synthèse a pour mission la recherche et le développement autour de l’analyse, la transformation et la synthèse des signaux sonores.

Ce logiciel permet une analyse chirurgicale du son et donne une visualisation immédiate des composantes fréquentielles en fonction du déroulé temporel ; c’est ce que l’on appelle une représentation temps/fréquence. On peut, d’un simple coup d’œil, par le biais de couleurs, comprendre dans quelles bandes de fréquences se concentre l’énergie d’un son à l’instant T. Cela permet de mieux comprendre le déroulement d’un son et, le cas échéant, de le traiter, le corriger ou le nettoyer, ou bien même transformer une voix d’homme en femme avec un résultat très naturel ! Mais ces fonctions de correction peuvent être détournées et devenir des outils de synthèse. En effet, on peut par exemple dessiner sur la fenêtre du spectrogramme une région temps/fréquence et choisir de n’écouter que cette région ou bien l’exclure du son lu. On a ainsi entre les mains un extraordinaire outil de filtrage, unique par la puissance et la précision de ses filtres. Le son peut être comme sculpté, ciselé, et Audiosculpt devient alors un outil de design sonore original.

Le moteur d’Audiosculpt est appelé “super vocodeur de phase”. C’est un algorithme en constante évolution, qui a commencé à être développé à l’Ircam dans les années 90’. Il permet de traiter temporellement et fréquentiellement un son grâce à sa décomposition en une somme de sinusoïdes d’amplitude, de fréquence et de phase différentes, appelée “transformée de Fourier à court terme”. On modifie ensuite ces trois paramètres puis on resynthétise le son, ce qui permet les traitements suivants :

– La dilatation ou time stretching : l’allongement ou le raccourcissement temporel ;

– Son corollaire, la modification de la hauteur ou pitch ;

– Le filtrage, obtenu en multipliant le spectre du signal par la fonction de transfert d’un filtre. On obtient ainsi des modifications du timbre du son ;

– Et enfin, la synthèse croisée qui permet de combiner les représentations spectrales de deux sons ; le résultat est un son “hybride”, mélange intime de deux sons donnant naissance à un avatar original.

La clé du réglage de ce moteur va être le choix de la taille de la fenêtre d’analyse du son. Elle représente un compromis entre la précision de la résolution fréquentielle et temporelle. Grossièrement, soit on sait exactement à quel moment un événement se produit mais on ne peut connaître très exactement son contenu fréquentiel, soit on détermine très précisément ce dernier mais sa position temporelle ne sera pas très précise. Plus la fenêtre d’analyse est grande, plus la résolution spectrale est bonne ; à l’inverse, plus elle est petite, plus la précision temporelle augmente. Celle-ci est primordiale, en particulier pour bien définir les transitoires (“l’attaque” d’un son). On réglera donc la taille de fenêtre en fonction du type de son à analyser (hauteur, son monophonique ou polyphonique).

 

La suite de cet article dans le N°218 de l’Actualité de la Scénographie > Acheter ce numéro