Journées d'Informatique Musicale 2008

vendredi 22 février 2008

ATELIERS DE PROGRAMMATION

Les ateliers de programmation seront l’occasion pour les participants de manipuler les logiciels les plus pointus sur les thèmes des interfaces pour la création musicale et de la spatialisation, en étant encadrés par leurs concepteurs. :

- Holophon (GMEM-Marseille) : logiciel d’écriture de trajectoires spatiales

- Spatialisateur (IRCAM) : logiciel pour la spatialisation du son en temps réel

- Genesis (ACROE-Grenoble) : Interface de composition par modèles physiques

- CataRT et MnM (IRCAM) : interface de synthèse sonore par navigation interactive et système de reconnaissance de geste


Attention ! Nous demandons aux participants de venir avec leur propre matériel laptop et softwares. Pour ces derniers veuillez installer au préalable les versions de démo (si vous n'avez pas les licences) car nous n'aurons pas le temps de le faire sur place. Les informations et liens sont disponibles si dessous dans la description des ateliers.

durée : 1h30 inscription préalable sur www.gmea.net/jim08/

27 mars 14h-17h30 Maison du multimédia


1 - Holophon par Charles Bascou

Charles Bascou a étudié l'informatique musicale à l'IRCAM. En 2004, il rejoint le GMEM ( Marseille ) ou il y mène depuis des travaux de développement, d'assistance et de pédagogie. Il est notamment en charge des projets GMU dédié à l'analyse/synthèse granulaire et Holophon outils de spatialisation sonore.

Ce dernier a été initié en 1996 par Laurent Pottier et propose un éditeur de trajectoire autonome programmable ainsi que des interfaces vers les environnements Max/MSP et PureData. Il intègre notamment des outils d'écriture et de génération temps-réel et d'enregistrement de mouvements issu d'interfaces gestuelles.

De récents travaux s'attachent à l'implementation de nouvelles méthodes de spatialisation granulaire et à la génération/transformation des processus de mise en espace en fonction des paramètres du son traité.

2 - Spat par Olivier Warusfel

Spatialisateur (IRCAM) : logiciel pour la spatialisation du son en temps réel

3 - Genesis, atelier de création musicale et de lutherie virtuelle par Claude Cadoz

Le langage CORDIS-ANIMA permet la simulation multisensorielle et interactive d'objets physiques. A l'aide de cette technique le musicien peut créer dès son premier contact avec l'ordinateur des objets immédiatement expressifs. Pour tirer le plein bénéfice de cet atout, il faut mettre en oeuvre un outil de modélisation avec des interfaces qui lui soient adaptées. Une telle interface est l'objet du projet GENESIS. 

GENESIS permet au musicien de créer de manière conviviale ses propres objets-instruments virtuels. Autour de cette base se coordonnent des fonctionalités pour jouer de ces objets (par gestes directs ou par gestes virtuels), éditer des événements gestuels, réaliser des séquences musicales complexes. 

GENESIS se distingue fondamentalement des outils basés sur la synthèse par modèle de signal. Ces derniers permettent de manipuler les caractéristiques (temporelles, fréquentielles, etc.) du signal sonore ils maintiennent par essence une coupure entre la production du matériau sonore et celle de la structure musicale. L'approche adoptée ici s'adresse à un savoir-faire différent et invite à une conception instrumentale du matériau musical. Elle ouvre deux perspectives plus larges que la seule production sonore : - celle d'une conception musicale dans laquelle la structure compositionnelle peut être intimement liée à l'acte instrumental ; l'hypothèse étant qu'une part du protocole compositionnel se joue dans un rapport organique à la production sonore - celle d'une "modélisation physique générale" applicable à la macrostructure musicale ; il est alors possible d'aborder dans un même continuum conceptuel les différentes échelles structurelles de l'expérience et de l'objet musical. Ces perspectives posent des questions fondamentales tant sur les outils informatiques que sur l'analyse des processus de création.

Claude Cadoz, fondateur et Directeur de l'ACROE, est également ingénieur de recherche du ministère de la culture et de la communication, co-responsable scientifique du laboratoire Informatique et Création Artistique (ICA, unité mixte de recherche INPG-UJF-Ministère de la Culture), fondateur et responsable du master-2r « Art, Sciences, Technologies » de l'Institut National Polytechnique de Grenoble et responsable de la spécialité doctorale Ingénierie de la cognition, de l'interaction, de l'apprentissage et de la création à l'INPG. Ingénieur électronicien, docteur en électronique (ENSERG - INPG), C. Cadoz obtient son HDR (habilitation à diriger des recherches) en informatique en 1992.
Il est inventeur de la méthode de synthèse de son par modèles physiques particulaires CORDIS (associé à son pendant Visuel ANIMA, inventé par Annie Luciani ), sur laquelle s'appuie l'environnement GENESIS pour la synthèse sonore et la création musicale dont il est également l'auteur.
Il a conçu et réalisé en 1981, avec Jean-Loup Florens, l'un des premiers systèmes gestuels à retour d'effort (TGR), que l'ACROE continue à développer depuis et dont il présentera plusieurs déclinaisons dans l'exposition/démonstration lors des JIM'08.
Enfin, son domaine de recherche plus personnel est la modélisation physique pour la création du son et la composition musicale, qu'il met en oeuvre dans plusieurs compositions dont la dernière, Gaea, sera présentée dans le cadre des JIM.


jeudi 21 février 2008

4 - CataRT et MnM par Diemo Schwarz

Le système CataRT réalise la synthèse concaténative par corpus en temps reel. Il est implémenté de manière modulaire dans Max/MSP avec les extensions FTM et Gabor, qui ajoutent des structures de données et méthodes de traitement temps réel du son et de la musique avancées.

Le nouveau paradigme de synthèse sonore concaténative par corpus utilise une base de données de sons et un algorithme de sélection d'unités qui choisit les segments des sons qui conviennent le mieux pour la séquence musicale que l'on souhaite synthétiser, dite la cible. L'utilisation en temps réel de ce principe peut aussi être vue comme une extension basée sur le contenu de la synthèse granulaire, où le seul mode d'accès par position temporelle dans un fichier son est augmenté par un accès ciblé par caractéristiques sonores dans un ensemble de sons.

Dans la phase d'analyse, il découpe un ou plusieurs enregistrements en petites segments appelés unités, et les caractérise par leurs contenus sonores. Ces paramètres sont donnés par la valeur moyenne de 12 descripteurs sonores tel que la fréquence fondamentale, le volume sonore, la brillance, le niveau de bruit, la répartition spectrale et d'autres caractéristiques du timbre. Les valeurs décrivant des informations de découpage sont également stockées comme descripteurs: la position, la durée et la provenance du segment dans les fichiers son d'origine. 

CataRT est utilisé dans des contextes musicaux de composition et de performance variés en utilisant une interface simple consistant en l'affichage d'une projection 2D de l'espace de descripteurs, et une navigation avec la souris, où les unités sont sélectionnés et jouées par proximité géométrique.  Cet interface simple permet de visualiser 3 descripteurs (2 axes et couleur des points) et de naviguer selon 2 descripteurs.

Il est disponible comme logiciel libre sur http://imtr.ircam.fr.

Diemo Schwarz est chercheur et développeur à l'Ircam (Institut de Recherche et Coordination Acoustique-Musique, Paris), compositeur de musique electronique, et musicien sur batterie et laptop. Ses recherches portent sur l'interaction entre musicien et machine, et l'exploitation de grandes masses de sons pour la synthèse sonore temps-réel et interactive, en collaboration avec des compositieurs, entre autres Philippe Manoury, Dai Fujikura, Stefano Gervasoni, Sam Britton.  En 2004, il a soutenu sa thèse de doctorat en informatique appliquée à la musique pour le développement d'une nouvelle methode de synthèse sonore musicale concaténative par corpus fondée sur la sélection d'unités d'une large base de sons. Ses compositions et performances (sous le nom de son projet solo "Mean Time Between Failure", ou improvisant avec des musicien comme George Lewis, Evan Parker, Pierre-Alexander Tremblay, Etienne Brunet) explorent les possibilités de la synthèse concaténative par corpus à recontextualiser n'importe quelle source sonore par rearrangement d'unités sonores par navigation interactive à travers un espace sonore.