Journées d'Informatique Musicale 2008

samedi 23 février 2008

Programme




Le programme complet des journées électriques est disponible en ligne sur le site du GMEA.

Conférences


27 au 29 mars 9h00 – 12h30 Maison du multimédia

Les matinées des JIM seront consacrées à des communications scientifiques sur tous les thèmes de l’informatique musicale, et en particulier sur les thèmes majeurs de cette édition :
- les interfaces pour la création sonore et musicale
- les espaces sonores et la spatialisation

Jeudi 27 mars :

1° session
9h-11h :

J. Sandgren - Composition assistée par ordinateur, le cas de ejs
T. Bouchara - LE « SCENE-MODELER » : DES OUTILS POUR LA MODELISATION DE CONTENUS MULTIMEDIAS INTERACTIFS SPATIALISES
A. de Sousa Dias - InstallaSon : Un éditeur et gestionnaire d’espaces musicaux navigables
A. Santini : PRÉMISSES POUR UNE ÉTUDE SUR L'OBJET LOGICIEL AUDIOVISUEL, CONSIDÉRATIONS  ET PREMIERS RÉSULTATS

2° session
11h30-13h :

D Schwartz -PRINCIPLES AND APPLICATIONS OF INTERACTIVE CORPUS-BASED CONCATENATIVE SYNTHESIS
L Kessous - CONTROLE GESTUEL DE TRANSFORMATION DE FICHIERS
JM Couturier - Grapholine

Vendredi  28 mars :

1° session 9h-11h :

B. Roadley - ReCollection
K. Dahan - Réflexions autour de la question de l’interprétation de la musique électroacoustique
B. Courribet : SON SURROUND SUR SUPPORTS  STANDARD : UNE ENQUÊTE TECHNOLOGIQUE POUR LE MUSICIEN
A. Allombert - DE BOXES À ISCORE : VERS UNE ECRITURE DE L’INTERACTION

2° session
11h30-13h :

F. Berthaut - Widgets Réactifs 3D pour l’Interaction Musicale
V. Goudard - Meta-Mallette
O. Lahdeoja - Guitare électrique augmentée

Samedi 29 mars :

1° session 9h-10h30:

A. Bonardi - FIRST STEPS IN RESEARCH AND DEVELOPMENT ABOUT THE SUSTAINABILITY OF SOFTWARE MODULES FOR PERFORMING ARTS
Yun-Kang Ahn - Vers un module d’analyse computationnelle sous OpenMusic
P. Couprie - iAnalyse : un logiciel d’aide à l’analyse musicale

2° session 11h-12h30 :

Présentation des groupes de travail AFIM
Remise du prix jeune chercheur de l'AFIM
Remise du prix du concours de logiciels LoMus

à partir de 14h : Assemblée Générale de l'AFIM

Ateliers de programmation


27 mars 14h-17h30 Maison du multimédia

durée : 1h30 inscription préalable sur http://gmea.net/jim08/index.php/Inscriptions

Les ateliers de programmation seront l’occasion pour les participants de manipuler les logiciels les plus pointus sur les thèmes des interfaces pour la création musicale et de la spatialisation, en étant encadrés par leurs concepteurs. :
- Holophon (GMEM-Marseille) : logiciel d’écriture de trajectoires spatiales
- Spatialisateur (IRCAM) : logiciel pour la spatialisation du son en temps réel
- Genesis (ACROE-Grenoble) : Interface de composition par modèles physiques
- CataRT et MnM (IRCAM) : interface de synthèse sonore par navigation interactive et système de reconnaissance de geste

Table ronde


28 mars 14h-17h30 Maison du multimédia

Une table ronde autour du thème des interfaces pour la création sonore et musicale réunira plusieurs chercheurs et artistes pour une discussion sur les enjeux et prospectives actuels dans ce domaine.

Cette table-ronde fera suite à la présentation du projet de recherche Virage, autour des interfaces de contrôle et d’écriture pour la création artistique et les industries culturelles, impliquant entre autres, plusieurs acteurs de la communauté française d’informatique musicale (AFIM).

Concert – Conférence

Jeudi 27 mars 18h Maison du Multimédia Entrée libre
Université Jean-François Champollion

Ici, les JIM 08 croisent les Journées Électriques. Les compositeurs de ce concert-conférence dévoileront, par l’exemple et par l’écoute, les principes qui animent quatre pièces qui mettent en jeu de nouveaux systèmes d’interfaces et divers systèmes de synthèse sonore.

« à portée de main ! » Claude Cadoz – Jean-Michel Couturier – Mathieu Chamagne

Gaea de Claude Cadoz - Acroe

Composition pour bande électroacoustique dont tous les paramètres musicaux, de la synthèse à la structure, ont été élaborés à partir de modèles physiques, véritables objets virtuels dotés de propriétés physiques telles que le poids, la gravité...

Demus et Etheraction de Jean-Michel Couturier - Blue Yeti

Les créateurs du Blue Yeti mettent en jeu leurs interfaces de dessin musical et de table tangible pour deux compositions mêlant intimement image et son dans un même geste créatif.

Espaces Croisés de Mathieu Chamagne

Rencontre entre un improvisateur / interprète et une pièce électroacoustique composée / décomposée en cellules autonomes placés dans un espace de jeu à la fois virtuel et tangible. Dans cet espace mixte, interfaces gestuelles et modèles physiques se rejoignent et donnent naissance à une musique à la fois écrite, improvisée, et chaotique.

Organisé en partenariat avec l’Université Jean-François Champollion dans le cadre des Jeudis de l’Action Culturelle

Les nouvelles interfaces


27-29 mars,
ouvert de 13h jusqu’au début des concerts
Hall de la Scéne Nationale & salle Arcé

Le hall de la Scène Nationale d’Albi sera investi par une exposition d’interfaces innovantes, que pourront manipuler à loisir les visiteurs.

« Toucher le futur » (ACROE)
Les interfaces à retour d'effort TGR de l'ACROE permettent de manipuler des objets virtuels tout en ressentant tactilement leurs comportements (poids, rigidité, consistance ...).

« Grapholine » Jean-Michel Couturier – Blue Yéti
Le dispositif Grapholine permet, en dessinant sur un écran, de générer du son en temps réel : chaque mine ou couleur est associée à un son différent, offrant ainsi des possibilités expressives inouïes !

« à Table ! » Blue Yeti / GMEA/ SCRIME / GMEM
M. Chamagne, C. Bascou, J. Larralde
A l'issue d'un atelier de travail au GMEA avec Blue Yeti, un prototype de table tangible est proposé au public, permettant, par la manipulation d'objets sur un écran interactif le contrôle de la synthèse et la spatialisation en temps-réel de sons électroniques

DEPLI  Thierry Fournier
Installation vidéo interactive (prototype) Un dispositif de cinéma jouable qui propose, par une interface tactile, d'éprouver une navigation continue dans l'espace et la temporalité du film "Last Room" de Pierre Carniaux.


vendredi 22 février 2008

ATELIERS DE PROGRAMMATION

Les ateliers de programmation seront l’occasion pour les participants de manipuler les logiciels les plus pointus sur les thèmes des interfaces pour la création musicale et de la spatialisation, en étant encadrés par leurs concepteurs. :

- Holophon (GMEM-Marseille) : logiciel d’écriture de trajectoires spatiales

- Spatialisateur (IRCAM) : logiciel pour la spatialisation du son en temps réel

- Genesis (ACROE-Grenoble) : Interface de composition par modèles physiques

- CataRT et MnM (IRCAM) : interface de synthèse sonore par navigation interactive et système de reconnaissance de geste


Attention ! Nous demandons aux participants de venir avec leur propre matériel laptop et softwares. Pour ces derniers veuillez installer au préalable les versions de démo (si vous n'avez pas les licences) car nous n'aurons pas le temps de le faire sur place. Les informations et liens sont disponibles si dessous dans la description des ateliers.

durée : 1h30 inscription préalable sur www.gmea.net/jim08/

27 mars 14h-17h30 Maison du multimédia


1 - Holophon par Charles Bascou

Charles Bascou a étudié l'informatique musicale à l'IRCAM. En 2004, il rejoint le GMEM ( Marseille ) ou il y mène depuis des travaux de développement, d'assistance et de pédagogie. Il est notamment en charge des projets GMU dédié à l'analyse/synthèse granulaire et Holophon outils de spatialisation sonore.

Ce dernier a été initié en 1996 par Laurent Pottier et propose un éditeur de trajectoire autonome programmable ainsi que des interfaces vers les environnements Max/MSP et PureData. Il intègre notamment des outils d'écriture et de génération temps-réel et d'enregistrement de mouvements issu d'interfaces gestuelles.

De récents travaux s'attachent à l'implementation de nouvelles méthodes de spatialisation granulaire et à la génération/transformation des processus de mise en espace en fonction des paramètres du son traité.

2 - Spat par Olivier Warusfel

Spatialisateur (IRCAM) : logiciel pour la spatialisation du son en temps réel

3 - Genesis, atelier de création musicale et de lutherie virtuelle par Claude Cadoz

Le langage CORDIS-ANIMA permet la simulation multisensorielle et interactive d'objets physiques. A l'aide de cette technique le musicien peut créer dès son premier contact avec l'ordinateur des objets immédiatement expressifs. Pour tirer le plein bénéfice de cet atout, il faut mettre en oeuvre un outil de modélisation avec des interfaces qui lui soient adaptées. Une telle interface est l'objet du projet GENESIS. 

GENESIS permet au musicien de créer de manière conviviale ses propres objets-instruments virtuels. Autour de cette base se coordonnent des fonctionalités pour jouer de ces objets (par gestes directs ou par gestes virtuels), éditer des événements gestuels, réaliser des séquences musicales complexes. 

GENESIS se distingue fondamentalement des outils basés sur la synthèse par modèle de signal. Ces derniers permettent de manipuler les caractéristiques (temporelles, fréquentielles, etc.) du signal sonore ils maintiennent par essence une coupure entre la production du matériau sonore et celle de la structure musicale. L'approche adoptée ici s'adresse à un savoir-faire différent et invite à une conception instrumentale du matériau musical. Elle ouvre deux perspectives plus larges que la seule production sonore : - celle d'une conception musicale dans laquelle la structure compositionnelle peut être intimement liée à l'acte instrumental ; l'hypothèse étant qu'une part du protocole compositionnel se joue dans un rapport organique à la production sonore - celle d'une "modélisation physique générale" applicable à la macrostructure musicale ; il est alors possible d'aborder dans un même continuum conceptuel les différentes échelles structurelles de l'expérience et de l'objet musical. Ces perspectives posent des questions fondamentales tant sur les outils informatiques que sur l'analyse des processus de création.

Claude Cadoz, fondateur et Directeur de l'ACROE, est également ingénieur de recherche du ministère de la culture et de la communication, co-responsable scientifique du laboratoire Informatique et Création Artistique (ICA, unité mixte de recherche INPG-UJF-Ministère de la Culture), fondateur et responsable du master-2r « Art, Sciences, Technologies » de l'Institut National Polytechnique de Grenoble et responsable de la spécialité doctorale Ingénierie de la cognition, de l'interaction, de l'apprentissage et de la création à l'INPG. Ingénieur électronicien, docteur en électronique (ENSERG - INPG), C. Cadoz obtient son HDR (habilitation à diriger des recherches) en informatique en 1992.
Il est inventeur de la méthode de synthèse de son par modèles physiques particulaires CORDIS (associé à son pendant Visuel ANIMA, inventé par Annie Luciani ), sur laquelle s'appuie l'environnement GENESIS pour la synthèse sonore et la création musicale dont il est également l'auteur.
Il a conçu et réalisé en 1981, avec Jean-Loup Florens, l'un des premiers systèmes gestuels à retour d'effort (TGR), que l'ACROE continue à développer depuis et dont il présentera plusieurs déclinaisons dans l'exposition/démonstration lors des JIM'08.
Enfin, son domaine de recherche plus personnel est la modélisation physique pour la création du son et la composition musicale, qu'il met en oeuvre dans plusieurs compositions dont la dernière, Gaea, sera présentée dans le cadre des JIM.


jeudi 21 février 2008

4 - CataRT et MnM par Diemo Schwarz

Le système CataRT réalise la synthèse concaténative par corpus en temps reel. Il est implémenté de manière modulaire dans Max/MSP avec les extensions FTM et Gabor, qui ajoutent des structures de données et méthodes de traitement temps réel du son et de la musique avancées.

Le nouveau paradigme de synthèse sonore concaténative par corpus utilise une base de données de sons et un algorithme de sélection d'unités qui choisit les segments des sons qui conviennent le mieux pour la séquence musicale que l'on souhaite synthétiser, dite la cible. L'utilisation en temps réel de ce principe peut aussi être vue comme une extension basée sur le contenu de la synthèse granulaire, où le seul mode d'accès par position temporelle dans un fichier son est augmenté par un accès ciblé par caractéristiques sonores dans un ensemble de sons.

Dans la phase d'analyse, il découpe un ou plusieurs enregistrements en petites segments appelés unités, et les caractérise par leurs contenus sonores. Ces paramètres sont donnés par la valeur moyenne de 12 descripteurs sonores tel que la fréquence fondamentale, le volume sonore, la brillance, le niveau de bruit, la répartition spectrale et d'autres caractéristiques du timbre. Les valeurs décrivant des informations de découpage sont également stockées comme descripteurs: la position, la durée et la provenance du segment dans les fichiers son d'origine. 

CataRT est utilisé dans des contextes musicaux de composition et de performance variés en utilisant une interface simple consistant en l'affichage d'une projection 2D de l'espace de descripteurs, et une navigation avec la souris, où les unités sont sélectionnés et jouées par proximité géométrique.  Cet interface simple permet de visualiser 3 descripteurs (2 axes et couleur des points) et de naviguer selon 2 descripteurs.

Il est disponible comme logiciel libre sur http://imtr.ircam.fr.

Diemo Schwarz est chercheur et développeur à l'Ircam (Institut de Recherche et Coordination Acoustique-Musique, Paris), compositeur de musique electronique, et musicien sur batterie et laptop. Ses recherches portent sur l'interaction entre musicien et machine, et l'exploitation de grandes masses de sons pour la synthèse sonore temps-réel et interactive, en collaboration avec des compositieurs, entre autres Philippe Manoury, Dai Fujikura, Stefano Gervasoni, Sam Britton.  En 2004, il a soutenu sa thèse de doctorat en informatique appliquée à la musique pour le développement d'une nouvelle methode de synthèse sonore musicale concaténative par corpus fondée sur la sélection d'unités d'une large base de sons. Ses compositions et performances (sous le nom de son projet solo "Mean Time Between Failure", ou improvisant avec des musicien comme George Lewis, Evan Parker, Pierre-Alexander Tremblay, Etienne Brunet) explorent les possibilités de la synthèse concaténative par corpus à recontextualiser n'importe quelle source sonore par rearrangement d'unités sonores par navigation interactive à travers un espace sonore.