samedi 23 février 2008
Conférences
27 au 29 mars 9h00 – 12h30 Maison du multimédia
Jeudi 27 mars :
1° session 9h-11h :
J. Sandgren - Composition assistée par ordinateur, le cas de ejs
T. Bouchara - LE « SCENE-MODELER » : DES OUTILS POUR LA MODELISATION DE CONTENUS MULTIMEDIAS INTERACTIFS SPATIALISES
A. de Sousa Dias - InstallaSon : Un éditeur et gestionnaire d’espaces musicaux navigables
A. Santini : PRÉMISSES POUR UNE ÉTUDE SUR L'OBJET LOGICIEL AUDIOVISUEL, CONSIDÉRATIONS ET PREMIERS RÉSULTATS
2° session 11h30-13h :
D Schwartz -PRINCIPLES AND APPLICATIONS OF INTERACTIVE CORPUS-BASED CONCATENATIVE SYNTHESIS
L Kessous - CONTROLE GESTUEL DE TRANSFORMATION DE FICHIERS
JM Couturier - Grapholine
Vendredi 28 mars :
1° session 9h-11h :
B. Roadley - ReCollection
K. Dahan - Réflexions autour de la question de l’interprétation de la musique électroacoustique
B. Courribet : SON SURROUND SUR SUPPORTS STANDARD : UNE ENQUÊTE TECHNOLOGIQUE POUR LE MUSICIEN
A. Allombert - DE BOXES À ISCORE : VERS UNE ECRITURE DE L’INTERACTION
2° session 11h30-13h :
F. Berthaut - Widgets Réactifs 3D pour l’Interaction Musicale
V. Goudard - Meta-Mallette
O. Lahdeoja - Guitare électrique augmentée
Samedi 29 mars :
1° session 9h-10h30:
A. Bonardi - FIRST STEPS IN RESEARCH AND DEVELOPMENT ABOUT THE SUSTAINABILITY OF SOFTWARE MODULES FOR PERFORMING ARTS
Yun-Kang Ahn - Vers un module d’analyse computationnelle sous OpenMusic
P. Couprie - iAnalyse : un logiciel d’aide à l’analyse musicale
Présentation des groupes de travail AFIM
Remise du prix jeune chercheur de l'AFIM
Remise du prix du concours de logiciels LoMus
à partir de 14h : Assemblée Générale de l'AFIM
Ateliers de programmation
27 mars 14h-17h30 Maison du multimédia
durée : 1h30 inscription préalable sur http://gmea.net/jim08/index.php/Inscriptions
Table ronde
28 mars 14h-17h30 Maison du multimédia
Une table ronde autour du thème des interfaces pour la création sonore et musicale réunira plusieurs chercheurs et artistes pour une discussion sur les enjeux et prospectives actuels dans ce domaine.
Cette table-ronde fera suite à la présentation du projet de recherche Virage, autour des interfaces de contrôle et d’écriture pour la création artistique et les industries culturelles, impliquant entre autres, plusieurs acteurs de la communauté française d’informatique musicale (AFIM).
Concert – Conférence
Jeudi 27 mars 18h Maison du Multimédia Entrée libre
Université Jean-François Champollion
Ici, les JIM 08 croisent les Journées Électriques. Les compositeurs de ce concert-conférence dévoileront, par l’exemple et par l’écoute, les principes qui animent quatre pièces qui mettent en jeu de nouveaux systèmes d’interfaces et divers systèmes de synthèse sonore.
« à portée de main ! » Claude Cadoz – Jean-Michel Couturier – Mathieu Chamagne
Gaea de Claude Cadoz - Acroe
Composition pour bande électroacoustique dont tous les paramètres musicaux, de la synthèse à la structure, ont été élaborés à partir de modèles physiques, véritables objets virtuels dotés de propriétés physiques telles que le poids, la gravité...
Demus et Etheraction de Jean-Michel Couturier - Blue Yeti
Les créateurs du Blue Yeti mettent en jeu leurs interfaces de dessin musical et de table tangible pour deux compositions mêlant intimement image et son dans un même geste créatif.
Espaces Croisés de Mathieu Chamagne
Rencontre entre un improvisateur / interprète et une pièce électroacoustique composée / décomposée en cellules autonomes placés dans un espace de jeu à la fois virtuel et tangible. Dans cet espace mixte, interfaces gestuelles et modèles physiques se rejoignent et donnent naissance à une musique à la fois écrite, improvisée, et chaotique.
Organisé en partenariat avec l’Université Jean-François Champollion dans le cadre des Jeudis de l’Action Culturelle
Les nouvelles interfaces
27-29 mars, ouvert de 13h jusqu’au début des concerts
Hall de la Scéne Nationale & salle Arcé
Les interfaces à retour d'effort TGR de l'ACROE permettent de manipuler des objets virtuels tout en ressentant tactilement leurs comportements (poids, rigidité, consistance ...).
Le dispositif Grapholine permet, en dessinant sur un écran, de générer du son en temps réel : chaque mine ou couleur est associée à un son différent, offrant ainsi des possibilités expressives inouïes !
M. Chamagne, C. Bascou, J. Larralde
A l'issue d'un atelier de travail au GMEA avec Blue Yeti, un prototype de table tangible est proposé au public, permettant, par la manipulation d'objets sur un écran interactif le contrôle de la synthèse et la spatialisation en temps-réel de sons électroniques
vendredi 22 février 2008
ATELIERS DE PROGRAMMATION
Les ateliers de programmation seront l’occasion pour les participants de manipuler les logiciels les plus pointus sur les thèmes des interfaces pour la création musicale et de la spatialisation, en étant encadrés par leurs concepteurs. :
- Holophon (GMEM-Marseille) : logiciel d’écriture de trajectoires spatiales
- Spatialisateur (IRCAM) : logiciel pour la spatialisation du son en temps réel
- Genesis (ACROE-Grenoble) : Interface de composition par modèles physiques
- CataRT et MnM (IRCAM) : interface de synthèse sonore par navigation interactive et système de reconnaissance de geste
Attention ! Nous demandons aux participants de venir avec leur propre matériel laptop et softwares. Pour ces derniers veuillez installer au préalable les versions de démo (si vous n'avez pas les licences) car nous n'aurons pas le temps de le faire sur place. Les informations et liens sont disponibles si dessous dans la description des ateliers.
durée : 1h30 inscription préalable sur www.gmea.net/jim08/
27 mars 14h-17h30 Maison du multimédia
1 - Holophon par Charles Bascou
Charles Bascou a étudié l'informatique musicale à l'IRCAM. En 2004, il rejoint le GMEM ( Marseille ) ou il y mène depuis des travaux de développement, d'assistance et de pédagogie. Il est notamment en charge des projets GMU dédié à l'analyse/synthèse granulaire et Holophon outils de spatialisation sonore.
Ce dernier a été initié en 1996 par Laurent Pottier et propose un éditeur de trajectoire autonome programmable ainsi que des interfaces vers les environnements Max/MSP et PureData. Il intègre notamment des outils d'écriture et de génération temps-réel et d'enregistrement de mouvements issu d'interfaces gestuelles.
De récents travaux s'attachent à l'implementation de nouvelles méthodes de spatialisation granulaire et à la génération/transformation des processus de mise en espace en fonction des paramètres du son traité.
2 - Spat par Olivier Warusfel
3 - Genesis, atelier de création musicale et de lutherie virtuelle par Claude Cadoz
Le langage CORDIS-ANIMA permet la simulation multisensorielle et interactive d'objets physiques. A l'aide de cette technique le musicien peut créer dès son premier contact avec l'ordinateur des objets immédiatement expressifs. Pour tirer le plein bénéfice de cet atout, il faut mettre en oeuvre un outil de modélisation avec des interfaces qui lui soient adaptées. Une telle interface est l'objet du projet GENESIS.
GENESIS permet au musicien de créer de manière conviviale ses propres objets-instruments virtuels. Autour de cette base se coordonnent des fonctionalités pour jouer de ces objets (par gestes directs ou par gestes virtuels), éditer des événements gestuels, réaliser des séquences musicales complexes.
Claude Cadoz, fondateur et Directeur de l'ACROE, est également ingénieur de recherche du ministère de la culture et de la communication, co-responsable scientifique du laboratoire Informatique et Création Artistique (ICA, unité mixte de recherche INPG-UJF-Ministère de la Culture), fondateur et responsable du master-2r « Art, Sciences, Technologies » de l'Institut National Polytechnique de Grenoble et responsable de la spécialité doctorale Ingénierie de la cognition, de l'interaction, de l'apprentissage et de la création à l'INPG. Ingénieur électronicien, docteur en électronique (ENSERG - INPG), C. Cadoz obtient son HDR (habilitation à diriger des recherches) en informatique en 1992.
Il est inventeur de la méthode de synthèse de son par modèles physiques particulaires CORDIS (associé à son pendant Visuel ANIMA, inventé par Annie Luciani ), sur laquelle s'appuie l'environnement GENESIS pour la synthèse sonore et la création musicale dont il est également l'auteur. Il a conçu et réalisé en 1981, avec Jean-Loup Florens, l'un des premiers systèmes gestuels à retour d'effort (TGR), que l'ACROE continue à développer depuis et dont il présentera plusieurs déclinaisons dans l'exposition/démonstration lors des JIM'08.
Enfin, son domaine de recherche plus personnel est la modélisation physique pour la création du son et la composition musicale, qu'il met en oeuvre dans plusieurs compositions dont la dernière, Gaea, sera présentée dans le cadre des JIM.
jeudi 21 février 2008
4 - CataRT et MnM par Diemo Schwarz
Le nouveau paradigme de synthèse sonore concaténative par corpus utilise une base de données de sons et un algorithme de sélection d'unités qui choisit les segments des sons qui conviennent le mieux pour la séquence musicale que l'on souhaite synthétiser, dite la cible. L'utilisation en temps réel de ce principe peut aussi être vue comme une extension basée sur le contenu de la synthèse granulaire, où le seul mode d'accès par position temporelle dans un fichier son est augmenté par un accès ciblé par caractéristiques sonores dans un ensemble de sons.
Dans la phase d'analyse, il découpe un ou plusieurs enregistrements en petites segments appelés unités, et les caractérise par leurs contenus sonores. Ces paramètres sont donnés par la valeur moyenne de 12 descripteurs sonores tel que la fréquence fondamentale, le volume sonore, la brillance, le niveau de bruit, la répartition spectrale et d'autres caractéristiques du timbre. Les valeurs décrivant des informations de découpage sont également stockées comme descripteurs: la position, la durée et la provenance du segment dans les fichiers son d'origine.
CataRT est utilisé dans des contextes musicaux de composition et de performance variés en utilisant une interface simple consistant en l'affichage d'une projection 2D de l'espace de descripteurs, et une navigation avec la souris, où les unités sont sélectionnés et jouées par proximité géométrique. Cet interface simple permet de visualiser 3 descripteurs (2 axes et couleur des points) et de naviguer selon 2 descripteurs.
Diemo Schwarz est chercheur et développeur à l'Ircam (Institut de Recherche et Coordination Acoustique-Musique, Paris), compositeur de musique electronique, et musicien sur batterie et laptop. Ses recherches portent sur l'interaction entre musicien et machine, et l'exploitation de grandes masses de sons pour la synthèse sonore temps-réel et interactive, en collaboration avec des compositieurs, entre autres Philippe Manoury, Dai Fujikura, Stefano Gervasoni, Sam Britton. En 2004, il a soutenu sa thèse de doctorat en informatique appliquée à la musique pour le développement d'une nouvelle methode de synthèse sonore musicale concaténative par corpus fondée sur la sélection d'unités d'une large base de sons. Ses compositions et performances (sous le nom de son projet solo "Mean Time Between Failure", ou improvisant avec des musicien comme George Lewis, Evan Parker, Pierre-Alexander Tremblay, Etienne Brunet) explorent les possibilités de la synthèse concaténative par corpus à recontextualiser n'importe quelle source sonore par rearrangement d'unités sonores par navigation interactive à travers un espace sonore.