Cette thèse propose l’introduction de scénarios temporels pour guider ou composer l’improvisation musicale homme-machine. Ce travail étudie la dialectique entre planification et réactivité dans les systèmes interactifs dédiés à l’improvisation : des systèmes informatiques pouvant générer de la musique en relation directe avec le contexte produit par une situation de concert. On cherche ici à appréhender l'improvisation pulsée et dite « idiomatique ». En s’appuyant sur l’existence d’une structure formalisée antérieure à la performance dans de nombreux répertoires improvisés (une « grille d’accords » par exemple) ces travaux proposent : un modèle d’improvisation guidée par un « scénario » introduisant des mécanismes d’anticipation ; une architecture temporelle hybride combinant anticipation et réactivité et permettant la synchronisation du rendu multimédia avec une pulsation non métronomique ; et un cadre pour composer des sessions d’improvisation idiomatique ou non à l’échelle du scénario en exploitant la généricité des modèles. Ces recherches ont été menées en interaction constante avec des musiciens experts, en intégrant pleinement ces collaborations au processus itératif de conception des modèles et architectures. Ceux-ci ont été implémentés dans le système ImproteK, utilisé à de nombreuses reprises lors de performances avec des improvisateurs. Au cours de ces collaborations, les sessions d'expérimentations ont été associées à des entretiens et séances de réécoute afin de recueillir de nombreuses appréciations formulées par les musiciens pour valider et affiner les choix technologiques. / This thesis focuses on the introduction of authoring and controls in human-computer music improvisation through the use of temporal scenarios to guide or compose interactive performances, and addresses the dialectic between planning and reactivity in interactive music systems dedicated to improvisation. An interactive system dedicated to music improvisation generates music on the fly, in relation to the musical context of a live performance. We focus here on pulsed and idiomatic music relying on a formalized and temporally structured object, for example a harmonic progression in jazz improvisation. The same way, the models and architecture we developed rely on a formal temporal structure. This thesis thus presents: a music generation model guided by a ''scenario'' introducing anticipatory behaviors; an architecture combining this anticipation with reactivity using mixed static/dynamic scheduling techniques; an audio rendering module to perform live re-injection of captured material in synchrony with a non-metronomic beat; and a framework to compose improvised interactive performances at the ''scenario'' level. This work fully integrated frequent interactions with expert musicians to the iterative design of the models and architectures. These latter are implemented in the interactive music system ImproteK that was used at various occasions during live performances with improvisers. During these collaborations, work sessions were associated to listening sessions and interviews to gather numerous judgments expressed by the musicians in order to validate and refine the scientific and technological choices.
Identifer | oai:union.ndltd.org:theses.fr/2016PA066141 |
Date | 16 May 2016 |
Creators | Nika, Jérôme |
Contributors | Paris 6, Assayag, Gérard, Chemillier, Marc |
Source Sets | Dépôt national des thèses électroniques françaises |
Language | English |
Detected Language | French |
Type | Electronic Thesis or Dissertation, Text |
Page generated in 0.0024 seconds