Spelling suggestions: "subject:"informatique musicale"" "subject:"informatique musicales""
1 |
Modèles de compression et critères de complexité pour la description et l'inférence de structure musicale / Compression models and complexity criteria for the description and the inference of music structureGuichaoua, Corentin 19 September 2017 (has links)
Une définition très générale de la structure musicale consiste à considérer tout ce qui distingue la musique d'un bruit aléatoire comme faisant partie de sa structure. Dans cette thèse, nous nous intéressons à l'aspect macroscopique de cette structure, en particulier la décomposition de passages musicaux en unités autonomes (typiquement, des sections) et à leur caractérisation en termes de groupements d'entités élémentaires conjointement compressibles. Un postulat de ce travail est d'établir un lien entre l'inférence de structure musicale et les concepts de complexité et d'entropie issus de la théorie de l'information. Nous travaillons ainsi à partir de l'hypothèse que les segments structurels peuvent être inférés par des schémas de compression de données. Dans une première partie, nous considérons les grammaires à dérivation unique (GDU), conçues à l'origine pour la découverte de structures répétitives dans les séquences biologiques (Gallé, 2011), dont nous explorons l'utilisation pour modéliser les séquences musicales. Cette approche permet de compresser les séquences en s'appuyant sur leurs statistiques d'apparition, leur organisation hiérarchique étant modélisée sous forme arborescente. Nous développons plusieurs adaptations de cette méthode pour modéliser des répétitions inexactes et nous présentons l'étude de plusieurs critères visant à régulariser les solutions obtenues. La seconde partie de cette thèse développe et explore une approche novatrice d'inférence de structure musicale basée sur l'optimisation d'un critère de compression tensorielle. Celui-ci vise à compresser l'information musicale sur plusieurs échelles simultanément en exploitant les relations de similarité, les progressions logiques et les systèmes d'analogie présents dans les segments musicaux. La méthode proposée est introduite d'un point de vue formel, puis présentée comme un schéma de compression s'appuyant sur une extension multi-échelle du modèle Système & Contraste (Bimbot et al., 2012) à des patrons tensoriels hypercubiques. Nous généralisons de surcroît l'approche à d'autres patrons tensoriels, irréguliers, afin de rendre compte de la grande variété d'organisations structurelles des segments musicaux. Les méthodes étudiées dans cette thèse sont expérimentées sur une tâche de segmentation structurelle de données symboliques correspondant à des séquences d'accords issues de morceaux de musique pop (RWC-Pop). Les méthodes sont évaluées et comparées sur plusieurs types de séquences d'accords, et les résultats établissent l'attractivité des approches par critère de complexité pour l'analyse de structure et la recherche d'informations musicales, les meilleures variantes fournissant des performances de l'ordre de 70% de F-mesure. / A very broad definition of music structure is to consider what distinguishes music from random noise as part of its structure. In this thesis, we take interest in the macroscopic aspects of music structure, especially the decomposition of musical pieces into autonomous segments (typically, sections) and their characterisation as the result of the grouping process of jointly compressible units. An important assumption of this work is to establish a link between the inference of music structure and information theory concepts such as complexity and entropy. We thus build upon the hypothesis that structural segments can be inferred through compression schemes. In a first part of this work, we study Straight-Line Grammars (SLGs), a family of formal grammars originally used for structure discovery in biological sequences (Gallé, 2011), and we explore their use for the modelisation of musical sequences. The SLG approach enables the compression of sequences, depending on their occurrence frequencies, resulting in a tree-based modelisation of their hierarchical organisation. We develop several adaptations of this method for the modelisation of approximate repetitions and we develop several regularity criteria aimed at improving the efficiency of the method. The second part of this thesis develops and explores a novel approach for the inference of music structure, based on the optimisation of a tensorial compression criterion. This approach aims to compress the musical information on several simultaneous time-scales by exploiting the similarity relations, the logical progressions and the analogy systems which are embedded in musical segments. The proposed method is first introduced from a formal point of view, then presented as a compression scheme rooted in a multi-scale extension of the System & Contrast model (Bimbot et al., 2012) to hypercubic tensorial patterns. Furthermore, we generalise the approach to other, irregular, tensorial patterns, in order to account for the great variety of structural organisations observed in musical segments. The methods presented in this thesis are tested on a structural segmentation task using symbolic data, chords sequences from pop music (RWC-Pop). The methods are evaluated and compared on several sets of chord sequences, and the results establish an experimental advantage for the approaches based on a complexity criterion for the analysis of structure in music information retrieval, with the best variants offering F-measure scores around 70%. To conclude this work, we recapitulate its main contributions and we discuss possible extensions of the studied paradigms, through their application to other musical dimensions, the inclusion of musicological knowledge, and their possible use on audio data.
|
2 |
Entre temps réel et temps différé - Pratiques, techniques et enjeux de l'informatique dans la musique contemporaineBarkati, Karim 27 March 2009 (has links) (PDF)
Cette thèse examine les notions de temps réel et de temps différé telles qu'on les rencontre en informatique musicale et dans la musique contemporaine. La première partie commence par une approche historique, montrant la concomitance de leur apparition avec l'essor de l'informatique au début des années 60. Puis elle développe une critique du cloisonnement du temps réel et du temps différé en tant que catégories dichotomiques, à partir de définitions du seuil de latence qui sont incompatibles entre elles. Elle formalise enfin une représentation alternative : un axe " latentiel ", qui intègre temps réel et temps différé. Cette représentation est illustrée par trois analyses axiales, utilisant un logiciel d'aide au classement relatif et subjectif. À la suite de cette réflexion théorique, la seconde partie présente cinq collaborations musicales dans lesquelles j'ai réalisé la partie informatique avec Max/MSP : CBox avec le compositeur Mario Lorenzo, sur un projet d'exploration des possibilités de la circularité ; Mimi et Rose amère avec l'altiste Stéphanie Réthoré, sur un projet d'alto augmenté pour l'improvisation ; FeedItBack et Iviv avec le compositeur Santiago Quintáns, principalement sur la pièce In Vivo / In Vitro, pour caisse claire augmentée ; a2m, Loterie, Emzed et Nappe avec le compositeur Mauricio Meza, sur la pièce Woes-war-sollichwer-den, pour clarinette, public, et ordinateur ; Plugiscope, Ifso, et Ultraviolette avec le clarinettiste et compositeur Iván Solano, sur un premier projet pour voix, un deuxième pour clarinette basse, et un troisième pour percussion. La thèse s'achève avec une brève réflexion sur le réalisateur en informatique musicale.
|
3 |
Aspects temporels d’un système de partitions musicales interactives pour la composition et l’exécutionAllombert, Antoine 26 October 2009 (has links)
La composition musicale utilise de plus en plus les outils informatiques, mais la question de l'interprétation des pièces soit résoule. Dans le cas des pièces électro-acoustiques sur support, enregistrement d'une organisation temporelle de sons, l'exécution des oeuvres se restreint à leur diffusion. A la différence des pièces instrumentales, un interprète ne peut modifier certains paramètres musicaux lors de l'exécution. Nous cherchons à définir un système de composition et d'exécution de pièces interprétables, en nous focalisant sur les modifications de dates d'événements de la partition. Nous proposons un formalisme de partitions interactives utilisant la programmation par contraintes pour définir l'organisation temporelle et les limites de l'interprétation. Nous présentons un modèle de machine abstraite pour l'exécution des partitions, basée sur les réseaux de Petri et la propagation de contraintes. Enfin, nous exposons quelques applications du système. / Abstract
|
4 |
Analyse, représentation et traitement du geste instrumental : application aux instruments à clavierRamstein, Christophe 18 December 1991 (has links) (PDF)
Dans le cadre de la conception et de la réalisation d'un outil informatique pour la création musicale, on s'intéresse au geste instrumental pour contrôler en temps réel des processus de synthèse sonore par simulation de mécanisme instrumentaux et pour étudier sa relation a la composition musicale. Pour décrire et classifier le geste instrumental, assimile a une séquence d'événements gestuels, capte et mémorise sous la forme de signaux échantillonnes, nous posons le probleme de la segmentation. En considérant le jeu instrumental sur clavier nous proposons des éléments de syntaxe gestuelle et en déduisons des critères pour la segmentation automatique. Nous nous intéressons ensuite à la représentation graphique des événements gestuels segmentes et a leur composition et transformation. Nous définissons plusieurs niveaux de représentation et pour chacun d'eux, des procédures de traitement manuels ou pris en charge, tout ou en partie, par des modèles de composition. L'éditeur de geste, intégré dans le système de synthèse sonore cordis-anima, synthétise l'ensemble de ces possibilites
|
5 |
Synthesis of Music Performances: Virtual Character Animation as a Controller of Sound SynthesisBouënard, Alexandre 10 December 2009 (has links) (PDF)
Ces dernières années ont vu l'émergence de nom- breuses interfaces musicales ayant pour objectif principal d'offrir de nouvelles expériences instru- mentales. La spécification de telles interfaces met généralement en avant l'expertise des musiciens à appréhender des données sensorielles multiples et hétérogènes (visuelles, sonores et tactiles). Ces interfaces mettent ainsi en jeu le traitement de ces différentes données pour la conception de nouveaux modes d'interaction. Cette thèse s'intéresse plus spécifiquement à l'analyse, la modélisation ainsi que la synthèse de situations in- strumentales de percussion. Nous proposons ainsi un système permettant de synthétiser les retours vi- suel et sonore de performances de percussion, dans lesquelles un percussionniste virtuel contrôle des pro- cessus de synthèse sonore. L'étape d'analyse montre l'importance du contrôle de l'extrémité de la mailloche par des percussionnistes ex- perts jouant de la timbale. Cette analyse nécessite la capture préalable des gestes instrumentaux de dif- férents percussionnistes. Elle conduit à l'extraction de paramètres à partir des trajectoires extremité capturées pour diverses variations de jeu. Ces paramètres sont quantitativement évalués par leur capacité à représen- ter ces variations. Le système de synthèse proposé dans ce travail met en oeuvre l'animation physique d'un percussionniste virtuel capable de contrôler des processus de synthèse sonore. L'animation physique met en jeu un nouveau mode de contrôle du modèle physique par la seule spé- cification de la trajectoire extrémité de la mailloche. Ce mode de contrôle est particulièrement pertinent au re- gard de l'importance du contrôle de la mailloche mis en évidence dans l'analyse précédente. L'approche physique adoptée est de plus utilisée pour permettre l'interaction du percussionniste virtuel avec un modèle physique de timbale. En dernier lieu, le système proposé est utilisé dans une perspective de composition musicale. La con- struction de nouvelles situations instrumentales de percussion est réalisée grâce à la mise en oeuvre de partitions gestuelles. Celles-ci sont obtenues par l'assemblage et l'articulation d'unités gestuelles canoniques disponibles dans les données capturées. Cette approche est appliquée à la composition et la synthèse d'exercices de percussion, et evaluée qualitativement par un professeur de percussion.
|
6 |
Aspects temporels d'un système de partitions musicales interactives pour la composition et l'exécutionAllombert, Antoine 26 October 2009 (has links) (PDF)
Alors que la composition de musique électro-acoustique mobilise de plus en plus d'outils numériques, la question de l'interprétation de telles pièces reste ouverte. La plus part du temps, ces pièces sont un enregistrement sur support, d'une organisation temporel d'un matériau sonore. Pendant l'exécution, l'oeuvre est simplement diffusée et l'interprète peut uniquement modifier des paramètres globaux tels que le volume, la balance ou la spatialisation sur le système d'écoute. Il ne peut pas interpréter la pièce au sens où il pourrait le faire pour une partition classique. Nous souhaiterions que ce type d'interprétation soit possible pour les pièces électro-acoustiques. Cette possibilité ne peut être posible que dans le cadre de ``partitions interactives'' capables de s'adapter à leur environnement (contrôles de l'interprète, autres musiciens). Dans ce contexte, la partition est exécutée par la machine, ce qui conduit à s'intéresser à un problème différent de celui du suivi de partition. Nous cherchons à élaborer un système constitué de deux parties : un environnement de composition assistée par ordinateur permettant au compositeur de créer de telles partitions interactives, et une machine d'exécution rendant possible leur interprétation. L'environnement de composition doit disposer d'une représentation formelle de la musique ``interprétable''. Nous nous appuyons donc sur une formalisation de l'interprétation de la musique instrumentale, et cherchons alors à la généraliser à des pièces impliquant des processus génériques à la place des notes. Nous focalisons notre étude sur un certain aspet de l'interprétation : les variations agogiques, c'est à dire la possibilité pour l'interprète de modifier les date d'occurrence d'événements discrets de la pièces pendant l'exécution. Ces modifications de dates sont accessibles grace à des ``point d'interactions'' (débuts, fins, ou points intermédiaires) des processus, dont la position temporelle permet de contrôler la temporalité de la pièce. Mais ces possibilités sont encadrées par le compositeur à la création de la partition (comme dans le cas de musique instrumentale). Ces contraintes sont le résultats d'une démarche de composition, elles permettent également d'éviter une désorganisation totale de la pièce pendant l'exécution. Nous proposons une représentation formelle des partitions interactives, basées sur des blocs 2D, telle celle des Maquettes d'OpenMusic ou des Data Structures de Pure Data. Les partitions sont des ensembles d'objets organisés sur une ligne de temps ; ces objets sont eux-mêmes représentés comme des séquences de points de contrôle discrets (début, fin et points intermédiares). Ils représentent l'exécution de processus responsables du rendu sonore de la pièce (synthèse et traintement de signal ou de symboles ou même opérations algorithmiques complexes). Pour définir les limites imposées à l'interprétation, le compositeur peut poser des contraintes temporelles entre les points de contrôle de la pièce ; il peut ainsi imposer un ordre partiel entre les événements à l'aide de contraintes qualitatives, ou utiliser des contraintes quantitatives pour limiter les valeurs possibles des intervalles de temps séparant les points de contrôle. La partition est alors à la fois complètement spécifiée, mais sa temporalité reste flexible, laissant ainsi la place à l'interprétation. De plus, le compositeur peut définir certains points de contrôle comme ``interactifs'', les rendre ainsi dynamiquement déclenchables à l'arrivée d'événements extérieurs, supposés se produire pendant l'exécution de la pièce. Ces événements peuvent être produits par des interfaces de contrôle, ou par la détection de situations particulières dans le contexte musical. Lorsqu'une partition est interprétée, la machine d'exécution envoie un message aux processus lorsqu'un point de contrôle doit se produire. Ceci peut être le fait de l'écoulement du temps pour les points non dynamiques, ou de l'arrivée de événement extérieur correspondant pour les points dynamiques. Le système s'assure que les contraintes temporelles définies par le compositeur ne sont pas violées. Si l'arrivée d'un événement extérieur remet en cause la validité de contraintes, le système recalcule les dates de points de contrôle futurs pour assurer la validité des contraintes. L'ordre entre les points peut alors être modifié. Ces calculs sont effectués par un algorithme de propagation de contraintes. Le maintien des contraintes temporelles, peut amener le système à ignorer des événements extérieurs lorsque ceci risque de contredire des contraintes, tout comme il devra simuler l'arrivée d'un événement dans cas où l'absence de ce dernier conduirait à violer une contrainte. Nous proposons une struture de machine abstraite capable d'exécuter dynamiquemenr les partitions interactives. Celle-ci est basée sur les réseaux de Petri et la propagation de contraintes. Nous donnons un algorithme pour compiler les partitions depuis leur descritption formelle vers une représentation exécutable par la machine. Nous avons également développé un prototype dans OpenMusic, sous la forme d'une extension des Maquettes pour l'édition des partitions utilisant un système de propagation de contraintes. Elle contient également un compilateur de partition et une machine d'exécution envoyant des messages UDP vers des applications tierces. Les partitions sont sauvergardées grace à un format XML d'échange. Nous présentons plusieurs applications du système à la musique électro-acoustique la musique instrumentale et le théâtre.
|
7 |
Apprentissage de structures musicales en contexte d'improvisation / Learning of musical structures in the context of improvisationDéguernel, Ken 06 March 2018 (has links)
Les systèmes actuels d’improvisation musicales sont capables de générer des séquences musicales unidimensionnelles par recombinaison du matériel musical. Cependant, la prise en compte de plusieurs dimensions (mélodie, harmonie...) et la modélisation de plusieurs niveaux temporels sont des problèmes difficiles. Dans cette thèse, nous proposons de combiner des approches probabilistes et des méthodes issues de la théorie des langages formels afin de mieux apprécier la complexité du discours musical à la fois d’un point de vue multidimensionnel et multi-niveaux dans le cadre de l’improvisation où la quantité de données est limitée. Dans un premier temps, nous présentons un système capable de suivre la logique contextuelle d’une improvisation représentée par un oracle des facteurs tout en enrichissant son discours musical à l’aide de connaissances multidimensionnelles représentées par des modèles probabilistes interpolés. Ensuite, ces travaux sont étendus pour modéliser l’interaction entre plusieurs musiciens ou entre plusieurs dimensions par un algorithme de propagation de croyance afin de générer des improvisations multidimensionnelles. Enfin, nous proposons un système capable d’improviser sur un scénario temporel avec des informations multi-niveaux représenté par une grammaire hiérarchique. Nous proposons également une méthode d’apprentissage pour l’analyse automatique de structures temporelles hiérarchiques. Tous les systèmes sont évalués par des musiciens et improvisateurs experts lors de sessions d’écoute / Current musical improvisation systems are able to generate unidimensional musical sequences by recombining their musical contents. However, considering several dimensions (melody, harmony...) and several temporal levels are difficult issues. In this thesis, we propose to combine probabilistic approaches with formal language theory in order to better assess the complexity of a musical discourse, both from a multidimensional and multi-level point of view in the context of improvisation where the amount of data is limited. First, we present a system able to follow the contextual logic of an improvisation modelled by a factor oracle whilst enriching its musical discourse with multidimensional knowledge represented by interpolated probabilistic models. Then, this work is extended to create another system using a belief propagation algorithm representing the interaction between several musicians, or between several dimensions, in order to generate multidimensional improvisations. Finally, we propose a system able to improvise on a temporal scenario with multi-level information modelled with a hierarchical grammar. We also propose a learning method for the automatic analysis of hierarchical temporal structures. Every system is evaluated by professional musicians and improvisers during listening sessions
|
8 |
Apprentissage dans les réseaux récurrents pour la modélisation mécanique et étude de leurs interactions avec l'environnementSzilas, Nicolas 06 December 1995 (has links) (PDF)
Issus d'une analogie avec les réseaux de neurones biologiques du cerveau, les réseaux récurrents sont utilisés pour modéliser des comportements dynamiques complexes et pour reproduire - apprendre - ces comportements. Les propriétés adaptatives de ces réseaux peuvent être exploitées par les réseaux de modélisation physique de phénomènes vibratoires dédiés à la simulation informatique d'instruments de musique. Ces réseaux de modélisation mécanique possèdent des paramètres d'inertie, d'élasticité et de viscosité que l'on souhaite déterminer automatiquement dans le but de reproduire un comportement physique donné ; cette détermination est possible grâce aux réseaux récurrents. Nous développons ainsi un certain nombre d'algorithmes de réseaux de modélisation physique adaptatifs et proposons des algorithmes originaux, inspirés de modèles mécaniques. En particulier, ce travail aborde la notion d'interaction avec l'environnement dans ce type de réseaux, et plus généralement dans les réseaux connexionnistes supervisés. A travers plusieurs expériences, nous montrons que, sous certaines conditions, l'interaction avec l'environnement permet la réussite de l'apprentissage, en particulier si cette interaction autorise un apprentissage à complexité progressive. De plus, nous établissons des rapprochements entre ce type d'apprentissage et certains apprentissages humains. Cela nous amène à poser les bases d'un système d'identification de paramètres pour la modélisation d'instruments de musique. Ce système fait interagir en temps réel un instrumentiste, un instrument de musique et un ordinateur simulant le modèle adaptatif
|
9 |
Mise en oeuvre de méthodes de résolution du problème inverse dans le cadre de la synthèse sonore par modélisation physique masses-interactions / Implementing inverse problem resolution methods in the context of mass-interaction modeling for sound synthesisVilleneuve, Jérôme 24 May 2013 (has links)
Un "problème inverse", dans son sens général, consiste en une «inversion» de la relation de cause à effet. Il ne s'agit pas de produire un phénomène «cause» à partir d'un phénomène «effet», mais plutôt de s'essayer à définir un phénomène «cause» dont un effet observé serait la conséquence.Dans le contexte du formalisme de modélisation physique et de simulation CORDIS-ANIMA, et plus particulièrement dans le cadre de l'interface de création sonore et de composition musicale qui le met en œuvre, GENESIS, créés par le laboratoire ACROE-ICA, on identifie une problématique d'une telle nature : étant donné un phénomène sonore, quel modèle physique construire qui permettrait de l'obtenir ? Cette interrogation est fondamentale dans le cadre du processus de création engagé par l'utilisation de tels outils. En effet, pouvoir décrire et concevoir le procédé qui permet d'engendrer un phénomène ou un événement sonore (musical) préalablement définis est une nécessité inhérente à l'acte de création musicale. Réciproquement, disposer des éléments d'analyse et de décomposition de la chaîne de production du phénomène sonore permet d'envisager, par représentation, traitement direct, composition des éléments de cette décomposition, la production de phénomènes très riches, nouveaux, expressifs et présentant une cohérence intime avec les sons naturels sur lesquels l'expérience perceptive et cognitive est construite.Dans l'objectif d'aborder cette problématique, nous avons dû formuler et étudier deux des aspects fondamentaux qui la sous-tendent. Le premier concerne la description même du résultat final, le phénomène sonore. Celle-ci pouvant être de plusieurs natures et souvent difficile en termes objectifs et quantitatifs, notre approche a tout d'abord consisté à réduire le problème aux notions de contenu spectral, ou encore de « structure modale » définis par une approche phénoménologique de type signal. Le second concerne la nature fonctionnelle et paramétrique des modèles construits au sein du paradigme CORDIS-ANIMA. Étant, par essence, une métaphore du contexte instrumental, tout modèle doit alors être conçu comme la mise en interaction d'un couple « instrument/instrumentiste ». De ces spécifications nous avons alors pu définir UN problème inverse, dont la résolution a demandé la mise au point d'outils d'interprétation de données phénoménologiques en données paramétriques. Ce travail de thèse a finalement abouti à la mise en œuvre de ces nouveaux outils au sein même du logiciel de création GENESIS, ainsi que dans l'environnement didactique qui l'accompagne. Les modèles qui en résultent, répondent à des critères de cohérence, de clarté et ont pour première vocation d'être réintégrés au processus de création. Ils ne constituent pas une finalité en eux-mêmes, mais un appui proposé à l'utilisateur pour compléter sa démarche.En conclusion de ce travail, nous détaillons les directions pouvant être suivies à des fins d'extension ou éventuellement de reformulation de cette problématique. / An “Inverse Problem”, usually consists in an inversion of the cause-to-effect relation. It's not about producing a “cause” phenomenon from a given “effect” phenomenon, but rather defining a “cause” phenomenon of which an observed effect would be the consequence. In the context of the CORDIS-ANIMA physical modeling and simulation formalism, and in particular within the GENESIS interface for sound synthesis and musical creation, both built by the ACROE-ICA laboratory, it is possible to identify such a problem: Considering a sound, which physical model could be built to produce it? This interrogation is fundamental if we consider the creative process engaged by the users of such tools. Indeed, being able to describe and to conceive the process which engenders a previously defined phenomenon or sonic (musical) event is an inherent need for the activity of musical creation. Reciprocally, disposing of elements for analyzing and decomposing the sound phenomenon's production chain allows to consider, by means of representation, direct processing, and re-composition, the production of very rich and expressive phenomena that present an intimate coherency with the natural sounds upon which the perceptive and cognitive experience are built.To approach this problem, we formulated and studied two underlying fundamental aspects. The first one covers the very description of the final result, the sound phenomenon. This description can be of different kinds and is often complex regarding objective and quantitative matters, therefore, our approach has consisted first in a reduction of the general problem by considering spectral content, or “modal structure”, defined by a phenomenological signal based approach. The second aspect concerns the functional and parametrical nature of models built with the CORDIS-ANIMA paradigm. Since all models are inherently a metaphor of an instrumental situation, each one must then be conceived as an interactive combination of an “instrument/instrumentist” couple. From these specifications we have defined ONE inverse problem, whose resolution required developing tools to interpret phenomenological data to parametrical data. Finally, this work has led to the implementation of these new tools in within the GENESIS software, as well as in its didactic environment. The resulting models fulfill coherence and clarity criteria and are intended to reintegrate the creative process. They do not constitute an end in themselves, rather a support proposed to the user in order to complete his process.As a conclusion to this work, we detail further directions that could be pursued in order to extend or possibly reformulate the inverse problem.
|
10 |
Un langage de programmation pour composer l'interaction musicale : la gestion du temps et des événements dans Antescofo / A programming language for Computer-Human Musical InteractionEcheveste, José-Manuel 22 May 2015 (has links)
La musique mixte se caractérise par l’association de musiciens instrumentistes et de processus électroniques pendant une performance. Ce domaine soulève des problématiques sur l’écriture de cette interaction et sur les mécanismes qui permettent d’exécuter des programmes dans un temps partagé avec les musiciens.Ce travail présente le système temps réel Antescofo et son langage dédié. Il permet de décrire des scénarios temporels où des processus sont calculés et ordonnancés en interaction avec un environnement musical. Antescofo couple un système de suivi de partition avec un système réactif temporisé.L’originalité du système réside dans la sémantique temporelle du langage adaptée aux caractéristiques critiques de l’interaction musicale. Le temps et les événements peuvent s’exprimer de façon symbolique dans une échelle en secondes ou dans des échelles relatives à des tempos.Nous présenterons les domaines de recherche apparentés à Antescofo en musique et en informatique, les caractéristiques du langage et de la partie réactive d’Antescofo qui ont été développés pendant cette thèse en particulier les stratégies synchronisations et les différents contrôles du temps et des évènements permis par le système. Nous donnerons une sémantique du langage qui formalise le fonctionnement du moteur d’exécution. À travers une série d’exemples d’applications issues de collaborations artistiques, nous illustrerons les interactions temporelles qu’il faut gérer entre une machine et un instrumentiste lors d’un concert. Le système a pu être validé à travers de nombreux concerts par différents orchestres d’envergure internationale. / Mixed music is the association in live performance of human musicians and computer mediums, interacting in real-time. Authoring the interaction between the humans and the electronic processes, as well as their real-time implementation, challenge computer science in several ways. This contribution presents the Antescofo real-time system and its domain specific language. Using this language a composer is able to describe temporal scenarios where electronic musical processes are computed and scheduled in interaction with a live musician performance. Antescofo couples artificial machine listening with a reactive and temporized system. The challenge in bringing human actions in the loop of computing is strongly related the specification and the management of multiple time frameworks and timeliness of live execution despite heterogeneous nature of time in the two mediums. Interaction scenarios are expressed at a symbolic level through the management of musical time (i.e., events like notes or beats in relative tempi) and of the physical time (with relationships like succession, delay, duration, speed between the occurrence of the events during the performance on stage). Antescofo unique features are presented through a series of examples which illustrate how to manage execution of different audio processes through time and their interactions with an external environment. The Antescofo approach has been validated through numerous uses of the system in live electronic performances in contemporary music repertoire by various international music ensembles.
|
Page generated in 0.0989 seconds