• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 7
  • 4
  • 1
  • Tagged with
  • 12
  • 12
  • 12
  • 8
  • 6
  • 6
  • 6
  • 5
  • 5
  • 5
  • 4
  • 4
  • 4
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Reconnaissance d'accords à partir de signaux audio par l'utilisation de gabarits théoriques

Oudre, Laurent 03 November 2010 (has links) (PDF)
Cette thèse s'inscrit dans le cadre du traitement du signal musical, en se focalisant plus particulièrement sur la transcription automatique de signaux audio en accords. En effet, depuis une dizaine d'années, de nombreux travaux visent à représenter les signaux musicaux de la façon la plus compacte et pertinente possible, par exemple dans un but d'indexation ou de recherche par similarité. La transcription en accords constitue une façon simple et robuste d'extraire l'information harmonique et rythmique des chansons et peut notamment être utilisée par les musiciens pour rejouer les morceaux. Nous proposons deux approches pour la reconnaissance automatique d'accords à partir de signaux audio, qui offrent la particularité de se baser uniquement sur des gabarits d'accords théoriques, c'est à dire sur la définition des accords. En particulier, nos systèmes ne nécessitent ni connaissance particulière sur l'harmonie du morceau, ni apprentissage. Notre première approche est déterministe, et repose sur l'utilisation conjointe de gabarits d'accords théoriques, de mesures d'ajustement et de post-traitement par filtrage. On extrait tout d'abord des vecteurs de chroma du signal musical, qui sont ensuite comparés aux gabarits d'accords grâce à plusieurs mesures d'ajustement. Le critère de reconnaissance ainsi formé est ensuite filtré, afin de prendre en compte l'aspect temporel de la tâche. L'accord finalement détecté sur chaque trame est celui minimisant le critère de reconnaissance. Cette méthode a notamment été présentée lors d'une évaluation internationale (MIREX 2009) et a obtenu des résultats très honorables. Notre seconde approche est probabiliste, et réutilise certains éléments présents dans notre méthode déterministe. En faisant un parallèle entre les mesures d'ajustement utilisées dans l'approche déterministe et des modèles de probabilité, on peut définir un cadre probabiliste pour la reconnaissance d'accords. Dans ce cadre, les probabilités de chaque accord dans le morceau sont évaluées grâce à un algorithme Espérance-Maximisation (EM). Il en résulte la détection, pour chaque chanson, d'un vocabulaire d'accords adapté, qui permet l'obtention d'une meilleure transcription en accords. Cette méthode est comparée à de nombreux systèmes de l'état de l'art, grâce à plusieurs corpus et plusieurs métriques, qui permettent une évaluation complète des différents aspects de la tâche.
2

Apprentissage à base de gradient pour l'extraction de caractéristiques dans les signaux sonores complexes

Lacoste, Alexandre January 2006 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
3

Algorithms for classifying recorded music by genre

Bergstra, James January 2006 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
4

Reconnaissance d'accords à partir de signaux audio par l'utilisation de gabarits théoriques

Oudre, Laurent 03 November 2010 (has links) (PDF)
Cette thèse s'inscrit dans le cadre du traitement du signal musical, en se focalisant plus particulièrement sur la transcription automatique de signaux audio en accords. En effet, depuis une dizaine d'années, de nombreux travaux visent à représenter les signaux musicaux de la façon la plus compacte et pertinente possible, par exemple dans un but d'indexation ou de recherche par similarité. La transcription en accords constitue une façon simple et robuste d'extraire l'information harmonique et rythmique des chansons et peut notamment être utilisée par les musiciens pour rejouer les morceaux. Nous proposons deux approches pour la reconnaissance automatique d'accords à partir de signaux audio, qui offrent la particularité de se baser uniquement sur des gabarits d'accords théoriques, c'est à dire sur la définition des accords. En particulier, nos systèmes ne nécessitent ni connaissance particulière sur l'harmonie du morceau, ni apprentissage. Notre première approche est déterministe, et repose sur l'utilisation conjointe de gabarits d'accords théoriques, de mesures d'ajustement et de post-traitement par filtrage. On extrait tout d'abord des vecteurs de chroma du signal musical, qui sont ensuite comparés aux gabarits d'accords grâce à plusieurs mesures d'ajustement. Le critère de reconnaissance ainsi formé est ensuite filtré, afin de prendre en compte l'aspect temporel de la tâche. L'accord finalement détecté sur chaque trame est celui minimisant le critère de reconnaissance. Cette méthode a notamment été présentée lors d'une évaluation internationale (MIREX 2009) et a obtenu des résultats très honorables. Notre seconde approche est probabiliste, et réutilise certains éléments présents dans notre méthode déterministe. En faisant un parallèle entre les mesures d'ajustement utilisées dans l'approche déterministe et des modèles de probabilité, on peut définir un cadre probabiliste pour la reconnaissance d'accords. Dans ce cadre, les probabilités de chaque accord dans le morceau sont évaluées grâce à un algorithme Espérance-Maximisation (EM). Il en résulte la détection, pour chaque chanson, d'un vocabulaire d'accords adapté, qui permet l'obtention d'une meilleure transcription en accords. Cette méthode est comparée à de nombreux systèmes de l'état de l'art, grâce à plusieurs corpus et plusieurs métriques, qui permettent une évaluation complète des différents aspects de la tâche.
5

Automatic music classification using boosting algorithms and auditory features

Casagrande, Norman January 2005 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
6

Modulation du réflexe acoustique de sursaut par la musique stimulante et relaxante

Richard, Marie-Andrée 08 1900 (has links)
La musique a la capacité d’induire et moduler les émotions, décomposées en deux dimensions : le niveau d’activation (relaxant-stimulant) et la valence émotionnelle (déplaisant-plaisant). Une façon de mesurer objectivement la valence musicale est par le réflexe acoustique de sursaut, une réaction de défense qui consiste en un clignement de l’oeil provoqué par un bruit fort et inattendu. Le réflexe est renforcé par la musique déplaisante et inhibée par la musique plaisante. Cependant, l’effet du niveau d’activation émotionnelle lors de l’écoute musicale demeure inconnu. Cette étude a donc pour objectif d’examiner la modulation du réflexe acoustique de sursaut par la musique stimulante et relaxante jugée plaisante. Basée sur les résultats d’études antérieures avec des images, notre hypothèse était que le réflexe serait plus faible dans la condition stimulante que dans la condition relaxante. Dans un devis intrasujet, 47 participants ont écouté de la musique relaxante et stimulante. Des bruits blancs courts et forts ont été rajoutés par-dessus les extraits afin de provoquer le réflexe de sursaut, dont son amplitude et sa latence ont été mesurées par électromyographie. Les résultats ont ensuite été comparés à ceux d’une condition non-musicale, constituée de sons environnementaux plaisants, afin d’explorer si la musique est plus efficace pour inhiber le réflexe. Finalement, des caractéristiques acoustiques, telles que la clarté de la pulsation, la densité acoustique, la dissonance et l’énergie, ont été extraites puis comparées entre les trois conditions pour explorer leur relation avec les paramètres du réflexe. Les résultats rapportent une modulation de la latence du réflexe de sursaut, dans laquelle celle-ci est plus longue dans la condition stimulante comparée à la condition relaxante. Cependant, aucune différence au niveau de l’amplitude n’a été observée. Seule la latence serait donc sensible au niveau d’activation des émotions musicales lorsque la musique est plaisante. Ensuite, la latence dans la condition non-musicale était aussi longue que celle dans la condition stimulante, suggérant que la musique n’est pas plus efficace que les sons non-musicaux pour inhiber le réflexe de sursaut. Finalement, comme l’amplitude et la latence n’ont pas le même patron de réponses, cette étude suggère que le réflexe de sursaut est aussi modulé par le traitement des caractéristiques acoustiques et que ceux-ci ont un effet différent sur ces deux paramètres. En conclusion, la latence du réflexe acoustique de sursaut est une bonne méthode pour mesurer le niveau d’activation des émotions musicales. De futures recherches pourront utiliser le paradigme de la modulation affective du réflexe de sursaut pour mesurer les effets des émotions musicales selon des facteurs individuels tels que l’âge et la dépression. / Music has the capacity to evoke and modulate emotions, divided by two dimensions: arousal (relaxing-stimulating), and valence (unpleasant-pleasant). Musical valence can be objectively measured by the acoustic startle reflex, a defensive reaction consisting of an eye blink provoked by a short and loud noise. This reflex is facilitated by unpleasant music and inhibited by pleasant music. However, the arousal effect while listening to music on the startle reflex remains unknown. This study therefore aims to explore the affective startle modulation by stimulating and relaxing music. In a within-subjects design, 47 participants listened to stimulating music, relaxing music and non-musical sounds. White noises (50 ms, 105 dB(A)) were added over the excerpts to induce startle while eyeblink magnitude and latency were measured by electromyography. Excerpts’ acoustic features were then extracted and compared through experimental conditions to explore their effect on startle modulation. Startle latency was longer in the stimulating condition compared to the relaxing one, but no differences in magnitude were found, partially confirming our predictions. Exploratory analyses suggest that startle modulation is also attributed to bottom-up processes of acoustic features, and that these latter impact differently magnitude and latency. In conclusion, this study highlights startle latency measure efficiently emotional arousal while listening to music, allowing future research to use the paradigm of affective startle reflex modulation to evaluate the effect of music on emotions considering individual factors, such as age and depression. It also paves the way for comparisons of the effect of emotions and acoustic features processes on the startle reflex modulation.
7

De l'usage des métadonnées dans l'objet sonore / The use of sound objects metadata

Debaecker, Jean 09 October 2012 (has links)
La reconnaissance des émotions dans la musique est un challenge industriel et académique. À l’heure de l’explosion des contenus multimédias, il nous importe de concevoir des ensembles structurés de termes, concepts et métadonnées facilitant l’organisation et l’accès aux connaissances. Notre problématique est la suivante : est-Il possible d'avoir une connaissance a priori de l'émotion en vue de son élicitation ? Autrement dit, dans quelles mesures est-Il possible d'inscrire les émotions ressenties à l'écoute d'une oeuvre musicale dans un régime de métadonnées et de bâtir une structure formelle algorithmique permettant d'isoler le mécanisme déclencheur des émotions ? Est-Il possible de connaître l'émotion que l'on ressentira à l'écoute d'une chanson, avant de l'écouter ? Suite à l'écoute, son élicitation est-Elle possible ? Est-Il possible de formaliser une émotion dans le but de la sauvegarder et de la partager ? Nous proposons un aperçu de l'existant et du contexte applicatif ainsi qu'une réflexion sur les enjeux épistémologiques intrinsèques et liés à l'indexation même de l'émotion : à travers lune démarche psychologique, physiologique et philosophique, nous proposerons un cadre conceptuel de cinq démonstrations faisant état de l'impossible mesure de l'émotion, en vue de son élicitation. Une fois dit à travers notre cadre théorique qu'il est formellement impossible d'indexer les émotions, il nous incombe de comprendre la mécanique d'indexation cependant proposée par les industriels et académiques. Nous proposons, via l'analyse d'enquêtes quantitatives et qualitatives, la production d'un algorithme effectuant des préconisationsd'écoute d’œuvres musicales. / Emotion recognition in music is an industrial and academic challenge. In the age of multimedia content explosion, we mean to design structured sets of terms, concepts and metadata facilitating access to organized knowledge. Here is our research question : can we have an a priori knowledge of emotion that could be elicited afterwards ? In other words, to what extent can we record emotions felt while listening to music, so as to turn them into metadata ? Can we create an algorithm enabling us to detect how emotions are released ? Are we likely to guess ad then elicit the emotion an individual will feel before listening to a particular song ? Can we formalize emotions to save, record and share them ? We are giving an overview of existing research, and tackling intrinsic epistemological issues related to emotion existing, recording and sharing out. Through a psychological, physiological ad philosophical approach, we are setting a theoretical framework, composed of five demonstrations which assert we cannot measure emotions in order to elicit them. Then, a practical approach will help us to understand the indexing process proposed in academic and industrial research environments. Through the analysis of quantitative and qualitative surveys, we are defining the production of an algorithm, enabling us to recommend musical works considering emotion.
8

Apprentissage de représentations musicales à l'aide d'architectures profondes et multiéchelles

Hamel, Philippe 05 1900 (has links)
L'apprentissage machine (AM) est un outil important dans le domaine de la recherche d'information musicale (Music Information Retrieval ou MIR). De nombreuses tâches de MIR peuvent être résolues en entraînant un classifieur sur un ensemble de caractéristiques. Pour les tâches de MIR se basant sur l'audio musical, il est possible d'extraire de l'audio les caractéristiques pertinentes à l'aide de méthodes traitement de signal. Toutefois, certains aspects musicaux sont difficiles à extraire à l'aide de simples heuristiques. Afin d'obtenir des caractéristiques plus riches, il est possible d'utiliser l'AM pour apprendre une représentation musicale à partir de l'audio. Ces caractéristiques apprises permettent souvent d'améliorer la performance sur une tâche de MIR donnée. Afin d'apprendre des représentations musicales intéressantes, il est important de considérer les aspects particuliers à l'audio musical dans la conception des modèles d'apprentissage. Vu la structure temporelle et spectrale de l'audio musical, les représentations profondes et multiéchelles sont particulièrement bien conçues pour représenter la musique. Cette thèse porte sur l'apprentissage de représentations de l'audio musical. Des modèles profonds et multiéchelles améliorant l'état de l'art pour des tâches telles que la reconnaissance d'instrument, la reconnaissance de genre et l'étiquetage automatique y sont présentés. / Machine learning (ML) is an important tool in the field of music information retrieval (MIR). Many MIR tasks can be solved by training a classifier over a set of features. For MIR tasks based on music audio, it is possible to extract features from the audio with signal processing techniques. However, some musical aspects are hard to extract with simple heuristics. To obtain richer features, we can use ML to learn a representation from the audio. These learned features can often improve performance for a given MIR task. In order to learn interesting musical representations, it is important to consider the particular aspects of music audio when building learning models. Given the temporal and spectral structure of music audio, deep and multi-scale representations are particularly well suited to represent music. This thesis focuses on learning representations from music audio. Deep and multi-scale models that improve the state-of-the-art for tasks such as instrument recognition, genre recognition and automatic annotation are presented.
9

Un modèle pour la gestion des séquences temporelles synchronisées. Application aux données musicales symboliques.

Faget, Zoé 06 December 2011 (has links) (PDF)
La première partie de ma thèse est la description d'un modèle algébrique pour la gestion des séquences temporelles synchronisées. Ce modèle est une extension du modèle relationnel classique auquel on ajoute un type nouveau, le type séquence temporelle. L'algèbre relationnelle est augmentée de trois opérateurs dédiés à ce nouveau type. Ces opérateurs permettent de retrouver toutes les opérations classiquement conduites sur des séquences temporelles. Le langage utilisateur correspondant est exposé, ainsi que de nombreux exemples, puisés notamment dans le domaine de la gestion des partitions symboliques. La seconde partie est la description d'un index permettant de réaliser plusieurs types de recherches dans des partitions symboliques (exacte, transposée, avec ou sans rythme et approchée). Il repose notamment sur la notion de signature algébrique. Dans la dernière partie, je décris une plateforme dédiée à la gestion du contenu musical symbolique qui est une application des deux précédentes parties.
10

Apprentissage de représentations musicales à l'aide d'architectures profondes et multiéchelles

Hamel, Philippe 05 1900 (has links)
L'apprentissage machine (AM) est un outil important dans le domaine de la recherche d'information musicale (Music Information Retrieval ou MIR). De nombreuses tâches de MIR peuvent être résolues en entraînant un classifieur sur un ensemble de caractéristiques. Pour les tâches de MIR se basant sur l'audio musical, il est possible d'extraire de l'audio les caractéristiques pertinentes à l'aide de méthodes traitement de signal. Toutefois, certains aspects musicaux sont difficiles à extraire à l'aide de simples heuristiques. Afin d'obtenir des caractéristiques plus riches, il est possible d'utiliser l'AM pour apprendre une représentation musicale à partir de l'audio. Ces caractéristiques apprises permettent souvent d'améliorer la performance sur une tâche de MIR donnée. Afin d'apprendre des représentations musicales intéressantes, il est important de considérer les aspects particuliers à l'audio musical dans la conception des modèles d'apprentissage. Vu la structure temporelle et spectrale de l'audio musical, les représentations profondes et multiéchelles sont particulièrement bien conçues pour représenter la musique. Cette thèse porte sur l'apprentissage de représentations de l'audio musical. Des modèles profonds et multiéchelles améliorant l'état de l'art pour des tâches telles que la reconnaissance d'instrument, la reconnaissance de genre et l'étiquetage automatique y sont présentés. / Machine learning (ML) is an important tool in the field of music information retrieval (MIR). Many MIR tasks can be solved by training a classifier over a set of features. For MIR tasks based on music audio, it is possible to extract features from the audio with signal processing techniques. However, some musical aspects are hard to extract with simple heuristics. To obtain richer features, we can use ML to learn a representation from the audio. These learned features can often improve performance for a given MIR task. In order to learn interesting musical representations, it is important to consider the particular aspects of music audio when building learning models. Given the temporal and spectral structure of music audio, deep and multi-scale representations are particularly well suited to represent music. This thesis focuses on learning representations from music audio. Deep and multi-scale models that improve the state-of-the-art for tasks such as instrument recognition, genre recognition and automatic annotation are presented.

Page generated in 0.1671 seconds