Spelling suggestions: "subject:"techniques numérique""
61 |
Estimation de la structure de morceaux de musique par analyse multi-critères et contrainte de régularitéSargent, Gabriel 21 February 2013 (has links) (PDF)
Les récentes évolutions des technologies de l'information et de la communication font qu'il est aujourd'hui facile de consulter des catalogues de morceaux de musique conséquents. De nouvelles représentations et de nouveaux algorithmes doivent de ce fait être développés afin de disposer d'une vision représentative de ces catalogues et de naviguer avec agilité dans leurs contenus. Ceci nécessite une caractérisation efficace des morceaux de musique par l'intermédiaire de descriptions macroscopiques pertinentes. Dans cette thèse, nous nous focalisons sur l'estimation de la structure des morceaux de musique : il s'agit de produire pour chaque morceau une description de son organisation par une séquence de quelques dizaines de segments structurels, définis par leurs frontières (un instant de début et un instant de fin) et par une étiquette représentant leur contenu sonore.La notion de structure musicale peut correspondre à de multiples acceptions selon les propriétés musicales choisies et l'échelle temporelle considérée. Nous introduisons le concept de structure "sémiotique" qui permet de définir une méthodologie d'annotation couvrant un vaste ensemble de styles musicaux. La détermination des segments structurels est fondée sur l'analyse des similarités entre segments au sein du morceau, sur la cohérence de leur organisation interne (modèle "système-contraste") et sur les relations contextuelles qu'ils entretiennent les uns avec les autres. Un corpus de 383 morceaux a été annoté selon cette méthodologie et mis à disposition de la communauté scientifique.En termes de contributions algorithmiques, cette thèse se concentre en premier lieu sur l'estimation des frontières structurelles, en formulant le processus de segmentation comme l'optimisation d'un coût composé de deux termes~: le premier correspond à la caractérisation des segments structurels par des critères audio et le second reflète la régularité de la structure obtenue en référence à une "pulsation structurelle". Dans le cadre de cette formulation, nous comparons plusieurs contraintes de régularité et nous étudions la combinaison de critères audio par fusion. L'estimation des étiquettes structurelles est pour sa part abordée sous l'angle d'un processus de sélection d'automates à états finis : nous proposons un critère auto-adaptatif de sélection de modèles probabilistes que nous appliquons à une description du contenu tonal. Nous présentons également une méthode d'étiquetage des segments dérivée du modèle système-contraste.Nous évaluons différents systèmes d'estimation automatique de structure musicale basés sur ces approches dans le cadre de campagnes d'évaluation nationales et internationales (Quaero, MIREX), et nous complétons cette étude par quelques éléments de diagnostic additionnels.
|
62 |
Propagation de fronts et p-laplacien normalisé sur graphes : algorithmes et applications au traitement d'images et de données.Desquesnes, Xavier 07 December 2012 (has links) (PDF)
Cette thèse s'intéresse à la transcription d'équations aux dérivées partielles vers des domaines discrets en exploitant le formalisme des équations aux différences partielles définies sur des graphes pondérés. Dans une première partie, nous proposons une transcription de l'opérateur p-laplacien normalisé au domaine des graphes comme une combinaison linéaire entre le laplacien infini non-local et le laplacien normalisé (ces deux opérateurs étant discrets). Cette adaptation peut être considérée comme une nouvelle classe d'opérateurs p-laplaciens sur graphes, qui interpolent entre le laplacien infini non-local et le laplacien normalisé. Dans une seconde partie, nous nous intéressons aux équations de propagation de fronts sur des graphes de topologie arbitraire. Ces équations sont obtenues par la transcription de la méthode des ensembles de niveaux, définie en continu, vers une formulation discrète définie sur le domaine des graphes. Au delà de la transcription en elle-même, nous proposons une formulation générale et des algorithmes efficaces pour la propagation simultanées de plusieurs fronts évoluant sur un graphe. Les approches proposées dans ces deux premières parties donnent lieu à de nombreuses applications en segmentation d'images et classification de données que nous illustrons dans ce manuscrit. Enfin, dans une troisième partie, nous présentons une application à l'aide au diagnostic informatisé concrétisant l'emploi des différents outils proposés dans les deux premières parties. Nous présentons également le logiciel Antarctic développé au cours de cette thèse.
|
63 |
Characterization and Colocalization of Tissue-Based Biomarker Expression by Quantitative Image Analysis: Development and Extraction of Novel FeaturesMoles Lopez, Xavier 25 March 2014 (has links)
Proteins are the actual actors in the (normal or disrupted) physiological processes and immunohistochemistry (IHC) is a very efficient mean of visualizing and locating protein expression in tissue samples. By comparing pathologic and normal tissue, IHC is thus able to evidence protein expression alterations. This is the reason why IHC plays a grow- ing role to evidence tissue-based biomarkers in clinical pathology for diagnosing var- ious diseases and directing personalized therapy. Therefore, IHC biomarker evaluation significantly impacts the adequacy of the therapeutic choices for patients with serious pathologies, such as cancer. However, this evaluation may be time-consuming and dif- ficult to apply in practice due to the absence of precise positive cut-off values as well as staining (i.e. protein expression) heterogeneity intra- and inter-samples. Quantifying IHC staining patterns has thus become a crucial need in histopathology. For this task, automated image analysis has multiple advantages, such as avoiding the evidenced ef- fects of human subjectivity. The recent introduction of whole-slide scanners opened a wide range of possibilities for addressing challenging image analysis problems, includ- ing the identification of tissue-based biomarkers. Whole-slide scanners are devices that are able to image whole tissue slides at resolutions up to 0.1 micrometers per pixels, often referred to as virtual slides. In addition to quantification of IHC staining patterns, virtual slides are invaluable tools for the implementation of digital pathology work- flows. The present work aims to make several contributions towards this current digital shift in pathology. Our first contribution was to propose an automated virtual slide sharpness assessment tool. Although modern whole-slide scanner devices resolve most image standardization problems, focusing errors are still likely to be observed, requiring a sharpness assessment procedure. Our proposed tool will ensure that images provided to subsequent pathologist examination and image analysis are correctly focused. Virtual slides also enable the characterization of biomarker expression heterogeneity. Our sec- ond contribution was to propose a method to characterize the distribution of densely stained regions in the case of nuclear IHC biomarkers, with a focus on the identification of highly proliferative tumor regions by analyzing Ki67-stained tissue slides. Finally, as a third contribution, we propose an efficient mean to register virtual slides in order to characterize biomarker colocalization on adjacent tissue slides. This latter contribution opens new prospects for the analysis of more complex questions at the tissue level and for finely characterizing disease processes and/or treatment responses./Les protéines sont les véritables acteurs des processus physiologiques (normaux ou per- turbés) et l’immunohistochimie (IHC) est un moyen efficace pour visualiser et localiser leur expression au sein d’échantillons histologiques. En comparant des échantillons de tissus pathologiques et normaux, l’IHC permet de révéler des altérations dans des pro- fils d’expression protéique. C’est pourquoi l’IHC joue un rôle de plus en plus important pour mettre en évidence des biomarqueurs histologiques intervenant dans le diagnos- tic de diverses pathologies et dans le choix de thérapies personnalisées. L’évaluation de l’expression de biomarqueurs révélés par IHC a donc des répercussions importantes sur l’adéquation des choix thérapeutiques pour les patients souffrant de pathologies graves, comme le cancer. Cependant, cette évaluation peut être chronophage et difficile à appliquer en pratique, d’une part, à cause de l’hétérogénéité de l’expression protéique intra- et inter-échantillon, d’autre part, du fait de l’absence de critères de positivité bien définis. Il est donc devenu crucial de quantifier les profils d’expression de marquages IHC en histopathologie. A cette fin, l’analyse d’image automatisée possède de multiples avantages, comme celui d’éviter les effets de la subjectivité humaine, déjà démontrés par ailleurs. L’apparition récente des numériseurs de lames histologiques complètes, ou scanners de lames, a permis l’émergence d’un large éventail de possibilités pour traiter des problèmes d’analyse d’image difficiles menant à l’identification de biomar- queurs histologiques. Les scanners de lames sont des dispositifs capables de numériser des lames histologiques à une résolution pouvant atteindre 0,1 micromètre par pixel, expliquant la dénomination de "lames virtuelles" des images ainsi acquises. En plus de permettre la quantification des marquages IHC, les lames virtuelles sont des outils indis- pensables pour la mise en place d’un flux de travail numérique en pathologie. Le travail présenté ici vise à fournir plusieurs contributions au récent changement de cap vers une numérisation de la discipline médicale qu’est l’anatomie pathologique. Notre première contribution consiste en un outil permettant d’évaluer automatiquement la netteté des lames virtuelles. En effet, bien que les scanners de lames résolvent la plupart des pro- blèmes liés à la standardisation de l’acquisition, les erreurs de focus restent fréquentes, ce qui nécessite la mise en place d’une procédure de vérification de la netteté. L’outil que nous proposons assurera la netteté des images fournies à l’examen du pathologiste et à l’analyse d’image. Les lames virtuelles permettent aussi de caractériser l’hétérogénéité de l’expression de biomarqueurs. Ainsi, la deuxième contribution de ce travail repose sur une méthode permettant de caractériser la distribution de régions densément marquées par des biomarqueurs IHC nucléaires. Pour ce travail, nous nous sommes concentrés sur l’identification de régions tumorales présentant une forte activité proliférative en analysant des lames virtuelles révélant l’expression de la protéine Ki67. Finalement, la troisième contribution de ce travail fut de proposer un moyen efficace de recaler des lames virtuelles dans le but de caractériser la colocalisation de biomarqueurs IHC révé- lés sur des coupes de tissu adjacentes. Cette dernière contribution ouvre de nouvelles perspectives pour l’analyse de questions complexes au niveau histologique ainsi que la caractérisation fine de processus pathologiques et de réponses thérapeutiques. / Doctorat en Sciences de l'ingénieur / info:eu-repo/semantics/nonPublished
|
64 |
Modulation formats and digital signal processing for fiber-optic communications with coherent detectionFickers, Jessica 12 September 2014 (has links)
A débit de données élevé, typiquement supérieur à 10 Gsymboles/s, les lignes de<p>télécommunication optique à fibre monomode souffrent de façon accrue des distorsions<p>inhérentes à la fibre et à l’architecture de transmission. Nous pouvons classer les<p>effets de fibre en plusieurs catégories:<p>– Les effets linéaires. La dispersion chromatique est entraînée par la dépendance en<p>fréquence de l’indice de réfraction de la fibre. Il en résulte un élargissement des<p>bits optiques. La dispersion des modes de polarisation prend son origine dans<p>la biréfringence de la fibre. La modélisation de cet effet est compliquée par son<p>caractère stochastique et variable dans le temps.<p>– Les effets non linéaires prennent leur origine dans un indice de réfraction de<p>fibre qui dépend du champ optique. Ces effets peuvent être classés en deux<p>catégories. Premièrement, les effets intérieurs à un canal dont le plus influant<p>est l’automodulation de phase qui découle de l’effet Kerr optique :l’intensité<p>d’une impulsion lumineuse influence sa propre propagation. Deuxièmement, il<p>existe des conséquences de l’effet Kerr par lesquelles les différents canaux, se<p>propageant au sein de la même fibre, s’influencent mutuellement. Le phénomène<p>le plus influent parmi ces derniers est la modulation de phase croisée :l’intensité<p>d’un canal influence la propagation dans un canal voisin.<p>– Les pertes par diffusion Rayleigh sont compensées par les amplificateurs distribués<p>le long de la ligne de transmission. L’amplification optique par l’intermédiaire<p>d’émission stimulée dans des dispositifs dopés aux ions Erbium est<p>accompagnée d’émission spontanée amplifiée. Ceci entraîne la présence d’un<p>bruit blanc gaussien se superposant au signal à transmettre.<p>– La gestion des canaux dans le réseau optique implique la présence dans les noeuds<p>du réseau de filtres de sélection, des multiplexeurs et démultiplexeurs.<p>Nous examinerons aussi les effets de ligne non inhérents à la fibre mais à l’architecture<p>de transmission. Les modèles de l’émetteur et du récepteur représentent les imperfections<p>d’implémentation des composants optiques et électroniques.<p>Un premier objectif est de définir et évaluer un format de modulation robuste aux<p>imperfections introduites sur le signal par la fibre optique et par l’émetteur/récepteur.<p>Deux caractéristiques fondamentales du format de modulation, determinants pour la<p>performance du système, sont étudiés dans ce travail :<p>– La forme d’ onde. Les symboles complexes d’information sont mis en forme par<p>un filtre passe-bas dont le profil influence la robustesse du signal vis-à-vis des<p>effets de ligne.<p>– La distribution des fréquences porteuses. Les canaux de communication sont<p>disposés sur une grille fréquentielle qui peut être définie de manière électronique<p>par traitement de signal, de manière optique ou dans une configuration hybride.<p>Lorsque des porteuses optiques sont utilisées, le bruit de phase relatif entre lasers<p>entraîne des effets d’ influence croisée entre canaux. En revanche, les limites des<p>implémentations électroniques sont données par la puissance des architectures<p>numériques.<p>Le deuxième objectif est de concevoir des techniques de traitement numérique du<p>signal implémentées après échantillonnage au récepteur afin de retrouver l’information<p>transmise. Les fonctions suivantes seront implémentées au récepteur :<p>– Les techniques d’estimation et d’égalisation des effets linéaires introduits par la<p>fibre optique et par l’émetteur et le récepteur. Le principe de l’égalisation dans<p>le domaine fréquentiel est de transformer le canal convolutif dans le domaine<p>temporel en un canal multiplicatif qui peut dès lors être compensé à une faible<p>complexité de calcul par des multiplications scalaires. Les blocs de symboles<p>émis doivent être rendus cycliques par l’ajout de redondance sous la forme d’un<p>préfixe cyclique ou d’une séquence d’apprentissage. Les techniques d’égalisation<p>seront comparées en termes de performance (taux d’erreurs binaires, efficacité<p>spectrale) et en termes de complexité de calcul. Ce dernier aspect est particulièrement<p>crucial en vue de l’optimisation de la consommation énergétique du<p>système conçu.<p>– Les techniques de synchronisation des signaux en temps/fréquence. Avant de<p>pouvoir égaliser les effets linéaires introduits dans la fibre, le signal reçu devra<p>être synchronisé en temps et en fréquence sur le signal envoyé. La synchronisation<p>est généralement accomplie en deux étapes principales :l’acquisition réalisée<p>avant de recevoir les symboles d’information don’t l’objectif est une première<p>estimation/compensation des effets de manière "grossière", le tracking réalisé en<p>parallèle à l’estimation des symboles d’information dont l’objectif est l’estimation<p>/compensation des effets de manière "fine". Les algorithmes d’acquisition et<p>de tracking peuvent nécessiter l’envoi d’informations connues du récepteur.<p>– Les techniques d’estimation et de compensation des imperfections de fonctionnement<p>de l’émetteur et du récepteur. Une structure de compensation des effets<p>introduits par les composants optiques et électroniques sera développée afin de<p>relâcher les contraintes d’implémentation de l’émetteur et du récepteur.<p>Etant donné la très haute cadence à laquelle les échantillons du signal sont produits<p>(plusieurs dizaines de Gech/s), une attention particulière est portée à la complexité de<p>calcul des algorithmes proposés. / Doctorat en Sciences de l'ingénieur / info:eu-repo/semantics/nonPublished
|
65 |
High-resolution computer imaging in 2D and 3D for recording and interpreting archaeological excavations =: Le rôle de l'image numérique bidimensionelle et tridimensionelle de haute résolution dans l'enregistrement et l'interprétation des données archéologiquesAvern, Geoffrey J. January 2000 (has links)
Doctorat en philosophie et lettres / info:eu-repo/semantics/nonPublished
|
66 |
Développement et utilisation d'une plateforme d'imagerie optique quantitative, multimodale et non linéaire de la moelle épinière chez les animaux vivantsBélanger, Erik 19 April 2018 (has links)
La microscopie optique chez les animaux vivants est un outil de recherche prometteur pour l’avancement de la neurobiologie. L’imagerie intravitale offre un aperçu en direct de la réponse des cellules individuelles aux dommages affectant le système nerveux. Combinée à la vaste gamme de souris transgéniques disponibles commercialement et compatibles avec différents modèles animaux de maladies neurodégénératives, la microscopie in vivo favorise la compréhension du déroulement des pathologies et du fonctionnement des thérapies. Il est capital de travailler à l’émergence de cet outil, qui se présente comme une stratégie dotée d’un énorme potentiel. Le projet de doctorat décrit dans cette thèse porte donc sur le développement et l’utilisation d’une plateforme de microscopie quantitative, multimodale et non linéaire pour l’imagerie de la moelle épinière chez les animaux vivants. Premièrement, nous avons enrayé la dépendance en polarisation de l’intensité du signal de diffusion Raman cohérente (CARS, « coherent anti-Stokes Raman scattering »), de façon à adapter les images à l’interprétation histologique. Nous avons appliqué cette technique afin d’étudier l’histologie de la myéline de la moelle épinière du rat. En second lieu, nous avons proposé une nouvelle procédure d’analyse d’images compatible avec l’imagerie d’animaux vivants, dans le but de faire de l’histologie des axones myélinisés. Nous avons alors quantifié, dans un modèle de blessure par écrasement d’un nerf, la démyélinisation proximale et la remyélinisation distale au site de lésion ex vivo et in vivo respectivement. Troisièmement, nous montrons que l’imagerie de CARS de la moelle épinière de souris vivantes peut être réalisée avec un microendoscope, et ce tout en conservant sa compatibilité avec le signal de fluorescence par excitation à deux photons. Finalement, nous discutons d’une stratégie de traitement numérique d’images pour réduire les artefacts reliés au mouvement de l’animal. Cette technique permet l’étude histologique de la myéline et la quantification de la motilité des cellules microgliales dans leur environnement natif. En définitive, cette thèse démontre que la microscopie de CARS in vivo progresse peu à peu vers un outil grand public en neurobiologie. / Optical microscopy in living animals is a promising research tool for the evolution of neurobiology. Intravital imaging offers a live preview of how individual cells respond to the nervous system damages. Applying in vivo microscopy to a panoply of transgenic mice used with different animal models of neurodegenerative diseases promotes the understanding of the progress of pathologies and the comprehension of how therapies work. It is thus essential to promote the emergence of optical microscopy technologies in living animals because it is a strategy with great potential. Therefore, the project described in this doctoral thesis focuses on the development and use of a microscopy platform for quantitative, multimodal and nonlinear imaging of the spinal cord in living animals. First, we alleviated the polarization dependence of the coherent anti-Stokes Raman scattering (CARS) signal intensity. This strategy makes images more amenable to histological interpretation. With this technique, we studied the histology of myelin in the rat spinal cord. Secondly, we proposed a new image analysis procedure compatible with live animals imaging in order to achieve the histology of myelinated axons. We quantified the demyelination proximal, and remyelination distal to the crush site ex vivo and in vivo respectively. Third, we showed that CARS imaging of the spinal cord in living mice can be achieved with a microendoscope, and this while maintaining compatibility with the two-photon excitation fluorescence signal. Finally, we discuss a digital image processing strategy that reduces imaging artifacts related to movement of the animal. This technique allows the histological study of myelin and the quantification of the motility of microglial cells in their native environment. Ultimately, this thesis demonstrates that in vivo CARS microscopy progresses gradually towards a robust tool for research in neurobiology.
|
67 |
Étude des algorithmes d'approximation de fonctions de croyance généraliséesDjiknavorian, Pascal 20 April 2018 (has links)
La recherche présentée ici consiste à résoudre le problème de difficulté calculatoire de la fusion d’informations dans le cadre de la théorie de l’évidence de Dempster-Shafer, ainsi que celui de la théorie de Dezert-Smarandache. On présente des études sur l’utilisation d’une variété d’algorithmes d’approximation connus ainsi que sur un nouvel algorithme d’approximation. On présente aussi une étude sur les métriques connues de distance entre corps d’évidence ainsi que deux nouvelles métriques. Enfin, on montre une étude de la possibilité d’employer une méthode d’optimisation afin de sélectionner automatiquement les paramètres d’approximation à l’aide de critères de performance. Mots-clés : Dezert, Smarandache, Dempster, Shafer, Fusion, Fonctions de croyance. / This research is about the solving of the computational difficulty of data fusion in the evidence theory of Dempster-Shafer theory and Dezert-Smarandache theory. We study the use of a variety of known approximation algorithms as well as a new approximation algorithm that we propose. We also study known metrics between bodies of evidence as well as two new metrics that we develop. Finally, we study the possibility of using an optimization method to automatically select the parameters of approximation with performance criteria. Keywords: Dezert, Smarandache, Dempster, Shafer, Fusion, Belief functions.
|
68 |
Advanced numerical techniques for design and optimization of optical links employing nonlinear semiconductor optical amplifiersGhazisaeidi, Amirhossein 17 April 2018 (has links)
Le traitement de signal optique est une pierre angulaire de la prochaine génération de systèmes de communications optiques avancées. En raison de son comportement non-linéaire, l'amplificateur optique à semi-conducteur (SOA) constitue un élément essentiel du traitement de signal optique. Afin de concevoir et d'optimiser de tels systèmes, des outils d'analyses ultra performants sont nécessaires. Dans la présente thèse, un simulateur basé sur l'algorithme de Monte Carlo Multi Canonique (MMC) a été développé et utilisé afin d'analyser une importante fonctionnalité du traitement de signaux optiques, à savoir la suppression du bruit d'intensité du SOA dans les spectrum-sliced wavelength division multiplexed passive optical networks (SS-WDM PON). L'algorithme de MMC a été introduit au début des années 90 en physique statistique. Depuis 2003, il est utilisé par les chercheurs dans la communauté des communications optiques. Dans le premier chapitre de cette thèse, une brève introduction de la suppression du bruit d'intensité du SOA dans les SS-WDM, ainsi que l'algorithme MMC et la modélisation du SOA seront présentés. Dans le second chapitre, l'algorithme MMC a été utilisé pour la première fois, afin d'estimer les fonctions de densités de probabilités conditionnelles (PDF) des "0" et des "1" logiques au niveau du récepteur d'un lien SS-WDM, avec un utilisateur, assisté par un SOA. En exploitant les PDF, le taux d'erreur binaire (BER) a été estimé à la fois pour les systèmes SS-WDM classiques, les systèmes SS-WDM avec suppression de bruit d'intensité d'un SOA, et finalement les systèmes SS-WDM assisté par SOA, et ce, en tenant compte de l'effet des filtres sélecteurs de canaux. Une nouvelle technique de pattern warping est aussi introduite, et ce, afin de traiter l'interférence inter-symboles (ISI) dû a la mémoire du canal de communication. Les estimations des PDF et des BER sont validées par des mesures expérimentales. Résumé v Le chapitre trois est entièrement consacré à la question de l'ISI, en particulier l'effet dû à la dynamique du SOA, qui est aussi appelé l'effet de patterning. Pour ce faire, un lien avec une source laser à 10 Gb/s est considéré. L'objectif principal est de montrer la fiabilité du simulateur pour l'estimation des PDF conditionnelles des "0" et des "1" logiques reçus en présence de l'effet de patterning. De plus, une nouvelle méthode pour mesurer directement les PDF est proposée. Les PDF conditionnelles et les BER simulées sont comparés avec les mesures expérimentales. Le chapitre 4 porte sur les systèmes SS-WDM, toujours avec des SOA, comprenant plusieurs canaux. L'objectif est d'étudier l'impact des filtres optiques sur la performance du système et de montrer comment choisir leurs caractéristiques (bande passante, forme et espacement inter-canal) afin de maximiser l'efficacité spectrale. Dans cette étude, la suppression du bruit d'intensité du SOA et les codes correcteur d'erreurs sont considérés. Ces deux problèmes sont abordés pour la première fois dans cette thèse. On montre aussi pour la première fois que la parallélisasion de l'algorithme MMC peut facilement être utilisé, et ce, contrairement aux affirmations précédentes dans la littérature. Le prix à payer est la perte d'une petite fraction d'échantillons par cycle MMC par noeud de calcul. Les résultats de simulation des BER sont validés à l'aide de résultats publié par d'autres groupes de recherche. Dans le dernier chapitre, les performances des spectral amplitude coded optical division multiple access (SAC-OCDMA), avec et sans la suppression de bruit d'intensité du SOA, sont analysées pour la première fois. Les résultats simulés pour le cas de 2 et 3 utilisateurs actifs sont validés par rapport aux mesures déjà réalisées et publiés par notre groupe de recherche.
|
69 |
Estimation de la structure de morceaux de musique par analyse multi-critères et contrainte de régularité / Music structure estimation using multi-criteria analysis and regularity constraintsSargent, Gabriel 21 February 2013 (has links)
Les récentes évolutions des technologies de l'information et de la communication font qu'il est aujourd'hui facile de consulter des catalogues de morceaux de musique conséquents. De nouvelles représentations et de nouveaux algorithmes doivent de ce fait être développés afin de disposer d'une vision représentative de ces catalogues et de naviguer avec agilité dans leurs contenus. Ceci nécessite une caractérisation efficace des morceaux de musique par l'intermédiaire de descriptions macroscopiques pertinentes. Dans cette thèse, nous nous focalisons sur l'estimation de la structure des morceaux de musique : il s'agit de produire pour chaque morceau une description de son organisation par une séquence de quelques dizaines de segments structurels, définis par leurs frontières (un instant de début et un instant de fin) et par une étiquette représentant leur contenu sonore.La notion de structure musicale peut correspondre à de multiples acceptions selon les propriétés musicales choisies et l'échelle temporelle considérée. Nous introduisons le concept de structure “sémiotique" qui permet de définir une méthodologie d'annotation couvrant un vaste ensemble de styles musicaux. La détermination des segments structurels est fondée sur l'analyse des similarités entre segments au sein du morceau, sur la cohérence de leur organisation interne (modèle “système-contraste") et sur les relations contextuelles qu'ils entretiennent les uns avec les autres. Un corpus de 383 morceaux a été annoté selon cette méthodologie et mis à disposition de la communauté scientifique.En termes de contributions algorithmiques, cette thèse se concentre en premier lieu sur l'estimation des frontières structurelles, en formulant le processus de segmentation comme l'optimisation d'un coût composé de deux termes~: le premier correspond à la caractérisation des segments structurels par des critères audio et le second reflète la régularité de la structure obtenue en référence à une “pulsation structurelle". Dans le cadre de cette formulation, nous comparons plusieurs contraintes de régularité et nous étudions la combinaison de critères audio par fusion. L'estimation des étiquettes structurelles est pour sa part abordée sous l'angle d'un processus de sélection d'automates à états finis : nous proposons un critère auto-adaptatif de sélection de modèles probabilistes que nous appliquons à une description du contenu tonal. Nous présentons également une méthode d'étiquetage des segments dérivée du modèle système-contraste.Nous évaluons différents systèmes d'estimation automatique de structure musicale basés sur ces approches dans le cadre de campagnes d'évaluation nationales et internationales (Quaero, MIREX), et nous complétons cette étude par quelques éléments de diagnostic additionnels. / Recent progress in information and communication technologies makes it easier to access large collections of digitized music. New representations and algorithms must be developed in order to get a representative overview of these collections, and to browse their content efficiently. It is therefore necessary to characterize music pieces through relevant macroscopic descriptions. In this thesis, we focus on the estimation of the structure of music pieces : the goal is to produce for each piece a description of its organization by means of a sequence of a few dozen structural segments, each of them defined by its boundaries (starting time and ending time) and a label reflecting its audio content.The notion of music structure corresponds to a wide range of meanings depending on the musical properties and the temporal scale under consideration. We introduce an annotation methodology based on the concept of “semiotic structure" which covers a large variety of musical styles. Structural segments are determined through the analysis of their similarities within the music piece, the coherence of their inner organization (“system-contrast" model) and their contextual relationship. A corpus of 383 pieces has been annotated according to this methodology and released to the scientific community.In terms of algorithmic contributions, this thesis concentrates in the first place on the estimation of structural boundaries. We formulate the segmentation process as the optimization of a cost function which is composed of two terms. The first one corresponds to the characterization of structural segments by means of audio criteria. The second one relies on the regularity of the target structure with respect to a “structural pulsation period". In this context, we compare several regularity constraints and study the combination of audio criteria through fusion.Secondly, we consider the estimation of structural labels as a probabilistic finite-state automaton selection process : in this scope, we propose an auto-adaptive criterion for model selection, applied to a description of the tonal content. We also propose a labeling method derived from the system-contrast model.We evaluate several systems for structural segmentation of music based on these approaches in the context of national and international evaluation campaigns (Quaero, MIREX). Additional diagnostic is finally presented to complement this work.
|
70 |
Equations aux différences partielles définies sur des graphes pour le traitement d'images et de donnéesTa, Vinh Thong 02 December 2009 (has links) (PDF)
Cette thèse s'intéresse aux traitements d'images et de données non uniformes en utilisant le formalisme des équations aux différences partielles définies sur des graphes pondérés. Nous exploitons ce formalisme afin de transcrire et d'adapter des modèles définis dans le domaine continu vers des formulations discrètes. Les modèles continus considérés dans ce manuscrit proviennent du domaine du traitement des images et sont définis comme des modèles variationnels ou des approches basées sur des équations aux dérivées partielles. Nous nous sommes intéressés à des modèles de régularisation, à la morphologie mathématique et à l'équation eikonale. Afin de transcrire ces modèles définis dans le domaine continu vers des formulations discrètes, nous avons introduit une large famille de nouveaux opérateurs différentiels discrets définis sur des graphes pondérés: différences pondérées, gradients discrets, p-Laplacien. Ces opérateurs permettent de redéfinir les modèles continus considérés dans un cadre discret mais également de proposer un formalisme général permettant de considérer de nombreux problèmes liées aux traitements des images et, plus généralement, de données arbitraires. A partir des modèles discrets de régularisation, de morphologie mathématique et de l'équation eikonale, nous montrons dans ce manuscrit les potentialités de notre formalisme pour des applications telles que le filtrage, la simplification, la segmentation, le regroupement et la classification d'images et de données. Notre formalisme unifie également les traitements locaux et non locaux basés sur des patchs. Nous avons généralisé l'utilisation de ce type de configuration dans les problématiques considérées et montré la supériorité de ces schémas dans le contexte du traitement des images. Notre formalisme est basé sur des graphes pondérés. Cela nous permet d'étendre les modèles définis dans le domaine continu aux traitements de n'importe quel type de donnée pouvant être représenté par cette structure (par exemple des images, des collections d'images, des nuages de points, des variétés, des bases de données, etc.). Finalement, ces travaux de thèse permettent d'envisager de nombreuses pistes de recherche tant dans le domaine du traitement des images que dans des domaines tels que celui de l'apprentissage ou de la fouille de données.
|
Page generated in 0.064 seconds