• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 25
  • 21
  • 5
  • Tagged with
  • 51
  • 21
  • 16
  • 13
  • 10
  • 9
  • 8
  • 8
  • 7
  • 7
  • 7
  • 7
  • 7
  • 7
  • 7
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Robust target detection for Hyperspectral Imaging. / Détection robuste de cibles en imagerie Hyperspectrale.

Frontera Pons, Joana Maria 10 December 2014 (has links)
L'imagerie hyperspectrale (HSI) repose sur le fait que, pour un matériau donné, la quantité de rayonnement émis varie avec la longueur d'onde. Les capteurs HSI mesurent donc le rayonnement des matériaux au sein de chaque pixel pour un très grand nombre de bandes spectrales contiguës et fournissent des images contenant des informations à la fois spatiale et spectrale. Les méthodes classiques de détection adaptative supposent généralement que le fond est gaussien à vecteur moyenne nul ou connu. Cependant, quand le vecteur moyen est inconnu, comme c'est le cas pour l'image hyperspectrale, il doit être inclus dans le processus de détection. Nous proposons dans ce travail d'étendre les méthodes classiques de détection pour lesquelles la matrice de covariance et le vecteur de moyenne sont tous deux inconnus.Cependant, la distribution statistique multivariée des pixels de l'environnement peut s'éloigner de l'hypothèse gaussienne classiquement utilisée. La classe des distributions elliptiques a été déjà popularisée pour la caractérisation de fond pour l’HSI. Bien que ces modèles non gaussiens aient déjà été exploités dans la modélisation du fond et dans la conception de détecteurs, l'estimation des paramètres (matrice de covariance, vecteur moyenne) est encore généralement effectuée en utilisant des estimateurs conventionnels gaussiens. Dans ce contexte, nous analysons de méthodes d’estimation robuste plus appropriées à ces distributions non-gaussiennes : les M-estimateurs. Ces méthodes de détection couplées à ces nouveaux estimateurs permettent d'une part, d'améliorer les performances de détection dans un environment non-gaussien mais d'autre part de garder les mêmes performances que celles des détecteurs conventionnels dans un environnement gaussien. Elles fournissent ainsi un cadre unifié pour la détection de cibles et la détection d'anomalies pour la HSI. / Hyperspectral imaging (HSI) extends from the fact that for any given material, the amount of emitted radiation varies with wavelength. HSI sensors measure the radiance of the materials within each pixel area at a very large number of contiguous spectral bands and provide image data containing both spatial and spectral information. Classical adaptive detection schemes assume that the background is zero-mean Gaussian or with known mean vector that can be exploited. However, when the mean vector is unknown, as it is the case for hyperspectral imaging, it has to be included in the detection process. We propose in this work an extension of classical detection methods when both covariance matrix and mean vector are unknown.However, the actual multivariate distribution of the background pixels may differ from the generally used Gaussian hypothesis. The class of elliptical distributions has already been popularized for background characterization in HSI. Although these non-Gaussian models have been exploited for background modeling and detection schemes, the parameters estimation (covariance matrix, mean vector) is usually performed using classical Gaussian-based estimators. We analyze here some robust estimation procedures (M-estimators of location and scale) more suitable when non-Gaussian distributions are assumed. Jointly used with M-estimators, these new detectors allow to enhance the target detection performance in non-Gaussian environment while keeping the same performance than the classical detectors in Gaussian environment. Therefore, they provide a unified framework for target detection and anomaly detection in HSI.
12

Modélisation et utilisation des erreurs de pseudodistances GNSS en environnement transport pour l'amélioration des performances de localisation

Viandier, Nicolas 07 June 2011 (has links) (PDF)
Les GNSS sont désormais largement présents dans le domaine des transports. Actuellement, la communauté scientifique désire développer des applications nécessitant une grande précision, disponibilité et intégrité.Ces systèmes offrent un service de position continu. Les performances sont définies par les paramètres du système mais également par l'environnement de propagation dans lequel se propagent les signaux. Les caractéristiques de propagation dans l'atmosphère sont connues. En revanche, il est plus difficile de prévoir l'impact de l'environnement proche de l'antenne, composé d'obstacles urbains. L'axe poursuivit par le LEOST et le LAGIS consiste à appréhender l'environnement et à utiliser cette information en complément de l'information GNSS. Cette approche vise à réduire le nombre de capteurs et ainsi la complexité du système et son coût. Les travaux de recherche menés dans le cadre de cette thèse permettent principalement de proposer des modélisations d'erreur de pseudodistances et des modélisations de l'état de réception encore plus réalistes. Après une étape de caractérisation de l'erreur, plusieurs modèles d'erreur de pseudodistance sont proposés. Ces modèles sont le mélange fini de gaussiennes et le mélange de processus de Dirichlet. Les paramètres du modèle sont estimés conjointement au vecteur d'état contenant la position grâce à une solution de filtrage adaptée comme le filtre particulaire Rao-Blackwellisé. L'évolution du modèle de bruit permet de s'adapter à l'environnement et donc de fournir une localisation plus précise. Les différentes étapes des travaux réalisés dans cette thèse ont été testées et validées sur données de simulation et réelles.
13

Communication silencieuse: conversion de la parole chuchotée en parole claire

Tran, Viet-Anh 28 January 2010 (has links) (PDF)
La parole silencieuse ou murmurée est définie comme la production articulée de sons, avec très peu de vibration des cordes vocales dans le cas du chuchotement, et aucune vibration dans le cas du murmure, produite par les mouvements et les interactions des organes de la parole tels que la langue, le voile du palais, les lèvres, etc., dans le but d'éviter d'être entendue par plusieurs personnes. La parole silencieuse ou murmurée est utilisée généralement pour la communication privée et confidentielle ou peut être employée par les personnes présentant un handicap laryngé et qui ne peuvent pas parler normalement. Cependant, il est difficile d'employer directement la parole silencieuse (murmurée) pour la communication face à face ou avec un téléphone portable parce que le contenu linguistique et l'information paralinguistique dans le message prononcé sont dégradés fortement quand le locuteur murmure ou chuchote. Une piste récente de recherche est donc celle de la conversion de la parole silencieuse (ou murmurée) en voix claire afin d'avoir une voix plus intelligible et plus naturelle. Avec une telle conversion, des applications potentielles telles que la téléphonie silencieuse " ou des systèmes d'aides robustes pour les handicaps laryngés deviendraient envisageables. Notre travail dans cette thèse se concentre donc sur cette piste.
14

Un habitat capable de reconna??tre les activit??s planifi??es dans un calendrier ??lectronique

Nivollet, Pierre-Yves January 2013 (has links)
Le vieillissement de la population est un probl??me qui touche de plus en plus le monde occidental et a pour cons??quence de rendre difficile le maintien ?? domicile des personnes ??g??es, ??tant donn?? les co??ts engendr??s et le manque de personnel soignant. D'un autre c??t??, la pr??sence des technologies dans les domiciles devient r??pandue et ce, ?? des prix abordables. On est d??sormais capable de r??cup??rer facilement des informations sur ce qui se passe ?? l'int??rieur de la maison et ainsi agir en cons??quence. Le maintien ?? domicile devient alors possible en offrant une assistance aux personnes ??g??es qui soit port??e par la technologie, afin de les aider ?? r??aliser leurs activit??s de la vie quotidienne. ?? l'aide d'un calendrier ??lectronique dans lequel seront not??es toutes les activit??s ?? r??aliser dans la journ??e, on est en mesure d'utiliser les donn??es fournies par l'appartement pour v??rifier qu'elles ont bien ??t?? r??alis??es, et ainsi offrir des rappels efficaces pour ces activit??s. C'est vers cette probl??matique que se tourne ce m??moire en offrant un outil pouvant utiliser et interpr??ter les informations provenant de l'int??rieur d'un habitat, combin??es ?? celles venant d'un calendrier ??lectronique, dans le but d'aider ?? la r??alisation des t??ches de la vie quotidienne. Cet outil est compos?? de deux programmes principaux: le calendrier ??lectronique et le programme de reconnaissance d'activit??, les deux fonctionnant en collaboration. Ce m??moire pr??sente en premier lieu l'informatique ubiquitaire, les moyens de rappel existants ainsi que les diff??rentes m??thodes pour faire de la reconnaissance d'activit?? dans un appartement intelligent. Suit une description du calendrier ??lectronique permettant aux personnes ??g??es d'entrer correctement leurs activit??s ?? rappeler. Ensuite est d??crit le programme de reconnaissance d'activit??, qui interpr??te les ??v??nements des capteurs pour reconna??tre les activit??s r??alis??es. Le chapitre suivant traite de la collaboration entre le calendrier et le programme de reconnaissance d'activit?? afin qu'ils soient utilisables dans l'appartement. Une exp??rimentation r??alis??e dans l'appartement intelligent du DOMUS cherche ?? fournir une preuve de concept du rappel d'activit?? en fonction de ce qui se passe dans l'appartement.
15

Implémentation et applications d'algorithmes fondés sur la théorie de la fonctionnelle de la densité dépendante du temps dans les logiciels à la base des fonctions gaussiennes et ondelettes

Natarajan, Bhaarathi 19 January 2012 (has links) (PDF)
L'interaction entre la matière et le rayonnement est un domaine bien établi de la physique. Pour un physico-chimiste, cette interaction peut être utilisée comme une sonde (spectroscopie) ou pour provoquer des réactions chimiques (photo-chimie). Les mécanismes des réactions photochimiques sont difficiles à étudier expérimentalement et même les études les plus sophistiquées de spectroscopies femtosecondes peuvent bénéficier énormément des simulations théoriques.Les résultats spectroscopiques d'ailleurs ont souvent besoin des calculs théoriques pour l'analyse de leurs spectres. Les méthodes théoriques pour décrire les processus photochimiques ont été principalement développées en utilisant le concept de la fonction d'onde à N corps et ont eu des succès remarquables. Cependant de telles approches sont généralement limitées à des petites ou moyennes molécules. Heureusement la théorie de la fonctionnelle de la densité dépendant du temps (TD-DFT) a émergé comme une méthode simple de calcul pouvant être appliquée à des molécules plus grandes, avec une précision qui est souvent, mais pas toujours, semblable à la précision provenant des méthodes basés sur la fonction d'onde à N électrons. Une partie de cette thèse consiste à surmonter les difficultés des approximations utilisées de nos jours en TD-DFT. En particulier, nous avons examiné la qualité des intersections coniques quand l'approche du retournement de spin non collinéaire de Ziegler-Wang est utilisée et nous avons montré que l'approche du retournement de spin, parfois ,améliore dans des cas particuliers, mais que c'est n'est pas une solution générale pour mieux décrire les intersections coniques dans les simulations photochimiques basées sur la TD-DFT. La plupart des parties de cette thèse traite d'améliorations algorithmiques, soit pour améliorer l'analyse des résultats de la TD-DFT, soit pour étendre les calculs de TD-DFT à de grandes molécules. L'implémentation de l'analyse automatique des symétries des orbitales moléculaires dans deMon2k est une contribution pour améliorer l'analyse des résultats de la TD-DFT. Cela a aussi servi comme une introduction au projet de programmation majeur. La contribution méthodologique principale dans cette thèse est l'implémentation des équations de Casida dans le code BigDFT fondé sur le formalisme des ondelettes. Cette implémentation a aussi permis une analyse détaillée des arguments positifs et négatifs de l'utilisation de la TD-DFT fondée sur les ondelettes. On montre qu'il est plus facile d'obtenir des orbitales moléculaires précises qu'avec deMon2k. Par contre, la contribution des orbitales inoccupées est plus problématiques qu'avec un code de gaussienne comme deMon2k. Finalement, les équations de base des gradients analytiques des états excités sont dérivées pour la TD-DFT. La thèse se termine avec quelques perspectives de travaux futurs.
16

Implémentation et applications d'algorithmes fondés sur la théorie de la fonctionnelle de la densité dépendante du temps dans les logiciels à la base des fonctions gaussiennes et ondelettes / Implementation, Testing, and Application of Time-Dependent Density-Functional Theory Algorithms for Gaussian- and Wavelet-based Programs

Natarajan, Bhaarathi 19 January 2012 (has links)
L'interaction entre la matière et le rayonnement est un domaine bien établi de la physique. Pour un physico-chimiste, cette interaction peut être utilisée comme une sonde (spectroscopie) ou pour provoquer des réactions chimiques (photo-chimie). Les mécanismes des réactions photochimiques sont difficiles à étudier expérimentalement et même les études les plus sophistiquées de spectroscopies femtosecondes peuvent bénéficier énormément des simulations théoriques.Les résultats spectroscopiques d'ailleurs ont souvent besoin des calculs théoriques pour l'analyse de leurs spectres. Les méthodes théoriques pour décrire les processus photochimiques ont été principalement développées en utilisant le concept de la fonction d'onde à N corps et ont eu des succès remarquables. Cependant de telles approches sont généralement limitées à des petites ou moyennes molécules. Heureusement la théorie de la fonctionnelle de la densité dépendant du temps (TD-DFT) a émergé comme une méthode simple de calcul pouvant être appliquée à des molécules plus grandes, avec une précision qui est souvent, mais pas toujours, semblable à la précision provenant des méthodes basés sur la fonction d'onde à N électrons. Une partie de cette thèse consiste à surmonter les difficultés des approximations utilisées de nos jours en TD-DFT. En particulier, nous avons examiné la qualité des intersections coniques quand l'approche du retournement de spin non collinéaire de Ziegler-Wang est utilisée et nous avons montré que l'approche du retournement de spin, parfois ,améliore dans des cas particuliers, mais que c'est n'est pas une solution générale pour mieux décrire les intersections coniques dans les simulations photochimiques basées sur la TD-DFT. La plupart des parties de cette thèse traite d'améliorations algorithmiques, soit pour améliorer l'analyse des résultats de la TD-DFT, soit pour étendre les calculs de TD-DFT à de grandes molécules. L'implémentation de l'analyse automatique des symétries des orbitales moléculaires dans deMon2k est une contribution pour améliorer l'analyse des résultats de la TD-DFT. Cela a aussi servi comme une introduction au projet de programmation majeur. La contribution méthodologique principale dans cette thèse est l'implémentation des équations de Casida dans le code BigDFT fondé sur le formalisme des ondelettes. Cette implémentation a aussi permis une analyse détaillée des arguments positifs et négatifs de l'utilisation de la TD-DFT fondée sur les ondelettes. On montre qu'il est plus facile d'obtenir des orbitales moléculaires précises qu'avec deMon2k. Par contre, la contribution des orbitales inoccupées est plus problématiques qu'avec un code de gaussienne comme deMon2k. Finalement, les équations de base des gradients analytiques des états excités sont dérivées pour la TD-DFT. La thèse se termine avec quelques perspectives de travaux futurs. / The interaction of light with matter is a well-established domain of physical science. For a chemical physicist, this interaction may be used as a probe (spectroscopy) or to induce chemical reactions (photo- chemistry.) Photochemical reaction mechanisms are difficult to study experimentally and even the most sophisticated modern femtosecond spectroscopic studies can benefit enormously from the light of theoret- ical simulations. Spectroscopic assignments often also require theoreti- cal calculations. Theoretical methods for describing photoprocesses have been developed based upon wave-function theory and show remarkable success when going to sophisticated higher-order approxi- mations. However such approaches are typically limited to small or at best medium-sized molecules. Fortunately time-dependent density- functional theory (TD-DFT) has emerged as a computationally-simpler method which can be applied to larger molecules with an accuracy which is often, but not always, similar to high-quality wave-function calculations. Part of this thesis concerns overcoming difficulties in- volving the approximate functionals used in present-day TD-DFT. In particular, we have examined the quality of conical intersections when the Ziegler-Wang noncollinear spin-flip approach is used and have shown that the spin-flip approach has merit as a particular solution in particular cases but is not a general solution to improving the de- scription of conical intersections in photochemical simulations based upon TD-DFT. Most of this thesis concerns algorithmic improvements aimed at either improving the analysis of TD-DFT results or extending practical TD-DFT calculations to larger molecules. The implementa- tion of automatic molecular orbital symmetry analysis in deMon2k is one contribution to improving the analysis of TD-DFT results. It also served as an introduction to a major programming project. The major methodological contribution in this thesis is the implementation of Casida's equations in the wavelet-based code BigDFT and the subse- quent analysis of the pros and cons of wavelet-based TD-DFT where it is shown that accurate molecular orbitals are more easily obtained in BigDFT than with deMon2k but that handling the contribution of unoccupied orbitals in wavelet-based TD-DFT is potentially more problematic than it is in a gaussian-based TD-DFT code such as de- Mon2k. Finally the basic equations for TD-DFT excited state gradients are derived. The thesis concludes with some perspectives about future work.
17

On unsupervised learning in high dimension / Sur l'apprentissage non supervisé en haute dimension

Sebbar, Mehdi 12 December 2017 (has links)
Dans ce mémoire de thèse, nous abordons deux thèmes, le clustering en haute dimension d'une part et l'estimation de densités de mélange d'autre part. Le premier chapitre est une introduction au clustering. Nous y présentons différentes méthodes répandues et nous nous concentrons sur un des principaux modèles de notre travail qui est le mélange de Gaussiennes. Nous abordons aussi les problèmes inhérents à l'estimation en haute dimension et la difficulté d'estimer le nombre de clusters. Nous exposons brièvement ici les notions abordées dans ce manuscrit. Considérons une loi mélange de K Gaussiennes dans R^p. Une des approches courantes pour estimer les paramètres du mélange est d'utiliser l'estimateur du maximum de vraisemblance. Ce problème n'étant pas convexe, on ne peut garantir la convergence des méthodes classiques. Cependant, en exploitant la biconvexité de la log-vraisemblance négative, on peut utiliser la procédure itérative 'Expectation-Maximization' (EM). Malheureusement, cette méthode n'est pas bien adaptée pour relever les défis posés par la grande dimension. Par ailleurs, cette méthode requiert de connaître le nombre de clusters. Le Chapitre 2 présente trois méthodes que nous avons développées pour tenter de résoudre les problèmes décrits précédemment. Les travaux qui y sont exposés n'ont pas fait l'objet de recherches approfondies pour diverses raisons. La première méthode, 'lasso graphique sur des mélanges de Gaussiennes', consiste à estimer les matrices inverses des matrices de covariance dans l'hypothèse où celles-ci sont parcimonieuses. Nous adaptons la méthode du lasso graphique de [Friedman et al., 2007] sur une composante dans le cas d'un mélange et nous évaluons expérimentalement cette méthode. Les deux autres méthodes abordent le problème d'estimation du nombre de clusters dans le mélange. La première est une estimation pénalisée de la matrice des probabilités postérieures dont la composante (i,j) est la probabilité que la i-ème observation soit dans le j-ème cluster. Malheureusement, cette méthode s'est avérée trop coûteuse en complexité. Enfin, la deuxième méthode considérée consiste à pénaliser le vecteur de poids afin de le rendre parcimonieux. Cette méthode montre des résultats prometteurs. Dans le Chapitre 3, nous étudions l'estimateur du maximum de vraisemblance d'une densité de n observations i.i.d. sous l’hypothèse qu'elle est bien approximée par un mélange de plusieurs densités données. Nous nous intéressons aux performances de l'estimateur par rapport à la perte de Kullback-Leibler. Nous établissons des bornes de risque sous la forme d'inégalités d'oracle exactes, que ce soit en probabilité ou en espérance. Nous démontrons à travers ces bornes que, dans le cas du problème d’agrégation convexe, l'estimateur du maximum de vraisemblance atteint la vitesse (log K)/n)^{1/2}, qui est optimale à un terme logarithmique près, lorsque le nombre de composant est plus grand que n^{1/2}. Plus important, sous l’hypothèse supplémentaire que la matrice de Gram des composantes du dictionnaire satisfait la condition de compatibilité, les inégalités d'oracles obtenues donnent la vitesse optimale dans le scénario parcimonieux. En d'autres termes, si le vecteur de poids est (presque) D-parcimonieux, nous obtenons une vitesse (Dlog K)/n. En complément de ces inégalités d'oracle, nous introduisons la notion d’agrégation (presque)-D-parcimonieuse et établissons pour ce type d’agrégation les bornes inférieures correspondantes. Enfin, dans le Chapitre 4, nous proposons un algorithme qui réalise l'agrégation en Kullback-Leibler de composantes d'un dictionnaire telle qu'étudiée dans le Chapitre 3. Nous comparons sa performance avec différentes méthodes. Nous proposons ensuite une méthode pour construire le dictionnaire de densités et l’étudions de manière numérique. Cette thèse a été effectué dans le cadre d’une convention CIFRE avec l’entreprise ARTEFACT. / In this thesis, we discuss two topics, high-dimensional clustering on the one hand and estimation of mixing densities on the other. The first chapter is an introduction to clustering. We present various popular methods and we focus on one of the main models of our work which is the mixture of Gaussians. We also discuss the problems with high-dimensional estimation (Section 1.3) and the difficulty of estimating the number of clusters (Section 1.1.4). In what follows, we present briefly the concepts discussed in this manuscript. Consider a mixture of $K$ Gaussians in $RR^p$. One of the common approaches to estimate the parameters is to use the maximum likelihood estimator. Since this problem is not convex, we can not guarantee the convergence of classical methods such as gradient descent or Newton's algorithm. However, by exploiting the biconvexity of the negative log-likelihood, the iterative 'Expectation-Maximization' (EM) procedure described in Section 1.2.1 can be used. Unfortunately, this method is not well suited to meet the challenges posed by the high dimension. In addition, it is necessary to know the number of clusters in order to use it. Chapter 2 presents three methods that we have developed to try to solve the problems described above. The works presented there have not been thoroughly researched for various reasons. The first method that could be called 'graphical lasso on Gaussian mixtures' consists in estimating the inverse matrices of covariance matrices $Sigma$ (Section 2.1) in the hypothesis that they are parsimonious. We adapt the graphic lasso method of [Friedman et al., 2007] to a component in the case of a mixture and experimentally evaluate this method. The other two methods address the problem of estimating the number of clusters in the mixture. The first is a penalized estimate of the matrix of posterior probabilities $ Tau in RR ^ {n times K} $ whose component $ (i, j) $ is the probability that the $i$-th observation is in the $j$-th cluster. Unfortunately, this method proved to be too expensive in complexity (Section 2.2.1). Finally, the second method considered is to penalize the weight vector $ pi $ in order to make it parsimonious. This method shows promising results (Section 2.2.2). In Chapter 3, we study the maximum likelihood estimator of density of $n$ i.i.d observations, under the assumption that it is well approximated by a mixture with a large number of components. The main focus is on statistical properties with respect to the Kullback-Leibler loss. We establish risk bounds taking the form of sharp oracle inequalities both in deviation and in expectation. A simple consequence of these bounds is that the maximum likelihood estimator attains the optimal rate $((log K)/n)^{1/2}$, up to a possible logarithmic correction, in the problem of convex aggregation when the number $K$ of components is larger than $n^{1/2}$. More importantly, under the additional assumption that the Gram matrix of the components satisfies the compatibility condition, the obtained oracle inequalities yield the optimal rate in the sparsity scenario. That is, if the weight vector is (nearly) $D$-sparse, we get the rate $(Dlog K)/n$. As a natural complement to our oracle inequalities, we introduce the notion of nearly-$D$-sparse aggregation and establish matching lower bounds for this type of aggregation. Finally, in Chapter 4, we propose an algorithm that performs the Kullback-Leibler aggregation of components of a dictionary as discussed in Chapter 3. We compare its performance with different methods: the kernel density estimator , the 'Adaptive Danzig' estimator, the SPADES and EM estimator with the BIC criterion. We then propose a method to build the dictionary of densities and study it numerically. This thesis was carried out within the framework of a CIFRE agreement with the company ARTEFACT.
18

Adaptation de modèles statistiques pour la séparation de sources mono-capteur Texte imprimé : application à la séparation voix / musique dans les chansons

Ozerov, Alexey 15 December 2006 (has links) (PDF)
La séparation de sources avec un seul capteur est un problème très récent, qui attire de plus en plus d'attention dans le monde scientifique. Cependant, il est loin d'être résolu et, même plus, il ne peut pas être résolu en toute généralité. La difficulté principale est que, ce problème étant extrêmement sous déterminé, il faut disposer de fortes connaissances sur les sources pour pouvoir les séparer. Pour une grande partie des méthodes de séparation, ces connaissances sont représentées par des modèles statistiques des sources, notamment par des Modèles de Mélange de Gaussiennes (MMG), qui sont appris auparavant à partir d'exemples. L'objet de cette thèse est d'étudier les méthodes de séparation basées sur des modèles statistiques en général, puis de les appliquer à un problème concret, tel que la séparation de la voix par rapport à la musique dans des enregistrements monophoniques de chansons. Apporter des solutions à ce problème, qui est assez difficile et peu étudié pour l'instant, peut être très utile pour faciliter l'analyse du contenu des chansons, par exemple dans le contexte de l'indexation audio. Les méthodes de séparation existantes donnent de bonnes performances à condition que les caractéristiques des modèles statistiques utilisés soient proches de celles des sources à séparer. Malheureusement, il n'est pas toujours possible de construire et d'utiliser en pratique de tels modèles, à cause de l'insuffisance des exemples d'apprentissage représentatifs et des ressources calculatoires. Pour remédier à ce problème, il est proposé dans cette thèse d'adapter a posteriori les modèles aux sources à séparer. Ainsi, un formalisme général d'adaptation est développé. En s'inspirant de techniques similaires utilisées en reconnaissance de la parole, ce formalisme est introduit sous la forme d'un critère d'adaptation Maximum A Posteriori (MAP). De plus, il est montré comment optimiser ce critère à l'aide de l'algorithme EM à différents niveaux de généralité. Ce formalisme d'adaptation est ensuite appliqué dans certaines formes particulières pour la séparation voix / musique. Les résultats obtenus montrent que pour cette tâche, l'utilisation des modèles adaptés permet d'augmenter significativement (au moins de 5 dB) les performances de séparation par rapport aux modèles non adaptés. Par ailleurs, il est observé que la séparation de la voix chantée facilite l'estimation de sa fréquence fondamentale (pitch), et que l'adaptation des modèles ne fait qu'améliorer ce résultat.
19

Traitement du signal pour la reconnaissance de la parole robuste dans des environnements bruités et réverbérants

Ota, Kenko 19 January 2008 (has links) (PDF)
Les technologies de la reconnaissance de la parole ont des performances acceptables si l'on utilise un micro dans des environnements calmes. Si des micros se situent à une position distante d'un locuteur, il faut développer des techniques de la soustraction de bruits et de réverbération. Une technique pour réduire des sons émis par les appareils environnants est proposée. Bien que l'annulation adaptative du bruit (ANC) soit une solution possible, l'excès de soustraction peut causer la distorsion de la parole estimée. Le système proposé utilise la structure harmonique des segments vocaliques que les ANCs conventionnels n'a pas prise en compte directement. La méthode de déréverbération conventionnelle provoque l'excès de soustraction car on suppose que la caractéristique de fréquence, est plate. Il faut donc estimer le temps réel de réverbération pour résoudre ce problème. On propose une méthode de déréverbération aveugle utilisant un micro avec des fonctions d'autocorrélation sur la séquence de composants à chaque fréquence. Une technique pour échapper au problème de permutation qui se provoque lorsqu'on utilise l'analyse en composantes indépendantes (ICA) dans le domaine de fréquence, est également proposée : le Multi-bin ICA. Enfin, ce travail propose une technique pour estimer les spectres de bruit et de parole sans développer de modèle de gaussienne à mélange (GMM). Le spectre de la parole est modélisé à l'aide mélange de processus de Dirichlet (Dirichlet Process Mixture : ‘DPM') au lieu du GMM.
20

Image matching using rotating filters / Mise en correspondance d'images avec des filtres tournants

Venkatrayappa, Darshan 04 December 2015 (has links)
De nos jours les algorithmes de vision par ordinateur abondent dans les applications de vidéo-surveillance, de reconstruction 3D, de véhicules autonomes, d'imagerie médicale, etc… La détection et la mise en correspondance d'objets dans les images constitue une étape clé dans ces algorithmes.Les méthodes les plus communes pour la mise en correspondance d'objets ou d'images sont basées sur des descripteurs locaux, avec tout d'abord la détection de points d'intérêt, puis l'extraction de caractéristiques de voisinages des points d'intérêt, et enfin la construction des descripteurs d'image.Dans cette thèse, nous présentons des contributions au domaine de la mise en correspondance d'images par l'utilisation de demi filtres tournants. Nous suivons ici trois approches : la première présente un nouveau descripteur à faible débit et une stratégie de mise en correspondance intégrés à une plateforme vidéo. Deuxièmement, nous construisons un nouveau descripteur local en intégrant la réponse de demi filtres tournant dans un histogramme de gradient orienté (HOG) ; enfin nous proposons une nouvelle approche pour la construction d'un descripteur utilisant des statistiques du second ordre. Toutes ces trois approches apportent des résultats intéressants et prometteurs.Mots-clés : Demi filtres tournants, descripteur local d'image, mise en correspondance, histogramme de gradient orienté (HOG), Différence de gaussiennes. / Nowadays computer vision algorithms can be found abundantly in applications relatedto video surveillance, 3D reconstruction, autonomous vehicles, medical imaging etc. Image/object matching and detection forms an integral step in many of these algorithms.The most common methods for Image/object matching and detection are based on localimage descriptors, where interest points in the image are initially detected, followed byextracting the image features from the neighbourhood of the interest point and finally,constructing the image descriptor. In this thesis, contributions to the field of the imagefeature matching using rotating half filters are presented. Here we follow three approaches:first, by presenting a new low bit-rate descriptor and a cascade matching strategy whichare integrated on a video platform. Secondly, we construct a new local image patch descriptorby embedding the response of rotating half filters in the Histogram of Orientedgradient (HoG) framework and finally by proposing a new approach for descriptor constructionby using second order image statistics. All the three approaches provides aninteresting and promising results by outperforming the state of art descriptors.Key-words: Rotating half filters, local image descriptor, image matching, Histogram of Orientated Gradients (HoG), Difference of Gaussian (DoG).

Page generated in 0.0609 seconds