• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 50
  • 22
  • 7
  • Tagged with
  • 78
  • 78
  • 34
  • 33
  • 33
  • 33
  • 32
  • 32
  • 28
  • 27
  • 19
  • 19
  • 16
  • 16
  • 15
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Imagerie à courants de Foucault pour l'évaluation non-destructive de structures rivetées aéronautiques

Le Diraison, Yohan 27 November 2008 (has links) (PDF)
Les travaux de thèse présentés dans ce mémoire ont permis le développement d'imageurs à courants de Foucault (ICF) intégrés et innovateurs utilisant un procédé magnéto-optique pour la mesure directe haute résolution de champ magnétique. Les ICF sont destinés à l'évaluation non-destructive des joints rivetés sur des structures aéronautiques et permettront la caractérisation avancée de ces structures. Les images fournies par l'ICF de laboratoire utilisé durant cette thèse et appliqué à l'inspection de rivets fissurés présentent des informations utiles pour la caractérisation des rivets. Ces images nécessitent des traitements par des algorithmes d'amélioration de la visualisation des fissures afin de mener à bien ces caractérisations. Ces algorithmes basés sur des analyses en composantes principales (ACP) ont été développés et leurs performances quantifiées. A partir de ces données traitées, des processus de caractérisation de rivets, c'est à dire la détection de fissures et leur classification en termes de longueur et profondeur, ont été proposés. Ces traitements donnent de bons résultats et permettent de localiser assez précisément des fissures enfouies dans les plaques de métal rivetées. Cette étude est particulièrement encourageante car elle permettra par la suite d'appliquer des algorithmes d'inversion afin de reconstruire les défauts détectés.
22

Séparation aveugle d'un mélange instantané de sources autorégressives par la méthode du vraisemblance exact

Zaidi, Abdelhamid 14 December 2000 (has links) (PDF)
Cette thèse est consacrée à l'étude du problème de la séparation aveugle d'un mélange instantané de sources gaussiennes autorégressives, sans bruit additif, par la méthode du maximum de vraisemblance exact. La maximisation de la vraisemblance est décomposée, par relaxation, en deux sous-problèmes d'optimisation, également traités par des techniques de relaxation. Le premier consiste en l'estimation de la matrice de séparation à structure autorègressive des sources fixée. Le second est d'estimer cette structure lorsque la matrice de séparation est fixée. Le premier problème est équivalent à la maximisation du déterminant de la matrice de séparation sous contraintes non linéaires. Nous donnons un algorithme de calcul de la solution de ce problème pour lequel nous précisons les conditions de convergence. Nous montrons l'existence de l'estimateur du maximum de vraisemblance dont nous prouvons la consistance. Nous déterminons également la matrice d'information de Fisher relative au paramètre global et nous proposons un indice pour mesurer les performances des méthodes de séparation. Puis nous analysons, par simulation, les performances de l'estimateur ainsi défini et nous montrons l'amélioration qu'il apporte à la procédure de quasi-maximum de vraisemblance ainsi qu'aux autres méthodes du second ordre.
23

Modèles d'instruments pour la séparation de sources et la transcription d'enregistrements musicaux

Vincent, Emmanuel 02 December 2004 (has links) (PDF)
Depuis une quinzaine d'années, l'étude des enregistrements de musique de chambre se focalise sous deux points de vue distincts : la séparation de sources et la transcription polyphonique. La séparation de sources cherche à extraire des enregistrements les signaux correspondant aux instruments présents. La transcription polyphonique vise à les décrire par un ensemble de paramètres : noms des instruments, hauteurs et volumes des notes jouées, etc. Les méthodes existantes, fondées sur l'analyse spatiale et spectro-temporelle des enregistrements, fournissent des résultats satisfaisants sur des cas simples. Mais généralement leur performance se dégrade vite au-delà d'un nombre d'instruments limite ou en présence de réverbération, d'instruments de même tessiture ou de notes à intervalle harmonique. Notre hypothèse est que ces méthodes souffrent souvent de modèles de sources instrumentales trop génériques. Nous proposons d'y remédier par la création de modèles d'instruments spécifiques basés sur un apprentissage. Dans ce travail, nous justifions cette hypothèse par l'étude des informations pertinentes présentes dans les enregistrements musicaux et de leur exploitation par les méthodes existantes. Nous construisons ensuite de nouveaux modèles probabilistes d'instruments inspirés de l'Analyse en Sous-espaces Indépendants (ASI) et nous donnons quelques exemples d'instruments appris. Enfin nous appliquons ces modèles à la séparation et la transcription d'enregistrements réalistes, parmi lesquels des pistes de CD et des mélanges synthétiques convolutifs ou sous-déterminés de ces pistes.
24

Modèles et algorithmes pour la modélisation parcimonieuse de signaux de grande dimension

Mailhé, Boris 02 December 2009 (has links) (PDF)
Cette thèse propose des algorithmes rapides pour les représentations parcimonieuses. Les représentations parcimonieuses consistent à approcher le signal par une combinaison linéaire de peu d'atomes choisis dans un dictionnaire redondant (plus d'atomes que la dimension du signal). Comment décomposer un signal donné sur un dictionnaire donné ? C'est un problème NP-complet. Les algorithmes approchés existants sont trop coûteux pour être employés sur de grands signaux ou bien calculent une approximation grossière. Nous proposons un nouvel algorithme, LocOMP, qui passe à l'échelle sans sacrifier la qualité d'approximation. LocOMP nécessite des dictionnaires locaux : la longueur du support d'un atome est petite devant celle du signal. Comment apprendre un dictionnaire qui permet la représentation parcimonieuse d'une famille de signaux donnée ? C'est un problème encore plus complexe : on le résout habituellement en itérant plusieurs décompositions parcimonieuses. Nous proposons une amélioration de l'algorithme d'Olshausen-Field qui optimise le dictionnaire par descente de gradient à pas fixe. Nous exprimons le pas optimal la descente. L'algorithme converge ainsi plus vite vers un meilleur dictionnaire. Enfin, nous avons appliqué ces outils pour isoler les signaux de fibrillation atriale dans l'électrocardiogramme du patient. La fibrillation atriale est une arythmie cardiaque : les atria tremblent au lieu de battre. On souhaite observer la fibrillation dans l'ECG, mais elle est mélangée à l'activité ventriculaire. Notre méthode de séparation est basée sur l'apprentissage d'un dictionnaire pour la fibrillation et un pour l'activité ventriculaire, tous deux appris sur le même ECG.
25

Contributions à la séparation de sources et à la description des contenus audio

Vincent, Emmanuel 23 November 2012 (has links) (PDF)
Les données audio occupent une position centrale dans notre vie, que ce soit pour la communication parlée, les vidéos personnelles, la radio et la télévision, la musique, le cinéma, les jeux vidéos ou les divertissements. Cela crée un ensemble de besoins applicatifs allant du rehaussement du signal à l'extraction d'information, en passant par la réditorialisation et la manipulation interactive des contenus. Les données audio réelles ont une structure complexe due à la superposition de plusieurs sources sonores et à la coexistence de plusieurs niveaux d'information. Par exemple, les enregistrements de parole incluent souvent des locuteurs simultanés ou du bruit de fond et ils portent des informations sur l'identité des locuteurs, la langue et le sujet de la discussion, le texte prononcé, l'intonation et l'environnement acoustique. Les enregistrements de musique sont aussi typiquement constitués de plusieurs instruments musicaux ou voix et ils contiennent des informations sur le compositeur, l'organisation temporelle des morceaux, la partition sous-jacente, l'interprétation et l'environnement acoustique. Lorsque j'ai commencé mes études de doctorat de 2001, la séparation des signaux sources dans un enregistrement était considérée comme l'un des grands défis vers l'application des techniques de traitement du signal audio initialement conçues pour des sources seules à des données réelles multi-sources. Les techniques de formation de voies fixe ou adaptative étaient déjà établies, mais elles demandaient un grand nombre de microphones rarement disponible en pratique. Les premières techniques de séparation aveugle de sources conçues pour un nombre plus faible de microphones venaient à peine d'être appliquées à l'audio. Onze ans plus tard, des progrès importants ont été faits et la séparation de sources est devenue un sujet mûr. Grâce en particulier à certaines des contributions listées dans ce document, l'équipe METISS a acquis une réputation de leader dans le domaine, démontrée par un nombre croissant de transferts technologiques visant à rehausser et remixer des signaux de parole et de voix dans divers cas d'usage. L'utilisation de la séparation de sources comme un pré-traitement pour la description de sources de parole ou de musique au sein d'un mélange soulève le défi supplémentaire de prendre en compte les distorsions non-linéaires sur les signaux sources estimés. Des méthodes robustes d'interfaçage de la séparation de sources, de l'extraction de descripteurs et de classification ont émergé dans les dix dernières années basées sur l'idée de propagation de l'incertitude. Ce sujet faisait partie de mon programme de recherche lorsque j'ai rejoint Inria en 2006 et il est actuellement en forte croissance en raison de l'omniprésence des applications vocales pour les appareils portables. Les méthodes actuelles n'ont cependant pas encore atteint la robustesse du système auditif humain, et la reconnaissance de la parole ou du locuteur dans des environnements réels avec du bruit non-stationnaire reste un problème très difficile. Par rapport aux deux défis ci-dessus, le traitement conjoint des différents niveaux d'information sous-jacents aux signaux audio a attiré un intérêt moindre à ce jour. Il demeure cependant un problème fondamental pour le traitement de la musique en particulier, où des tâches telles que la transcription de hauteurs polyphonique et l'identification d'accords sont typiquement effectuées indépendamment l'une de l'autre sans prendre en compte les fortes dépendances entre les informations de hauteur et d'harmonie. Mon travail s'est focalisé sur ces trois défis et il est basé en particulier sur les fondements théoriques de la modélisation et de l'estimation bayésienne d'une part et de la modélisation parcimonieuse et de l'optimisation convexe d'autre part. Ce document fournit une vue d'ensemble de mes contributions depuis la fin de mon doctorat selon quatre axes: le Chapitre 1 se focalise sur la formalisation et l'évaluation diagnostique de certains problèmes étudiés, le Chapitre 2 sur la modélisation linéaire des signaux audio et les algorithmes associés, le Chapitre 3 sur la modélisation de variance des signaux audio et les algorithmes associés, et le Chapitre 4 sur la description des contenus multi-sources et multi-niveaux. Le chapitre 5 résume les perspectives de recherche issues de ce travail.
26

La bimodalité de la parole au secours de la séparation de sources

Rivet, Bertrand 29 September 2006 (has links) (PDF)
Cette thèse est dédiée à la modélisation conjointe des modalités audio et vidéo de la parole et à son exploitation pour la séparation de sources. Tout d'abord, une modélisation probabiliste bimodale de la parole audiovisuelle à base de mélange de noyaux est proposée. Cette modélisation est ensuite exploitée pour la détection des silences. De plus, nous proposons une détection purement visuelle des silences en s'appuyant sur l'observation des lèvres du locuteur. Ce dernier procédé présente l'avantage d'être indépendant d'un bruit acoustique. Ces deux modélisations sont ensuite exploitées pour la séparation de mélanges convolutifs de sources audiovisuelles. Nous résolvons ainsi le problème classique des indéterminations des méthodes de séparation dans le domaine fréquentiel avant de proposer une méthode géométrique qui utilise les périodes de silence de la source d'intérêt. Les algorithmes proposés sont validés par des expériences sur des corpus multi-locuteurs et multi-langues.
27

Approche informée pour l'analyse du son et de la musique

Fourer, Dominique 11 December 2013 (has links) (PDF)
En traitement du signal audio, l'analyse est une étape essentielle permettant de comprendre et d'inter-agir avec les signaux existants. En effet, la qualité des signaux obtenus par transformation ou par synthèse des paramètres estimés dépend de la précision des estimateurs utilisés. Cependant, des limitations théoriques existent et démontrent que la qualité maximale pouvant être atteinte avec une approche classique peut s'avérer insuffisante dans les applications les plus exigeantes (e.g. écoute active de la musique). Le travail présenté dans cette thèse revisite certains problèmes d'analyse usuels tels que l'analyse spectrale, la transcription automatique et la séparation de sources en utilisant une approche dite "informée". Cette nouvelle approche exploite la configuration des studios de musique actuels qui maitrisent la chaîne de traitement avant l'étape de création du mélange. Dans les solutions proposées, de l'information complémentaire minimale calculée est transmise en même temps que le signal de mélange afin de permettre certaines transformations sur celui-ci tout en garantissant le niveau de qualité. Lorsqu'une compatibilité avec les formats audio existants est nécessaire, cette information est cachée à l'intérieur du mélange lui-même de manière inaudible grâce au tatouage audionumérique. Ce travail de thèse présente de nombreux aspects théoriques et pratiques dans lesquels nous montrons que la combinaison d'un estimateur avec de l'information complémentaire permet d'améliorer les performances des approches usuelles telles que l'estimation non informée ou le codage pur.
28

Méthodes d'apprentissage appliquées à la séparation de sources mono-canal

Augustin, Lefèvre 03 October 2012 (has links) (PDF)
Étant donne un mélange de plusieurs signaux sources, par exemple un morceau et plusieurs instruments, ou un entretien radiophonique et plusieurs interlocuteurs, la séparation de source mono-canal consiste a' estimer chacun des signaux sources a' partir d'un enregistrement avec un seul microphone. Puisqu'il y a moins de capteurs que de sources, il y a a priori une infinité de solutions sans rapport avec les sources originales. Il faut alors trouver quelle information supplémentaire permet de rendre le problème bien pose. Au cours des dix dernières années, la factorisation en matrices positives (NMF) est devenue un composant majeurs des systèmes de séparation de sources. En langage profane, la NMF permet de d'écrire un ensemble de signaux audio a ́ partir de combinaisons d' éléments sonores simples (les atomes), formant un dictionnaire. Les systèmes de séparation de sources reposent alors sur la capacité a trouver des atomes qui puissent être assignes de fa con univoque 'a chaque source sonore. En d'autres termes, ils doivent être interprétables. Nous proposons dans cette thèse trois contributions principales aux méthodes d'apprentissage de dictionnaire. La première est un critère de parcimonie par groupes adapte a la NMF lorsque la mesure de distorsion choisie est la divergence d'Itakura-Saito. Dans la plupart des signaux de musique on peut trouver de longs intervalles ou' seulement une source est active (des soli). Le critère de parcimonie par groupe que nous proposons permet de trouver automatiquement de tels segments et d'apprendre un dictionnaire adapte a chaque source. Ces dictionnaires permettent ensuite d'effectuer la tache de séparation dans les intervalles ou' les sources sont mélangées. Ces deux taches d'identification et de séparation sont effectuées simultanément en une seule passe de l'algorithme que nous proposons. Notre deuxième contribution est un algorithme en ligne pour apprendre le dictionnaire a grande échelle, sur des signaux de plusieurs heures, ce qui était impossible auparavant. L'espace mémoire requis par une NMF estimée en ligne est constant alors qu'il croit linéairement avec la taille des signaux fournis dans la version standard, ce qui est impraticable pour des signaux de plus d'une heure. Notre troisième contribution touche a' l'interaction avec l'utilisateur. Pour des signaux courts, l'apprentissage aveugle est particulièrement difficile, et l'apport d'information spécifique au signal traite est indispensable. Notre contribution est similaire à l'inpainting et permet de prendre en compte des annotations temps-fréquence. Elle repose sur l'observation que la quasi-totalite du spectro- gramme peut être divise en régions spécifiquement assignées a' chaque source. Nous d'éecrivons une extension de NMF pour prendre en compte cette information et discutons la possibilité d'inférer cette information automatiquement avec des outils d'apprentissage statistique simples.
29

Traitement d’antenne tensoriel / Tensor array processing

Raimondi, Francesca 22 September 2017 (has links)
L’estimation et la localisation de sources sont des problèmes centraux en traitement d’antenne, en particulier en télécommunication, sismologie, acoustique, ingénierie médicale ou astronomie. Une antenne de capteurs est un système d’acquisition composé par de multiples capteurs qui reçoivent des ondes en provenance de sources de directions différentes: elle échantillonne les champs incidents en espace et en temps.Pour cette raison, des techniques haute résolution comme MUSIC utilisent ces deux éléments de diversité, l’espace et le temps, afin d’estimer l’espace signal engendré par les sources incidentes, ainsi que leur direction d’arrivée. Ceci est généralement atteint par une estimation préalable de statistiques de deuxième ordre ou d’ordre supérieur, comme la covariance spatiale de l’antenne, qui nécessitent donc de temps d’observation suffisamment longs.Seulement récemment, l’analyse tensorielle a été appliquée au traitement d’antenne, grâce à l’introduction, comme troisième modalité (ou diversité), de la translation en espace d’une sous-antenne de référence, sans faire appel à l’estimation préalable de quantités statistiques.Les décompositions tensorielles consistent en l’analyse de cubes de données multidimensionnelles, au travers de leur décomposition en somme d’éléments constitutifs plus simples, grâce à la multilinéarité et à la structure de rang faible du modèle sous-jacent.Ainsi, les mêmes techniques tensorielles nous fournissent une estimée des signaux eux-mêmes, ainsi que de leur direction d’arrivée, de façon déterministe. Ceci peut se faire en vertu du modèle séparable et de rang faible vérifié par des sources en bande étroite et en champs lointain.Cette thèse étudie l’estimation et la localisation de sources par des méthodes tensorielles de traitement d’antenne.Le premier chapitre présente le modèle physique de source en bande étroite et en champs lointain, ainsi que les définitions et hypothèses fondamentales. Le deuxième chapitre passe en revue l’état de l’art sur l’estimation des directions d’arrivée, en mettant l’accent sur les méthodes haute résolution à sous-espace. Le troisième chapitre introduit la notation tensorielle, à savoir la définition des tableaux de coordonnées multidimensionnels, les opérations et décompositions principales. Le quatrième chapitre présente le sujet du traitement tensoriel d’antenne au moyen de l’invariance par translation.Le cinquième chapitre introduit un modèle tensoriel général pour traiter de multiples diversités à la fois, comme l’espace, le temps, la translation en espace, les profils de gain spatial et la polarisation des ondes élastiques en bande étroite.Par la suite, les sixième et huitième chapitres établissent un modèle tensoriel pour un traitement d’antenne bande large cohérent. Nous proposons une opération de focalisation cohérente et séparable par une transformée bilinéaire et par un ré-échantillonnage spatial, respectivement, afin d’assurer la multilinéarité des données interpolées.Nous montrons par des simulations numériques que l’estimation proposée des paramètres des signaux s’améliore considérablement, par rapport au traitement tensoriel classique en bande étroite, ainsi qu’à MUSIC cohérent bande large.Egalement, tout au long de la thèse, nous comparons les performances de l’estimation tensorielle avec la borne de Cramér-Rao du modèle multilinéaire associé, que nous développons, dans sa forme la plus générale, dans le septième chapitre. En outre, dans le neuvième chapitre nous illustrons une application à des données sismiques réelles issues d’une campagne de mesure sur un glacier alpin, grâce à la diversité de vitesse de propagation.Enfin, le dixième et dernier chapitre de cette thèse traite le sujet parallèle de la factorisation spectrale multidimensionnelle d’ondes sismiques, et présente une application à l’estimation de la réponse impulsionnelle du soleil pour l’héliosismologie. / Source estimation and localization are a central problem in array signal processing, and in particular in telecommunications, seismology, acoustics, biomedical engineering, and astronomy. Sensor arrays, i.e. acquisition systems composed of multiple sensors that receive source signals from different directions, sample the impinging wavefields in space and time. Hence, high resolution techniques such as MUSIC make use of these two elements of diversities: space and time, in order to estimate the signal subspace generated by impinging sources, as well as their directions of arrival. This is generally done through the estimation of second or higher orders statistics, such as the array spatial covariance matrix, thus requiring sufficiently large data samples. Only recently, tensor analysis has been applied to array processing using as a third mode (or diversity), the space shift translation of a reference subarray, with no need for the estimation of statistical quantities. Tensor decompositions consist in the analysis of multidimensional data cubes of at least three dimensions through their decomposition into a sum of simpler constituents, thanks to the multilinearity and low rank structure of the underlying model. Thus, tensor methods provide us with an estimate of source signatures, together with directions of arrival, in a deterministic way. This can be achieved by virtue of the separable and low rank model followed by narrowband sources in the far field. This thesis deals with source estimation and localization of multiple sources via these tensor methods for array processing. Chapter 1 presents the physical model of narrowband elastic sources in the far field, as well as the main definitions and assumptions. Chapter 2 reviews the state of the art on direction of arrival estimation, with a particular emphasis on high resolution signal subspace methods. Chapter 3 introduces the tensor formalism, namely the definition of multi-way arrays of coordinates, the main operations and multilinear decompositions. Chapter 4 presents the subject of tensor array processing via rotational invariance. Chapter 5 introduces a general tensor model to deal with multiple physical diversities, such as space, time, space shift, polarization, and gain patterns of narrowband elastic waves. Subsequently, Chapter 6 and Chapter 8 establish a tensor model for wideband coherent array processing. We propose a separable coherent focusing operation through bilinear transform and through a spatial resampling, respectively, in order to ensure the multilinearity of the interpolated data. We show via computer simulations that the proposed estimation of signal parameters considerably improves, compared to existing narrowband tensor processing and wideband MUSIC. Throughout the chapters we also compare the performance of tensor estimation to the Cramér-Rao bounds of the multilinear model, which we derive in its general formulation in Chapter 7. Moreover, in Chapter 9 we propose a tensor model via the diversity of propagation speed for seismic waves and illustrate an application to real seismic data from an Alpine glacier. Finally, the last part of this thesis in Chapter 10 moves to the parallel subject of multidimensional spectral factorization of seismic ways, and illustrates an application to the estimation of the impulse response of the Sun for helioseismology.
30

Modélisation cyclostationnaire et séparation de sources des signaux électromyographiques / Cyclostationary modeling and blind source separation of electromyographic signals

Roussel, Julien 08 December 2014 (has links)
L’objectif de cette thèse est de développer des méthodes de décomposition des signaux électromyographiques (EMG) en signaux élémentaires, les trains de potentiels d’action d’unité motrice (TPAUM). Nous avons proposé deux modèles de génération des signaux et nous avons mis en évidence la propriété de cyclostationnarité et de cyclostationnarité floue de ces deux modèles. Dans l’objectif de la décomposition, nous avons enfin proposé une méthode de décomposition aveugle à partir de signaux EMG multi-capteurs en utilisant cette propriété. Nous présentons les limitations théoriques de la méthode, notamment par un seuil limite de la fréquence de décharge. Nous avons effectué une évaluation des performances de la méthode proposée avec comparaison à une méthode classique de séparation à l’ordre 2.Il a été montré que l’exploitation de la propriété de cyclostationnarité apportait de meilleures performances de séparation dans le cas bruité et non bruité, sur le modèle cyclostationnaire et sur le modèle cyclostationnaire flou. Les performances se trouvent dégradées lorsque la fréquence de décharge dépasse le seuil théorique. Cette évaluation a été réalisée au moyen de simulations de Monte-Carlo construites sur des observations réelles. Enfin, la méthode appliquée sur des données réelles a montré de bons résultats sur des signaux EMG intramusculaires. / The aim of this thesis is to develop decomposition methods of electromyographic (EMG) signals into elementary signals, called motor unit action potential trains (MUAPT). We proposed two signal generation models and we have demonstrated the cyclostationary and fuzzy cyclostationary properties of these. We finally proposed a blind decomposition method from multi-sensor EMG signals using these properties. We present the theoretical limitations of the method, in particular the existence of a limiting threshold of the discharge frequency. We conducted a performance evaluation of the proposed method with a comparison with conventional 2nd order separation method. It has been shown that the contribution of cyclostationarity property brings better performance in noisy and noiseless cases and in the cyclostationary and fuzzy cyclostationary model cases. We highlighted a performance degradation when the discharge frequency was beyond the theoretical threshold. This evaluation was performed via Monte Carlo simulations based on real observations. Finally, we presented real EMG signals results. The method has shown good results on intramuscular EMG signals.

Page generated in 0.1427 seconds