• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 18
  • 17
  • 4
  • Tagged with
  • 39
  • 20
  • 20
  • 13
  • 12
  • 10
  • 10
  • 9
  • 9
  • 9
  • 9
  • 9
  • 9
  • 8
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Analyse temps-fréquence et synthèse granulaire des bruits moteur diesel au ralenti: Application pour étude perceptive dans le contexte des scènes auditives.

Zhekova, Irina 26 October 2007 (has links) (PDF)
Le bruit des moteurs diesel fait l'objet d'un intérêt particulier de la part des constructeurs automobile dans leur démarche d'assurer la qualité d'une voiture. Le bruit diesel au ralenti est un bruit impulsif répétitif qui peut provoquer la gêne auditive et, de ce fait, son étude perceptive est d'une grande importance. La présente thèse adopte une approche pluridisciplinaire des bruits diesel au ralenti dans le contexte de trois domaines scientifiques: l'acoustique automobile, les méthodes de traitement du signal temps-fréquence et la perception auditive. La problématique complexe du bruit moteur est exposée en décrivant la nature physique et la signature sonore des multiples sources acoustiques du groupe moto-propulseur, ainsi que les mécanismes associés au bruit de roulement et d'écoulement. L'accent est mis sur les caractéristiques rythmiques du bruit diesel au ralenti. L'apport principal dans le domaine du traitement du signal réside dans le développement d'un algorithme d'analyse temps-fréquence et de synthèse granulaire. Cet algorithme est basé sur l'analyse d'un cycle moteur et l'extraction des paramètres pour la synthèse granulaire à l'aide du module et de la phase de la transformée de Gabor et ses dérivées. La méthode fournit une décomposition parcimonieuse du signal sur un nombre restreint d'atomes temps-fréquence et permet la reconstruction du bruit moteur par périodisation d'un cycle moteur de synthèse. Une approche perceptive originale consiste à découper en zones temps-fréquence le cycle moteur de synthèse et de modifier les paramètres des atomes constituant cette zone. Les tests de préférence et de catégorisation effectués sur les sons de synthèse avec une modification du niveau des atomes dans les zones temps-fréquence a permis de mettre en évidence l'influence du niveau et du timbre des zones, mais également l'existence d'un facteur rythmique dans la perception des bruits diesel au ralenti dû au regroupement des zones en flux auditifs. Cette observation suggère la prise en compte de ce facteur rythmique dans l'étude perceptive des bruits moteur en ralenti et, plus globalement, des bruits impulsifs répétitifs.
32

Méthodes de séparation aveugle de sources et application à la télédétection spatiale

Karoui, Moussa Sofiane 17 December 2012 (has links) (PDF)
Cette thèse concerne la séparation aveugle de sources, qui consiste à estimer un ensemble de signaux sources inconnus à partir d'un ensemble de signaux observés qui sont des mélanges à paramètres inconnus de ces signaux sources. C'est dans ce cadre que le travail de recherche de cette thèse concerne le développement et l'utilisation de méthodes linéaires innovantes de séparation de sources pour des applications en imagerie de télédétection spatiale. Des méthodes de séparation de sources sont utilisées pour prétraiter une image multispectrale en vue d'une classification supervisée de ses pixels. Deux nouvelles méthodes hybrides non-supervisées, baptisées 2D-Corr-NLS et 2D-Corr-NMF, sont proposées pour l'extraction de cartes d'abondances à partir d'une image multispectrale contenant des pixels purs. Ces deux méthodes combinent l'analyse en composantes parcimonieuses, le clustering et les méthodes basées sur les contraintes de non-négativité. Une nouvelle méthode non-supervisée, baptisée 2D-VM, est proposée pour l'extraction de spectres à partir d'une image hyperspectrale contenant des pixels purs. Cette méthode est basée sur l'analyse en composantes parcimonieuses. Enfin, une nouvelle méthode est proposée pour l'extraction de spectres à partir d'une image hyperspectrale ne contenant pas de pixels purs, combinée avec une image multispectrale, de très haute résolution spatiale, contenant des pixels purs. Cette méthode est fondée sur la factorisation en matrices non-négatives couplée avec les moindres carrés non-négatifs. Comparées à des méthodes de la littérature, d'excellents résultats sont obtenus par les approches méthodologiques proposées.
33

Image Representations for Pattern Recognition

Hoang, Thai V. 14 December 2011 (has links) (PDF)
La pertinence d'une application de traitement de signal relève notamment du choix d'une "représentation adéquate''. Par exemple, pour la reconnaissance de formes, la représentation doit mettre en évidence les propriétés salientes d'un signal; en débruitage, permettre de séparer le signal du bruit; ou encore en compression, de synthétiser fidèlement le signal d'entrée à l'aide d'un nombre réduit de coefficients. Bien que les finalités de ces quelques traitements soient distinctes, il apparait clairement que le choix de la représentation impacte sur les performances obtenues. La représentation d'un signal implique la conception d'un ensemble génératif de signaux élémentaires, aussi appelé dictionnaire ou atomes, utilisé pour décomposer ce signal. Pendant de nombreuses années, la conception de dictionnaire a suscité un vif intérêt des chercheurs dans des domaines applicatifs variés: la transformée de Fourier a été employée pour résoudre l'équation de la chaleur; celle de Radon pour les problèmes de reconstruction; la transformée en ondelette a été introduite pour des signaux monodimensionnels présentant un nombre fini de discontinuités; la transformée en contourlet a été conçue pour représenter efficacement les signaux bidimensionnels composées de régions d'intensité homogène, à frontières lisses, etc. Jusqu'à présent, les dictionnaires existants peuvent être regroupés en deux familles d'approches: celles s'appuyant sur des modèles mathématiques de données et celles concernant l'ensemble de réalisations des données. Les dictionnaires de la première famille sont caractérisés par une formulation analytique. Les coefficients obtenus dans de telles représentations d'un signal correspondent à une transformée du signal, qui peuvent parfois être implémentée rapidement. Les dictionnaires de la seconde famille, qui sont fréquemment des dictionnaires surcomplets, offrent une grande flexibilité et permettent d'être adaptés aux traitements de données spécifiques. Ils sont le fruit de travaux plus récents pour lesquels les dictionnaires sont générés à partir des données en vue de la représentation de ces dernières. L'existence d'une multitude de dictionnaires conduit naturellement au problème de la sélection du meilleur d'entre eux pour la représentation de signaux dans un cadre applicatif donné. Ce choix doit être effectué en vertu des spécificités bénéfiques validées par les applications envisagées. En d'autres termes, c'est l'usage qui conduit à privilégier un dictionnaire. Dans ce manuscrit, trois types de dictionnaire, correspondant à autant de types de transformées/représentations, sont étudiés en vue de leur utilisation en analyse d'images et en reconnaissance de formes. Ces dictionnaires sont la transformée de Radon, les moments basés sur le disque unitaire et les représentations parcimonieuses. Les deux premiers dictionnaires sont employés pour la reconnaissance de formes invariantes tandis que la représentation parcimonieuse l'est pour des problèmes de débruitage, de séparation des sources d'information et de classification. Cette thèse présentent des contributions théoriques validées par de nombreux résultats expérimentaux. Concernant la transformée de Radon, des pistes sont proposées afin d'obtenir des descripteurs de formes invariants, et conduisent à définir deux descripteurs invariants aux rotations, l'échelle et la translation. Concernant les moments basés sur le disque unitaire, nous formalisons les stratégies conduisant à l'obtention de moments orthogonaux. C'est ainsi que quatre moments harmoniques polaires génériques et des stratégies pour leurs calculs rapides sont introduits. Enfin, concernant les représentations parcimonieuses, nous proposons et validons un formalisme de représentation permettant de combiner les trois critères suivant : la parcimonie, l'erreur de reconstruction ainsi que le pouvoir discriminant en classification.
34

Adaptation Automatique de la Résolution pour l'Analyse et la Synthèse du Signal Audio

Liuni, Marco 09 March 2012 (has links) (PDF)
Dans cette thèse, on s'intéresse à des méthodes qui permettent de varier localement la résolution temps-fréquence pour l'analyse et la re-synthèse du son. En Analyse Temps-Fréquence, l'adaptativité est la possibilité de concevoir de représentations et opérateurs avec des caractéristiques qui peuvent être modifiées en fonction des objets à analyser: le premier objectif de ce travail est la définition formelle d'un cadre mathématique qui puisse engendrer des méthodes adaptatives pour l'analyse du son. Le deuxième est de rendre l'adaptation automatique; on établit des critères pour définir localement la meilleure résolution temps-fréquence, en optimisant des mesures de parcimonie appropriées. Afin d'exploiter l'adaptativité dans le traitement spectral du son, on introduit des méthodes de reconstruction efficaces, basées sur des analyses à résolution variable, conçues pour préserver et améliorer les techniques actuelles de manipulation du son. L'idée principale est que les algorithmes adaptatifs puissent contribuer à la simplification de l'utilisation de méthodes de traitement du son qui nécessitent aujourd'hui un haut niveau d'expertise. En particulier, la nécessité d'une configuration manuelle détaillée constitue une limitation majeure dans les applications grand public de traitement du son de haute qualité (par exemple: transposition, compression/dilatation temporelle). Nous montrons des exemples où la gestion automatique de la résolution temps-fréquence permet non seulement de réduire significativement les paramètres à régler, mais aussi d'améliorer la qualité des traitements.
35

Imagerie acoustique par approximations parcimonieuses des sources

Peillot, Antoine 20 November 2012 (has links) (PDF)
La description parcimonieuse des sources permet une approche nouvelle de l'analyse des champs acoustiques. Durant ce projet, nous avons appliqué ce principe à plusieurs scénarios classiques : l'holographie acoustique de champ proche, la localisation de sources simples ou complexes et l'identification de directivité de sources. Ces méthodes d'imagerie exigent la résolution de problèmes inverses, souvent mal posés, qui nécessitent l'utilisation conjointe de techniques de régularisation. De plus, pour capter l'information utile et assurer de bonnes performances de reconstruction, les techniques traditionnelles d'antennerie nécessitent le déploiement d'un grand nombre de microphones. Dans ces travaux, nous avons envisagé une approche originale de l'analyse des champs acoustiques basée sur l'approximation parcimonieuse des sources, ce qui agit comme un principe de régularisation. Cette formulation permet en outre de tirer profit de la méthode de "compressive sampling" (CS), qui permet de restreindre le nombre de mesures utiles à la résolution du problème inverse si la source à reconstruire admet une représentation suffisamment parcimonieuse. On montre que l'application du CS à l'holographie en champ proche de plaques homogènes et isotropes permet non seulement de mieux régulariser le problème par rapport aux techniques génériques classiques, mais également de diminuer fortement le nombre de microphones en sous-échantillonnant l'hologramme au-delà de la limite imposée par la théorie de Shannon. Le problème de localisation de sources, envisagée comme un problème parcimonieux, permet la localisation avec une haute résolution de sources corrélés, en champ proche comme en champ lointain. Les méthodes de reconstruction parcimonieuse permettent de structurer la base de parcimonie en l'enrichissant avec un modèle de décomposition des sources en harmoniques sphériques pour localiser et identifier la directivité de sources complexes. Ces études ont finalement nécessité le développement de techniques rapides de calibration en position et en gain d'antennes composées d'un grand nombre de microphones.
36

Une exploration des problèmes inverses par les représentations parcimonieuses et l'optimisation non lisse

Fadili, Jalal M. 26 March 2010 (has links) (PDF)
Ce mémoire résume mon parcours de recherche lors des dix dernières années. Ces travaux de recherche se trouvent à la croisée des chemins entre les mathématiques appliquées et le traitement du signal et des images. Ils s'articulent autour du triptyque: (i) modélisation stochastique-estimation statistique; (ii) analyse harmonique computationnelle-représentations parcimonieuses; (iii) optimisation. Ces trois piliers constituent le socle théorique de mes activités pour développer des approches originales capables de résoudre des problèmes classiques en traitement d'images comme les problèmes inverses en restauration et reconstruction, la séparation de sources, la segmentation, la détection, ou encore la théorie de l'échantillonnage compressé (compressed sensing). Ces travaux ont été appliqués à plusieurs modalités d'imagerie comme l'imagerie médicale et biomédicale (IRM fonctionnelle, échographie, microscopie confocale), le contrôle non destructif et l'imagerie astronomique.
37

Non-linear dimensionality reduction and sparse representation models for facial analysis / Réduction de la dimension non-linéaire et modèles de la représentations parcimonieuse pour l’analyse du visage

Zhang, Yuyao 20 February 2014 (has links)
Les techniques d'analyse du visage nécessitent généralement une représentation pertinente des images, notamment en passant par des techniques de réduction de la dimension, intégrées dans des schémas plus globaux, et qui visent à capturer les caractéristiques discriminantes des signaux. Dans cette thèse, nous fournissons d'abord une vue générale sur l'état de l'art de ces modèles, puis nous appliquons une nouvelle méthode intégrant une approche non-linéaire, Kernel Similarity Principle Component Analysis (KS-PCA), aux Modèles Actifs d'Apparence (AAMs), pour modéliser l'apparence d'un visage dans des conditions d'illumination variables. L'algorithme proposé améliore notablement les résultats obtenus par l'utilisation d'une transformation PCA linéaire traditionnelle, que ce soit pour la capture des caractéristiques saillantes, produites par les variations d'illumination, ou pour la reconstruction des visages. Nous considérons aussi le problème de la classification automatiquement des poses des visages pour différentes vues et différentes illumination, avec occlusion et bruit. Basé sur les méthodes des représentations parcimonieuses, nous proposons deux cadres d'apprentissage de dictionnaire pour ce problème. Une première méthode vise la classification de poses à l'aide d'une représentation parcimonieuse active (Active Sparse Representation ASRC). En fait, un dictionnaire est construit grâce à un modèle linéaire, l'Incremental Principle Component Analysis (Incremental PCA), qui a tendance à diminuer la redondance intra-classe qui peut affecter la performance de la classification, tout en gardant la redondance inter-classes, qui elle, est critique pour les représentations parcimonieuses. La seconde approche proposée est un modèle des représentations parcimonieuses basé sur le Dictionary-Learning Sparse Representation (DLSR), qui cherche à intégrer la prise en compte du critère de la classification dans le processus d'apprentissage du dictionnaire. Nous faisons appel dans cette partie à l'algorithme K-SVD. Nos résultats expérimentaux montrent la performance de ces deux méthodes d'apprentissage de dictionnaire. Enfin, nous proposons un nouveau schéma pour l'apprentissage de dictionnaire adapté à la normalisation de l'illumination (Dictionary Learning for Illumination Normalization: DLIN). L'approche ici consiste à construire une paire de dictionnaires avec une représentation parcimonieuse. Ces dictionnaires sont construits respectivement à partir de visages illuminées normalement et irrégulièrement, puis optimisés de manière conjointe. Nous utilisons un modèle de mixture de Gaussiennes (GMM) pour augmenter la capacité à modéliser des données avec des distributions plus complexes. Les résultats expérimentaux démontrent l'efficacité de notre approche pour la normalisation d'illumination. / Face analysis techniques commonly require a proper representation of images by means of dimensionality reduction leading to embedded manifolds, which aims at capturing relevant characteristics of the signals. In this thesis, we first provide a comprehensive survey on the state of the art of embedded manifold models. Then, we introduce a novel non-linear embedding method, the Kernel Similarity Principal Component Analysis (KS-PCA), into Active Appearance Models, in order to model face appearances under variable illumination. The proposed algorithm successfully outperforms the traditional linear PCA transform to capture the salient features generated by different illuminations, and reconstruct the illuminated faces with high accuracy. We also consider the problem of automatically classifying human face poses from face views with varying illumination, as well as occlusion and noise. Based on the sparse representation methods, we propose two dictionary-learning frameworks for this pose classification problem. The first framework is the Adaptive Sparse Representation pose Classification (ASRC). It trains the dictionary via a linear model called Incremental Principal Component Analysis (Incremental PCA), tending to decrease the intra-class redundancy which may affect the classification performance, while keeping the extra-class redundancy which is critical for sparse representation. The other proposed work is the Dictionary-Learning Sparse Representation model (DLSR) that learns the dictionary with the aim of coinciding with the classification criterion. This training goal is achieved by the K-SVD algorithm. In a series of experiments, we show the performance of the two dictionary-learning methods which are respectively based on a linear transform and a sparse representation model. Besides, we propose a novel Dictionary Learning framework for Illumination Normalization (DL-IN). DL-IN based on sparse representation in terms of coupled dictionaries. The dictionary pairs are jointly optimized from normally illuminated and irregularly illuminated face image pairs. We further utilize a Gaussian Mixture Model (GMM) to enhance the framework's capability of modeling data under complex distribution. The GMM adapt each model to a part of the samples and then fuse them together. Experimental results demonstrate the effectiveness of the sparsity as a prior for patch-based illumination normalization for face images.
38

Restauration et séparation de signaux polynômiaux par morceaux. Application à la microscopie de force atomique / Restoration and separation of piecewise polynomial signals. Application to Atomic Force Microscopy

Duan, Junbo 15 November 2010 (has links)
Cette thèse s'inscrit dans le domaine des problèmes inverses en traitement du signal. Elle est consacrée à la conception d'algorithmes de restauration et de séparation de signaux parcimonieux et à leur application à l'approximation de courbes de forces en microscopie de force atomique (AFM), où la notion de parcimonie est liée au nombre de points de discontinuité dans le signal (sauts, changements de pente, changements de courbure). Du point de vue méthodologique, des algorithmes sous-optimaux sont proposés pour le problème de l'approximation parcimonieuse basée sur la pseudo-norme l0 : l'algorithme Single Best Replacement (SBR) est un algorithme itératif de type « ajout-retrait » inspiré d'algorithmes existants pour la restauration de signaux Bernoulli-Gaussiens. L'algorithme Continuation Single Best Replacement (CSBR) est un algorithme permettant de fournir des approximations à des degrés de parcimonie variables. Nous proposons aussi un algorithme de séparation de sources parcimonieuses à partir de mélanges avec retards, basé sur l'application préalable de l'algorithme CSBR sur chacun des mélanges, puis sur une procédure d'appariement des pics présents dans les différents mélanges. La microscopie de force atomique est une technologie récente permettant de mesurer des forces d'interaction entre nano-objets. L'analyse de courbes de forces repose sur des modèles paramétriques par morceaux. Nous proposons un algorithme permettant de détecter les régions d'intérêt (les morceaux) où chaque modèle s'applique puis d'estimer par moindres carrés les paramètres physiques (élasticité, force d'adhésion, topographie, etc.) dans chaque région. Nous proposons finalement une autre approche qui modélise une courbe de force comme un mélange de signaux sources parcimonieux retardées. La recherche des signaux sources dans une image force-volume s'effectue à partir d'un grand nombre de mélanges car il y autant de mélanges que de pixels dans l'image / This thesis handles several inverse problems occurring in sparse signal processing. The main contributions include the conception of algorithms dedicated to the restoration and the separation of sparse signals, and their application to force curve approximation in Atomic Force Microscopy (AFM), where the notion of sparsity is related to the number of discontinuity points in the signal (jumps, change of slope, change of curvature).In the signal processing viewpoint, we propose sub-optimal algorithms dedicated to the sparse signal approximation problem based on the l0 pseudo-norm : the Single Best Replacement algorithm (SBR) is an iterative "forward-backward" algorithm inspired from existing Bernoulli-Gaussian signal restoration algorithms. The Continuation Single Best Replacement algorithm (CSBR) is an extension providing approximations at various sparsity levels. We also address the problem of sparse source separation from delayed mixtures. The proposed algorithm is based on the prior application of CSBR on every mixture followed by a matching procedure which attributes a label for each peak occurring in each mixture.Atomic Force Microscopy (AFM) is a recent technology enabling to measure interaction forces between nano-objects. The force-curve analysis relies on piecewise parametric models. We address the detection of the regions of interest (the pieces) where each model holds and the subsequent estimation of physical parameters (elasticity, adhesion forces, topography, etc.) in each region by least-squares optimization. We finally propose an alternative approach in which a force curve is modeled as a mixture of delayed sparse sources. The research of the source signals and the delays from a force-volume image is done based on a large number of mixtures since there are as many mixtures as the number of image pixels
39

Optimization framework for large-scale sparse blind source separation / Stratégies d'optimisation pour la séparation aveugle de sources parcimonieuses grande échelle

Kervazo, Christophe 04 October 2019 (has links)
Lors des dernières décennies, la Séparation Aveugle de Sources (BSS) est devenue un outil de premier plan pour le traitement de données multi-valuées. L’objectif de ce doctorat est cependant d’étudier les cas grande échelle, pour lesquels la plupart des algorithmes classiques obtiennent des performances dégradées. Ce document s’articule en quatre parties, traitant chacune un aspect du problème: i) l’introduction d’algorithmes robustes de BSS parcimonieuse ne nécessitant qu’un seul lancement (malgré un choix d’hyper-paramètres délicat) et fortement étayés mathématiquement; ii) la proposition d’une méthode permettant de maintenir une haute qualité de séparation malgré un nombre de sources important: iii) la modification d’un algorithme classique de BSS parcimonieuse pour l’application sur des données de grandes tailles; et iv) une extension au problème de BSS parcimonieuse non-linéaire. Les méthodes proposées ont été amplement testées, tant sur données simulées que réalistes, pour démontrer leur qualité. Des interprétations détaillées des résultats sont proposées. / During the last decades, Blind Source Separation (BSS) has become a key analysis tool to study multi-valued data. The objective of this thesis is however to focus on large-scale settings, for which most classical algorithms fail. More specifically, it is subdivided into four sub-problems taking their roots around the large-scale sparse BSS issue: i) introduce a mathematically sound robust sparse BSS algorithm which does not require any relaunch (despite a difficult hyper-parameter choice); ii) introduce a method being able to maintain high quality separations even when a large-number of sources needs to be estimated; iii) make a classical sparse BSS algorithm scalable to large-scale datasets; and iv) an extension to the non-linear sparse BSS problem. The methods we propose are extensively tested on both simulated and realistic experiments to demonstrate their quality. In-depth interpretations of the results are proposed.

Page generated in 0.0544 seconds