• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 46
  • 27
  • 4
  • Tagged with
  • 74
  • 35
  • 28
  • 28
  • 27
  • 22
  • 21
  • 19
  • 16
  • 16
  • 16
  • 15
  • 13
  • 12
  • 10
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Acquisition et consolidation de représentations distribuées de séquences motrices, mesurées par IRMf

Pinsard, Basile 09 1900 (has links)
No description available.
62

Extension de l'analyse multi-résolution aux images couleurs par transformées sur graphes / Extension of the multi-resolution analysis for color images by using graph transforms

Malek, Mohamed 10 December 2015 (has links)
Dans ce manuscrit, nous avons étudié l’extension de l’analyse multi-résolution aux images couleurs par des transformées sur graphe. Dans ce cadre, nous avons déployé trois stratégies d’analyse différentes. En premier lieu, nous avons défini une transformée basée sur l’utilisation d’un graphe perceptuel dans l’analyse à travers la transformé en ondelettes spectrale sur graphe. L’application en débruitage d’image met en évidence l’utilisation du SVH dans l’analyse des images couleurs. La deuxième stratégie consiste à proposer une nouvelle méthode d’inpainting pour des images couleurs. Pour cela, nous avons proposé un schéma de régularisation à travers les coefficients d’ondelettes de la TOSG, l’estimation de la structure manquante se fait par la construction d’un graphe des patchs couleurs à partir des moyenne non locales. Les résultats obtenus sont très encourageants et mettent en évidence l’importance de la prise en compte du SVH. Dans la troisième stratégie, nous proposons une nouvelleapproche de décomposition d’un signal défini sur un graphe complet. Cette méthode est basée sur l’utilisation des propriétés de la matrice laplacienne associée au graphe complet. Dans le contexte des images couleurs, la prise en compte de la dimension couleur est indispensable pour pouvoir identifier les singularités liées à l’image. Cette dernière offre de nouvelles perspectives pour une étude approfondie de son comportement. / In our work, we studied the extension of the multi-resolution analysis for color images by using transforms on graphs. In this context, we deployed three different strategies of analysis. Our first approach consists of computing the graph of an image using the psychovisual information and analyzing it by using the spectral graph wavelet transform. We thus have defined a wavelet transform based on a graph with perceptual information by using the CIELab color distance. Results in image restoration highlight the interest of the appropriate use of color information. In the second strategy, we propose a novel recovery algorithm for image inpainting represented in the graph domain. Motivated by the efficiency of the wavelet regularization schemes and the success of the nonlocal means methods we construct an algorithm based on the recovery of information in the graph wavelet domain. At each step the damaged structure are estimated by computing the non local graph then we apply the graph wavelet regularization model using the SGWT coefficient. The results are very encouraging and highlight the use of the perceptual informations. In the last strategy, we propose a new approach of decomposition for signals defined on a complete graphs. This method is based on the exploitation of of the laplacian matrix proprieties of the complete graph. In the context of image processing, the use of the color distance is essential to identify the specificities of the color image. This approach opens new perspectives for an in-depth study of its behavior.
63

Traitement et analyse de signaux sonores physiologiques. Application à la phonoentérographie

Ranta, Radu 09 December 2003 (has links) (PDF)
L'objectif de ce travail de recherche est le développement d'un système d'étude de sons, plus particulièrement dédié à la phonoentérographie, qui devrait aboutir à plus long terme à un outil d'aide au diagnostic. La première étape présente une chaîne d'instrumentation multi-voies spécifique. Elle est suivie par le pré-traitement: la détection, la segmentation et le débruitage par ondelettes sont réalisés avec un algorithme original optimisé par une méthode de point-fixe. Une deuxième phase introduit des connaissances a priori sur les sons abdominaux et étudie leur localisation spatiale. Les caractéristiques physiques (fréquence, intensité, durée) décrivent les sons individuellement. L'étude globale des phonoentérogrammes est réalisée à partir d'indices d'activité (nombre d'événements, énergie moyenne, etc.). Les caractéristiques physiques et les indices sont utilisés dans l'analyse statistique des signaux, par analyse en composantes principales et classification non supervisée.
64

Applications du Compressed Sensing à l'imagerie biologique de microscopie

Marim, Marcio 08 April 2011 (has links) (PDF)
La technique d'acquisition compressée (compressed sensing, CS) est une nouvelle théorie pour l'échantillonnage qui fût introduite afin de permettre l'acquisition ef- ficace de signaux compressibles. Dans cette thèse, nous avons étudié des applica- tions pratiques de cette technique d'échantillonnage, où les acquisitions sont réal- isées dans le domaine de Fourier, menant aux deux principales contributions suiv- antes : (i) Débruitage d'image : Les images microscopiques présentent souvent des dégradations dûs à des artefacts complexes, associés à du bruit ou encore des mauvaises conditions d'éclairage. En microscopie à fluorescence, le bruit et le pho- toblanchiment altèrent la qualité de l'image. Notre travail a consisté à exploiter la théorie d'acquisition compressée comme un outil de débruitage d'image. Nous avons utilisé plusieurs acquisitions aléatoires dans le domaine de Fourier, et la variation totale comme un a priori sur la parcimonie spatiale. La composition des différentes images de reconstruction correspondant aux différents ensembles de mesures aléa- toires renforce la cohérence spatiale de composants du signal significatifs et per- met de décorréler les composants bruités. Nous avons étudié les relations entre la parcimonie d'un signal et les statistiques et la performance pour la réduction du bruit sous différentes conditions initiales de bruitage. Nous avons montré que la technique proposée, basée sur un a priori sur la parcimonie du signal et sur des échantillonnages aléatoires dans le domaine de Fourier, permet d'obtenir des im- ages avec un rapport signal/bruit (SNR) au pire égal à celui obtenu avec les méth- odes de débruitage classiques, tout en utilisant un nombre limité d'échantillons. Sous réserve de pouvoir acquérir l'image dans le domaine de Fourier, le schéma de débruitage proposé fournirait une méthode d'acquisition rapide nécessitant un temps d'exposition moindre, réduisant les effets de photoblanchiment. (ii) Acquisi- tion compressée en microscopie holographique : En microscopie, les données en sortie deviennent considérables, impliquant notamment l'utilisation de capteurs haute-définition (i.e. beaucoup d'échantillons par acquisition) et l'augmentation des temps d'acquisition. La théorie de l'acquisition compressée fournit des outils pour la reconstruction d'images, nécessitant moins d'échantillons que les approches clas- siques. Cependant, les quelques mesures nécessaires doivent être prises dans un domaine incohérent au domaine spatiale, ce qui est difficile à réaliser en microscopie conventionnelle. Nous avons tout d'abord proposé un schéma de calcul permettant l'acquisition de séquences temporelles de mesures d'amplitude dans le domaine de Fourier, et l'estimation de l'information manquante sur la phase par interpolation de spectre de quelques acquisitions complètes d'images. Cette approche a été mise en pratique dans le contexte de l'imagerie rapide, utilisée pour des cellules en mou- vement. Dans un deuxième temps nous avons implanté un schéma d'acquisition compressée pratique, conçu pour l'holographie numérique. Ce schéma permet de mesurer une figure de diffraction du champ optique et reconstruire images de haute qualité à partir de seulement 7% de mesures aléatoires. L'expérience d'acquisition compressée a été étendue avec succès à l'holographie compressée rapide à acquisition unique et dans des conditions d'éclairage faible.
65

L'Imagerie Compressé Appliqué a la Microscopie Biologique

Marim, Marcio 08 April 2011 (has links) (PDF)
La technique d'acquisition compressée (compressed sensing, CS) est une nouvelle théorie pour l'échantillonnage qui fût introduite afin de permettre l'acquisition efficace de signaux compressibles. Dans cette thèse, nous avons étudié des applications pratiques de cette technique d'échantillonnage, où les acquisitions sont réalisées dans le domaine de Fourier, menant aux deux principales contributions suivantes : (i) Débruitage d'image : Les images microscopiques présentent souvent des dégradations dûs à des artefacts complexes, associés à du bruit ou encore des mauvaises conditions d'éclairage. En microscopie à fluorescence, le bruit et le photoblanchiment altèrent la qualité de l'image. Notre travail a consisté à exploiter la théorie d'acquisition compressée comme un outil de débruitage d'image. Nous avons utilisé plusieurs acquisitions aléatoires dans le domaine de Fourier, et la variation totale comme un a priori sur la parcimonie spatiale. La composition des différentes images de reconstruction correspondant aux différents ensembles de mesures aléatoires renforce la cohérence spatiale de composants du signal significatifs et per- met de décorréler les composants bruités. Nous avons étudié les relations entre la parcimonie d'un signal et les statistiques et la performance pour la réduction du bruit sous différentes conditions initiales de bruitage. Nous avons montré que la technique proposée, basée sur un a priori sur la parcimonie du signal et sur des échantillonnages aléatoires dans le domaine de Fourier, permet d'obtenir des im- ages avec un rapport signal/bruit (SNR) au pire égal à celui obtenu avec les méthodes de débruitage classiques, tout en utilisant un nombre limité d'échantillons. Sous réserve de pouvoir acquérir l'image dans le domaine de Fourier, le schéma de débruitage proposé fournirait une méthode d'acquisition rapide nécessitant un temps d'exposition moindre, réduisant les effets de photoblanchiment. (ii) Acquisition compressée en microscopie holographique : En microscopie, les données en sortie deviennent considérables, impliquant notamment l'utilisation de capteurs haute-définition (i.e. beaucoup d'échantillons par acquisition) et l'augmentation des temps d'acquisition. La théorie de l'acquisition compressée fournit des outils pour la reconstruction d'images, nécessitant moins d'échantillons que les approches classiques. Cependant, les quelques mesures nécessaires doivent être prises dans un domaine incohérent au domaine spatiale, ce qui est difficile à réaliser en microscopie conventionnelle. Nous avons tout d'abord proposé un schéma de calcul permettant l'acquisition de séquences temporelles de mesures d'amplitude dans le domaine de Fourier, et l'estimation de l'information manquante sur la phase par interpolation de spectre de quelques acquisitions complètes d'images. Cette approche a été mise en pratique dans le contexte de l'imagerie rapide, utilisée pour des cellules en mouvement. Dans un deuxième temps nous avons implanté un schéma d'acquisition compressée pratique, conçu pour l'holographie numérique. Ce schéma permet de mesurer une figure de diffraction du champ optique et reconstruire images de haute qualité à partir de seulement 7% de mesures aléatoires. L'expérience d'acquisition compressée a été étendue avec succès à l'holographie compressée rapide à acquisition unique et dans des conditions d'éclairage faible.
66

Image Representations for Pattern Recognition

Hoang, Thai V. 14 December 2011 (has links) (PDF)
La pertinence d'une application de traitement de signal relève notamment du choix d'une "représentation adéquate''. Par exemple, pour la reconnaissance de formes, la représentation doit mettre en évidence les propriétés salientes d'un signal; en débruitage, permettre de séparer le signal du bruit; ou encore en compression, de synthétiser fidèlement le signal d'entrée à l'aide d'un nombre réduit de coefficients. Bien que les finalités de ces quelques traitements soient distinctes, il apparait clairement que le choix de la représentation impacte sur les performances obtenues. La représentation d'un signal implique la conception d'un ensemble génératif de signaux élémentaires, aussi appelé dictionnaire ou atomes, utilisé pour décomposer ce signal. Pendant de nombreuses années, la conception de dictionnaire a suscité un vif intérêt des chercheurs dans des domaines applicatifs variés: la transformée de Fourier a été employée pour résoudre l'équation de la chaleur; celle de Radon pour les problèmes de reconstruction; la transformée en ondelette a été introduite pour des signaux monodimensionnels présentant un nombre fini de discontinuités; la transformée en contourlet a été conçue pour représenter efficacement les signaux bidimensionnels composées de régions d'intensité homogène, à frontières lisses, etc. Jusqu'à présent, les dictionnaires existants peuvent être regroupés en deux familles d'approches: celles s'appuyant sur des modèles mathématiques de données et celles concernant l'ensemble de réalisations des données. Les dictionnaires de la première famille sont caractérisés par une formulation analytique. Les coefficients obtenus dans de telles représentations d'un signal correspondent à une transformée du signal, qui peuvent parfois être implémentée rapidement. Les dictionnaires de la seconde famille, qui sont fréquemment des dictionnaires surcomplets, offrent une grande flexibilité et permettent d'être adaptés aux traitements de données spécifiques. Ils sont le fruit de travaux plus récents pour lesquels les dictionnaires sont générés à partir des données en vue de la représentation de ces dernières. L'existence d'une multitude de dictionnaires conduit naturellement au problème de la sélection du meilleur d'entre eux pour la représentation de signaux dans un cadre applicatif donné. Ce choix doit être effectué en vertu des spécificités bénéfiques validées par les applications envisagées. En d'autres termes, c'est l'usage qui conduit à privilégier un dictionnaire. Dans ce manuscrit, trois types de dictionnaire, correspondant à autant de types de transformées/représentations, sont étudiés en vue de leur utilisation en analyse d'images et en reconnaissance de formes. Ces dictionnaires sont la transformée de Radon, les moments basés sur le disque unitaire et les représentations parcimonieuses. Les deux premiers dictionnaires sont employés pour la reconnaissance de formes invariantes tandis que la représentation parcimonieuse l'est pour des problèmes de débruitage, de séparation des sources d'information et de classification. Cette thèse présentent des contributions théoriques validées par de nombreux résultats expérimentaux. Concernant la transformée de Radon, des pistes sont proposées afin d'obtenir des descripteurs de formes invariants, et conduisent à définir deux descripteurs invariants aux rotations, l'échelle et la translation. Concernant les moments basés sur le disque unitaire, nous formalisons les stratégies conduisant à l'obtention de moments orthogonaux. C'est ainsi que quatre moments harmoniques polaires génériques et des stratégies pour leurs calculs rapides sont introduits. Enfin, concernant les représentations parcimonieuses, nous proposons et validons un formalisme de représentation permettant de combiner les trois critères suivant : la parcimonie, l'erreur de reconstruction ainsi que le pouvoir discriminant en classification.
67

Filtrage de données sismiques multicomposantes et estimation de la polarisation

Paulus, Caroline 25 September 2006 (has links) (PDF)
Les capteurs multicomposantes (2C, 3C ou 4C) sont de plus en plus utilisés pour les acquisitions sismiques.<br />Ils peuvent enregistrer le déplacement dans plusieurs directions de l'espace ainsi que les variations de pression.<br />Le développement de traitements adaptés à ce type de données est nécessaire.<br /><br /> Le but de ce travail de thèse est de développer une méthode permettant d'une part le débruitage de données sismiques multicomposantes, la séparation des différents champs d'ondes ou encore l'estimation de la polarisation des ondes et de leur direction d'arrivée (DOA).<br />Cette méthode, appelée filtrage matriciel large-bande multicomposante, dérivée de la méthode monocomposante, prend en compte l'information de polarisation et traite les différentes composantes de façon globale et non indépendamment.<br /><br /> Le principe utilisé est celui de la décomposition en valeurs propres d'une matrice spectrale pour permettre une séparation efficace de l'espace des données de départ en deux espaces complémentaires (sous-espace signal et sous-espace bruit).
68

Interpolation des données en imagerie cardiaque par résonance magnétique du tenseur de diffusion

Yang, Feng 15 January 2011 (has links) (PDF)
L'un des problèmes fondamentaux de l'imagerie cardiaque par résonance magnétique du tenseur de diffusion (IRM-TD) est sa faible résolution spatiale, à cause des limitations matérielles des scanners IRM actuels. L'objectif principal de ce travail de thèse est de développer de nouvelles approches pour améliorer la résolution des données d'IRM-TD afin de mieux représenter l'architecture myocardique du coeur humain et de la comparer avec des résultats issus d'autres techniques d'investigation telles que l'imagerie par lumière polarisée. Dans ce cadre, le travail porte sur trois parties principales. La première concerne le développement d'une nouvelle approche pour l'interpolation des champs de vecteurs propres principaux issus de l'IRM-TD cardiaque humaine. Cette approche consiste d'abord à supprimer les vecteurs corrompus par le bruit au lieu de débruiter de manière uniforme le champ entier de vecteurs, et ensuite à interpoler le champ de vecteurs en utilisant la modèle Thin-Plate-Spline (TPS) afin d'exploiter la corrélation entre les composantes du vecteur. La deuxième partie concerne une nouvelle famille de méthodes d'interpolation pour les champs de tenseurs, basée soit sur les angles d'Euler soit sur le quaternion. Ces méthodes exploitent les caractéristiques du tenseur et préservent les paramètres de tenseurs, tels que le déterminant du tenseur, l'anisotropie fractionnelle (FA) et la diffusivité moyenne (MD). En outre, cette partie compare les principales approches d'interpolation au niveau des images pondérées en diffusion et des champs de tenseurs, et les résultats montrent qu'il serait préférable d'effectuer l'interpolation des données d'IRM-TD au niveau des champs de tenseurs. La troisième partie étudie le changement des paramètres MD et FA après un infarctus du myocarde chez les cochons, et l'influence des méthodes d'interpolation sur ces paramètres dans la zone infarctus et la zone distante. Les résultats montrent que la zone infarctus présente une diminution significative de FA et une augmentation significative de MD, comparée avec la zone distante, et que les méthodes d'interpolations du tenseur ont plus d'influence sur FA que sur MD, ce qui suggère que l'interprétation de ces paramètres cliniques après l'interpolation doive être prise avec précaution.
69

Méthodes avancées de traitement de la parole et de réduction de bruit pour les terminaux mobiles / Advanced methods of speech processing and noise reduction for mobile devices

Mai, Van Khanh 09 March 2017 (has links)
Cette thèse traite d'un des problèmes les plus stimulants dans le traitement de la parole concernant la prothèse auditive, où seulement un capteur est disponible avec de faibles coûts de calcul, de faible utilisation d'énergie et l'absence de bases de données. Basée sur les récents résultats dans les deux estimations statistiques paramétriques et non-paramétriques, ainsi que la représentation parcimonieuse. Cette étude propose quelques techniques non seulement pour améliorer la qualité et l'intelligibilité de la parole, mais aussi pour s'attaquer au débruitage du signal audio en général.La thèse est divisée en deux parties ; Dans la première partie, on aborde le problème d'estimation de la densité spectrale de puissance du bruit, particulièrement pour le bruit non-stationnaire. Ce problème est une des parties principales du traitement de la parole du mono-capteur. La méthode proposée prend en compte le modèle parcimonieux de la parole dans le domaine transféré. Lorsque la densité spectrale de puissance du bruit est estimée, une approche sémantique est exploitée pour tenir compte de la présence ou de l'absence de la parole dans la deuxième partie. En combinant l'estimation Bayésienne et la détection Neyman-Pearson, quelques estimateurs paramétriques sont développés et testés dans le domaine Fourier. Pour approfondir la performance et la robustesse de débruitage du signal audio, une approche semi-paramétrique est considérée. La conjointe détection et estimation peut être interprétée par Smoothed Sigmoid-Based Shrinkage (SSBS). Ainsi, la méthode Bloc-SSBS est proposée afin de prendre en compte les atomes voisinages dans le domaine temporel-fréquentiel. De plus, pour améliorer fructueusement la qualité de la parole et du signal audio, un estimateur Bayésien est aussi dérivé et combiné avec la méthode Bloc-SSBS. L'efficacité et la pertinence de la stratégie dans le domaine transformée cosinus pour les débruitages de la parole et de l'audio sont confirmées par les résultats expérimentaux. / This PhD thesis deals with one of the most challenging problem in speech enhancement for assisted listening where only one micro is available with the low computational cost, the low power usage and the lack out of the database. Based on the novel and recent results both in non-parametric and parametric statistical estimation and sparse representation, this thesis work proposes several techniques for not only improving speech quality and intelligibility and but also tackling the denoising problem of the other audio signal. In the first major part, our work addresses the problem of the noise power spectrum estimation, especially for non-stationary noise, that is the key part in the single channel speech enhancement. The proposed approach takes into account the weak-sparseness model of speech in the transformed model. Once the noise power spectrum has been estimated, a semantic road is exploited to take into consideration the presence or absence of speech in the second major part. By applying the joint of the Bayesian estimator and the Neyman-Pearson detection, some parametric estimators were developed and tested in the discrete Fourier transform domain. For further improve performance and robustness in audio denoising, a semi-parametric approach is considered. The joint detection and estimation can be interpreted by Smoothed Sigmoid-Based Shrinkage (SSBS). Thus, Block-SSBS is proposed to take into additionally account the neighborhood bins in the time-frequency domain. Moreover, in order to enhance fruitfully speech and audio, a Bayesian estimator is also derived and combined with Block-SSBS. The effectiveness and relevance of this strategy in the discrete Cosine transform for both speech and audio denoising are confirmed by experimental results.
70

Modèles aléatoires harmoniques pour les signaux électroencéphalographiques

Villaron, Emilie 25 June 2012 (has links)
Cette thèse s'inscrit dans le contexte de l'analyse des signaux biomédicaux multicapteurs par des méthodes stochastiques. Les signaux auxquels nous nous intéressons présentent un caractère oscillant transitoire bien représenté par les décompositions dans le plan temps-fréquence c'est pourquoi nous avons choisi de considérer non plus les décours temporels de ces signaux mais les coefficients issus de la décomposition de ces derniers dans le plan temps-fréquence. Dans une première partie, nous décomposons les signaux multicapteurs sur une base de cosinus locaux (appelée base MDCT) et nous modélisons les coefficients à l'aide d'un modèle à états latents. Les coefficients sont considérés comme les réalisations de processus aléatoires gaussiens multivariés dont la distribution est gouvernée par une chaîne de Markov cachée. Nous présentons les algorithmes classiques liés à l'utilisation des modèles de Markov caché et nous proposons une extension dans le cas où les matrices de covariance sont factorisées sous forme d'un produit de Kronecker. Cette modélisation permet de diminuer la complexité des méthodes de calcul numérique utilisées tout en stabilisant les algorithmes associés. Nous appliquons ces modèles à des données électroencéphalographiques et nous montrons que les matrices de covariance représentant les corrélations entre les capteurs et les fréquences apportent des informations pertinentes sur les signaux analysés. Ceci est notamment illustré par un cas d'étude sur la caractérisation de la désynchronisation des ondes alpha dans le contexte de la sclérose en plaques. / This thesis adresses the problem of multichannel biomedical signals analysis using stochastic methods. EEG signals exhibit specific features that are both time and frequency localized, which motivates the use of time-frequency signal representations. In this document the (time-frequency labelled) coefficients are modelled as multivariate random variables. In the first part of this work, multichannel signals are expanded using a local cosine basis (called MDCT basis). The approach we propose models the distribution of time-frequency coefficients (here MDCT coefficients) in terms of latent variables by the use of a hidden Markov model. In the framework of application to EEG signals, the latent variables describe some hidden mental state of the subject. The latter control the covariance matrices of Gaussian vectors of fixed-time vectors of multi-channel, multi-frequency, MDCT coefficients. After presenting classical algorithms to estimate the parameters, we define a new model in which the (space-frequency) covariance matrices are expanded as tensor products (also named Kronecker products) of frequency and channels matrices. Inference for the proposed model is developped and yields estimates for the model parameters, together with maximum likelihood estimates for the sequences of latent variables. The model is applied to electroencephalogram data, and it is shown that variance-covariance matrices labelled by sensor and frequency indices can yield relevant informations on the analyzed signals. This is illustrated with a case study, namely the detection of alpha waves in rest EEG for multiple sclerosis patients and control subjects.

Page generated in 0.0472 seconds