• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 152
  • 86
  • 54
  • 21
  • 10
  • 7
  • 4
  • 4
  • 4
  • 3
  • 2
  • 2
  • Tagged with
  • 412
  • 181
  • 87
  • 86
  • 78
  • 78
  • 77
  • 70
  • 65
  • 58
  • 57
  • 56
  • 48
  • 43
  • 42
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
161

Traitement statistique des distorsions non-linéaires pour la restauration des enregistrements sonores.

Picard, Guillaume 12 1900 (has links) (PDF)
L'objet de la thèse est l'étude, la modélisation et le traitement des distorsions non linéaires sonores, pour lesquelles les techniques actuelles s'avèrent impuissantes. L'approche retenue consiste à représenter, globalement, à la fois le signal audio à restaurer et le processus de distorsion, dans le cadre d'un modèle statistique. Cette approche présente un bon compromis entre une souhaitable généricité -possibilité de traiter à l'aide d'une méthode globale plusieurs types de distorsions- et l'utilisation de connaissances spécifiques, notamment concernant les sources de distorsions. La première étape de la thèse consiste en une analyse des mécanismes de la distorsion basée sur une série de mesures où plusieurs séquences audio sont enregistrées en entrée et en sortie d'appareils audiofréquences standards (amplificateurs de puissance, convertisseurs numérique-analogique, enregistreurs sur bandes magnétiques). Les éléments d'analyse retenus conduisent à la présentation des hypothèses principales du traitement. La méthode est basée sur un modèle de transmission non-linéaire choisi parmi ceux étudiés dans la littérature (modèles en cascades de Hammerstein simple), ainsi qu'un modèle des signaux à restaurer (modélisation autorégressive et modèle gaussien à écart-type variable). La seconde étape définit d'une part, la méthode d'identification ``autodidacte'' (à partir de la donnée seule du signal distordu) du modèle de distorsion et d'autre part, la technique de reconstruction de l'extrait sonore associée aux modèles de distorsion et de signal.
162

Parallel magnetic resonance imaging reconstruction problems using wavelet representations

Chaari, Lotfi 05 November 2010 (has links) (PDF)
Pour réduire le temps d'acquisition ou bien améliorer la résolution spatio-temporelle dans certaines application en IRM, de puissantes techniques parallèles utilisant plusieurs antennes réceptrices sont apparues depuis les années 90. Dans ce contexte, les images d'IRM doivent être reconstruites à partir des données sous-échantillonnées acquises dans le " k-space ". Plusieurs approches de reconstruction ont donc été proposées dont la méthode SENSitivity Encoding (SENSE). Cependant, les images reconstruites sont souvent entâchées par des artéfacts dus au bruit affectant les données observées, ou bien à des erreurs d'estimation des profils de sensibilité des antennes. Dans ce travail, nous présentons de nouvelles méthodes de reconstruction basées sur l'algorithme SENSE, qui introduisent une régularisation dans le domaine transformé en ondelettes afin de promouvoir la parcimonie de la solution. Sous des conditions expérimentales dégradées, ces méthodes donnent une bonne qualité de reconstruction contrairement à la méthode SENSE et aux autres techniques de régularisation classique (e.g. Tikhonov). Les méthodes proposées reposent sur des algorithmes parallèles d'optimisation permettant de traiter des critères convexes, mais non nécessairement différentiables contenant des a priori parcimonieux. Contrairement à la plupart des méthodes de reconstruction qui opèrent coupe par coupe, l'une des méthodes proposées permet une reconstruction 4D (3D + temps) en exploitant les corrélations spatiales et temporelles. Le problème d'estimation d'hyperparamètres sous-jacent au processus de régularisation a aussi été traité dans un cadre bayésien en utilisant des techniques MCMC. Une validation sur des données réelles anatomiques et fonctionnelles montre que les méthodes proposées réduisent les artéfacts de reconstruction et améliorent la sensibilité/spécificité statistique en IRM fonctionnelle
163

Estimation et Classification des Signaux Altimétriques

Severini, Jerome, Mailhes, Corinne, Tourneret, Jean-Yves 07 October 2010 (has links) (PDF)
La mesure de la hauteur des océans, des vents de surface (fortement liés aux températures des océans), ou encore de la hauteur des vagues sont un ensemble de paramètres nécessaires à l'étude des océans mais aussi au suivi de leurs évolutions : l'altimétrie spatiale est l'une des disciplines le permettant. Une forme d'onde altimétrique est le résultat de l'émission d'une onde radar haute fréquence sur une surface donnée (classiquement océanique) et de la mesure de la réflexion de cette onde. Il existe actuellement une méthode d'estimation non optimale des formes d'onde altimétriques ainsi que des outils de classifications permettant d'identifier les différents types de surfaces observées. Nous proposons dans cette étude d'appliquer la méthode d'estimation bayésienne aux formes d'onde altimétriques ainsi que de nouvelles approches de classification. Nous proposons enfin la mise en place d'un algorithme spécifique permettant l'étude de la topographie en milieu côtier, étude qui est actuellement très peu développée dans le domaine de l'altimétrie.
164

Déconvolution impulsionnelle multi-source. Application aux signaux électro- myographiques

Di, G. 04 December 2009 (has links) (PDF)
Cette thèse s'inscrit dans le cadre d'une collaboration entre l'IRCCyN (UMR 6597) et le laboratoire SMI (Sensory-Motor Interaction, Université d'Aalborg, Dane- mark). L'objectif est de développer des méthodes de décomposition de signaux élec- tromyographiques (EMG). Les applications sont multiples, e.g., l'aide au diagnostic. De tels signaux peuvent être modélisés comme une somme bruitée de I composantes, chacune étant la réponse d'un système linéaire excité par un train d'impulsions. Les paramètres du modèle sont estimés par une technique bayésienne. Les lois a priori des paramètres continus sont choisies de sorte que les lois marginales a posteriori sont analytiques. Dans un premier temps est proposée une méthode déterministe par maxi- misation de la distribution a posteriori. La difficulté majeure consiste en l'estimation des trains d'impulsions. Ceux-ci (paramètres discrets) constituent un espace combinatoire ; la recherche du maximum est traitée par l'algorithme Tabou. Dans un deuxième temps, on souhaite éviter le réglage des paramètres associés à l'algorithme Tabou : l'approche bayésienne couplée aux techniques MCMC fournit un cadre d'étude très efficace. Un algorithme de Gibbs hybride est proposé, dans lequel une étape Metropolis-Hastings sur les trains d'impulsions permet d'éviter un calcul de complexité exponentielle, tout en garantissant l'irréductibilité de la chaîne de Markov. Les techniques issues de l'al- gorithme MCMC pour la déconvolution d'un processus Bernoulli-gaussien sont ap- pliquées. En particulier, le rééchantillonnage d'échelle et la marginalisation des ampli- tudes sont adaptés au modèle physique en tenant compte de la variabilité d'amplitudes des impulsions. Les algorithmes sont validés sur des signaux EMG simulés et expérimentaux.
165

Bayesian wavelet approaches for parameter estimation and change point detection in long memory processes

Ko, Kyungduk 01 November 2005 (has links)
The main goal of this research is to estimate the model parameters and to detect multiple change points in the long memory parameter of Gaussian ARFIMA(p, d, q) processes. Our approach is Bayesian and inference is done on wavelet domain. Long memory processes have been widely used in many scientific fields such as economics, finance and computer science. Wavelets have a strong connection with these processes. The ability of wavelets to simultaneously localize a process in time and scale domain results in representing many dense variance-covariance matrices of the process in a sparse form. A wavelet-based Bayesian estimation procedure for the parameters of Gaussian ARFIMA(p, d, q) process is proposed. This entails calculating the exact variance-covariance matrix of given ARFIMA(p, d, q) process and transforming them into wavelet domains using two dimensional discrete wavelet transform (DWT2). Metropolis algorithm is used for sampling the model parameters from the posterior distributions. Simulations with different values of the parameters and of the sample size are performed. A real data application to the U.S. GNP data is also reported. Detection and estimation of multiple change points in the long memory parameter is also investigated. The reversible jump MCMC is used for posterior inference. Performances are evaluated on simulated data and on the Nile River dataset.
166

Topics in Random Matrices: Theory and Applications to Probability and Statistics

Kousha, Termeh 13 December 2011 (has links)
In this thesis, we discuss some topics in random matrix theory which have applications to probability, statistics and quantum information theory. In Chapter 2, by relying on the spectral properties of an associated adjacency matrix, we find the distribution of the maximum of a Dyck path and show that it has the same distribution function as the unsigned Brownian excursion which was first derived in 1976 by Kennedy. We obtain a large and moderate deviation principle for the law of the maximum of a random Dyck path. Our result extends the results of Chung, Kennedy and Khorunzhiy and Marckert. In Chapter 3, we discuss a method of sampling called the Gibbs-slice sampler. This method is based on Neal's slice sampling combined with Gibbs sampling. In Chapter 4, we discuss several examples which have applications in physics and quantum information theory.
167

Slice Sampling with Multivariate Steps

Thompson, Madeleine 11 January 2012 (has links)
Markov chain Monte Carlo (MCMC) allows statisticians to sample from a wide variety of multidimensional probability distributions. Unfortunately, MCMC is often difficult to use when components of the target distribution are highly correlated or have disparate variances. This thesis presents three results that attempt to address this problem. First, it demonstrates a means for graphical comparison of MCMC methods, which allows researchers to compare the behavior of a variety of samplers on a variety of distributions. Second, it presents a collection of new slice-sampling MCMC methods. These methods either adapt globally or use the adaptive crumb framework for sampling with multivariate steps. They perform well with minimal tuning on distributions when popular methods do not. Methods in the first group learn an approximation to the covariance of the target distribution and use its eigendecomposition to take non-axis-aligned steps. Methods in the second group use the gradients at rejected proposed moves to approximate the local shape of the target distribution so that subsequent proposals move more efficiently through the state space. Finally, this thesis explores the scaling of slice sampling with multivariate steps with respect to dimension, resulting in a formula for optimally choosing scale tuning parameters. It shows that the scaling of untransformed methods can sometimes be improved by alternating steps from those methods with radial steps based on those of the polar slice sampler.
168

Slice Sampling with Multivariate Steps

Thompson, Madeleine 11 January 2012 (has links)
Markov chain Monte Carlo (MCMC) allows statisticians to sample from a wide variety of multidimensional probability distributions. Unfortunately, MCMC is often difficult to use when components of the target distribution are highly correlated or have disparate variances. This thesis presents three results that attempt to address this problem. First, it demonstrates a means for graphical comparison of MCMC methods, which allows researchers to compare the behavior of a variety of samplers on a variety of distributions. Second, it presents a collection of new slice-sampling MCMC methods. These methods either adapt globally or use the adaptive crumb framework for sampling with multivariate steps. They perform well with minimal tuning on distributions when popular methods do not. Methods in the first group learn an approximation to the covariance of the target distribution and use its eigendecomposition to take non-axis-aligned steps. Methods in the second group use the gradients at rejected proposed moves to approximate the local shape of the target distribution so that subsequent proposals move more efficiently through the state space. Finally, this thesis explores the scaling of slice sampling with multivariate steps with respect to dimension, resulting in a formula for optimally choosing scale tuning parameters. It shows that the scaling of untransformed methods can sometimes be improved by alternating steps from those methods with radial steps based on those of the polar slice sampler.
169

Topics in Random Matrices: Theory and Applications to Probability and Statistics

Kousha, Termeh 13 December 2011 (has links)
In this thesis, we discuss some topics in random matrix theory which have applications to probability, statistics and quantum information theory. In Chapter 2, by relying on the spectral properties of an associated adjacency matrix, we find the distribution of the maximum of a Dyck path and show that it has the same distribution function as the unsigned Brownian excursion which was first derived in 1976 by Kennedy. We obtain a large and moderate deviation principle for the law of the maximum of a random Dyck path. Our result extends the results of Chung, Kennedy and Khorunzhiy and Marckert. In Chapter 3, we discuss a method of sampling called the Gibbs-slice sampler. This method is based on Neal's slice sampling combined with Gibbs sampling. In Chapter 4, we discuss several examples which have applications in physics and quantum information theory.
170

The Heterogeneity Model and its Special Cases. An Illustrative Comparison.

Tüchler, Regina, Frühwirth-Schnatter, Sylvia, Otter, Thomas January 2002 (has links) (PDF)
In this paper we carry out fully Bayesian analysis of the general heterogeneity model, which is a mixture of random effects model, and its special cases, the random coefficient model and the latent class model. Our application comes from Conjoint analysis and we are especially interested in what is gained by the general heterogeneity model in comparison to the other two when modeling consumers' heterogeneous preferences. (author's abstract) / Series: Report Series SFB "Adaptive Information Systems and Modelling in Economics and Management Science"

Page generated in 0.0433 seconds