• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 21
  • 4
  • 4
  • Tagged with
  • 29
  • 10
  • 10
  • 8
  • 8
  • 8
  • 8
  • 7
  • 7
  • 6
  • 6
  • 6
  • 6
  • 6
  • 6
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Analyse des séries chronologiques à mémoire longue dans le domaine des ondelettes

Kouamo, Olaf 28 January 2011 (has links) (PDF)
Le thème de nos travaux porte sur la statistique des processus à longue mémoire, pour lesquels nous proposons et validons des outils statistiques issus de l'analyse par ondelettes. Ces dernières années ces méthodes pour estimer le paramètre de mémoire sont devenues très populaires. Cependant, les résultats théoriques validant rigoureusement les estimateurs pour les modèles semi paramétriques classiques à longue mémoire sont récents (cf. les articles de E. Moulines, F. Roueff et M. Taqqu depuis 2007). Les résultats que nous proposons dans cette thèse s'inscrivent directement dans le prolongement de ces travaux. Nous avons proposé une procédure de test pour détecter des ruptures sur la densité spectrale généralisée. Dans le domaine des ondelettes, le test devient un test de ruptures sur la variance des coefficients d'ondelettes. Nous avons ensuite développé un algorithme de calcul rapide de la matrice de covariance des coefficients d'ondelettes. Deux applications de cet algorithme sont proposées , d'une part pour l'estimation de d et d'autre part pour améliorer le test proposé dans le chapitre précédent. Pour finir, nous avons étudié les estimateurs robustes robustes du paramètre de mémoire d dans le domaine des ondelettes. en se basant sur trois estimateurs de la variance des coefficients d'ondelettes à une échelle. La contribution majeure de ce chapitre est le théorème central limite obtenu pour les trois estimateurs de d dans le cadre des processus gaussiens M(d).
12

Quelques contributions à l'estimation fonctionnelle par méthodes d'ondelettes

Chesneau, Christophe 07 December 2006 (has links) (PDF)
Nous présentons quelques contributions à l'estimation fonctionnelle par méthodes d'ondelettes.<br />Deux axes de recherches orientent notre travail. Premier axe: étude de modèles statistiques complexes. Le point de départ de notre étude est le modèle de bruit blanc gaussien généralisé et le modèle de régression à pas aléatoires.<br />Ceux-ci font intervenir une fonction perturbant l'estimation de la fonction inconnue.<br />Notre objectif est de montrer l'influence exacte de cette fonction parasite via l'approche minimax sous le risque Lp. Dans un premier temps,<br />nous utilisons des méthodes en ondelettes pour cerner les limites de cette approche lorsque l'on se place sur des boules de Besov standards. Dans un deuxième temps, nous étudions l'alternative des boules de Besov pondérées et des méthodes en ondelettes déformées.<br />Deuxième axe: estimation adaptative. Nous étudions les performances de plusieurs estimateurs de seuillage par blocs en ondelettes sous le risque Lp.<br />Nous montrons leurs excellentes propriétés minimax et maxisets pour un large panel de modèles statistiques. En guise d'applications, nous traitons le modèle de régression à pas aléatoires et le modèle de convolution en bruit blanc gaussien.
13

Systèmes OFDM ultra large bande :<br />Estimation de canal et détection améliorée prenant en compte les imprécisions d'estimation

Sadough, Seyed Mohammad Sajad 07 January 2008 (has links) (PDF)
Les travaux présentés dans cette thèse se situent dans le cadre de la transmission OFDM appliqué au contexte Ultra Large Bande. L'objectif principal va être l'estimation du canal de propagation et la conception de récepteurs en prenant en compte la connaissance non idéale du canal. On propose d'abord une approche semi-aveugle d'estimation du canal basée sur l'algorithme EM. Le canal est décrit au moyen de sa décomposition dans une base d'ondelettes, ce qui fournit une représentation parcimonieuse. La complexité de l'estimation est réduite grâce au fait que les coefficients d'ondelettes jugés non significatif sont écartés. Ensuite, on propose des structures de réception où la conception du détecteur prend en compte la présence des erreurs d'estimation de canal. La détection au sens maximum de vraisemblance (MV) est améliorée en modifiant sa métrique de détection pour le cas où le canal est estimé de manière imparfaite. La métrique MV améliorée ainsi obtenue nous permet de remettre en question le schéma de détection de type turbo maximum a posteriori (MAP) et l'adapter à la connaissance imparfaite du canal. En outre, le choix de l'étiquetage lors de l'attribution des bits aux symboles est également discuté. De plus, on dérive les débits de coupure atteignables (achievable outage rates) avec le détecteur MV améliorée ou un détecteur MV désadapté (utilisant les estimés de canal comme s'il s'agissait des vraies) qu'on comparera avec un détecteur théorique défini comme étant le meilleur récepteur possible en présence d'erreurs d'estimation de canal. Enfin, un récepteur itératif à complexité réduite basé sur un filtrage MMSE et l'annulation parallèle d'interférence (turbo-PIC) est introduit. L'idée de notre approche consiste à prendre en compte la connaissance imparfaite du canal dans la conception du filtre MMSE ainsi que dans la partie annulation d'interférence. Il est important de souligner que les améliorations proposées dans cette thèse ne résultent pas en une augmentation sensible de la complexité algorithmique au niveau du récepteur.
14

Méthodes proximales pour la résolution de problèmes inverses : application à la tomographie par émission de positrons / Proximal methods for the resolution of inverse problems : application to positron emission tomography

Pustelnik, Nelly 13 December 2010 (has links)
L'objectif de cette thèse est de proposer des méthodes fiables, efficaces et rapides pour minimiser des critères convexes apparaissant dans la résolution de problèmes inverses en imagerie. Ainsi, nous nous intéresserons à des problèmes de restauration/reconstruction lorsque les données sont dégradées par un opérateur linéaire et un bruit qui peut être non additif. La fiabilité de la méthode sera assurée par l'utilisation d'algorithmes proximaux dont la convergence est garantie lorsqu'il s'agit de minimiser des critères convexes. La quête d'efficacité impliquera le choix d'un critère adapté aux caractéristiques du bruit, à l'opérateur linéaire et au type d'image à reconstruire. En particulier, nous utiliserons des termes de régularisation basés sur la variation totale et/ou favorisant la parcimonie des coefficients du signal recherché dans une trame. L'utilisation de trames nous amènera à considérer deux approches : une formulation du critère à l'analyse et une formulation du critère à la synthèse. De plus, nous étendrons les algorithmes proximaux et leurs preuves de convergence aux cas de problèmes inverses multicomposantes. La recherche de la rapidité de traitement se traduira par l'utilisation d'algorithmes proximaux parallélisables. Les résultats théoriques obtenus seront illustrés sur différents types de problèmes inverses de grandes tailles comme la restauration d'images mais aussi la stéréoscopie, l'imagerie multispectrale, la décomposition en composantes de texture et de géométrie. Une application attirera plus particulièrement notre attention ; il s'agit de la reconstruction de l'activité dynamique en Tomographie par Emission de Positrons (TEP) qui constitue un problème inverse difficile mettant en jeu un opérateur de projection et un bruit de Poisson dégradant fortement les données observées. Pour optimiser la qualité de reconstruction, nous exploiterons les caractéristiques spatio-temporelles de l'activité dans les tissus / The objective of this work is to propose reliable, efficient and fast methods for minimizing convex criteria, that are found in inverse problems for imagery. We focus on restoration/reconstruction problems when data is degraded with both a linear operator and noise, where the latter is not assumed to be necessarily additive.The methods reliability is ensured through the use of proximal algorithms, the convergence of which is guaranteed when a convex criterion is considered. Efficiency is sought through the choice of criteria adapted to the noise characteristics, the linear operators and the image specificities. Of particular interest are regularization terms based on total variation and/or sparsity of signal frame coefficients. As a consequence of the use of frames, two approaches are investigated, depending on whether the analysis or the synthesis formulation is chosen. Fast processing requirements lead us to consider proximal algorithms with a parallel structure. Theoretical results are illustrated on several large size inverse problems arising in image restoration, stereoscopy, multi-spectral imagery and decomposition into texture and geometry components. We focus on a particular application, namely Positron Emission Tomography (PET), which is particularly difficult because of the presence of a projection operator combined with Poisson noise, leading to highly corrupted data. To optimize the quality of the reconstruction, we make use of the spatio-temporal characteristics of brain tissue activity
15

Analyse des processus longue mémoire stationnaires et non-stationnaires : estimations, applications et prévisions

Lu, Zhiping 02 June 2009 (has links) (PDF)
Dans cette thèse, on considère deux types de processus longues mémoires : les processus stationnaires et non-stationnaires. Nous nous consacrons à l'étude de leurs propriétés statistiques, les méthodes d'estimation, les méthodes de prévision et les tests statistiques. Les processus longue mémoire stationaires ont été largement étudiés au cours des dernières décennies. Il a été démontré que des processus longue mémoire ont des propriétés d'autosimilarité, qui sont importants pour l'estimation des paramètres. Nous passons en revue les propriétés d'auto-similairité des processus longue mémoire en temps continu et en temps discret. Nous proposons deux propositions montrant que les processus longue mémoire sont asymptotiquement auto-similaires du deuxième ordre, alors que processus courte mémoire ne sont pas asymptotiquement auto-similaires du deuxième ordre. Ensuite, nous étudions l'auto-similairité des processus longue mémoire spécifiques tels que les processus GARMA à k facteurs et les processus GIGARCH à k facteurs. Nous avons également étudié les propriétés d'auto-similarités des modèles heteroscedastiques et des processus avec des sauts. Nous faisons une revue des méthodes d'estimation des paramètres des processus longue mémoire, par méthodes paramétriques (par exemple, l'estimation par maximum de vraisemblance et estimation par pseudo-maximum de vraisemblance) et les méthodes semiparamétriques (par exemple, la méthode de GPH, la méthode de Whittle, la méthode de Robinson). Les comportements de consistance et de normalité asymptotique sont également étudiés pour ces estimateurs. Le test sur l'ordre fractionnaire intégré de la racine unité saisonnière et non-saisonnière des processus longue mémoire stationnaires est très important pour la modélisation des series économiques et financières. Le test de Robinson (1994) est largement utilisé et appliqué aux divers modèles longues mémoires bien connus. A partir de méthode de Monte Carlo, nous étudions et comparons les performances de ce test en utilisant plusieurs tailles d'échantillons. Ce travail est important pour les praticiens qui veulent utiliser le test de Robinson. Dans la pratique, lorsqu'on traite des données financières et économiques, la saisonnalité et la dépendance qui évolvent avec le temps peuvent souvent être observées. Ainsi une sorte de non-stationnarité existe dans les données financières. Afin de prendre en compte ce genre de phénomènes, nous passons en revue les processus non-stationnaires et nous proposons une nouvelle classe de processus stochastiques: les processus de Gegenbauer à k facteurs localement stationnaire. Nous proposons une procédure d'estimation de la fonction de paramètres en utilisant la transformation discrète en paquets d'ondelettes (DWPT). La robustesse de l'algorithme est étudiée par simulations. Nous proposons également des méthodes de prévisions pour cette nouvelle classe de processus non-stationnaire à long mémoire. Nous dennons des applications sur le terme de la correction d'erreurs de l'analyse cointégration fractionnaire de l'index Nikkei Stock Average 225 et nous étudions les prix mondiaux du pétrole brut.
16

Classification des signaux EMG utérins afin de détecter les accouchements prématurés

Diab, M.O. 17 December 2007 (has links) (PDF)
L'accouchement prématuré reste la principale cause de mortalité et de morbidité néonatales. Le signal EMG utérin semble un vecteur potentiel d'indication du risque d'accouchement prématuré.<br /> Dans la suite des travaux réalisés pour la détection, le traitement et la classification des événements dans le signal EMG Utérin, notre travail s'est orienté vers la classification des contractions à partir des signaux EMG utérins, afin de séparer les deux types d'accouchement : accouchement prématuré et accouchement à terme.<br /> Les contractions utérines ont été manuellement segmentées à partir du signal EMG utérin. Puis chaque contraction est modélisée et des paramètres sont extraits avant de faire la classification. Cette modélisation est faite par ondelettes et par analyse de la densité spectrale de puissance de chaque contraction.<br /> La classification est ensuite réalisée en utilisant 2 types de méthodes : tout d'abord une classification non supervisée, qui regroupe les contractions sans connaissance a priori des classes, permettant ensuite une interprétation des groupes en fonction des semaines d'aménorrhées et du terme d'accouchement. Dans ce contexte nous avons développé une méthode originale de classification non supervisée basée sur le test de Fisher combiné avec la méthode de k-moyenne (USCM, Unsupervised Statistical Classification Method).<br /> L'autre type de classification est supervisée. Après avoir sélectionné d'une façon précise les femmes qui peuvent être utilisées pour l'apprentissage de notre méthode de classification, nous avons utilisé différentes méthodes supervisées de classification. Tout d'abord, nous avons testé des méthodes classiques (Réseaux de neurones, Parzen,...). Puis une méthode originale basée sur le réseau d'ondelettes a été développée pour cette classification, cette méthode ayant été précédemment utilisée pour la régression mais jamais pour la classification.<br /> Nous avons été confrontés à un problème lié au faible nombre de d'éléments pour l'apprentissage. Nous avons donc aussi utilisé une méthode basée sur la modélisation autorégressive pour augmenter l'ensemble d'apprentissage.<br /> En ce qui concerne les applications, et pour la séparation entre les signaux d'EMG (application clinique), nous avons utilisé deux approches. Dans la première approche, nous avons utilisé des contractions ayant le même nombre de SAR (Semaines d'Aménorrhée à l'Enregistrement) mais des SAA (semaines d'Aménorrhée à l'accouchement) différent (petite différence et grande différence). La deuxième approche est de classifier les événements acquis avec différentes (SAR) pour des femmes ayant le même SAA.<br /> D'après les résultats obtenus, nous avons pu conclure que nous pouvons distinguer le terme d'accouchement des femmes enregistrés aux mêmes termes de grossesse. Et nous avons pu également conclure que les contractions changent de caractéristiques en fonction du terme de grossesse. D'un point de vue clinique, le résultat important est que, pour un terme de grossesse donné à l'enregistrement, il est possible de distinguer une contraction normale et une contraction conduisant à un accouchement prématuré.
17

Contributions à l'analyse multifractale des coefficients d'ondelettes dominants et du bootstrap : Images, performances d'estimation, nombre de moments nuls et structure de dépendance. Intervalles de confiance et tests d'hypothèse.

Wendt, Herwig 23 September 2008 (has links) (PDF)
L'invariance d'échelle constitue un paradigme souvent avancé pour l'analyse et la modélisation de données expérimentales issues d'applications de natures différentes. L'analyse multifractale fournit un cadre conceptuel pour ses études théorique et pratique. Dans ce contexte, l'objectif de cette thèse réside dans l'apport à l'analyse multifractale, de l'utilisation des coefficients d'ondelettes dominants, d'une part, et des techniques statistiques de type bootstrap, d'autre part. Dans la première partie de ce travail, les propriétés et performances statistiques de procédures d'analyse multifractale construites à partir de coefficients dominants sont étudiées et caractérisées. Il est notamment montré qu'elles se comparent favorablement à celles obtenues à partir de coefficients d'ondelettes. De plus, une extension aux signaux bidimensionnels (images) est proposée et validée. En complément sont étudiées plusieurs difficultés théoriques, d'importance cruciale pour une réelle mise en œuvre pratique de l'analyse multifractale : régularité minimale et espaces fonctionnels, effet de linéarisation, robustesse vis-à-vis d'éventuelles quantifications des données. La deuxième partie de ce travail de thèse s'intéresse à la construction, pour les attributs multifractals, d'intervalles de confiance et de tests d'hypothèse, à partir de techniques 'bootstrap'. L'originalité de notre approche réside dans la mise en œuvre du bootstrap par construction de blocs temps-échelle dans le plan des coefficients d'ondelettes. Cette procédure, validée par simulations numériques, permet d'obtenir des intervalles de confiance et d'effectuer des tests d'hypothèses à partir d'une seule observation des données, de longueur finie. Une étude précise des structures de dépendance des coefficients d'ondelettes et coefficients dominants complète ce travail. Elle montre notamment que l'augmentation du nombre de moments nuls de l'ondelette d'analyse, qui, pour le mouvement brownien fractionnaire, permet de réduire la portée de la structure de dépendance de longue à courte, est inopérante pour les cascades multiplicatives multifractales : si l'augmentation du nombre de moments nuls décorrèle effectivement les coefficients d'ondelette, elle échoue à faire disparaître la dépendance longue. Enfin, les procédures d'analyse multifractale par coefficients dominants et bootstrap sont illustrées sur deux applications : la turbulence hydrodynamique et la classification de texture d'images.
18

Propriétés d'ubiquité en analyse multifractale et séries aléatoires d'ondelettes à coefficients corrélés

Durand, Arnaud 25 June 2007 (has links) (PDF)
L'objectif principal de cette thèse est la description des propriétés de taille et de grande intersection des ensembles apparaissant lors de l'analyse multifractale de certains processus stochastiques. Dans ce but, nous introduisons de nouvelles classes d'ensembles à grande intersection associées à des fonctions de jauge générales et nous prouvons, à l'aide de techniques d'ubiquité, des résultats d'appartenance à ces classes pour certains ensembles limsup. Cela nous permet en particulier de décrire exhaustivement les propriétés de taille et de grande intersection des ensembles issus de la théorie classique de l'approximation diophantienne comme l'ensemble des points bien approchables par des rationnels ou l'ensemble des nombres de Liouville. Nous fournissons aussi des résultats du même type lorsque les rationnels intervenant dans l'approximation doivent vérifier certaines conditions, comme les conditions de Besicovitch. Nos techniques d'ubiquité nous permettent en outre de décrire complètement les propriétés de taille et de grande intersection des ensembles intervenant dans l'analyse multifractale des processus de Lévy et d'un modèle de séries lacunaires d'ondelettes. Nous obtenons des résultats similaires pour un nouveau modèle de séries aléatoires d'ondelettes dont les coefficients sont corrélés via une chaîne de Markov indexée par un arbre. Nous déterminons en particulier la loi du spectre de singularités de ce modèle. Pour mener cette étude, nous nous intéressons à une large classe de fractals aléatoires généralisant les constructions récursives aléatoires précédemment introduites par de nombreux auteurs.
19

Le Champ Magnétique Terrestre : Structures Spatiales et Variations Temporelles vues par les Ondelettes

Chambodut, aude 05 November 2004 (has links) (PDF)
Le travail présenté dans ce mémoire a eu pour but une meilleure description et compréhension des structures spatiales et des variations temporelles du champ magnétique terrestre.<br /><br /> Dans une première partie, nous décrivons et utilisons deux méthodes de modélisation du champ magnétique terrestre.<br />La première méthode utilisée est le développement en harmoniques sphériques. En utilisant les mesures fournies par les observatoires magnétiques et par les récents satellites, Ørsted et CHAMP, et en leur appliquant des critères de sélection, nous avons calculé des modèles candidats aux DGRFs de 1995 et 2000.<br /> La seconde méthode que nous avons développée est la description du champ géomagnétique à l'aide des frames d'ondelettes de Poisson. Les comparaisons avec les harmoniques sphériques et les représentations de fonctions scalaires sur la sphère, illustrent la flexibilité de la méthode : le développement en frames d'ondelettes s'adapte à la répartition des données sur la sphère. Un même modèle en frames d'ondelettes comporte de petites échelles spatiales dans les zones où les données sont denses et des échelles spatiales plus grandes dans les régions où elles sont plus disparates. Les champs vectoriels dérivant de potentiels harmoniques, tels le champ magnétique et le champ de pesanteur, sont développés à partir des frames d'ondelettes.<br /><br /> Dans la seconde partie, nous étudions la variation temporelle du champ magnétique terrestre principal, la variation séculaire. Sa caractéristique la plus énigmatique est l'occurrence, à intervalles irréguliers, de brusques changements de sa tendance : les secousses géomagnétiques. Ces évènements sont détectables par l'analyse en ondelettes appliquée aux moyennes mensuelles des observatoires. Malheureusement, la distribution des observatoires est très irrégulière à la surface du Globe. Pour contourner ce problème dans l'étude des secousses géomagnétiques, une solution s'est alors imposée : l'utilisation de modèles de champ globaux et continus dans le temps, de type "comprehensive model". Nous avons ainsi étudié, par des méthodes simples, les répartitions temporelles et spatiales des secousses, vues par ces modèles, en tout point du globe sur les quatre dernières décennies. Nous nous sommes focalisé sur les secousses autour de 1971, 1980 et 1991 et avons mis en évidence des zones "aveugles", ou aucune secousse n'a été clairement détectée. Enfin, nous présentons une possible relation entre les secousses géomagnétiques et un paramètre physique à la surface du noyau, la pression dynamique absolue.<br /><br /> L'utilisation des ondelettes, en tant qu'outils de modélisation et d'analyse, permet d'explorer les échelles spatiales et temporelles du champ magnétique terrestre.
20

Méthodes d'ondelettes pour l'analyse numérique d'intégrales oscillantes

Goujot, Daniel 10 December 2004 (has links) (PDF)
Nous utilisons trois discrétisations connues pour leur localisation fréquentielle et spatiale: les bases d'ondelettes, les paquets d'ondelettes et les bases de cosinus locaux. Nous avons construit et programmé deux algorithmes: --- pour l'équation parabolique non-linéaire $\Delta(u)+\1e^(c*u)=f$ avec $f$ présentant une singularité, notre algorithme calcule la compression optimale en dimension 1 et 2, avec résultats numériques pour la dimension 1. --- pour l'équation intégrale oscillante correspondant à la Combined Integral Field Equation qui est en rapport avec le problème de diffraction des ondes (Helmholtz) par un obstacle régulier 2D, lorsque la longueur d'onde diminue vers $0$. Les trois discrétisations ci-dessus sont testées, et nous étudions sa bonne compressibité dans une analyse précise des obstacles à la compression menée de manière asymptotique. Des résultats originaux, montrant que N degrés de liberté par longueur d'onde suffisent à hautes fréquences, ont été démontrés, et les matrices résultant de ce seuillage ont été étudiées, illustrations et preuves à l'appui.

Page generated in 0.1386 seconds