• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 228
  • 73
  • 42
  • 1
  • Tagged with
  • 347
  • 105
  • 84
  • 78
  • 75
  • 71
  • 70
  • 62
  • 61
  • 60
  • 55
  • 54
  • 52
  • 51
  • 48
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
231

Analyse des données du fond diffus cosmologique : simulation et séparation de composantes

Betoule, Marc 25 September 2009 (has links) (PDF)
La prochaine génération d'expériences dédiées à la mesure des anisotropies de température et de polarisation du fond diffus cosmologique (CMB), inaugurée avec le lancement de Planck, va permettre la détection et l'étude d'effets de plus en plus fins. Toutefois, la superposition d'émissions astrophysiques d'avant-plan contamine le signal cosmologique et constituera, dans ces futures données, la principale source d'incertitude devant le bruit instrumental. L'amélioration de la modélisation des émissions d'avant-plan et le développement de méthodes statistiques pour permettre leur séparation sont donc des étapes cruciales de l'analyse scientifique des mesures à venir. Ce travail s'inscrit dans cette problématique et comprend le développement du Planck Sky Model, un outil de modélisation et de simulation de l'émission du ciel. Ces simulations sont par ailleurs mises à profit pour le développement et l'évaluation de méthode statistiques adaptées au problème des avant-plans. Nous explorons ainsi les possibilités offertes par l'analyse en ondelettes sur la sphère (needlets) pour le problème de l'estimation spectrale sur des mesures incomplètes avec une contamination inhomogène, et proposons une méthode pour traiter la contamination induites aux petites échelles par les sources ponctuelles dans les données Planck et WMAP. Nous étudions également l'impact des avant-plans sur la possibilité de détection des ondes gravitationnelles primordiales (prédites par l'inflation) et proposons une prospective des performances des futures missions dédiées à leur mesure.
232

Estimation par ondelettes dans les modèles partiellement linéaires

Gannaz, Irène 07 December 2007 (has links) (PDF)
L'objet de cette thèse est d'apporter une contribution à l'inférence dans les modèles partiellement linéaires en appliquant des méthodes d'estimation adaptative par ondelettes. Ces modèles de régression semi-paramétriques distinguent des relations linéaires et des relations fonctionnelles, non paramétriques. L'inférence statistique consiste à estimer conjointement les deux types de prédicteurs, en prenant en compte leur possible corrélation. Une procédure des moindres carrés pénalisés permet d'introduire une estimation par ondelettes avec seuillage des coefficients de la partie fonctionnelle. Un parallèle est établi avec une estimation du paramètre de régression par des M-estimateurs usuels dans un modèle linéaire, les coefficients d'ondelettes de la partie fonctionnelle étant considérés comme des valeurs aberrantes. Une procédure d'estimation de la variance du bruit est aussi proposée. Des résultats relatifs aux propriétés asymptotiques des estimateurs de la partie linéaire et de la partie non paramétrique sont démontrés lorsque les observations de la partie fonctionnelle sont réalisées en des points équidistants. Sous des restrictions usuelles de corrélation entre les variables explicatives, les résultats sont presque optimaux (à un logarithme près). Des simulations permettent d'illustrer les comportements des estimateurs et de les comparer avec d'autres méthodes existantes. Une application sur des données d'IRM fonctionnelle a aussi été réalisée. Une dernière partie envisage le cadre d'un plan d'observation aléatoire de la partie fonctionnelle.
233

Les contours actifs basés région avec a priori de bruit, de texture et de forme : Application à l'échocardiographie

Lecellier, François 15 May 2009 (has links) (PDF)
L'objectif de ce travail est la conception et l'implémentation d'une méthode de segmentation générique d'images médicales qui puisse s'adapter à l'évolution des modalités et des besoins exprimés par les médecins. Partant ainsi du constat que la segmentation d'images médicales nécessite l'introduction de connaissances, nous avons opté pour une méthode pouvant combiner avantageusement les informations de bruit, de texture et de forme : les contours actifs basés région. Cette méthode consiste à déformer une courbe vers l'objet à segmenter. Ces déformations sont déduites de la dérivation d'une fonctionnelle à optimiser. <br />Notre contribution principale se situe au niveau de l'obtention de critères généraux permettant les ajouts d'informations a priori. Concernant le modèle de bruit, le critère consiste à considérer une fonction générale d'une loi paramétrique appartenant à la famille exponentielle. Nous avons mis en évidence que l'estimation des paramètres de la loi intervient de façon primordiale dans le calcul de l'équation d'évolution du contour. Pour le modèle de texture, l'absence de représentation discriminant de manière générale les textures, nous a conduit à utiliser une approche non paramétrique reposant sur les représentations parcimonieuses. Enfin l'a priori de forme utilise un critère basé sur les moments de Legendre. Les différents a priori sont ensuite reliés par le biais d'un algorithme de minimisation alternée ce qui permet de pondérer efficacement les termes d'attache aux données photométriques et l'a priori géométrique.<br />Les trois approches ont été testées et validées séparément puis de manière combinée sur des images synthétiques et réelles.
234

Ondelettes pour la détection de caractéristiques en traitement d'images. Application à la détection de région d'intérêt.

Damerval, Christophe 07 May 2008 (has links) (PDF)
Cette thèse en traitement d'images aborde le problème de la mise en évidence de certaines structures remarquables, comme des objets que nous percevons visuellement. Celles-ci peuvent être autant monodimensionnelles, comme des contours, que bidimensionnelles, ce qui correspond des objets plus complexes. Un problème important issu de la vision par ordinateur est de détecter de telles structures, ainsi que d'extraire des grandeurs caractéristiques de celles-ci. Dans diverses applications, comme la reconnaissance d'objets, l'appariement d'images, le suivi de mouvement ou le rehaussement de certains éléments particuliers, il s'agit d'une première étape avant d'autres opérations de plus haut niveau. Ainsi, la formulation de détecteurs performants apparaît comme essentielle. Nous montrons que cela peut être réalisé grâce des décompositions en ondelettes ; en particulier, il est possible de définir certaines lignes de maxima, qui s'avèrent pertinentes vis à vis de ce problème : d'une part, pour détecter des objets (par des régions d'intérêt), et, d'autre part, afin de les caractériser (calculs de régularité Lipschitzienne et d'échelle caractéristique). Cette approche originale de détection fondée sur des lignes de maxima peut alors être comparée aux approches classiques.
235

Quelques notions d'irrégularité uniforme et ponctuelle : le point de vue ondelettes

Clausel, Marianne 27 November 2008 (has links) (PDF)
Le but de cette thèse est de définir puis d'étudier différentes notions d'irrégularité uniforme ou ponctuelle permettant de traduire le fait qu'une fonction peut avoir des 'grands accroissements' à toutes les échelles. Pour cela on 'inverse' les notions de régularité Höldérienne usuelles. L'objectif principal du travail est ensuite de relier ces différentes notions à la théorie des ondelettes. Les critères ondelettes établis vont ainsi permettre de définir des fonctions ou des champs aléatoires dont le comportement est différent suivant la gamme d'échelles considérée. Par ailleurs, si on se place du point de vue ponctuel, une question naturelle est celle de la définition d'une analyse multifractale -dite faible- liée à la notion d'irrégularité ponctuelle. Les ondelettes vont alors permettre de définir des séries d'ondelettes multifractales pour l'irrégularité ponctuelle. Enfin, nous étudions des exemples de champs aléatoires où des propriétés de régularité directionelle apparaissent. Nous nous sommes ainsi centré sur l'étude d'un modèle de champ aléatoire gaussien particulier vérifiant une relation d'autosimilarité matricielle. Nous avons ensuite généralisé ce modèle et introduit des champs gaussiens autosimilaires par rapport à un groupe
236

Reconstruction en tomographie locale : introduction d'information à priori basse résolution

Rouault-Pic, Sandrine 23 October 1996 (has links) (PDF)
Un des objectifs actuel en tomographie est de réduire la dose injectée au patient. Les nouveaux systèmes d'imagerie, intégrant des détecteurs haute résolution de petites tailles ou des sources fortement collimatées permettent ainsi de réduire la dose. Ces dispositifs mettent en avant le problème de reconstruction d'image à partir d'informations locales. Un moyen d'aborder le problème de tomographie locale est d'introduire une information à priori, afin de lever la non-unicité de la solution. Nous proposons donc de compléter les projections locales haute résolution (provenant de systèmes décrits précédemment) par des projections complètes basse résolution, provenant par exemple d'un examen scanner standard. Nous supposons que la mise en correspondance des données a été effectuée, cette partie ne faisant pas l'objet de notre travail. Nous avons dans un premier temps, adapté des méthodes de reconstruction classiques (ART, Gradient conjugué régularisé et Rétroprojection filtrée) au problème local, en introduisant dans le processus de reconstruction l'information à priori. Puis, dans un second temps, nous abordons les méthodes de reconstruction par ondelettes et nous proposons également une adaptation à notre problème. Dans tous les cas, la double résolution apparait également dans l'image reconstruite, avec une résolution plus fine dans la région d'intérêt. Enfin, étant donné le coût élevé des méthodes mises en oeuvre, nous proposons une parallélisation des algorithmes implémentés.
237

Utilisation de l’électrophysiologie dans l’étude du développement des capacités d’intégration audiovisuelle du nourrisson à l’âge adulte

Dionne-Dostie, Emmanuelle 09 1900 (has links)
No description available.
238

Modélisation de textures anisotropes par la transformée en ondelettes monogéniques / Modelisation of anisotropic textures by the monogenic wavelet transform

Polisano, Kévin 12 December 2017 (has links)
L’analyse de texture est une composante du traitement d’image qui suscite beaucoup d’intérêt tant les applications qu’elle recouvre sont diverses. En imagerie médicale, les signaux enregistrés sous forme d’images telles que les radiographies de l’os ou les mammographies, présentent une micro-architecture fortement irrégulière qui invite à considérer la formation de ces textures comme la réalisation d’un champ aléatoire. Suite aux travaux précurseurs de Benoit Mandelbrot, de nombreux modèles dérivés du champ brownien fractionnaire ont été proposés pour caractériser l’aspect fractal des images et synthétiser des textures à rugosité prescrite. Ainsi l’estimation des paramètres de ces modèles, a notamment permis de relier la dimension fractale des images à la détection de modifications de la structure osseuse telle qu’on l’observe en cas d’ostéoporose. Plus récemment, d’autres modèles de champs aléatoires, dits anisotropes, ont été utilisés pour décrire des phénomènes présentant des directions privilégiées, et détecter par exemple des anomalies dans les tissus mammaires.Cette thèse porte sur l’élaboration de nouveaux modèles de champs anisotropes, permettant de contrôler localement l’anisotropie des textures. Une première contribution a consisté à définir un champ brownien fractionnaire anisotrope généralisé (GAFBF), et un second modèle basé sur une déformation de champs élémentaires (WAFBF), permettant tous deux de prescrire l’orientation locale de la texture. L’étude de la structure locale de ces champs est menée à l’aide du formalisme des champs tangents. Des procédures de simulation sont mises en oeuvres pour en observer concrètement le comportement, et servir de benchmark à la validation d’outils de détection de l’anisotropie. En effet l’étude de l’orientation locale et de l’anisotropie dans le cadre des textures soulève encore de nombreux problèmes mathématiques, à commencer par la définition rigoureuse de cette orientation. Notre seconde contribution s’inscrit dans cette perspective. En transposant les méthodes de détection de l’orientation basées sur la transformée en ondelettes monogéniques, nous avons été en mesure, pour une vaste classe de champs aléatoires, de définir une notion d’orientation intrinsèque. En particulier l’étude des deux nouveaux modèles de champs anisotropes introduits précédemment, a permis de relier formellement cette notion d’orientation aux paramètres d’anisotropie de ces modèles. Des connexions avec les statistiques directionnelles sont également établies, de façon à caractériser la loi de probabilité des estimateurs d’orientation.Enfin une troisième partie de la thèse est consacrée au problème de la détection de lignes dans les images. Le modèle sous jacent est celui d’une superposition de lignes diffractées (c-a-d convoluées par un noyau de flou) et bruitées, dont il s’agit de retrouver les paramètres de position et d’intensité avec une précision sub-pixel. Nous avons développé dans cet objectif une méthode basée sur le paradigme de la super-résolution. La reformulation du problème en termes d’atomes 1-D a permis de dégager un problème d’optimisation sous contraintes, et de reconstruire ces lignes en atteignant cette précision. Les algorithmes employés pour effectuer la minimisation appartiennent à la famille des algorithmes dits proximaux. La formalisation de ce problème inverse et sa résolution, constituent une preuve de concept ouvrant des perspectives à l’élaboration d’une transformée de Hough revisitée pour la détection ‘continue’ de lignes dans les images. / Texture analysis is a component of image processing which hold the interest in the various applications it covers. In medical imaging, the images recorded such as bone X-rays or mammograms show a highly irregular micro-architecture, which invites to consider these textures formation as a realization of a random field. Following Benoit Mandelbrot’s pioneer work, many models derived from the fractional Brownian field have been proposed to characterize the fractal behavior of images and to synthesize textures with prescribed roughness. Thus, the parameters estimation of these models has made possible to link the fractal dimension of these images to the detection of bone structure alteration as it is observed in the case of osteoporosis. More recently, other models known as anisotropic random fields have been used to describe phenomena with preferred directions, for example for detecting abnormalities in the mammary tissues.This thesis deals with the development of new models of anisotropic fields, allowing to locally control the anisotropy of the textures. A first contribution was to define a generalized anisotropic fractional Brownian field (GAFBF), and a second model based on an elementary field deformation (WAFBF), both allowing to prescribe the local orientation of the texture. The study of the local structure of these fields is carried out using the tangent fields formalism. Simulation procedures are implemented to concretely observe the behavior, and serve as a benchmark for the validation of anisotropy detection tools. Indeed, the investigation of local orientation and anisotropy in the context of textures still raises many mathematical problems, starting with the rigorous definition of this orientation. Our second contribution is in this perspective. By transposing the orientation detection methods based on the monogenic wavelet transform, we have been able, for a wide class of random fields, to define an intrinsic notion of orientation. In particular, the study of the two new models of anisotropic fields introduced previously allowed to formally link this notion of orientation with the anisotropy parameters of these models. Connections with directional statistics are also established, in order to characterize the probability distribution of orientation estimators.Finally, a third part of this thesis was devoted to the problem of the lines detection in images. The underlying model is that of a superposition of diffracted lines (i.e, convoluted by a blur kernel) with presence of noise, whose position and intensity parameters must be recovered with sub-pixel precision. We have developed a method based on the super-resolution paradigm. The reformulation of the problem in the framework of 1-D atoms lead to an optimization problem under constraints, and enables to reconstruct these lines by reaching this precision. The algorithms used to perform the minimization belong to the family of algorithms known as proximal algorithms. The modelization and the resolution of this inverse problem, provides a proof of concept opening perspectives to the development of a revised Hough transform for the continuous detection of lines in images.
239

Recherche d’indices de variabilité climatique dans des séries hydroclmatiques au Maroc : identification, positionnement temporel, tendances et liens avec les fluctuations climatiques : cas des grands bassins de la Moulouya, du Sebou et du Tensift / Search of climate variability evidence in hydroclimate series in Morocco : identification, positioning temporal, trends and links with climate fluctuations : case of Moulouya, Sebou and Tensift basins

Zamrane, Zineb 01 June 2016 (has links)
Ce travail consiste à caractériser la variabilité temporelle et spatiale des séries chronologiques de paramètres hydroclimatiques (pluies, débits) au niveau de trois grand bassins au Maroc ; (bassins de la Moulouya, du Sebou et du Tensift) et à chercher les liens entre cette variabilité hydrologique et les fluctuations climatiques matérialisées par différents indices climatiques, NAO, SOI, WMOI. L’approche d’étude est basée le traitement statistique des séries temporelles, liée aux dimensions temps et espace.Les grands bassins versants d'échelle continentale comme le Tensift, le Sebou et la Moulouya en climat méditerranéen sous influence océanique, intègrent sur des grandes surfaces la réponse hydrologique aux changements climatiques et environnementaux (fluctuations du climat, précipitations, débits) à de larges échelles spatiales et temporelles, mais également les modifications du milieu physique d’origine anthropique (changements d’occupation des sols, aménagements…), ce qui rend parfois difficile l’identification des liens entre la variabilité hydrologique et la variabilité climatique. Les principaux objectifs de ce travail sont de déterminer et de quantifier les relations entre la variabilité hydroclimatique et les fluctuations du climat à l’échelle de chaque bassin étudié et de ses principaux sous-bassins, via l'utilisation de méthodes d’analyses spectrales adaptées à l’étude des processus non stationnaires (analyse en ondelettes continues, analyse de la cohérence par ondelettes). Plusieurs modes de variabilités sont identifiés à partir de l’analyse par station (pluies et débits), du cycle annuel au mode 16-22 ans, cette analyse sera complétée par une analyse par maille, dont les données sont issues d’un fichier (SIEREM) couvrant la période 1940-1999, où on identifie des fréquences de 1an au 8-16 ans, distinguées sur des périodes différentes au niveau de chaque bassin, permettant ainsi une décomposition de la variabilité spatiale des signaux mis en évidence. Trois principales discontinuités sont identifiées en 1970, 1980 et 2000. La contribution des indices climatiques est assez importante elle est entre 55% et 80%. / This work is to characterize the temporal and spatial variability of hydroclimatic time series (rainfall, flow) at three large basins in Morocco; (basins of the Sebou and Moulouya Tensift) and look links between the hydrologic variability and climate fluctuation materialized by various climate indices, NAO, SOI, WMOI. The approach to study is based on statistical analysis of time series, related to time and space dimensions.The great watershed of continental scale as Tensift, Sebou and Moulouya in Mediterranean climate under oceanic influence, integrate over large areas the hydrological response to climate and environmental changes (climate fluctuations, precipitation, flows) not only to large spatial and temporal scales, but also to changes in the physical environment anthropogenic (land use changes, developments ...), which sometimes makes difficult to identify the links between hydrological variability and climate variability. The main objective of this work is to determine and quantify the relationships between hydrological variability and climate fluctuations (regionalised precipitation, climate change indexes) across each studied basin and its main sub-basins, via using spectral analysis methods adapted to the study of non-stationary processes (continuous wavelet analysis, coherence analysis wavelet). Many modes of variability are identified from the station analysis (rainfall and flow rates), the annual cycle to 16-22 years, this analysis will be complemented by a grid analysis, the data come from a (SIEREM) file covering the period from 1940 to 1999, which will allow a better understanding of the spatial variability of signals set highlighted. Which is identified frequencies the 1 year 8-16 years, distinguished different time periods at each basin, three main discontinuities identified in 1970, 1980 and 2000. The contribution of climatic indices is important enough it is between 55% and 80%.
240

Classification non supervisée et sélection de variables dans les modèles mixtes fonctionnels. Applications à la biologie moléculaire / Curve clustering and variable selection in mixed effects functional models. Applications to molecular biology

Giacofci, Joyce 22 October 2013 (has links)
Un nombre croissant de domaines scientifiques collectent de grandes quantités de données comportant beaucoup de mesures répétées pour chaque individu. Ce type de données peut être vu comme une extension des données longitudinales en grande dimension. Le cadre naturel pour modéliser ce type de données est alors celui des modèles mixtes fonctionnels. Nous traitons, dans une première partie, de la classification non-supervisée dans les modèles mixtes fonctionnels. Nous présentons dans ce cadre une nouvelle procédure utilisant une décomposition en ondelettes des effets fixes et des effets aléatoires. Notre approche se décompose en deux étapes : une étape de réduction de dimension basée sur les techniques de seuillage des ondelettes et une étape de classification où l'algorithme EM est utilisé pour l'estimation des paramètres par maximum de vraisemblance. Nous présentons des résultats de simulations et nous illustrons notre méthode sur des jeux de données issus de la biologie moléculaire (données omiques). Cette procédure est implémentée dans le package R "curvclust" disponible sur le site du CRAN. Dans une deuxième partie, nous nous intéressons aux questions d'estimation et de réduction de dimension au sein des modèles mixtes fonctionnels et nous développons en ce sens deux approches. La première approche se place dans un objectif d'estimation dans un contexte non-paramétrique et nous montrons dans ce cadre, que l'estimateur de l'effet fixe fonctionnel basé sur les techniques de seuillage par ondelettes possède de bonnes propriétés de convergence. Notre deuxième approche s'intéresse à la problématique de sélection des effets fixes et aléatoires et nous proposons une procédure basée sur les techniques de sélection de variables par maximum de vraisemblance pénalisée et utilisant deux pénalités SCAD sur les effets fixes et les variances des effets aléatoires. Nous montrons dans ce cadre que le critère considéré conduit à des estimateurs possédant des propriétés oraculaires dans un cadre où le nombre d'individus et la taille des signaux divergent. Une étude de simulation visant à appréhender les comportements des deux approches développées est réalisée dans ce contexte. / More and more scientific studies yield to the collection of a large amount of data that consist of sets of curves recorded on individuals. These data can be seen as an extension of longitudinal data in high dimension and are often modeled as functional data in a mixed-effects framework. In a first part we focus on performing unsupervised clustering of these curves in the presence of inter-individual variability. To this end, we develop a new procedure based on a wavelet representation of the model, for both fixed and random effects. Our approach follows two steps : a dimension reduction step, based on wavelet thresholding techniques, is first performed. Then a clustering step is applied on the selected coefficients. An EM-algorithm is used for maximum likelihood estimation of parameters. The properties of the overall procedure are validated by an extensive simulation study. We also illustrate our method on high throughput molecular data (omics data) like microarray CGH or mass spectrometry data. Our procedure is available through the R package "curvclust", available on the CRAN website. In a second part, we concentrate on estimation and dimension reduction issues in the mixed-effects functional framework. Two distinct approaches are developed according to these issues. The first approach deals with parameters estimation in a non parametrical setting. We demonstrate that the functional fixed effects estimator based on wavelet thresholding techniques achieves the expected rate of convergence toward the true function. The second approach is dedicated to the selection of both fixed and random effects. We propose a method based on a penalized likelihood criterion with SCAD penalties for the estimation and the selection of both fixed effects and random effects variances. In the context of variable selection we prove that the penalized estimators enjoy the oracle property when the signal size diverges with the sample size. A simulation study is carried out to assess the behaviour of the two proposed approaches.

Page generated in 0.0622 seconds