• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 58
  • 9
  • 7
  • Tagged with
  • 80
  • 35
  • 17
  • 13
  • 13
  • 13
  • 12
  • 12
  • 12
  • 12
  • 11
  • 11
  • 11
  • 10
  • 10
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Contribution à l'étude de la régression non paramétrique et à l'estimation de la moyenne d'un processus à temps continu

Degras, David 07 December 2007 (has links) (PDF)
Cette thèse porte sur l'étude de la régression non paramétrique en présence de mesures répétées. D'abord, nous étendons aux estimateurs splines de lissage les vitesses de convergence présentées dans la littérature pour d'autres estimateurs usuels sous différentes hypothèses classiques de dépendance des données. Ensuite, dans le cadre de l'estimation de la moyenne d'un processus aléatoire à temps continu, nous généralisons les résultats existants sur la convergence en moyenne quadratique et nous établissons de nouveaux résultats de normalité asymptotique pour les distributions finies-dimensionnelles. Enfin, dans le cadre d'un échantillon fini et corrélé, nous comparons les performances d'estimateurs construits par moindres carrés ordinaires ou généralisés, nous proposons une méthode efficace de sélection du paramètre de lissage tenant compte de la structure de covariance des données, et à travers des simulations, nous mettons en évidence l'apport du lissage local par rapport au lissage global.
12

Méthodes de lissage et d'estimation dans des modèles à variables latentes par des méthodes de Monte-Carlo séquentielles

Dubarry, Cyrille 09 October 2012 (has links) (PDF)
Les modèles de chaînes de Markov cachées ou plus généralement ceux de Feynman-Kac sont aujourd'hui très largement utilisés. Ils permettent de modéliser une grande diversité de séries temporelles (en finance, biologie, traitement du signal, ...) La complexité croissante de ces modèles a conduit au développement d'approximations via différentes méthodes de Monte-Carlo, dont le Markov Chain Monte-Carlo (MCMC) et le Sequential Monte-Carlo (SMC). Les méthodes de SMC appliquées au filtrage et au lissage particulaires font l'objet de cette thèse. Elles consistent à approcher la loi d'intérêt à l'aide d'une population de particules définies séquentiellement. Différents algorithmes ont déjà été développés et étudiés dans la littérature. Nous raffinons certains de ces résultats dans le cas du Forward Filtering Backward Smoothing et du Forward Filtering Backward Simulation grâce à des inégalités de déviation exponentielle et à des contrôles non asymptotiques de l'erreur moyenne. Nous proposons également un nouvel algorithme de lissage consistant à améliorer une population de particules par des itérations MCMC, et permettant d'estimer la variance de l'estimateur sans aucune autre simulation. Une partie du travail présenté dans cette thèse concerne également les possibilités de mise en parallèle du calcul des estimateurs particulaires. Nous proposons ainsi différentes interactions entre plusieurs populations de particules. Enfin nous illustrons l'utilisation des chaînes de Markov cachées dans la modélisation de données financières en développant un algorithme utilisant l'Expectation-Maximization pour calibrer les paramètres du modèle exponentiel d'Ornstein-Uhlenbeck multi-échelles
13

Utilisation de modèles lisses pour l'inversion tomographiques de données sismiques /

Sinoquet, Delphine. January 1900 (has links)
Th. univ.--Math. appliquées--Paris 13, 1995. / 1995 d'après la déclaration de dépôt légal. Textes en français ou en anglais. Bibliogr. p. 149-152. Résumé bilingue.
14

Multi-scale Feature-Preserving Smoothing of Images and Volumes on GPU / Lissage multi-echelle sur GPU des images et volumes avec preservation des details

Jibai, Nassim 24 May 2012 (has links)
Les images et données volumiques sont devenues importantes dans notre vie quotidienne que ce soit sur le plan artistique, culturel, ou scientifique. Les données volumiques ont un intérêt important dans l'imagerie médicale, l'ingénierie, et l'analyse du patrimoine culturel. Ils sont créées en utilisant la reconstruction tomographique, une technique qui combine une large série de scans 2D capturés de plusieur points de vue. Chaque scan 2D est obtenu par des methodes de rayonnement : Rayons X pour les scanners CT, ondes radiofréquences pour les IRM, annihilation électron-positron pour les PET scans, etc. L'acquisition des images et données volumique est influencée par le bruit provoqué par différents facteurs. Le bruit dans les images peut être causée par un manque d'éclairage, des défauts électroniques, faible dose de rayonnement, et un mauvais positionnement de l'outil ou de l'objet. Le bruit dans les données volumique peut aussi provenir d'une variété de sources : le nombre limité de points de vue, le manque de sensibilité dans les capteurs, des contrastes élevé, les algorithmes de reconstruction employés, etc. L'acquisition de données non bruitée est iréalisable. Alors, il est souhaitable de réduire ou d'éliminer le bruit le plus tôt possible dans le pipeline. La suppression du bruit tout en préservant les caractéristiques fortes d'une image ou d'un objet volumique reste une tâche difficile. Nous proposons une méthode multi-échelle pour lisser des images 2D et des données tomographiques 3D tout en préservant les caractéristiques à l'échelle spécifiée. Notre algorithme est contrôlé par un seul paramètre – la taille des caractéristiques qui doivent être préservées. Toute variation qui est plus petite que l'échelle spécifiée est traitée comme bruit et lissée, tandis que les discontinuités telles que des coins, des bords et des détails à plus grande échelle sont conservés. Nous démontrons les données lissées produites par notre algorithme permettent d'obtenir des images nettes et des iso-surfaces plus propres. Nous comparons nos résultats avec ceux des methodes précédentes. Notre méthode est inspirée par la diffusion anisotrope. Nous calculons nos tenseurs de diffusion à partir des histogrammes continues locaux de gradients autour de chaque pixel dans les images et autour de chaque voxel dans des volumes. Comme notre méthode de lissage fonctionne entièrement sur GPU, il est extrêmement rapide. / Two-dimensional images and three-dimensional volumes have become a staple ingredient of our artistic, cultural, and scientific appetite. Images capture and immortalize an instance such as natural scenes, through a photograph camera. Moreover, they can capture details inside biological subjects through the use of CT (computer tomography) scans, X-Rays, ultrasound, etc. Three-dimensional volumes of objects are also of high interest in medical imaging, engineering, and analyzing cultural heritage. They are produced using tomographic reconstruction, a technique that combine a large series of 2D scans captured from multiple views. Typically, penetrative radiation is used to obtain each 2D scan: X-Rays for CT scans, radio-frequency waves for MRI (magnetic resonance imaging), electron-positron annihilation for PET scans, etc. Unfortunately, their acquisition is influenced by noise caused by different factors. Noise in two-dimensional images could be caused by low-light illumination, electronic defects, low-dose of radiation, and a mispositioning tool or object. Noise in three-dimensional volumes also come from a variety of sources: the limited number of views, lack of captor sensitivity, high contrasts, the reconstruction algorithms, etc. The constraint that data acquisition be noiseless is unrealistic. It is desirable to reduce, or eliminate, noise at the earliest stage in the application. However, removing noise while preserving the sharp features of an image or volume object remains a challenging task. We propose a multi-scale method to smooth 2D images and 3D tomographic data while preserving features at a specified scale. Our algorithm is controlled using a single user parameter – the minimum scale of features to be preserved. Any variation that is smaller than the specified scale is treated as noise and smoothed, while discontinuities such as corners, edges and detail at a larger scale are preserved. We demonstrate that our smoothed data produces clean images and clean contour surfaces of volumes using standard surface-extraction algorithms. In addition to, we compare our results with results of previous approaches. Our method is inspired by anisotropic diffusion. We compute our diffusion tensors from the local continuous histograms of gradients around each pixel in image
15

Développement de cristaux photoniques en diamant : modélisation, technologie et application à la biodétection / Development of diamond photonic crystals : modelling, technology and application to biodetection

Blin, Candice 23 January 2015 (has links)
La possibilité de fabriquer des dispositifs optiques pour la détection d’interactions chimiques,sans marquage et en temps réel, présente un intérêt croissant. Notamment, les cristaux photoniques(CPh) présentent un fort potentiel pour une telle application. Contrairement au silicium, majoritairementexploité pour la réalisation de telles structures, le diamant possède l’avantage d’avoir unesurface carbonée biocompatible permettant une fonctionnalisation covalente et stable de biomoléculesspécifiques. Dans ce contexte, cette thèse vise à étudier la potentialité qu’offre ce matériau pour la réalisationde CPh 2D destinés à des applications de biodétection. Pour cela, une plateforme photoniquemonolithique compacte, intégrable sur silicium et optimisée pour un fonctionnement aux longueursd’onde proches de 1.55 μm a été développée. Une géométrie de cavité à fente a été retenue afin demaximiser la sensibilité des structures photoniques à leur environnement extérieur. Des méthodesnumériques ont permis de préciser les paramètres géométriques des CPh. Des procédés de microstructurationde films minces de diamant polycristallin sur substrat silicium 2 pouces ont été développéset optimisés, pour aboutir à la réalisation de CPh caractérisés par des facteurs de qualité pouvantatteindre 6500. Deux procédés technologiques spécifiques aux films de diamant polycristallin ont notammentété développés : un procédé de lissage et un procédé de transfert de films de diamant surisolant. La sensibilité optique des CPh en diamant à une modification chimique de surface a ensuiteété étudiée et a tout d’abord montré une forte dépendance de leurs performances optiques à de simplesvariations des terminaisons chimiques du matériau. Par la suite, une preuve de concept de détectionsurfacique de protéines en milieu liquide par les CPh en diamant a été réalisée en utilisant le systèmede bioreconnaissance biotine/streptavidine, donnant une limite de détection estimée pour le systèmeà 10 μg/mL. Enfin, des travaux préliminaires de détection dans le visible ont été engagés via la réalisationde cavités à CPh fonctionnant à 600 nm, présentant déjà des facteurs de qualité dépassant les1500. / The ability to fabricate optical devices enabling the real time detection of chemical interactions,avoiding the use of markers, has motivated a growing interest. In particular, photonic crystals (PhC)based structures are promising candidates for such applications. Unlike silicon, that has currentlybeen used for most of these demonstrations, diamond offers a high stability and a versatile carbonsurface that can be functionalized to covalently bond specific organic or bio-molecules on its surface.In this context, this thesis aims at studying the interests of diamond for the realization of novel 2DPhC dedicated to biodetection applications. A fully monolithic compact photonic platform, integratedon silicon and optimized to work at wavelength of 1.55 μm was developed. A geometry consistingin a slotted cavity was chosen in order to maximize the sensitivity of such photonic structures totheir environment. Numerical methods allowed to determine the geometrical parameters of the PhC.Diamond microstructuration processes of polycrystalline diamond films deposited on two-inch siliconwafers were developed and optimized for the realization of PhC cavities with quality factors up to6500. Two technological processes specifically dedicated to polycrystalline diamond were developed : asmoothing process and a diamond layer on insulator integration by wafer bonding technology process.The optical sensitivity of diamond PhCs to simple surface modifications was studied and showed that,depending on the chemical surface termination, these diamond PhCs exhibit a strong modification oftheir spectral features. A proof of concept for surface detection in a water environment was realizedusing the biotin/streptavidin biorecognition system. The detection limit of the system was estimatedto be 10 μg/mL. Finally, first steps to detection in the visible range were made with the realization ofPhC working at 600 nm and exhibiting Q factors exceeding 1500.
16

Reconstruction de surfaces d'objets courbes en vision par ordinateur

Boyer, Edmond 11 December 1996 (has links) (PDF)
De par les récents progrès de l'informatique dans le domaine de l'imagerie, il est dorénavant possible de manipuler des surfaces d'objets réels à partir des ordinateurs. Un des besoins qui en découle concerne l'acquisition de ces surfaces. Dans ce document, nous nous penchons sur le problème de la reconstruction de surfaces d'objets courbes à partir de séquences d'images. Les contours images de ce type d'objets, les contours occultants, constituent une riche source d'informations sur la géométrie de la surface de l'objet. Il est en particulier possible d'estimer les propriétés locales de la surface lorsqu'une séquence d'au moins trois contours est disponible. Nous présentons dans ce cadre une méthodologie de reconstruction de surfaces. Celle-ci permet de passer d'une séquence de contours occultants à une description de la partie de la surface observée correspondante, sous la forme de facettes triangulaires. Plusieurs aspects de la reconstruction liés aux contours occultants sont par ailleurs pris en compte pour améliorer les résultats: la correction des effets dûs au bruit présent dans l'ensemble du processus d'acquisition ainsi que la détection des parties non-visibles de la surface par les contours, les concavités par exemple. Les différentes étapes de la méthodologie sont illustrées tout au long du document par de nombreuses expérimentations sur des données réelles et synthétiques.
17

Contribution à l'analyse statistique des données fontionnelles / Contribution to statistical analysis of functional data

Saumard, Mathieu 23 May 2013 (has links)
Dans cette thèse, nous nous intéressons aux données fonctionnelles. La généralisation du modèle linéaire généralisé fonctionnel au modèle défini par des équations estimantes est étudiée. Nous obtenons un théorème du type théorème de la limite centrale pour l'estimateur considéré. Les instruments optimaux sont estimés, et nous obtenons une convergence uniforme des estimateurs. Nous nous intéressons ensuite à différents tests en données fonctionnelles. Il s'agit de tests non-paramétriques pour étudier l'effet d'une covariable aléatoire fonctionnelle sur un terme d'erreur, qui peut être directement observé comme une réponse ou estimé à partir d'un modèle fonctionnel comme le modèle linéaire fonctionnel. Nous avons prouvé, pour pouvoir mettre en oeuvre les différents tests, un résultat de réduction de la dimension qui s'appuie sur des projections de la covariable fonctionnelle. Nous construisons des tests de non-effet et d'adéquation en utilisant soit un lissage par un noyau, soit un lissage par les plus proches voisins. Un test d'adéquation dans le modèle linéaire fonctionnel est proposé. Tous ces tests sont étudiés d'un point de vue théorique et pratique. / In this thesis, we are interested in the functional data. The problem of estimation in a model of estimating equations is studying. We derive a central limit type theorem for the considered estimator. The optimal instruments are estimated, and we obtain a uniform convergence of the estimators. We are then interested in various testing with functional data. We study the problem of nonparametric testing for the effect of a random functional covariate on an error term which could be directly observed as a response or estimated from a functional model like for instance the functional linear model. We proved, in order to construct the tests, a result of dimension reduction which relies on projections of the functional covariate. We have constructed no-effect tests by using a kernel smoothing or a nearest neighbor smoothing. A goodness-of-fit test in the functional linear model is also proposed. All these tests are studied from a theoretical and practical perspective.
18

Estimation de paramètres évoluant sur des groupes de Lie : application à la cartographie et à la localisation d'une caméra monoculaire / Parameter estimation on Lie groups : Application to mapping and localization from a monocular camera

Bourmaud, Guillaume 06 November 2015 (has links)
Dans ce travail de thèse, nous proposons plusieurs algorithmespermettant d'estimer des paramètres évoluant sur des groupes de Lie. Cesalgorithmes s’inscrivent de manière générale dans un cadre bayésien, ce qui nouspermet d'établir une notion d'incertitude sur les paramètres estimés. Pour ce faire,nous utilisons une généralisation de la distribution normale multivariée aux groupesde Lie, appelée distribution normale concentrée sur groupe de Lie.Dans une première partie, nous nous intéressons au problème du filtrage de Kalmanà temps discret et continu-discret où l’état et les d’observations appartiennent à desgroupes de Lie. Cette étude nous conduit à la proposition de deux filtres ; le CD-LGEKFqui permet de résoudre un problème à temps continu-discret et le D-LG-EKF quipermet de résoudre un problème à temps discret.Dans une deuxième partie, nous nous inspirons du lien entre optimisation et filtragede Kalman, qui a conduit au développement du filtrage de Kalman étendu itéré surespace euclidien, en le transposant aux groupes de Lie. Nous montrons ainsicomment obtenir une généralisation du filtre de Kalman étendu itéré aux groupes deLie, appelée LG-IEKF, ainsi qu’une généralisation du lisseur de Rauch-Tung-Striebelaux groupes de Lie, appelée LG-RTS.Finalement, dans une dernière partie, les concepts et algorithmes d’estimation surgroupes de Lie proposés dans la thèse sont utilisés dans le but de fournir dessolutions au problème de la cartographie d'un environnement à partir d'une caméramonoculaire d'une part, et au problème de la localisation d'une caméra monoculairese déplaçant dans un environnement préalablement cartographié d'autre part. / In this thesis, we derive novel parameter estimation algorithmsdedicated to parameters evolving on Lie groups. These algorithms are casted in aBayesian formalism, which allows us to establish a notion of uncertainty for theestimated parameters. To do so, a generalization of the multivariate normaldistribution to Lie groups, called concentrated normal distribution on Lie groups, isemployed.In a first part, we generalize the Continuous-Discrete Extended Kalman Filter (CDEKF),as well as the Discrete Extended Kalman Filter (D-EKF), to the case where thestate and the observations evolve on Lie groups. We obtain two novel algorithmscalled Continuous-Discrete Extended Kalman Filter on Lie Groups (CD-LG-EKF) andDiscrete Extended Kalman Filter on Lie Groups (D-LG-EKF).In a second part, we focus on bridging the gap between the formulation of intrinsicnon linear least squares criteria and Kalman filtering/smoothing on Lie groups. Wepropose a generalization of the Euclidean Iterated Extended Kalman Filter (IEKF) toLie groups, called LG-IEKF. We also derive a generalization of the Rauch-Tung-Striebel smoother (RTS), also known as Extended Kalman Smoother, to Lie groups,called LG-RTS.Finally, the concepts and algorithms presented in the thesis are employed in a seriesof applications. Firstly, we propose a novel simultaneous localization and mappingapproach. Secondly we develop an indoor camera localization framework. For thislatter purpose, we derived a novel Rao-Blackwellized particle smoother on Liegroups, which builds upon the LG-IEKF and the LG-RTS.
19

Amélioration de la modélisation de contact pour les procédés à faible zone de contact

Hachani, Maha 02 December 2011 (has links) (PDF)
Ce travail vise Ce travail vise à améliorer la performance du code éléments finis FORGE®. En effet, la modélisation du contact dans ce code s'avère insatisfaisante pour simuler les procédés de mise en forme des matériaux à faible zone de contact. On présente dans ce mémoire les développements qui ont été réalisés pour améliorer le modèle de contact existant. Dans la première partie, partant de ce modèle, on s'intéresse à un problème spécifique qui est le procédé de laminage circulaire. Un nouveau modèle de traitement du contact dédié à ce procédé est développé. Il repose sur un schéma de réactualisation temporelle en coordonnées cylindriques, une formulation implicite et une description analytique des obstacles. La condition de contact incrémentale est alors imposée exactement en fin d'incrément. On valide ces développements sur plusieurs cas de procédé de laminage circulaire où l'on montre l'apport du nouvel algorithme en terme de précision de gestion de contact et aussi en terme d'amélioration des résultats de simulation et des temps de calcul. Dans la deuxième partie, on a généralisé cette approche à l'ensemble des procédés à faible zone pour lesquels une représentation analytique des outils n'est pas possible. On a développé alors un modèle implicite général basé sur la réactualisation de la condition de contact au cours des itérations de Newton-Raphson. Cette méthode permet de tenir compte exactement de l'évolution de la position relative de la pièce et de l'outil. Ensuite, on généralise le lissage des outils à des pièces de géométrie plus complexes. On étudie alors l'influence de la discrétisation de l'outil sur la précision de la simulation des procédés de mise en forme et particulièrement pour des procédés à faible zone de contact. Une méthode d'interpolation quadratique proposée par Nagata est alors implémentée pour le lissage de la surface des outils discrétisés par des éléments plans. La nouvelle surface interpolée est déterminée d'une façon locale à partir seulement de la position des nœuds et des normales nodales. Ces normales sont calculées à partir des normales aux facettes entourant le nœud considéré en utilisant la méthode des normales votées. L'efficacité de cette méthode combinée à schéma d'intégration implicite est testée pour plusieurs procédés de mise en forme.
20

Contribution au suivi volumique en temps réel du ventricule gauche par échocardiographie

Léger, Christophe 23 December 1993 (has links) (PDF)
Un des objectifs des recherches actuelles en échocardiographie est la visualisation des déformations volumiques de certaines cavités du coeur à partir de séquences d'images. Dans le cadre d'une stratégie globale de restitution tri-dimensionnelle en temps réel, cette thèse propose de modéliser les évolutions spatiale et temporelle du ventricule gauche, à toutes les étapes de la chaîne de traitement : échantillonnage d'un contour initial sur une image de la séquence ; fermeture éventuelle et suivi de ce contour échantillonné sur les autres images de la séquence ; modélisation de tous les contours puis du volume du ventricule ; visualisation du ventricule reconstruit à partir des paramètres du modèle. Toutes les propositions théoriques ont été validées sur des images écho¬cardio¬graphiques acquises avec une sonde tournante prototype. L'idée de base consiste à utiliser les propriétés de l'interpolation circulaire de Shannon et du lissage orthogonal de Fourier, en exploitant les quatre périodicités du problème : double périodicité spatiale 2π pour le volume découpé en plans méridiens (coupes apicales) et parallèles (coupes parasternales), double périodicité temporelle provenant des battements cardiaques et de la rotation de la sonde tournante. Les algorithmes sont appliqués sur des contours tracés manuellement sur les images tomographiques de la séquence, mais nous proposons une méthode de suivi automatique d'un contour à partir d'un seul tracé initial. Pour les périodicités spatiales, la méthode d'interpolation-lissage est mise en oeuvre sur le développement polaire d'un contour du ventricule, autour du centre d'inertie de ses échantillons. Ceci permet, à précision égale, d'économiser les paramètres du modèle. Pour les périodicités temporelles, cette méthode est appliquée sur les paramètres restitués en attitude dans un repère lié au ventricule, par une technique qui utilise les propriétés du signal analytique. Dans le cadre d'une étude de faisabilité, les résultats obtenus indiquent que la stratégie de modélisation proposée est bien adaptée au problème.

Page generated in 0.0422 seconds