• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 100
  • 75
  • 13
  • 1
  • Tagged with
  • 183
  • 183
  • 91
  • 76
  • 47
  • 40
  • 39
  • 36
  • 33
  • 32
  • 29
  • 29
  • 25
  • 23
  • 22
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
161

Observateurs en dimension infinie. Application à l'étude de quelques problèmes inverse

Haine, Ghislain 22 October 2012 (has links) (PDF)
Dans un grand nombre d'applications modernes, on est amené à estimer l'état initial (ou final) d'un système infini-dimensionnel (typiquement un système gouverné par une Équation aux Dérivées Partielles (EDP) d'évolution) à partir de la connaissance partielle du système sur un intervalle de temps limité. Un champ d'applications dans lequel apparaît fréquemment ce type de problème d'identification est celui de la médecine. Ainsi, la détection de tumeurs par tomographie thermo-acoustique peut se ramener à des problèmes de reconstruction de données initiales. D'autres méthodes nécessitent l'identification d'un terme source, qui, sous certaines hypothèses, peut également se réécrire sous la forme d'un problème de reconstruction de données initiales. On s'intéresse dans cette thèse à la reconstruction de la donnée initiale d'un système d'évolution, en travaillant autant que possible sur le système infini-dimensionnel, à l'aide du nouvel algorithme développé par Ramdani, Tucsnak et Weiss (Automatica 2010). Nous abordons en particulier l'analyse numérique de l'algorithme dans le cadre des équations de Schrödinger et des ondes avec observation interne. Nous étudions les espaces fonctionnels adéquats pour son utilisation dans les équations de Maxwell, avec observations interne et frontière. Enfin, nous tentons d'étendre le cadre d'application de cet algorithme lorsque le système initial est perturbé ou que le problème inverse n'est plus bien posé, avec application à la tomographie thermo-acoustique.
162

Imagerie acoustique en espace clos

Pereira, Antonio 12 July 2013 (has links) (PDF)
Ce travail de recherche porte sur le problème de l'identification des sources de bruit en espace clos. La motivation principale était de proposer une technique capable de localiser et quantifier les sources de bruit à l'intérieur des véhicules industriels, d'une manière efficace en temps. Dans cette optique, la méthode pourrait être utilisée par les industriels à des fins de réduction de bruit, et donc construire des véhicules plus silencieux. Un modèle simplifié basé sur la formulation par sources équivalentes a été utilisé pour résoudre le problème. Nous montrerons que le problème est mal conditionné, dans le sens où il est très sensible face aux erreurs de mesure, et donc des techniques dites de régularisation sont nécessaires. Une étude détaillée de cette question, en particulier le réglage de ce qu'on appelle de paramètre de régularisation, a été important pour assurer la stabilité de la solution. En particulier, un critère de régularisation basé sur une approche bayésienne s'est montré très robuste pour ajuster le paramètre de régularisation de manière optimale. L'application cible concernant des environnements intérieurs relativement grands, nous a imposé des difficultés supplémentaires, à savoir: (a) le positionnement de l'antenne de capteurs à l'intérieur de l'espace; (b) le nombre d'inconnues (sources potentielles) beaucoup plus important que le nombre de positions de mesure. Une formulation par pondération itérative a ensuite été proposé pour surmonter les problèmes ci-dessus de manière à: (1) corriger pour le positionnement de l'antenne de capteurs dans l'habitacle ; (2) obtenir des résultats corrects en terme de quantification des sources identifiées. Par ailleurs, l'approche itérative nous a conduit à des résultats avec une meilleure résolution spatiale ainsi qu'une meilleure dynamique. Plusieurs études numériques ont été réalisées afin de valider la méthode ainsi que d'évaluer sa sensibilité face aux erreurs de modèle. En particulier, nous avons montré que l'approche est affectée par des conditions non-anéchoïques, dans le sens où les réflexions sont identifiées comme des vraies sources. Une technique de post-traitement qui permet de distinguer entre les chemins directs et réverbérants a été étudiée. La dernière partie de cette thèse porte sur des validations expérimentales et applications pratiques de la méthode. Une antenne sphérique constituée d'une sphère rigide et 31 microphones a été construite pour les tests expérimentaux. Plusieurs validations académiques ont été réalisées dans des environnements semi-anéchoïques, et nous ont illustré les avantages et limites de la méthode. Enfin, l'approche a été testé dans une application pratique, qui a consisté à identifier les sources de bruit ou faiblesses acoustiques à l'intérieur d'un bus.
163

Solutions algorithmiques pour des applications d'acquisition parcimonieuse en bio-imagerie optique

Le Montagner, Yoann 12 November 2013 (has links) (PDF)
Ces dernières années, la théorie mathématique de l'échantillonnage compressé (compressed sensing, CS) a émergé en tant que nouvel outil en traitement d'images, permettant notamment de dépasser certaines limites établies par la théorie de l'échantillonnage de Nyquist. En particulier, la théorie du CS établit qu'un signal (une image, une séquence vidéo, etc.) peut être reconstruit à partir d'un faible nombre de mesures linéaires non-adaptatives et aléatoires, pourvu qu'il présente une structure parcimonieuse. Dans la mesure où cette hypothèse se vérifie pour une large classe d'images naturelles, plusieurs applications d'imagerie ont d'ores-et-déjà bénéficié à des titres divers des résultats issus de cette théorie. Le but du travail doctoral présent est d'étudier comment la théorie du CS - et plus généralement les idées et méthodes en relation avec les problèmes de reconstruction de signaux parcimonieux (sparse) - peuvent être utilisés pour concevoir des dispositifs d'acquisition optiques à haute-résolution spatiale et temporelle pour des applications en imagerie biologique. Nous étudions tout d'abord quelques questions pratiques liées à l'étape de reconstruction nécessairement associée aux systèmes d'acquisition exploitant le CS, ainsi qu'à la sélection des paramètres d'échantillonnage. Nous examinons ensuite comment le CS peut être utilisé dans le cadre d'applications d'échantillonnage de signaux vidéo. Enfin, avec dans l'idée l'utilisation dans des problèmes de débruitage de méthodes inspirées du CS, nous abordons la question de l'estimation d'erreur dans les problèmes de débruitage d'images acquises en conditions de faible luminosité, notamment dans le cadre d'applications de microscopie.
164

Maîtrise de la thermique des fours de maintien en fonderie / Heat transfer control of a holding furnace in foundry

Loussouarn, Thomas 02 February 2018 (has links)
Les fours de maintien à induction sous vide sont utilisés pour la fabrication d'aubes de turbine à l'aide du procédé de fonderie à cire perdue. La maîtrise de la thermique de ce dernier est primordiale afin d'assurer la qualité de la production. Ce travail est composé de 3 grandes parties : la modélisation détaillée du four, la modélisation réduite et l'expérience. Un four axisymétrique et sa charge ont été modélisés numériquement à l'aide des logiciels FlexPDE et COMSOL Multiphysics. Ces modèles utilisent en entrée la puissance consommée par les inducteurs et fournissent en sortie la température en tout point du module de chauffe et de la charge. Les modèles réduits étudiés sont des modèles physiques dit convolutifs (enthalpique (0D), analytique de dimension 1 (1D)) et paramétrique de type AutoRégressifs avec variables eXogènes (ARX). Les modèles ARX ont été comparés aux modèles convolutifs (procédures d'identification, puis de validation, de modèles). L'objectif est d'accéder à des températures en certains points du four sans présence d'un capteur physique local (capteur virtuel). Les modélisations détaillées et réduites ont été comparées à des expériences réalisées sur four de production. Cette dernière partie n'est pas décrite dans ce mémoire / Vacuum holding induction furnaces are used for the manufacturing of turbine blades by loss wax foundry process. Heat transfer control in a holding furnace is crucial to ensure the quality of manufacturing. This work has 3 major parts, which are the detailed modelling, reduced modelling and experiments. An axyisymmetric furnace and its load have been numerically modelled using FlexPDE and COMSOL Multiphysics, finite element codes. Modelling takes as inputs the electric power consumed by inductors and gives the temperature field in the heating module. The studied reduced models are phyisical convolutive models (enthalpic (0D), 1 dimension analytical (1D)) and parametric like AutoRegressive with eXogeneous inputs (ARX). ARX models have been compared to convolutive models (identification, validation). The goal is to get temperatures in the heating module without local presence of physical sensors (virtual sensor). Detailed and reduced models have been compared to experiments on the furnace. This last part is not described in this document
165

Problèmes inverses de localisation de sources et d'identification de puits et de paramètres / Inverse problems of source localization and identification of wells and parameters

Mansouri, Wafa 30 August 2016 (has links)
Ce travail porte sur le développement d'algorithmes et l'application de méthodes numériques pour la résolution des problèmes inverses d'estimation de paramètres, d'identification de conditions aux limites et d'identification de sources dans un milieu poreux. Ces outils seront d'une grande utilité pour l'aide à la gestion des ressources en eaux souterraines et à leur préservation quant aux dégradations. L'objectif de cette thèse est de résoudre ces problèmes inverses en se basant sur différentes approches : Une résolution basée sur l'optimisation de forme topologique qui est la recherche de la géométrie d'un objet qui soit optimale vis à vis d'un critère donné, et ce sans aucun a priori sur sa topologie, c'est-à-dire sur le nombre de "trous" qu'il peut contenir. Sachant que ces trous représentent les puits recherchés. Pour ce faire, nous avons adopté la méthode du gradient topologique, qui consiste à étudier le comportement d'une fonction objectif lors de la création d'un petit trou à l'intérieur du domaine. Une résolution basée sur la minimisation d'une fonctionnelle d'erreur en énergie en utilisant des données surabondantes sur une partie de la frontière du domaine afin de compléter les données sur toute la frontière du domaine et de déterminer les positions, les débits et le nombre de puits existants à l'intérieur du domaine. Une résolution par le couplage de la méthode de paramétrisation adaptative qui a l'avantage de minimiser le nombre des inconnus de paramètres permettant d'interpréter au mieux les données disponibles et la méthode du gradient topologique. Ce couplage nous permet à la fois d'identifier les zones géologiques, de déterminer les valeurs de la transmissivité hydraulique dans chaque zone et de localiser les positions des puits. / This work deals with the development of algorithms and application of numerical methods for solving inverse problems of parameters estimation, identification of boundary conditions and localisation of sources in porous media. These tools will be usefull in the management of groundwater resources and their preservation as to damage. The objective of this thesis is to solve the inverse problem based on different approaches: A resolution based on topological shape optimization is to find an optimal design without any priori assumption about its topology, that is, about the number of holes it may contain. Knowing that these holes represent the searched wells. To do this, we have adopted the method of topological gradient, which is to study the behavior of an objective function when creating a small hole inside the domain. A resolution based on the minimization of a constitutive law gap functional by using overspecified data on a part of the boundary of the domain to complete the data on all the boundary of the domain and determine the positions, the flows and the number of existing wells inside the domain. A resolution by the coupling of the adaptive parameterization method which has the advantage to minimize the number of the unknowns of parameters allowing to interpret at best the available data and the method of the topological gradient. This coupling allows us at the same time to identify the geological zones, to determine the values of the hydraulic transmissivity in every zone and to locate wells' positions.
166

Globally convergent evolution strategies with application to Earth imaging problem in geophysics / Des stratégies évolutionnaires globalement convergentes avec une application en imagerie sismique pour la géophysique

Diouane, Youssef 17 October 2014 (has links)
Au cours des dernières années, s’est développé un intérêt tout particulier pour l’optimisation sans dérivée. Ce domaine de recherche se divise en deux catégories: une déterministe et l’autre stochastique. Bien qu’il s’agisse du même domaine, peu de liens ont déjà été établis entre ces deux branches. Cette thèse a pour objectif de combler cette lacune, en montrant comment les techniques issues de l’optimisation déterministe peuvent améliorer la performance des stratégies évolutionnaires, qui font partie des meilleures méthodes en optimisation stochastique. Sous certaines hypothèses, les modifications réalisées assurent une forme de convergence globale, c’est-à-dire une convergence vers un point stationnaire de premier ordre indépendamment du point de départ choisi. On propose ensuite d’adapter notre algorithme afin qu’il puisse traiter des problèmes avec des contraintes générales. On montrera également comment améliorer les performances numériques des stratégies évolutionnaires en incorporant un pas de recherche au début de chaque itération, dans laquelle on construira alors un modèle quadratique utilisant les points où la fonction coût a déjà été évaluée. Grâce aux récents progrès techniques dans le domaine du calcul parallèle, et à la nature parallélisable des stratégies évolutionnaires, on propose d’appliquer notre algorithme pour résoudre un problème inverse d’imagerie sismique. Les résultats obtenus ont permis d’améliorer la résolution de ce problème. / In recent years, there has been significant and growing interest in Derivative-Free Optimization (DFO). This field can be divided into two categories: deterministic and stochastic. Despite addressing the same problem domain, only few interactions between the two DFO categories were established in the existing literature. In this thesis, we attempt to bridge this gap by showing how ideas from deterministic DFO can improve the efficiency and the rigorousness of one of the most successful class of stochastic algorithms, known as Evolution Strategies (ES’s). We propose to equip a class of ES’s with known techniques from deterministic DFO. The modified ES’s achieve rigorously a form of global convergence under reasonable assumptions. By global convergence, we mean convergence to first-order stationary points independently of the starting point. The modified ES’s are extended to handle general constrained optimization problems. Furthermore, we show how to significantly improve the numerical performance of ES’s by incorporating a search step at the beginning of each iteration. In this step, we build a quadratic model using the points where the objective function has been previously evaluated. Motivated by the recent growth of high performance computing resources and the parallel nature of ES’s, an application of our modified ES’s to Earth imaging Geophysics problem is proposed. The obtained results provide a great improvement for the problem resolution.
167

Reconstruction of enhanced ultrasound images from compressed measurements / Reconstruction d'images ultrasonores déconvoluées à partir de données compressées

Chen, Zhouye 21 October 2016 (has links)
L'intérêt de l'échantillonnage compressé dans l'imagerie ultrasonore a été récemment évalué largement par plusieurs équipes de recherche. Suite aux différentes configurations d'application, il a été démontré que les données RF peuvent être reconstituées à partir d'un faible nombre de mesures et / ou en utilisant un nombre réduit d'émission d'impulsions ultrasonores. Selon le modèle de l'échantillonnage compressé, la résolution des images ultrasonores reconstruites à partir des mesures compressées dépend principalement de trois aspects: la configuration d'acquisition, c.à.d. l'incohérence de la matrice d'échantillonnage, la régularisation de l'image, c.à.d. l'a priori de parcimonie et la technique d'optimisation. Nous nous sommes concentrés principalement sur les deux derniers aspects dans cette thèse. Néanmoins, la résolution spatiale d'image RF, le contraste et le rapport signal sur bruit dépendent de la bande passante limitée du transducteur d'imagerie et du phénomène physique lié à la propagation des ondes ultrasonores. Pour surmonter ces limitations, plusieurs techniques de traitement d'image en fonction de déconvolution ont été proposées pour améliorer les images ultrasonores. Dans cette thèse, nous proposons d'abord un nouveau cadre de travail pour l'imagerie ultrasonore, nommé déconvolution compressée, pour combiner l'échantillonnage compressé et la déconvolution. Exploitant une formulation unifiée du modèle d'acquisition directe, combinant des projections aléatoires et une convolution 2D avec une réponse impulsionnelle spatialement invariante, l'avantage de ce cadre de travail est la réduction du volume de données et l'amélioration de la qualité de l'image. Une méthode d'optimisation basée sur l'algorithme des directions alternées est ensuite proposée pour inverser le modèle linéaire, en incluant deux termes de régularisation exprimant la parcimonie des images RF dans une base donnée et l'hypothèse statistique gaussienne généralisée sur les fonctions de réflectivité des tissus. Nous améliorons les résultats ensuite par la méthode basée sur l'algorithme des directions simultanées. Les deux algorithmes sont évalués sur des données simulées et des données in vivo. Avec les techniques de régularisation, une nouvelle approche basée sur la minimisation alternée est finalement développée pour estimer conjointement les fonctions de réflectivité des tissus et la réponse impulsionnelle. Une investigation préliminaire est effectuée sur des données simulées. / The interest of compressive sampling in ultrasound imaging has been recently extensively evaluated by several research teams. Following the different application setups, it has been shown that the RF data may be reconstructed from a small number of measurements and/or using a reduced number of ultrasound pulse emissions. According to the model of compressive sampling, the resolution of reconstructed ultrasound images from compressed measurements mainly depends on three aspects: the acquisition setup, i.e. the incoherence of the sampling matrix, the image regularization, i.e. the sparsity prior, and the optimization technique. We mainly focused on the last two aspects in this thesis. Nevertheless, RF image spatial resolution, contrast and signal to noise ratio are affected by the limited bandwidth of the imaging transducer and the physical phenomenon related to Ultrasound wave propagation. To overcome these limitations, several deconvolution-based image processing techniques have been proposed to enhance the ultrasound images. In this thesis, we first propose a novel framework for Ultrasound imaging, named compressive deconvolution, to combine the compressive sampling and deconvolution. Exploiting an unified formulation of the direct acquisition model, combining random projections and 2D convolution with a spatially invariant point spread function, the benefit of this framework is the joint data volume reduction and image quality improvement. An optimization method based on the Alternating Direction Method of Multipliers is then proposed to invert the linear model, including two regularization terms expressing the sparsity of the RF images in a given basis and the generalized Gaussian statistical assumption on tissue reflectivity functions. It is improved afterwards by the method based on the Simultaneous Direction Method of Multipliers. Both algorithms are evaluated on simulated and in vivo data. With regularization techniques, a novel approach based on Alternating Minimization is finally developed to jointly estimate the tissue reflectivity function and the point spread function. A preliminary investigation is made on simulated data.
168

Sur la résolution des problèmes inverses pour les systèmes dynamiques non linéaires. Application à l’électrolocation, à l’estimation d’état et au diagnostic des éoliennes / On the use of graphical signature as a non parametric identification tool. Application to the Diesel Engine emission modeling.

Omar, Oumayma 07 December 2012 (has links)
Cette thèse concerne principalement la résolution des problèmes d’inversion dynamiquedans le cadre des systèmes dynamiques non linéaires. Ainsi, un ensemble de techniquesbasées sur l’utilisation des trains de mesures passées et sauvegardées sur une fenêtreglissante, a été développé. En premier lieu, les mesures sont utilisées pour générerune famille de signatures graphiques, qui constituent un outil de classification permettantde discriminer les diverses valeurs des variables à estimer pour un système non linéairedonné. Cette première technique a été appliquée à la résolution de deux problèmes : leproblème d’électolocation d’un robot doté du sens électrique et le problème d’estimationd’état dans les systèmes à dynamiques non linéaires. Outre ces deux applications, destechniques d’inversion à horizon glissant spécifiques au problème de diagnostic des défautsd’éoliennes dans le cadre d’un benchmark international ont été développées. Cestechniques sont basées sur la minimisation de critères quadratiques basés sur des modèlesde connaissance. / This thesis mainly concerns the resolution of dynamic inverse problems involvingnonlinear dynamical systems. A set of techniques based on the use of trains of pastmeasurements saved on a sliding window was developed. First, the measurements areused to generate a family of graphical signatures, which is a classification tool, in orderto discriminate between different values of variables to be estimated for a given nonlinearsystem. This technique was applied to solve two problems : the electrolocationproblem of a robot with electrical sense and the problem of state estimation in nonlineardynamical systems. Besides these two applications, receding horizon inversion techniquesdedicated to the fault diagnosis problem of a wind turbine proposed as an internationalbenchmark were developed. These techniques are based on the minimization of quadraticcriteria based on knowledge-based models.
169

Problèmes inverses pour les modèles de croissance tumorale / Inverse problems for tumor growth modeling

Lombardi, Damiano 09 September 2011 (has links)
L'objective de la thèse est de comprendre s'il est envisageable d'utiliser les modèles qui décrivent la croissance tumorale (systèmes d'EDP) pour des applications médicales. En particulier, les modèles paramétriques sont calibrés en utilisant les données d'imagerie médicale d'un patient. Une fois calibré, le modèle donne une représentation de la croissance tumorale. Des techniques différentes sont proposées. Un approche classique basé sur la sensibilité est comparé à un approche réduit basé sur la Proper Orthogonal Decomposition. Des cas réalistes concernants l'étude des métastases dans les poumons ont été mis à point en collaboration avec l'Institut Bergonié. Des exigence pratique de traitement de l'image ont motivé l'étude des méthodes de recalage non-rigide des images et parmi ceux là, le transport optimale. Un étude de la numérique du problème de Monge-Kantorovich est décrit, avec des cas test numérique. Des applications concernants l'application de la distance de Wasserstein à la réduction de modèle sont envisagées. / The main purpose of this work was to understand if and wether PDE based modeling of tumor growth may be used in realistic applications. Models proposed in the literature are parametric. The goal is to identify parameters in such a way that the pathology evolution of a given patient is recovered. The identification is performed by means of inverse problems, taking medical images as data.Different techniques were tested: a classical Sensitivity approach is compared to a reduced one, based on Proper Orthogonal Decomposition. Realistic cases were set up in collaboration with Institut Bergonié, concerning lung metastasis evolution.Practical needs when dealing with medical images pushed us to interest to Optimal transport theory and Monge-Kantorovich problem. A numerical study was carried out and a family of lagrangian methods proposed. A perspective on the using of Wasserstein distance in model reduction concludes this work.
170

Optimiser l'utilisation des données en reconstruction TEP: modélisation de résolution dans l'espace image et contribution à l'évaluation de la correction de mouvement

Cloquet, Christophe 11 July 2011 (has links)
Cancers et maladies cardio-vasculaires sont responsables de plus de 40 % des décès dans le monde. De nombreuses personnes souffrent par ailleurs quotidiennement de ces maladies. En réduire la fréquence dans le futur passe avant tout par une adaptation de notre mode de vie et une prévention accrue, éclairées par une connaissance plus approfondie des mécanismes de ces maladies. Il est également crucial d'améliorer les diagnostics et les traitements actuels afin de mieux prendre en charge les malades d'aujourd'hui et de demain.<p><p>Lorsque le tableau clinique présenté par un patient n'est pas clair, de nombreuses techniques d'imagerie médicale permettent d'affiner le diagnostic, de préciser le pronostic et de suivre l'évolution des maladies au cours du temps. Ces mêmes techniques sont également utilisées en recherche fondamentale pour faire progresser la connaissance du fonctionnement normal et pathologique du corps humain. Il s'agit par exemple de l'échographie, de l'imagerie par résonance magnétique, de la tomodensitométrie à rayons X ou encore de la tomographie par émission de positrons (TEP).<p><p>Certaines de ces techniques mettent en évidence le métabolisme de molécules, comme le glucose et certains acides aminés. C'est le cas de la tomographie par émission de positrons, dans laquelle une petite quantité de molécules marquées avec un élément radioactif est injectée au patient. Ces molécules se concentrent de préférence dans les endroits du corps humain où elles sont utilisées. Instables, les noyaux radioactifs se désintègrent en émettant un anti-électron, encore appelé positron. Chaque positron s'annihile ensuite à proximité du lieu d'émission avec un électron du corps du patient, provoquant l'émission simultanée de deux photons de haute énergie dans deux directions opposées. Après avoir traversé les tissus, ces photons sont captés par un anneau de détecteurs entourant le patient. Sur base de l'ensemble des événements collectés, un algorithme de reconstruction produit enfin une image de la distribution du traceur radioactif.<p><p>La tomographie par émission de positrons permet notamment d'évaluer l'efficacité du traitement des tumeurs avant que la taille de celles-ci n'ait changé, ce qui permet d'aider à décider de poursuivre ou non le traitement en cours. En cardiologie, cette technique permet de quantifier la viabilité du muscle cardiaque après un infarctus et aide ainsi à évaluer la pertinence d'une intervention chirurgicale.<p><p>Plusieurs facteurs limitent la précision des images TEP. Parmi ceux-ci, on trouve l'effet de volume partiel et le mouvement du coeur.<p><p>L'effet de volume partiel mène à des images floues, de la même manière qu'un objectif d'appareil photo incorrectement mis au point produit des photographies floues. Deux possibilités s'offrent aux photographes pour éviter cela :soit améliorer la mise au point de leur objectif, soit retoucher les images après les avoir réalisées ;améliorer la mise au point de l'objectif peut s'effectuer dans l'espace des données (ajouter une lentille correctrice avant l'objectif) ou dans l'espace des images (ajouter une lentille correctrice après l'objectif).<p><p>Le mouvement cardiaque provoque également une perte de netteté des images, analogue à l'effet de flou sur une photographie d'une voiture de course réalisée avec un grand temps de pose. Classiquement, on peut augmenter la netteté d'une image en diminuant le temps de pose. Cependant, dans ce cas, moins de photons traversent l'objectif et l'image obtenue est plus bruitée.<p><p>On pourrait alors imaginer obtenir de meilleurs images en suivant la voiture au moyen de l'appareil photo. <p><p>De cette manière, la voiture serait à la fois nette et peu corrompue par du bruit, car beaucoup de photons pourraient être détectés.<p><p>En imagerie TEP, l'effet de volume partiel est dû à de nombreux facteurs dont le fait que le positron ne s'annihile pas exactement à l'endroit de son émission et que le détecteur frappé par un photon n'est pas toujours correctement identifié. La solution passe par une meilleure modélisation de la physique de l'acquisition au cours de la reconstruction, qui, en pratique est complexe et nécessite d'effectuer des approximations.<p><p>La perte de netteté due au mouvement du coeur est classiquement traitée en figeant le mouvement dans plusieurs images successives au cours d'un battement cardiaque. Cependant, une telle solution résulte en une diminution du nombre de photons, et donc en une augmentation du bruit dans les images. Tenir compte du mouvement de l'objet pendant la reconstruction TEP permettrait d'augmenter la netteté en gardant un bruit acceptable. On peut également penser à superposer différentes images recalées au moyen du mouvement.<p><p>Au cours de ce travail, nous avons étudié des méthodes qui tirent le meilleur parti possible des informations fournies par les événements détectés. Pour ce faire, nous avons choisi de baser nos reconstructions sur une liste d'événements contenant la position exacte des détecteurs et le temps exact d'arrivée des photons, au lieu de l'histogramme classiquement utilisé.<p><p>L'amélioration de résolution passe par la connaissance de l'image d'une source ponctuelle radioactive produite par la caméra.<p><p>À la suite d'autres travaux, nous avons mesuré cette image et nous l'avons modélisée, pour la première fois, au moyen d'une fonction spatialement variable, non-gaussienne et asymétrique. Nous avons ensuite intégré cette fonction dans un algorithme de reconstruction, dans l'espace image. C'est la seule possibilité pratique dans le cas d'acquisitions en mode liste. Nous avons ensuite comparé les résultats obtenus avec un traitement de l'image après la reconstruction.<p><p>Dans le cadre de la correction de mouvement cardiaque, nous avons opté pour l'étude de la reconstruction simultanée de l'image et du déplacement, sans autres informations externes que les données TEP et le signal d'un électrocardiogramme. Nous avons ensuite choisi d'étudier la qualité de ces estimateurs conjoints intensité-déplacement au moyen de leur variance. Nous avons étudié la variance minimale que peut atteindre un estimateur conjoint intensité-mouvement, sur base des données TEP uniquement, au moyen d'un outil appelé borne de Cramer-Rao. Dans ce cadre, nous avons étudié différentes manières existantes d'estimer la borne de Cramer-Rao et nous avons proposé une nouvelle méthode d'estimation de la borne de Cramer-Rao adaptée à des images de grande dimension. Nous avons enfin mis en évidence que la variance de l'algorithme classique OSEM était supérieure à celle prédite par la borne de Cramer-Rao. En ce qui concerne les estimateurs combinés intensité-déplacement, nous avons observé la diminution de la variance minimale possible sur les intensités lorsque le déplacement était paramétrisé sur des fonctions spatiales lisses.<p><p>Ce travail est organisé comme suit. Le chapitre théorique commence par brosser brièvement le contexte historique de la tomographie par émission de positrons. Nous avons souhaité insister sur le fait que l'évolution des idées n'est romantique et linéaire qu'à grande échelle. Nous abordons ensuite la description physique de l'acquisition TEP. Dans un deuxième chapitre, nous rappelons quelques éléments de la théorie de l'estimation et de l'approximation et nous traitons des problèmes inverses en général et de la reconstruction TEP en particulier.<p><p>La seconde partie aborde le problème du manque de netteté des images et la solution que nous avons choisi d'y apporter :une modélisation dans l'espace image de la réponse impulsionnelle de la caméra, en tenant compte de ses caractéristiques non gaussienne, asymétrique et spatialement variable. Nous présentons également le résultat de la comparaison avec une déconvolution post-reconstruction. Les résultats présentés dans ce chapitre ont fait l'objet d'une publication dans la revue Physics in Medicine and Biology.<p><p>Dans un troisième volet, nous abordons la correction de mouvement. Une premier chapitre brosse le contexte de la correction de mouvement en TEP et remet en perspective les différentes méthodes existantes, dans un cadre bayésien unificateur.<p><p>Un second chapitre aborde ensuite l'estimation de la qualité des images TEP et étudie en particulier la borne de Cramer-Rao.<p><p>Les résultats obtenus sont enfin résumés et replacés dans leur contexte dans une conclusion générale.<p> / Doctorat en Sciences de l'ingénieur / info:eu-repo/semantics/nonPublished

Page generated in 0.0685 seconds