• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 256
  • 76
  • 46
  • 36
  • 20
  • 4
  • 3
  • 2
  • 1
  • 1
  • Tagged with
  • 495
  • 495
  • 145
  • 135
  • 80
  • 76
  • 75
  • 69
  • 69
  • 68
  • 65
  • 61
  • 57
  • 55
  • 54
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
441

Heterogeneous Multiscale Change-Point Inference and its Application to Ion Channel Recordings

Pein, Florian 20 October 2017 (has links)
No description available.
442

Estratégia para a solução numérica do problema inverso da identificação de inclusões em domínio condutor

Peters, Franciane Conceição 27 January 2010 (has links)
Submitted by Renata Lopes (renatasil82@gmail.com) on 2017-02-23T19:26:50Z No. of bitstreams: 1 francianeconceicaopeters.pdf: 4730497 bytes, checksum: 201c60342a8bf9edc9b308fa50fafa54 (MD5) / Approved for entry into archive by Adriana Oliveira (adriana.oliveira@ufjf.edu.br) on 2017-02-24T12:08:43Z (GMT) No. of bitstreams: 1 francianeconceicaopeters.pdf: 4730497 bytes, checksum: 201c60342a8bf9edc9b308fa50fafa54 (MD5) / Made available in DSpace on 2017-02-24T12:08:43Z (GMT). No. of bitstreams: 1 francianeconceicaopeters.pdf: 4730497 bytes, checksum: 201c60342a8bf9edc9b308fa50fafa54 (MD5) Previous issue date: 2010-01-27 / CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / A construção de imagens associadas à distribuição de condutividades no interior de um meio condutor a partir de injeção de corrente elétrica e medidas de potencial no contorno externo do corpo é uma técnica conhecida como tomografia por impedância elétrica. É um problema inverso que tem sido estudado visando aplicações biomédicas, monitoramento de processos industriais e investigação geofísica. Em alguns casos, é possível levar em consideração informações conhecidas sobre o domínio do corpo no processo de construção da imagem, recaindo no problema da detecção de inclusões que é o problema efetivamente tratado neste trabalho. Este problema pode ser resolvido por meio da minimização de uma função da diferença entre potenciais medidos no contorno e calculados para uma dada distribuição de condutividades. O presente trabalho desenvolve uma estratégia para a solução deste problema baseada na parametrização da geometria do contorno das inclusões cujas formas e dimensões se pretende determinar. O problema de minimização é resolvido por meio do Método de Levenberg-Marquardt e o problema direto via Método dos Elementos de Contorno. Para avaliar o desempenho da estratégia proposta são apresentados resultados numéricos envolvendo contornos definidos por splines, problemas com a presença de ruído nas medidas, avaliação de protocolos de injeção de corrente e medição de potencial elétrico e ainda uma aplicação voltada ao monitoramento cardíaco. / The images reconstruction of the conductivity distribution inside a conductive body based on electrical current injection and potential measurements on the outer boundary of this body is a technique known as electrical impedance tomography. This is an inverse problem that has been studied in biomedical applications, industrial process monitoring and geophysics investigation. In some cases, it is possible to take into account in the reconstruction process, informations about the body, leading to the problem of identifying inclusions, that is the problem actually treated in this work. This inverse problem can be solved by the minimization of a function, defined as the difference between the measured potentials and the computed ones for a given conductivity distribution. The present work describes a strategy to solve this problem based on the parametrization of the inclusions boundary, whose shape and size is intended to be determined. The minimization problem is solved via Levenberg-Marquardt Method and the forward one is solved via Boundary Elements Method. In order to evaluate the performance of the proposed strategy, numerical experiments with inclusions of boundaries defined by splines, problems with noisy data, current injection and potential measurement protocols and an application of the strategy to the cardiac function monitoring are presented.
443

Stratégies de commande pour déplacer une meute de capteurs dédiés à l'identification de sources chauffantes mobiles / Control strategies of mobiles sensors for quasi on-line identification of mobile heating source

Tran, Thanh phong 29 June 2017 (has links)
De nombreux systèmes physiques complexes sont modélisés à l’aide de systèmes d’équations aux dérivées partielles comprenant éventuellement des couplages et des non linéarités. Dans ce cadre, les problématiques de commande qui cherchent à définir quels sont les moyens d’actions (éventuellement en dimension infinie) permettant d’atteindre un état désiré ne sont pas triviales.Il en est de même pour l’identification en ligne de caractéristiques du système physique à partir d’informations fournies par des observations pertinentes. Cet aspect est souvent considéré comme un problème inverse dont la résolution pose de nombreuses questions spécifiques et ardues.Afin d’illustrer la problématique du déplacement judicieux d’un ensemble de capteurs mobiles pour reconstruire un terme source dans une équation aux dérivées partielles paraboliques, un dispositif est décrit dans cette étude. Il décrit des phénomènes de convection et diffusion éventuellement non linéaires.Le travail décrit dans ce document est destiné à développer une méthodologie complète en vue de réaliser une conception optimale d'expériences dans le cadre de problèmes mal posés non linéaires associés à l'évaluation de paramètres inconnus dans des systèmes décrits par des équations aux dérivées partielles. Le prototype expérimental a pour objet de tester les performances des stratégies de déploiement optimal d'un ensemble de capteurs mobile afin d’identifier des paramètres de plusieurs sources chauffantes en mouvement. / Many complex physical systems are modeled using systems of partial differential equations including possibly coupling and non-linearity. In this context, the determination of control strategies (in infinite dimension) in order to achieve a desired state is not trivial. It is obvious that quasi on-line identification of characteristics of the physical system from information provided by relevant sensors is quite complex. This optimization problem is often formulated as an inverse problem, whose resolution raises many specific questions. To illustrate the problem of the moving of a set of mobile sensors to identify a term source in parabolic partial differential equations, an experimental device is proposed in this study. Both phenomena of convection and diffusion (possibly non-linear) are taken into account. The work described in this document is intended to develop a comprehensive methodology to achieve an optimal design of experiments for nonlinear ill-posed problems associated with the evaluation of unknown parameters in systems described by partial differential equations. The experimental prototype is intended to test the performance of strategies for optimal deployment of a mobile set of sensors to identify parameters of multiple heating sources in movement.
444

Development of Next Generation Image Reconstruction Algorithms for Diffuse Optical and Photoacoustic Tomography

Jaya Prakash, * January 2014 (has links) (PDF)
Biomedical optical imaging is capable of providing functional information of the soft bi-ological tissues, whose applications include imaging large tissues, such breastand brain in-vivo. Biomedical optical imaging uses near infrared light (600nm-900nm) as the probing media, givin ganaddedadvantageofbeingnon-ionizingimagingmodality. The tomographic technologies for imaging large tissues encompasses diffuse optical tomogra-phyandphotoacoustictomography. Traditional image reconstruction methods indiffuse optical tomographyemploysa �2-norm based regularization, which is known to remove high frequency no is either econstructed images and make the mappearsmooth. Hence as parsity based image reconstruction has been deployed for diffuse optical tomography, these sparserecov-ery methods utilize the �p-norm based regularization in the estimation problem with 0≤ p<1. These sparse recovery methods, along with an approximation to utilizethe �0-norm, have been used forther econstruction of diffus eopticaltomographic images.The comparison of these methods was performed by increasing the sparsityinthesolu-tion. Further a model resolution matrix based framework was proposed and shown to in-duceblurinthe�2-norm based regularization framework for diffuse optical tomography. This model-resolution matrix framework was utilized in the optical imaged econvolution framework. A basis pursuitdeconvolution based on Split AugmentedLagrangianShrink-ageAlgorithm(SALSA)algorithm was used along with the Tikhonovregularization step making the image reconstruction into a two-step procedure. This new two-step approach was found to be robust with no iseandwasabletobetterdelineatethestructureswhichwasevaluatedusingnumericalandgelatinphantom experiments. Modern diffuse optical imaging systems are multi-modalin nature, where diffuse optical imaging is combined with traditional imaging modalitiessuc has Magnetic Res-onanceImaging(MRI),or Computed Tomography(CT). Image-guided diffuse optical tomography has the advantage of reducingthetota lnumber of optical parameters beingreconstructedtothenumber of distinct tissue types identified by the traditional imaging modality, converting the optical image-reconstruction problem fromunder-determined innaturetoover-determined. In such cases, the minimum required measurements might be farless compared to those of the traditional diffuse optical imaging. An approach to choose these measurements optimally based on a data-resolution matrix is proposed, and it is shown that it drastically reduces the minimum required measurements (typicalcaseof240to6) without compromising the image reconstruction performance. In the last part of the work , a model-based image reconstruction approaches in pho-toacoustic tomography (which combines light and ultra sound) arestudied as it is know that these methods have a distinct advantage compared to traditionalanalytical methods in limited datacase. These model-based methods deployTikhonovbasedregularizationschemetoreconstruct the initial pressure from the boundary acoustic data. Again a model-resolution for these cases tend to represent the blurinduced by the regularization scheme. A method that utilizes this blurringmodelandper forms the basis pursuit econ-volution to improve the quantitative accuracy of the reconstructed photoacoustic image is proposed and shown to be superior compared to other traditional methods. Moreover, this deconvolution including the building of model-resolution matrixis achievedvia the Lanczosbidiagonalization (least-squares QR) making this approach computationally ef-ficient and deployable inreal-time. Keywords Medical imaging, biomedical optical imaging, diffuse optical tomography, photoacous-tictomography, multi-modalimaging, inverse problems,sparse recovery,computational methods inbiomedical optical imaging.
445

Inverse Problems in Free Vibration Analysis of Rotating and Non-Rotating Beams and its Application to Random Eigenvalue Characterization

Sarkar, Korak January 2016 (has links) (PDF)
Rotating and non-rotating beams are widely used to model important engineering struc-tures. Hence, the vibration analyses of these beams are an important problem from a structural dynamics point of view. Depending on the beam dimensions, they are mod-eled using different beam theories. In most cases, the governing differential equations of these types of beams do not yield any simple closed-form solutions; hence we look for the inverse problem approach in determining the beam property variations given certain solutions. The long and slender beams are generally modeled using the Euler-Bernoulli beam theory. Under the premise of this theory, we study (i) the second mode tailoring of non-rotating beams having six different boundary conditions, (ii) closed-form solutions for free vibration analysis of free-free beams, (iii) closed-form solutions for free vibration analysis for gravity-loaded cantilever beams, (iv) closed-form solutions for free vibration analysis of rotating cantilever and pinned-free beams and (v) beams with shared eigen-pair. Short and thick beams are generally modeled using the Timoshenko beam theory. Here, we provide analytical closed-form solutions for the free vibration analysis of ro-tating non-homogeneous Timoshenko beams. The Rayleigh beam provides a marginal improvement over the Euler-Bernoulli beam theory without venturing into the math-ematical complexities of the Timoshenko beam theory. Under this theory, we provide closed-form solutions for the free vibration analysis of cantilever Rayleigh beams under three different axial loading conditions - uniform loading, gravity-loading and centrifu-gally loaded. We assume simple polynomial mode shapes which satisfy the different boundary conditions of a particular beam, and derive the corresponding beam property variations. In case of the shared eigenpair, we use the mode shape of a uniform beam which has a closed-form solution and use it to derive the stiffness distribution of a corresponding axially loaded beam having same length, mass variation and boundary condition. For the Timoshenko beam, we assume polynomial functions for the bending displacement and the rotation due to bending. The derived properties are demonstrated as benchmark analytical solutions for approximate and numerical methods used for the free vibration analysis of beams. They can also aid in designing actual beams for a pre-specified frequency or nodal locations in some cases. The effect of different parameters in the derived property variations and the bounds on the pre-specified frequencies and nodal locations are also studied for certain cases. The derived analytical solutions can also serve as a benchmark solution for different statistical simulation tools to find the probabilistic nature of the derived stiffness distri-bution for known probability distributions of the pre-specified frequencies. In presence of uncertainty, this flexural stiffness is treated as a spatial random field. For known probability distributions of the natural frequencies, the corresponding distribution of this field is determined analytically for the rotating cantilever Euler-Bernoulli beams. The derived analytical solutions are also used to derive the coefficient of variation of the stiffness distribution, which is further used to optimize the beam profile to maximize the allowable tolerances during manufacturing.
446

Problèmes inverses pour les modèles de croissance tumorale / Inverse problems for tumor growth modeling

Lombardi, Damiano 09 September 2011 (has links)
L'objective de la thèse est de comprendre s'il est envisageable d'utiliser les modèles qui décrivent la croissance tumorale (systèmes d'EDP) pour des applications médicales. En particulier, les modèles paramétriques sont calibrés en utilisant les données d'imagerie médicale d'un patient. Une fois calibré, le modèle donne une représentation de la croissance tumorale. Des techniques différentes sont proposées. Un approche classique basé sur la sensibilité est comparé à un approche réduit basé sur la Proper Orthogonal Decomposition. Des cas réalistes concernants l'étude des métastases dans les poumons ont été mis à point en collaboration avec l'Institut Bergonié. Des exigence pratique de traitement de l'image ont motivé l'étude des méthodes de recalage non-rigide des images et parmi ceux là, le transport optimale. Un étude de la numérique du problème de Monge-Kantorovich est décrit, avec des cas test numérique. Des applications concernants l'application de la distance de Wasserstein à la réduction de modèle sont envisagées. / The main purpose of this work was to understand if and wether PDE based modeling of tumor growth may be used in realistic applications. Models proposed in the literature are parametric. The goal is to identify parameters in such a way that the pathology evolution of a given patient is recovered. The identification is performed by means of inverse problems, taking medical images as data.Different techniques were tested: a classical Sensitivity approach is compared to a reduced one, based on Proper Orthogonal Decomposition. Realistic cases were set up in collaboration with Institut Bergonié, concerning lung metastasis evolution.Practical needs when dealing with medical images pushed us to interest to Optimal transport theory and Monge-Kantorovich problem. A numerical study was carried out and a family of lagrangian methods proposed. A perspective on the using of Wasserstein distance in model reduction concludes this work.
447

Optimiser l'utilisation des données en reconstruction TEP: modélisation de résolution dans l'espace image et contribution à l'évaluation de la correction de mouvement

Cloquet, Christophe 11 July 2011 (has links)
Cancers et maladies cardio-vasculaires sont responsables de plus de 40 % des décès dans le monde. De nombreuses personnes souffrent par ailleurs quotidiennement de ces maladies. En réduire la fréquence dans le futur passe avant tout par une adaptation de notre mode de vie et une prévention accrue, éclairées par une connaissance plus approfondie des mécanismes de ces maladies. Il est également crucial d'améliorer les diagnostics et les traitements actuels afin de mieux prendre en charge les malades d'aujourd'hui et de demain.<p><p>Lorsque le tableau clinique présenté par un patient n'est pas clair, de nombreuses techniques d'imagerie médicale permettent d'affiner le diagnostic, de préciser le pronostic et de suivre l'évolution des maladies au cours du temps. Ces mêmes techniques sont également utilisées en recherche fondamentale pour faire progresser la connaissance du fonctionnement normal et pathologique du corps humain. Il s'agit par exemple de l'échographie, de l'imagerie par résonance magnétique, de la tomodensitométrie à rayons X ou encore de la tomographie par émission de positrons (TEP).<p><p>Certaines de ces techniques mettent en évidence le métabolisme de molécules, comme le glucose et certains acides aminés. C'est le cas de la tomographie par émission de positrons, dans laquelle une petite quantité de molécules marquées avec un élément radioactif est injectée au patient. Ces molécules se concentrent de préférence dans les endroits du corps humain où elles sont utilisées. Instables, les noyaux radioactifs se désintègrent en émettant un anti-électron, encore appelé positron. Chaque positron s'annihile ensuite à proximité du lieu d'émission avec un électron du corps du patient, provoquant l'émission simultanée de deux photons de haute énergie dans deux directions opposées. Après avoir traversé les tissus, ces photons sont captés par un anneau de détecteurs entourant le patient. Sur base de l'ensemble des événements collectés, un algorithme de reconstruction produit enfin une image de la distribution du traceur radioactif.<p><p>La tomographie par émission de positrons permet notamment d'évaluer l'efficacité du traitement des tumeurs avant que la taille de celles-ci n'ait changé, ce qui permet d'aider à décider de poursuivre ou non le traitement en cours. En cardiologie, cette technique permet de quantifier la viabilité du muscle cardiaque après un infarctus et aide ainsi à évaluer la pertinence d'une intervention chirurgicale.<p><p>Plusieurs facteurs limitent la précision des images TEP. Parmi ceux-ci, on trouve l'effet de volume partiel et le mouvement du coeur.<p><p>L'effet de volume partiel mène à des images floues, de la même manière qu'un objectif d'appareil photo incorrectement mis au point produit des photographies floues. Deux possibilités s'offrent aux photographes pour éviter cela :soit améliorer la mise au point de leur objectif, soit retoucher les images après les avoir réalisées ;améliorer la mise au point de l'objectif peut s'effectuer dans l'espace des données (ajouter une lentille correctrice avant l'objectif) ou dans l'espace des images (ajouter une lentille correctrice après l'objectif).<p><p>Le mouvement cardiaque provoque également une perte de netteté des images, analogue à l'effet de flou sur une photographie d'une voiture de course réalisée avec un grand temps de pose. Classiquement, on peut augmenter la netteté d'une image en diminuant le temps de pose. Cependant, dans ce cas, moins de photons traversent l'objectif et l'image obtenue est plus bruitée.<p><p>On pourrait alors imaginer obtenir de meilleurs images en suivant la voiture au moyen de l'appareil photo. <p><p>De cette manière, la voiture serait à la fois nette et peu corrompue par du bruit, car beaucoup de photons pourraient être détectés.<p><p>En imagerie TEP, l'effet de volume partiel est dû à de nombreux facteurs dont le fait que le positron ne s'annihile pas exactement à l'endroit de son émission et que le détecteur frappé par un photon n'est pas toujours correctement identifié. La solution passe par une meilleure modélisation de la physique de l'acquisition au cours de la reconstruction, qui, en pratique est complexe et nécessite d'effectuer des approximations.<p><p>La perte de netteté due au mouvement du coeur est classiquement traitée en figeant le mouvement dans plusieurs images successives au cours d'un battement cardiaque. Cependant, une telle solution résulte en une diminution du nombre de photons, et donc en une augmentation du bruit dans les images. Tenir compte du mouvement de l'objet pendant la reconstruction TEP permettrait d'augmenter la netteté en gardant un bruit acceptable. On peut également penser à superposer différentes images recalées au moyen du mouvement.<p><p>Au cours de ce travail, nous avons étudié des méthodes qui tirent le meilleur parti possible des informations fournies par les événements détectés. Pour ce faire, nous avons choisi de baser nos reconstructions sur une liste d'événements contenant la position exacte des détecteurs et le temps exact d'arrivée des photons, au lieu de l'histogramme classiquement utilisé.<p><p>L'amélioration de résolution passe par la connaissance de l'image d'une source ponctuelle radioactive produite par la caméra.<p><p>À la suite d'autres travaux, nous avons mesuré cette image et nous l'avons modélisée, pour la première fois, au moyen d'une fonction spatialement variable, non-gaussienne et asymétrique. Nous avons ensuite intégré cette fonction dans un algorithme de reconstruction, dans l'espace image. C'est la seule possibilité pratique dans le cas d'acquisitions en mode liste. Nous avons ensuite comparé les résultats obtenus avec un traitement de l'image après la reconstruction.<p><p>Dans le cadre de la correction de mouvement cardiaque, nous avons opté pour l'étude de la reconstruction simultanée de l'image et du déplacement, sans autres informations externes que les données TEP et le signal d'un électrocardiogramme. Nous avons ensuite choisi d'étudier la qualité de ces estimateurs conjoints intensité-déplacement au moyen de leur variance. Nous avons étudié la variance minimale que peut atteindre un estimateur conjoint intensité-mouvement, sur base des données TEP uniquement, au moyen d'un outil appelé borne de Cramer-Rao. Dans ce cadre, nous avons étudié différentes manières existantes d'estimer la borne de Cramer-Rao et nous avons proposé une nouvelle méthode d'estimation de la borne de Cramer-Rao adaptée à des images de grande dimension. Nous avons enfin mis en évidence que la variance de l'algorithme classique OSEM était supérieure à celle prédite par la borne de Cramer-Rao. En ce qui concerne les estimateurs combinés intensité-déplacement, nous avons observé la diminution de la variance minimale possible sur les intensités lorsque le déplacement était paramétrisé sur des fonctions spatiales lisses.<p><p>Ce travail est organisé comme suit. Le chapitre théorique commence par brosser brièvement le contexte historique de la tomographie par émission de positrons. Nous avons souhaité insister sur le fait que l'évolution des idées n'est romantique et linéaire qu'à grande échelle. Nous abordons ensuite la description physique de l'acquisition TEP. Dans un deuxième chapitre, nous rappelons quelques éléments de la théorie de l'estimation et de l'approximation et nous traitons des problèmes inverses en général et de la reconstruction TEP en particulier.<p><p>La seconde partie aborde le problème du manque de netteté des images et la solution que nous avons choisi d'y apporter :une modélisation dans l'espace image de la réponse impulsionnelle de la caméra, en tenant compte de ses caractéristiques non gaussienne, asymétrique et spatialement variable. Nous présentons également le résultat de la comparaison avec une déconvolution post-reconstruction. Les résultats présentés dans ce chapitre ont fait l'objet d'une publication dans la revue Physics in Medicine and Biology.<p><p>Dans un troisième volet, nous abordons la correction de mouvement. Une premier chapitre brosse le contexte de la correction de mouvement en TEP et remet en perspective les différentes méthodes existantes, dans un cadre bayésien unificateur.<p><p>Un second chapitre aborde ensuite l'estimation de la qualité des images TEP et étudie en particulier la borne de Cramer-Rao.<p><p>Les résultats obtenus sont enfin résumés et replacés dans leur contexte dans une conclusion générale.<p> / Doctorat en Sciences de l'ingénieur / info:eu-repo/semantics/nonPublished
448

Development Of Deterministic And Stochastic Algorithms For Inverse Problems Of Optical Tomography

Gupta, Saurabh 07 1900 (has links) (PDF)
Stable and computationally efficient reconstruction methodologies are developed to solve two important medical imaging problems which use near-infrared (NIR) light as the source of interrogation, namely, diffuse optical tomography (DOT) and one of its variations, ultrasound-modulated optical tomography (UMOT). Since in both these imaging modalities the system matrices are ill-conditioned owing to insufficient and noisy data, the emphasis in this work is to develop robust stochastic filtering algorithms which can handle measurement noise and also account for inaccuracies in forward models through an appropriate assignment of a process noise. However, we start with demonstration of speeding of a Gauss-Newton (GN) algorithm for DOT so that a video-rate reconstruction from data recorded on a CCD camera is rendered feasible. Towards this, a computationally efficient linear iterative scheme is proposed to invert the normal equation of a Gauss-Newton scheme in the context of recovery of absorption coefficient distribution from DOT data, which involved the singular value decomposition (SVD) of the Jacobian matrix appearing in the update equation. This has sufficiently speeded up the inversion that a video rate recovery of time evolving absorption coefficient distribution is demonstrated from experimental data. The SVD-based algorithm has made the number of operations in image reconstruction to be rather than. 2()ONN3()ONN The rest of the algorithms are based on different forms of stochastic filtering wherein we arrive at a mean-square estimate of the parameters through computing their joint probability distributions conditioned on the measurement up to the current instant. Under this, the first algorithm developed uses a Bootstrap particle filter which also uses a quasi-Newton direction within. Since keeping track of the Newton direction necessitates repetitive computation of the Jacobian, for all particle locations and for all time steps, to make the recovery computationally feasible, we devised a faster update of the Jacobian. It is demonstrated, through analytical reasoning and numerical simulations, that the proposed scheme, not only accelerates convergence but also yields substantially reduced sample variance in the estimates vis-à-vis the conventional BS filter. Both accelerated convergence and reduced sample variance in the estimates are demonstrated in DOT optical parameter recovery using simulated and experimental data. In the next demonstration a derivative free variant of the pseudo-dynamic ensemble Kalman filter (PD-EnKF) is developed for DOT wherein the size of the unknown parameter is reduced by representing of the inhomogeneities through simple geometrical shapes. Also the optical parameter fields within the inhomogeneities are approximated via an expansion based on the circular harmonics (CH) (Fourier basis functions). The EnKF is then used to recover the coefficients in the expansion with both simulated and experimentally obtained photon fluence data on phantoms with inhomogeneous inclusions. The process and measurement equations in the Pseudo-Dynamic EnKF (PD-EnKF) presently yield a parsimonious representation of the filter variables, which consist of only the Fourier coefficients and the constant scalar parameter value within the inclusion. Using fictitious, low-intensity Wiener noise processes in suitably constructed ‘measurement’ equations, the filter variables are treated as pseudo-stochastic processes so that their recovery within a stochastic filtering framework is made possible. In our numerical simulations we have considered both elliptical inclusions (two inhomogeneities) and those with more complex shapes ( such as an annular ring and a dumbbell) in 2-D objects which are cross-sections of a cylinder with background absorption and (reduced) scattering coefficient chosen as = 0.01 mm-1 and = 1.0 mm-1respectively. We also assume=0.02 mm-1 within the inhomogeneity (for the single inhomogeneity case) and=0.02 and 0.03 mm-1 (for the two inhomogeneities case). The reconstruction results by the PD-EnKF are shown to be consistently superior to those through a deterministic and explicitly regularized Gauss-Newton algorithm. We have also estimated the unknown from experimentally gathered fluence data and verified the reconstruction by matching the experimental data with the computed one. The superiority of a modified version of the PD-EnKF, which uses an ensemble square root filter, is also demonstrated in the context of UMOT by recovering the distribution of mean-squared amplitude of vibration, related to the Young’s modulus, in the ultrasound focal volume. Since the ability of a coherent light probe to pick-up the overall optical path-length change is limited to modulo an optical wavelength, the individual displacements suffered owing to the US forcing should be very small, say within a few angstroms. The sensitivity of modulation depth to changes in these small displacements could be very small, especially when the ROI is far removed from the source and detector. The contrast recovery of the unknown distribution in such cases could be seriously impaired whilst using a quasi-Newton scheme (e.g. the GN scheme) which crucially makes use of the derivative information. The derivative-free gain-based Monte Carlo filter not only remedies this deficiency, but also provides a regularization insensitive and computationally competitive alternative to the GN scheme. The inherent ability of a stochastic filter in accommodating the model error owing to a diffusion approximation of the correlation transport may be cited as an added advantage in the context of the UMOT inverse problem. Finally to speed up forward solve of the partial differential equation (PDE) modeling photon transport in the context of UMOT for which the PDE has time as a parameter, a spectral decomposition of the PDE operator is demonstrated. This allows the computation of the time dependent forward solution in terms of the eigen functions of the PDE operator which has speeded up the forward solution, which in turn has rendered the UMOT parameter recovery computationally efficient.
449

Signal processing methods for fast and accurate reconstruction of digital holograms / Méthodes de traitement du signal pour la reconstruction rapide et précise des hologrammes numériques

Seifi, Mozhdeh 03 October 2013 (has links)
Le développement de techniques de microscopie quantitatives tridimensionnelles et résolues en temps est fondamental dans de nombreux domaines. Dans ce cadre, l’holographie numérique en ligne recèle un fort potentiel, en raison de sa relative simplicité de mise en œuvre (imagerie sans lentille), de son caractère tridimensionnel et de sa résolution temporelle. Le but de cette thèse est l’amélioration des algorithmes de reconstruction des hologrammes par une approche « problèmes inverses ». Dans le cadre de la reconstruction d’objets paramétriques, des travaux antérieurs ont permis de proposer un algorithme glouton permettant de résoudre le problème inverse de reconstruction (intrinsèquement mal posé) par une maximisation de la vraisemblance entre un modèle de formation d’hologramme et les données. Une première contribution de ce travail de thèse a été de réduire le temps de calcul de cet algorithme en utilisant une approche multi-résolution (algorithme FAST). Dans une deuxième contribution, une approche reconnaissance de forme de type « matching pursuit » est utilisée pour la reconstruction d’objets quelconques en recherchant les éléments d’un dictionnaire les plus proches des figures de diffraction composant l’hologramme. La réduction des dimensions du dictionnaire est proposée en utilisant une décomposition en valeurs singulières tronquée. La troisième contribution de cette thèse a été réalisée en collaboration avec le LMFA. L’algorithme glouton a été utilisé sur un cas réel : la reconstruction et le suivi de gouttelettes d’éther évaporantes en chute libre. Dans tous ces développements une attention particulière a été portée sur la précision des reconstructions, sur la réduction du nombre de paramètres à régler par l’utilisateur (algorithmes peu ou non supervisés). Une boîte à outils Matlab® (en ligne) a été développée dans le cadre de cette thèse / Techniques for fast, 3D, quantitative microscopy are of great interest in many fields. In this context, in-line digital holography has significant potential due to its relatively simple setup (lensless imaging), its three-dimensional character and its temporal resolution. The goal of this thesis is to improve existing hologram reconstruction techniques by employing an “inverse problems” approach. For applications of objects with parametric shapes, a greedy algorithm has been previously proposed which solves the (inherently ill-posed) inversion problem of reconstruction by maximizing the likelihood between a model of holographic patterns and the measured data. The first contribution of this thesis is to reduce the computational costs of this algorithm using a multi-resolution approach (FAST algorithm). For the second contribution, a “matching pursuit” type of pattern recognition approach is proposed for hologram reconstruction of volumes containing parametric objects, or non-parametric objects of a few shape classes. This method finds the closest set of diffraction patterns to the measured data using a diffraction pattern dictionary. The size of the dictionary is reduced by employing a truncated singular value decomposition to obtain a low cost algorithm. The third contribution of this thesis was carried out in collaboration with the laboratory of fluid mechanics and acoustics of Lyon (LMFA). The greedy algorithm is used in a real application: the reconstruction and tracking of free-falling, evaporating, ether droplets. In all the proposed methods, special attention has been paid to improvement of the accuracy of reconstruction as well as to reducing the computational costs and the number of parameters to be tuned by the user (so that the proposed algorithms are used with little or no supervision). A Matlab® toolbox (accessible on-line) has been developed as part of this thesis
450

Spatio spectral reconstruction from low resolution multispectral data : application to the Mid-Infrared instrument of the James Webb Space Telescope / Reconstruction spatio-spectrale à partir de données multispectrales basse résolution : application à l'instrument infrarouge moyen du Télescope spatial James Webb

Hadj-Youcef, Mohamed Elamine 27 September 2018 (has links)
Cette thèse traite un problème inverse en astronomie. L’objectif est de reconstruire un objet 2D+λ, ayant une distribution spatiale et spectrale, à partir d’un ensemble de données multispectrales de basse résolution fournies par l’imageur MIRI (Mid-InfraRed Instrument), qui est à bord du prochain télescope spatial James Webb Space Telescope (JWST). Les données multispectrales observées souffrent d’un flou spatial qui dépend de la longueur d’onde. Cet effet est dû à la convolution par la réponse optique (PSF). De plus, les données multi-spectrales souffrent également d’une sévère dégradation spectrale en raison du filtrage spectral et de l’intégration par le détecteur sur de larges bandes. La reconstruction de l’objet original est un problème mal posé en raison du manque important d’informations spectrales dans l’ensemble de données multispectrales. La difficulté se pose alors dans le choix d’une représentation de l’objet permettant la reconstruction de l’information spectrale. Un modèle classique utilisé jusqu’à présent considère une PSF invariante spectralement par bande, ce qui néglige la variation spectrale de la PSF. Cependant, ce modèle simpliste convient que dans le cas d’instrument à une bande spectrale très étroite, ce qui n’est pas le cas pour l’imageur de MIRI. Notre approche consiste à développer une méthode pour l’inversion qui se résume en quatre étapes : (1) concevoir un modèle de l’instrument reproduisant les données multispectrales observées, (2) proposer un modèle adapté pour représenter l’objet à reconstruire, (3) exploiter conjointement l’ensemble des données multispectrales, et enfin (4) développer une méthode de reconstruction basée sur la régularisation en introduisant des priori à la solution. Les résultats de reconstruction d’objets spatio-spectral à partir de neuf images multispectrales simulées de l’imageur de MIRI montrent une augmentation significative des résolutions spatiale et spectrale de l’objet par rapport à des méthodes conventionnelles. L’objet reconstruit montre l’effet de débruitage et de déconvolution des données multispectrales. Nous avons obtenu une erreur relative n’excédant pas 5% à 30 dB et un temps d’exécution de 1 seconde pour l’algorithme de norm-l₂ et 20 secondes avec 50 itérations pour l’algorithme norm-l₂/l₁. C’est 10 fois plus rapide que la solution itérative calculée par l’algorithme de gradient conjugué. / This thesis deals with an inverse problem in astronomy. The objective is to reconstruct a spatio-spectral object, having spatial and spectral distributions, from a set of low-resolution multispectral data taken by the imager MIRI (Mid-InfraRed Instrument), which is on board the next space telescope James Webb Space Telescope (JWST). The observed multispectral data suffers from a spatial blur that varies according to the wavelength due to the spatial convolution with a shift-variant optical response (PSF). In addition the multispectral data also suffers from severe spectral degradations because of the spectral filtering and the integration by the detector over broad bands. The reconstruction of the original object is an ill-posed problem because of the severe lack of spectral information in the multispectral dataset. The difficulty then arises in choosing a representation of the object that allows the reconstruction of this spectral information. A common model used so far considers a spectral shift-invariant PSF per band, which neglects the spectral variation of the PSF. This simplistic model is only suitable for instruments with a narrow spectral band, which is not the case for the imager of MIRI. Our approach consists of developing an inverse problem framework that is summarized in four steps: (1) designing an instrument model that reproduces the observed multispectral data, (2) proposing an adapted model to represent the sought object, (3) exploiting all multispectral dataset jointly, and finally (4) developing a reconstruction method based on regularization methods by enforcing prior information to the solution. The overall reconstruction results obtained on simulated data of the JWST/MIRI imager show a significant increase of spatial and spectral resolutions of the reconstructed object compared to conventional methods. The reconstructed object shows a clear denoising and deconvolution of the multispectral data. We obtained a relative error below 5% at 30 dB, and an execution time of 1 second for the l₂-norm algorithm and 20 seconds (with 50 iterations) for the l₂/l₁-norm algorithm. This is 10 times faster than the iterative solution computed by conjugate gradients.

Page generated in 0.0896 seconds