• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 172
  • 159
  • 26
  • 17
  • 6
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 376
  • 190
  • 143
  • 91
  • 88
  • 71
  • 61
  • 57
  • 51
  • 48
  • 45
  • 41
  • 40
  • 38
  • 37
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
341

Reconstruction of enhanced ultrasound images from compressed measurements / Reconstruction d'images ultrasonores déconvoluées à partir de données compressées

Chen, Zhouye 21 October 2016 (has links)
L'intérêt de l'échantillonnage compressé dans l'imagerie ultrasonore a été récemment évalué largement par plusieurs équipes de recherche. Suite aux différentes configurations d'application, il a été démontré que les données RF peuvent être reconstituées à partir d'un faible nombre de mesures et / ou en utilisant un nombre réduit d'émission d'impulsions ultrasonores. Selon le modèle de l'échantillonnage compressé, la résolution des images ultrasonores reconstruites à partir des mesures compressées dépend principalement de trois aspects: la configuration d'acquisition, c.à.d. l'incohérence de la matrice d'échantillonnage, la régularisation de l'image, c.à.d. l'a priori de parcimonie et la technique d'optimisation. Nous nous sommes concentrés principalement sur les deux derniers aspects dans cette thèse. Néanmoins, la résolution spatiale d'image RF, le contraste et le rapport signal sur bruit dépendent de la bande passante limitée du transducteur d'imagerie et du phénomène physique lié à la propagation des ondes ultrasonores. Pour surmonter ces limitations, plusieurs techniques de traitement d'image en fonction de déconvolution ont été proposées pour améliorer les images ultrasonores. Dans cette thèse, nous proposons d'abord un nouveau cadre de travail pour l'imagerie ultrasonore, nommé déconvolution compressée, pour combiner l'échantillonnage compressé et la déconvolution. Exploitant une formulation unifiée du modèle d'acquisition directe, combinant des projections aléatoires et une convolution 2D avec une réponse impulsionnelle spatialement invariante, l'avantage de ce cadre de travail est la réduction du volume de données et l'amélioration de la qualité de l'image. Une méthode d'optimisation basée sur l'algorithme des directions alternées est ensuite proposée pour inverser le modèle linéaire, en incluant deux termes de régularisation exprimant la parcimonie des images RF dans une base donnée et l'hypothèse statistique gaussienne généralisée sur les fonctions de réflectivité des tissus. Nous améliorons les résultats ensuite par la méthode basée sur l'algorithme des directions simultanées. Les deux algorithmes sont évalués sur des données simulées et des données in vivo. Avec les techniques de régularisation, une nouvelle approche basée sur la minimisation alternée est finalement développée pour estimer conjointement les fonctions de réflectivité des tissus et la réponse impulsionnelle. Une investigation préliminaire est effectuée sur des données simulées. / The interest of compressive sampling in ultrasound imaging has been recently extensively evaluated by several research teams. Following the different application setups, it has been shown that the RF data may be reconstructed from a small number of measurements and/or using a reduced number of ultrasound pulse emissions. According to the model of compressive sampling, the resolution of reconstructed ultrasound images from compressed measurements mainly depends on three aspects: the acquisition setup, i.e. the incoherence of the sampling matrix, the image regularization, i.e. the sparsity prior, and the optimization technique. We mainly focused on the last two aspects in this thesis. Nevertheless, RF image spatial resolution, contrast and signal to noise ratio are affected by the limited bandwidth of the imaging transducer and the physical phenomenon related to Ultrasound wave propagation. To overcome these limitations, several deconvolution-based image processing techniques have been proposed to enhance the ultrasound images. In this thesis, we first propose a novel framework for Ultrasound imaging, named compressive deconvolution, to combine the compressive sampling and deconvolution. Exploiting an unified formulation of the direct acquisition model, combining random projections and 2D convolution with a spatially invariant point spread function, the benefit of this framework is the joint data volume reduction and image quality improvement. An optimization method based on the Alternating Direction Method of Multipliers is then proposed to invert the linear model, including two regularization terms expressing the sparsity of the RF images in a given basis and the generalized Gaussian statistical assumption on tissue reflectivity functions. It is improved afterwards by the method based on the Simultaneous Direction Method of Multipliers. Both algorithms are evaluated on simulated and in vivo data. With regularization techniques, a novel approach based on Alternating Minimization is finally developed to jointly estimate the tissue reflectivity function and the point spread function. A preliminary investigation is made on simulated data.
342

Sur la résolution des problèmes inverses pour les systèmes dynamiques non linéaires. Application à l’électrolocation, à l’estimation d’état et au diagnostic des éoliennes / On the use of graphical signature as a non parametric identification tool. Application to the Diesel Engine emission modeling.

Omar, Oumayma 07 December 2012 (has links)
Cette thèse concerne principalement la résolution des problèmes d’inversion dynamiquedans le cadre des systèmes dynamiques non linéaires. Ainsi, un ensemble de techniquesbasées sur l’utilisation des trains de mesures passées et sauvegardées sur une fenêtreglissante, a été développé. En premier lieu, les mesures sont utilisées pour générerune famille de signatures graphiques, qui constituent un outil de classification permettantde discriminer les diverses valeurs des variables à estimer pour un système non linéairedonné. Cette première technique a été appliquée à la résolution de deux problèmes : leproblème d’électolocation d’un robot doté du sens électrique et le problème d’estimationd’état dans les systèmes à dynamiques non linéaires. Outre ces deux applications, destechniques d’inversion à horizon glissant spécifiques au problème de diagnostic des défautsd’éoliennes dans le cadre d’un benchmark international ont été développées. Cestechniques sont basées sur la minimisation de critères quadratiques basés sur des modèlesde connaissance. / This thesis mainly concerns the resolution of dynamic inverse problems involvingnonlinear dynamical systems. A set of techniques based on the use of trains of pastmeasurements saved on a sliding window was developed. First, the measurements areused to generate a family of graphical signatures, which is a classification tool, in orderto discriminate between different values of variables to be estimated for a given nonlinearsystem. This technique was applied to solve two problems : the electrolocationproblem of a robot with electrical sense and the problem of state estimation in nonlineardynamical systems. Besides these two applications, receding horizon inversion techniquesdedicated to the fault diagnosis problem of a wind turbine proposed as an internationalbenchmark were developed. These techniques are based on the minimization of quadraticcriteria based on knowledge-based models.
343

Mesure de Température par Méthodes Multi-Spectrales et Caractérisation Thermique de Matériaux Anisotropes par Transformations Intégrales : « Aspects Théoriques et Expérimentaux » / Temperature Measurement by Multi-Spectral Methods and Thermal Characterization of Anisotropic Materials by Integral Transforms : "Theoretical and experimental aspects"

Rodiet, Christophe 17 July 2014 (has links)
Ce mémoire est constitué de deux parties relativement indépendantes, dont la première partie porte sur les méthodes de mesure de température par méthodes Multi-Spectrales (pyrométrie optique passive), et la seconde sur la Caractérisation Thermique à haute température par transformations intégrales de matériaux orthotropes. Dans chacune de ces deux parties, les méthodes/modèles développés ont été traités du point de vue théorique, numérique, et expérimental. Dans la partie multi-spectrale, une méthode de mesure de température permettant de prendre en compte les variations spectrales de la chaine de mesure globale (incluant l’émissivité) a été présentée. De plus, une méthode de détermination des longueurs d’ondes optimales au sens de la minimisation de l’écart-type sur la température, a été développée. Enfin, il a également été montré que les longueurs d’ondes optimales pour les mesures mono-spectrales et bi-spectrales pouvaient être déterminées à l’aide de lois analogues à la loi de déplacement de Wien. Dans la partie Caractérisation Thermique, différentes méthodes et modèles ont été développés. Les méthodes proposées effectuent l’estimation des diffusivités longitudinales et transversales sur l’ensemble des harmoniques simultanément. De plus, ces méthodes permettent de s’affranchir du couplage thermique dû à la présence d’un porte-échantillon, et/ou d’effectuer des mesures de diffusivités pseudo-locales, en injectant comme conditions aux limites les informations expérimentales obtenues par caméra infrarouge. Enfin, les notions de corrélation entre les paramètres et de durée d’exploitabilité des harmoniques ont également été abordées / This thesis consists of two relatively independent parts, the first part focuses on methods of temperature measurement using Multi-Spectral (passive optical pyrometry) methods, and the second on the Thermal Characterization by integral transforms at high temperature of orthotropic materials. In each of these two parts, methods / models developed were treated from a theoretical point of view, numerical and experimental. In the multi-spectral part, a method of temperature measurement to take into account a spectral variation of the overall measurement chain (including the emissivity) was introduced. Moreover, a method of determining the optimal wavelengths in the sense of minimizing the standard deviation of temperature, has been developed. Finally, it has also been shown that the optimal wavelengths for mono-spectral and bi-spectral measurements could be determined with similar laws to Wien's displacement law. In the Thermal Characterization part, different methods and models have been developed. The proposed methods perform the estimation of longitudinal and transverse diffusivities on all harmonics simultaneously. Furthermore, they allow overcoming the thermal coupling due to the presence of a sample holder, and / or making pseudo-local measurements of diffusivities. Finally, the concepts of correlation between parameters and duration of harmonics exploitability were also discussed.This thesis consists of two relatively independent parts, the first part focuses on methods of temperature measurement using Multi-Spectral (passive optical pyrometry) methods, and the second on the Thermal Characterization by integral transforms at high temperature of orthotropic materials. In each of these two parts, methods / models developed were treated from a theoretical point of view, numerical and experimental. In the multi-spectral part, a method of temperature measurement to take into account a spectral variation of the overall measurement chain (including the emissivity) was introduced. Moreover, a method of determining the optimal wavelengths in the sense of minimizing the standard deviation of temperature, has been developed. Finally, it has also been shown that the optimal wavelengths for mono-spectral and bi-spectral measurements could be determined with similar laws to Wien's displacement law. In the Thermal Characterization part, different methods and models have been developed. The proposed methods perform the estimation of longitudinal and transverse diffusivities on all harmonics simultaneously. Furthermore, they allow overcoming the thermal coupling due to the presence of a sample holder, and / or making pseudo-local measurements of diffusivities. Finally, the concepts of correlation between parameters and duration of harmonics exploitability were also discussed
344

Problèmes inverses pour les modèles de croissance tumorale / Inverse problems for tumor growth modeling

Lombardi, Damiano 09 September 2011 (has links)
L'objective de la thèse est de comprendre s'il est envisageable d'utiliser les modèles qui décrivent la croissance tumorale (systèmes d'EDP) pour des applications médicales. En particulier, les modèles paramétriques sont calibrés en utilisant les données d'imagerie médicale d'un patient. Une fois calibré, le modèle donne une représentation de la croissance tumorale. Des techniques différentes sont proposées. Un approche classique basé sur la sensibilité est comparé à un approche réduit basé sur la Proper Orthogonal Decomposition. Des cas réalistes concernants l'étude des métastases dans les poumons ont été mis à point en collaboration avec l'Institut Bergonié. Des exigence pratique de traitement de l'image ont motivé l'étude des méthodes de recalage non-rigide des images et parmi ceux là, le transport optimale. Un étude de la numérique du problème de Monge-Kantorovich est décrit, avec des cas test numérique. Des applications concernants l'application de la distance de Wasserstein à la réduction de modèle sont envisagées. / The main purpose of this work was to understand if and wether PDE based modeling of tumor growth may be used in realistic applications. Models proposed in the literature are parametric. The goal is to identify parameters in such a way that the pathology evolution of a given patient is recovered. The identification is performed by means of inverse problems, taking medical images as data.Different techniques were tested: a classical Sensitivity approach is compared to a reduced one, based on Proper Orthogonal Decomposition. Realistic cases were set up in collaboration with Institut Bergonié, concerning lung metastasis evolution.Practical needs when dealing with medical images pushed us to interest to Optimal transport theory and Monge-Kantorovich problem. A numerical study was carried out and a family of lagrangian methods proposed. A perspective on the using of Wasserstein distance in model reduction concludes this work.
345

Caractérisation de sources acoustiques par imagerie en écoulement d'eau confiné / Characterization of acoustic sources by imaging in confined water flow

Amailland, Sylvain 28 November 2017 (has links)
Les exigences en matière de bruit rayonné par les navires de la Marine ou de recherche engendrent le développement de nouvelles méthodes pour améliorer leurs caractérisations. Le propulseur, qui est la source la plus importante en champ lointain, est généralement étudié en tunnel hydrodynamique. Cependant, compte tenu de la réverbération dans le tunnel et du niveau élevé du bruit de couche limite turbulente (CLT), la caractérisation peut s’ avérer délicate. L'objectif de la thèse est d'améliorer les capacités de mesures acoustiques du Grand Tunnel Hydrodynamique (GTH) de la DGA en matière de bruits émis par les maquettes testées dans des configurations d'écoulement.Un modèle de propagation basé sur la théorie des sources images est utilisé afin de prendre en compte le confinement du tunnel. Les coefficients de réflexion associés aux parois du tunnel sont identifiés par méthode inverse et à partir de la connaissance de quelques fonctions de transfert. Un algorithme de débruitage qui repose sur l’ Analyse en Composantes Principales Robuste est également proposé. Il s'agit de séparer, de manière aveugle ou semi-aveugle, l’ information acoustique du bruit de CLT en exploitant, respectivement, la propriété de rang faible et la structure parcimonieuse des matrices interspectrales du signal acoustique et du bruit. Ensuite, une technique d'imagerie basée sur la méthode des sources équivalentes est appliquée afin de localiser et quantifier des sources acoustiques corrélées ou décorrélées. Enfin, la potentialité des techniques proposées est évaluée expérimentalement dans le GTH en présence d'une source acoustique et d'un écoulement contrôlé. / The noise requirements for naval and research vessels lead to the development of new characterization methods. The propeller, which is the most important source in the far field, is usually studied in a water tunnel. However, due to the reverberation in the tunnel and the high level of flow noise, the characterization may be difficult. The aim of the thesis is to improve the measurement capabilities of the DGA Hydrodynamic tunnel (GTH) in terms of noise radiated by models in flow configurations.The propagation model is described through the image source method. Unfortunately, the reflection coefficients of the tunnel walls are generally unknown and it is proposed to estimate these parameters using an inverse method and the knowledge of some reference transfer functions. The boundary layer noise (BLN) may be stronger than the acoustic signal, therefore a Robust Principal Component Analysis is introduced in order to separate, blindly or semi-blindly, the acoustic signal from the noise. This algorithm is taking advantage of the low rank and sparse structure of the acoustic and the BLN cross-spectrum matrices. Then an acoustic imaging technique based on the equivalent source method is applied in order to localize and quantify correlated or decorrelated sources. Finally, the potentiality of the proposed techniques is evaluated experimentally in the GTH in the presence of an acoustic source and a controlled flow.
346

Optimiser l'utilisation des données en reconstruction TEP: modélisation de résolution dans l'espace image et contribution à l'évaluation de la correction de mouvement

Cloquet, Christophe 11 July 2011 (has links)
Cancers et maladies cardio-vasculaires sont responsables de plus de 40 % des décès dans le monde. De nombreuses personnes souffrent par ailleurs quotidiennement de ces maladies. En réduire la fréquence dans le futur passe avant tout par une adaptation de notre mode de vie et une prévention accrue, éclairées par une connaissance plus approfondie des mécanismes de ces maladies. Il est également crucial d'améliorer les diagnostics et les traitements actuels afin de mieux prendre en charge les malades d'aujourd'hui et de demain.<p><p>Lorsque le tableau clinique présenté par un patient n'est pas clair, de nombreuses techniques d'imagerie médicale permettent d'affiner le diagnostic, de préciser le pronostic et de suivre l'évolution des maladies au cours du temps. Ces mêmes techniques sont également utilisées en recherche fondamentale pour faire progresser la connaissance du fonctionnement normal et pathologique du corps humain. Il s'agit par exemple de l'échographie, de l'imagerie par résonance magnétique, de la tomodensitométrie à rayons X ou encore de la tomographie par émission de positrons (TEP).<p><p>Certaines de ces techniques mettent en évidence le métabolisme de molécules, comme le glucose et certains acides aminés. C'est le cas de la tomographie par émission de positrons, dans laquelle une petite quantité de molécules marquées avec un élément radioactif est injectée au patient. Ces molécules se concentrent de préférence dans les endroits du corps humain où elles sont utilisées. Instables, les noyaux radioactifs se désintègrent en émettant un anti-électron, encore appelé positron. Chaque positron s'annihile ensuite à proximité du lieu d'émission avec un électron du corps du patient, provoquant l'émission simultanée de deux photons de haute énergie dans deux directions opposées. Après avoir traversé les tissus, ces photons sont captés par un anneau de détecteurs entourant le patient. Sur base de l'ensemble des événements collectés, un algorithme de reconstruction produit enfin une image de la distribution du traceur radioactif.<p><p>La tomographie par émission de positrons permet notamment d'évaluer l'efficacité du traitement des tumeurs avant que la taille de celles-ci n'ait changé, ce qui permet d'aider à décider de poursuivre ou non le traitement en cours. En cardiologie, cette technique permet de quantifier la viabilité du muscle cardiaque après un infarctus et aide ainsi à évaluer la pertinence d'une intervention chirurgicale.<p><p>Plusieurs facteurs limitent la précision des images TEP. Parmi ceux-ci, on trouve l'effet de volume partiel et le mouvement du coeur.<p><p>L'effet de volume partiel mène à des images floues, de la même manière qu'un objectif d'appareil photo incorrectement mis au point produit des photographies floues. Deux possibilités s'offrent aux photographes pour éviter cela :soit améliorer la mise au point de leur objectif, soit retoucher les images après les avoir réalisées ;améliorer la mise au point de l'objectif peut s'effectuer dans l'espace des données (ajouter une lentille correctrice avant l'objectif) ou dans l'espace des images (ajouter une lentille correctrice après l'objectif).<p><p>Le mouvement cardiaque provoque également une perte de netteté des images, analogue à l'effet de flou sur une photographie d'une voiture de course réalisée avec un grand temps de pose. Classiquement, on peut augmenter la netteté d'une image en diminuant le temps de pose. Cependant, dans ce cas, moins de photons traversent l'objectif et l'image obtenue est plus bruitée.<p><p>On pourrait alors imaginer obtenir de meilleurs images en suivant la voiture au moyen de l'appareil photo. <p><p>De cette manière, la voiture serait à la fois nette et peu corrompue par du bruit, car beaucoup de photons pourraient être détectés.<p><p>En imagerie TEP, l'effet de volume partiel est dû à de nombreux facteurs dont le fait que le positron ne s'annihile pas exactement à l'endroit de son émission et que le détecteur frappé par un photon n'est pas toujours correctement identifié. La solution passe par une meilleure modélisation de la physique de l'acquisition au cours de la reconstruction, qui, en pratique est complexe et nécessite d'effectuer des approximations.<p><p>La perte de netteté due au mouvement du coeur est classiquement traitée en figeant le mouvement dans plusieurs images successives au cours d'un battement cardiaque. Cependant, une telle solution résulte en une diminution du nombre de photons, et donc en une augmentation du bruit dans les images. Tenir compte du mouvement de l'objet pendant la reconstruction TEP permettrait d'augmenter la netteté en gardant un bruit acceptable. On peut également penser à superposer différentes images recalées au moyen du mouvement.<p><p>Au cours de ce travail, nous avons étudié des méthodes qui tirent le meilleur parti possible des informations fournies par les événements détectés. Pour ce faire, nous avons choisi de baser nos reconstructions sur une liste d'événements contenant la position exacte des détecteurs et le temps exact d'arrivée des photons, au lieu de l'histogramme classiquement utilisé.<p><p>L'amélioration de résolution passe par la connaissance de l'image d'une source ponctuelle radioactive produite par la caméra.<p><p>À la suite d'autres travaux, nous avons mesuré cette image et nous l'avons modélisée, pour la première fois, au moyen d'une fonction spatialement variable, non-gaussienne et asymétrique. Nous avons ensuite intégré cette fonction dans un algorithme de reconstruction, dans l'espace image. C'est la seule possibilité pratique dans le cas d'acquisitions en mode liste. Nous avons ensuite comparé les résultats obtenus avec un traitement de l'image après la reconstruction.<p><p>Dans le cadre de la correction de mouvement cardiaque, nous avons opté pour l'étude de la reconstruction simultanée de l'image et du déplacement, sans autres informations externes que les données TEP et le signal d'un électrocardiogramme. Nous avons ensuite choisi d'étudier la qualité de ces estimateurs conjoints intensité-déplacement au moyen de leur variance. Nous avons étudié la variance minimale que peut atteindre un estimateur conjoint intensité-mouvement, sur base des données TEP uniquement, au moyen d'un outil appelé borne de Cramer-Rao. Dans ce cadre, nous avons étudié différentes manières existantes d'estimer la borne de Cramer-Rao et nous avons proposé une nouvelle méthode d'estimation de la borne de Cramer-Rao adaptée à des images de grande dimension. Nous avons enfin mis en évidence que la variance de l'algorithme classique OSEM était supérieure à celle prédite par la borne de Cramer-Rao. En ce qui concerne les estimateurs combinés intensité-déplacement, nous avons observé la diminution de la variance minimale possible sur les intensités lorsque le déplacement était paramétrisé sur des fonctions spatiales lisses.<p><p>Ce travail est organisé comme suit. Le chapitre théorique commence par brosser brièvement le contexte historique de la tomographie par émission de positrons. Nous avons souhaité insister sur le fait que l'évolution des idées n'est romantique et linéaire qu'à grande échelle. Nous abordons ensuite la description physique de l'acquisition TEP. Dans un deuxième chapitre, nous rappelons quelques éléments de la théorie de l'estimation et de l'approximation et nous traitons des problèmes inverses en général et de la reconstruction TEP en particulier.<p><p>La seconde partie aborde le problème du manque de netteté des images et la solution que nous avons choisi d'y apporter :une modélisation dans l'espace image de la réponse impulsionnelle de la caméra, en tenant compte de ses caractéristiques non gaussienne, asymétrique et spatialement variable. Nous présentons également le résultat de la comparaison avec une déconvolution post-reconstruction. Les résultats présentés dans ce chapitre ont fait l'objet d'une publication dans la revue Physics in Medicine and Biology.<p><p>Dans un troisième volet, nous abordons la correction de mouvement. Une premier chapitre brosse le contexte de la correction de mouvement en TEP et remet en perspective les différentes méthodes existantes, dans un cadre bayésien unificateur.<p><p>Un second chapitre aborde ensuite l'estimation de la qualité des images TEP et étudie en particulier la borne de Cramer-Rao.<p><p>Les résultats obtenus sont enfin résumés et replacés dans leur contexte dans une conclusion générale.<p> / Doctorat en Sciences de l'ingénieur / info:eu-repo/semantics/nonPublished
347

Signal processing methods for fast and accurate reconstruction of digital holograms / Méthodes de traitement du signal pour la reconstruction rapide et précise des hologrammes numériques

Seifi, Mozhdeh 03 October 2013 (has links)
Le développement de techniques de microscopie quantitatives tridimensionnelles et résolues en temps est fondamental dans de nombreux domaines. Dans ce cadre, l’holographie numérique en ligne recèle un fort potentiel, en raison de sa relative simplicité de mise en œuvre (imagerie sans lentille), de son caractère tridimensionnel et de sa résolution temporelle. Le but de cette thèse est l’amélioration des algorithmes de reconstruction des hologrammes par une approche « problèmes inverses ». Dans le cadre de la reconstruction d’objets paramétriques, des travaux antérieurs ont permis de proposer un algorithme glouton permettant de résoudre le problème inverse de reconstruction (intrinsèquement mal posé) par une maximisation de la vraisemblance entre un modèle de formation d’hologramme et les données. Une première contribution de ce travail de thèse a été de réduire le temps de calcul de cet algorithme en utilisant une approche multi-résolution (algorithme FAST). Dans une deuxième contribution, une approche reconnaissance de forme de type « matching pursuit » est utilisée pour la reconstruction d’objets quelconques en recherchant les éléments d’un dictionnaire les plus proches des figures de diffraction composant l’hologramme. La réduction des dimensions du dictionnaire est proposée en utilisant une décomposition en valeurs singulières tronquée. La troisième contribution de cette thèse a été réalisée en collaboration avec le LMFA. L’algorithme glouton a été utilisé sur un cas réel : la reconstruction et le suivi de gouttelettes d’éther évaporantes en chute libre. Dans tous ces développements une attention particulière a été portée sur la précision des reconstructions, sur la réduction du nombre de paramètres à régler par l’utilisateur (algorithmes peu ou non supervisés). Une boîte à outils Matlab® (en ligne) a été développée dans le cadre de cette thèse / Techniques for fast, 3D, quantitative microscopy are of great interest in many fields. In this context, in-line digital holography has significant potential due to its relatively simple setup (lensless imaging), its three-dimensional character and its temporal resolution. The goal of this thesis is to improve existing hologram reconstruction techniques by employing an “inverse problems” approach. For applications of objects with parametric shapes, a greedy algorithm has been previously proposed which solves the (inherently ill-posed) inversion problem of reconstruction by maximizing the likelihood between a model of holographic patterns and the measured data. The first contribution of this thesis is to reduce the computational costs of this algorithm using a multi-resolution approach (FAST algorithm). For the second contribution, a “matching pursuit” type of pattern recognition approach is proposed for hologram reconstruction of volumes containing parametric objects, or non-parametric objects of a few shape classes. This method finds the closest set of diffraction patterns to the measured data using a diffraction pattern dictionary. The size of the dictionary is reduced by employing a truncated singular value decomposition to obtain a low cost algorithm. The third contribution of this thesis was carried out in collaboration with the laboratory of fluid mechanics and acoustics of Lyon (LMFA). The greedy algorithm is used in a real application: the reconstruction and tracking of free-falling, evaporating, ether droplets. In all the proposed methods, special attention has been paid to improvement of the accuracy of reconstruction as well as to reducing the computational costs and the number of parameters to be tuned by the user (so that the proposed algorithms are used with little or no supervision). A Matlab® toolbox (accessible on-line) has been developed as part of this thesis
348

Émulsions inverses très concentrées : formulation, comportement rhéologique et modélisation / Highly concentrated reverse emulsions : formulation, rheological behavior and modelization

Paruta Tuarez, Emilio Alberto 23 March 2010 (has links)
Cette thèse concerne l’étude de l’influence de la formulation sur le comportement rhéologique des émulsions inverses très concentrées. Nous avons utilisé une démarche originale consistant à positionner le module élastique (G’) de ces émulions sur une carte bidimensionnelle formulation-composition, afin d’étudier, en particulier, l’effet de la formulation dite optimale. Deux effets nets sont liés à celle-ci: les émulsions préparées à HLB=10, c’est-à-dire à proximité de la valeur optimale (HLB=10,5), présentent des valeurs de G’ nettement plus faibles que les autres formulations, tandis qu’à une distance particulière (HLB=7,7), les valeurs de G’ sont toujours plus élevées comparativement aux autres formulations. Cette valeur particulière de HLB correspond aussi à une stabilité maximale de la dispersion et à une taille moyenne des gouttes minimale. Les émulsions très concentrées étant généralement opaques et fragiles, l’analyse du transport stationnaire incohérent de lumière polarisée, qui ne nécessite pas de dilution, a été utilisée comme méthode alternative aux techniques classiques pour déterminer l’épaisseur moyenne du film interfacial (h). La taille moyenne des gouttes (R) a pu ensuite être déterminée à partir d’un modèle géométrique qui relie R à l’épaisseur moyenne du film interfacial (h), à la fraction volumique de phase dispersée (f) et à un facteur géométrique moyen (f9) tenant compte du caractère polyédrique des gouttes. Ainsi, une expression modifiée du modèle proposé par Mougel et al. (2006) a été établie pour modéliser le module élastique (G’) en le reliant à la taille moyenne de gouttes (R), la tension interfaciale (s) et la fraction volumique de phase dispersée (f) / This thesis deals with the study of the influence of formulation on the rheological behavior of highly concentrated reverse emulsions. We used an original approach consisting in representing the elastic modulus (G’) of these emulsions on a formulation-composition bidimensional map to study, in particular, the effect of the so-called optimum formulation. Two major effects are observed in relation to this one: emulsions prepared at HLB=10, i.e. at the proximity of optimum value (HLB=10.5) present values of G’ remarkably lower than those at other formulations, while at a certain distance (HLB=7.7) the values of G’ are higher in comparison to others formulations. This last particular HLB matches with the occurrence of a maximum stability and a minimum drop size of dispersion. Highly concentrated emulsions being generally opaque and fragile, the analysis of incoherent polarized steady light transport, that does not imply any dilution, has been used as an alternative method to classical techniques to determine the average film thickness (h). The average drop size (R) has then to be determined from a geometrical model linking it to the average film thickness (h), to the dispersed phase volume fraction (f) and to a geometrical factor (f9) that takes into account the polyhedral shape of the drops. Hence, a modified expression of the model proposed by Mougel et al. (2006) has been established to model the elastic modulus (G’) by relating it to the average drop size (R), the interfacial tension (s) and the dispersed phase volume fraction (f)
349

Problèmes inverses de sources dans des équations de transport à coefficients variables / Inverse source problem in evolution advection-dispersion-reaction with varying coefficients

Mahfoudhi, Imed 15 November 2013 (has links)
Cette thèse porte sur l’étude de quelques questions liées à l’identifiabilité et l’identification d’un problème inverse non-linéaire de source. Il s’agit de l’identification d’une source ponctuelle dépendante du temps constituant le second membre d’une équation de type advection-dispersion-réaction à coefficients variables. Dans le cas monodimensionnel, la souplesse du modèle stationnaire nous a permis de développer des réponses théoriques concernant le nombre des capteurs nécessaires et leurs emplacements permettant d’identifier la source recherchée d’une façon unique. Ces résultats nous ont beaucoup aidés à définir la ligne de conduite à suivre afin d’apporter des réponses similaires pour le modèle transitoire. Quant au modèle bidimensionnel transitoire, en utilisant quelques résultats de nulle contrôlabilité frontière et des mesures de l’état sur la frontière sortie et de son flux sur la frontière entrée du domaine étudié, nous avons établi un théorème d’identifiabilité et une méthode d’identification permettant de localiser les deux coordonnées de la position de la source recherchée comme étant l’unique solution d’un système non-linéaire de deux équations, et de transformer l’identification de sa fonction de débit en la résolution d’un problème de déconvolution. La dernière partie de cette thèse discute la difficulté principale rencontrée dans ce genre de problèmes inverses à savoir la non identifiabilité d’une source dans sa forme abstraite, propose une alternative permettant de surmonter cette difficulté dans le cas particulier où le but est d’identifier le temps limite à partir duquel la source impliquée a cessé d’émettre, et donc ouvre la porte sur de nouveaux horizons. / The thesis deals with the two main issues identifiability and identification related to a nonlinear inverse source problem. This problem consists in the identification of a time-dependent point source occurring in the right hand-side of an advection-dispersion-reaction equation with spatially varying coefficients. Starting from the stationnary case in the one-dimensional model, we derived theoritical results defining the necessary number of sensors and their positions that enable to uniquely determine the sought source. Those results gave us a good visibility on how to proceed in order to obtain similar results for the time-dependent (evolution) case. As far as the two-dimensional evolution model is concerned, using some boundary null controllability results and the records of the generated state on the inflow boundary and its flux on the outflow boundary of the monitored domain, we established a constructive identifiability theorem as well as an identification method that localizes the two coordinates of the sought source position as the unique solution of a nonlinear system of two equations and transforms the identification of its time-dependent intensity function into solving a deconvolution problem. The last part of this thesis highlights the main difficulty encountred in such inverse problems namely the nonidentifiabilityof a source in its abstract form, proposes a method that enables to overcome this difficulty in the particular case where the aim is to identify the time active limit of the involved source. And thus, this last part opens doors on new horizons and prospects.
350

Sur quelques problèmes de reconstruction en imagerie MA-TIRF et en optimisation parcimonieuse par relaxation continue exacte de critères pénalisés en norme-l0 / On some reconstruction problems in MA-TIRF imaging and in sparse optimization using continuous exact relaxation of l0-penalized criteria

Soubies, Emmanuel 14 October 2016 (has links)
Cette thèse s'intéresse à deux problèmes rencontrés en traitement du signal et des images. Le premierconcerne la reconstruction 3D de structures biologiques à partir d'acquisitions multi-angles enmicroscopie par réflexion totale interne (MA-TIRF). Dans ce contexte, nous proposons de résoudre leproblème inverse avec une approche variationnelle et étudions l'effet de la régularisation. Une batteried'expériences, simples à mettre en oeuvre, sont ensuite proposées pour étalonner le système et valider lemodèle utilisé. La méthode proposée s'est montrée être en mesure de reconstruire avec précision unéchantillon phantom de géométrie connue sur une épaisseur de 400 nm, de co-localiser deux moléculesfluorescentes marquant les mêmes structures biologiques et d'observer des phénomènes biologiquesconnus, le tout avec une résolution axiale de l'ordre de 20 nm. La deuxième partie de cette thèseconsidère plus précisément la régularisation l0 et la minimisation du critère moindres carrés pénalisé (l2-l0) dans le contexte des relaxations continues exactes de cette fonctionnelle. Nous proposons dans unpremier temps la pénalité CEL0 (Continuous Exact l0) résultant en une relaxation de la fonctionnelle l2-l0 préservant ses minimiseurs globaux et pour laquelle de tout minimiseur local on peut définir unminimiseur local de l2-l0 par un simple seuillage. Par ailleurs, nous montrons que cette relaxation éliminedes minimiseurs locaux de la fonctionnelle initiale. La minimisation de cette fonctionnelle avec desalgorithmes d'optimisation non-convexe est ensuite utilisée pour différentes applications montrantl'intérêt de la minimisation de la relaxation par rapport à une minimisation directe du critère l2-l0. Enfin,une vue unifiée des pénalités continues de la littérature est proposée dans ce contexte de reformulationexacte du problème / This thesis is devoted to two problems encountered in signal and image processing. The first oneconcerns the 3D reconstruction of biological structures from multi-angle total interval reflectionfluorescence microscopy (MA-TIRF). Within this context, we propose to tackle the inverse problem byusing a variational approach and we analyze the effect of the regularization. A set of simple experimentsis then proposed to both calibrate the system and validate the used model. The proposed method hasbeen shown to be able to reconstruct precisely a phantom sample of known geometry on a 400 nmdepth layer, to co-localize two fluorescent molecules used to mark the same biological structures andalso to observe known biological phenomena, everything with an axial resolution of 20 nm. The secondpart of this thesis considers more precisely the l0 regularization and the minimization of the penalizedleast squares criteria (l2-l0) within the context of exact continuous relaxations of this functional. Firstly,we propose the Continuous Exact l0 (CEL0) penalty leading to a relaxation of the l2-l0 functional whichpreserves its global minimizers and for which from each local minimizer we can define a local minimizerof l2-l0 by a simple thresholding. Moreover, we show that this relaxed functional eliminates some localminimizers of the initial functional. The minimization of this functional with nonsmooth nonconvexalgorithms is then used on various applications showing the interest of minimizing the relaxation incontrast to a direct minimization of the l2-l0 criteria. Finally we propose a unified view of continuouspenalties of the literature within this exact problem reformulation framework

Page generated in 0.094 seconds