• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 64
  • 29
  • 9
  • Tagged with
  • 99
  • 36
  • 34
  • 31
  • 27
  • 26
  • 24
  • 23
  • 19
  • 18
  • 17
  • 16
  • 15
  • 15
  • 14
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Utilisation des ondelettes de Haar en estimation bayésienne

Leblanc, Alexandre January 2001 (has links)
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
22

Débruitage, déconvolution et extraction de caractéristiques de signaux dans le domaine temporel pour imagerie biomédicale optique

Bodi, Geoffroy January 2010 (has links)
Un scanner permettant l'imagerie moléculaire est d'un grand intérêt pour l'industrie pharmaceutique dans le développement de nouveaux médicaments, notamment pour visualiser leur efficacité m-vivo (par exemple pour le cancer). Le groupe de recherche TomOptUS développe un scanner par tomographie optique diffuse par fluorescence pour imagerie moléculaire sur petit animal. Le but est de localiser en 3D les centres de fluorescence d'un traceur injecté dans l'animal. À cette fin, nous utilisons des mesures de signaux optiques de fluorescence obtenues par comptage de photons corrélé en temps (mesures dans le domaine temporel). On sait que les mesures contiennent de l'information sur les caractéristiques optiques du milieu, mais à ce jour, cette information n'est pas exploitée à son plein potentiel. Extraire cette information est essentiel en reconstruction tomographique. Le système d'instrumentation, comme tout système de mesure, celle-ci influe sur le signal optique à mesurer. Mathématiquement, les mesures optiques dans un milieu peuvent être décrites comme la convolution entre le signal d'intérêt et la fonction de réponse (ou fonction de transfert) du système de mesures optiques (IRF - instrument response function), le tout perturbé par du bruit. Les causes du bruit proviennent du système de détection, des conditions d'utilisation du système et des facteurs extérieurs. Il est indispensable d'éliminer les différents effets perturbateurs pour permettre l'extraction de caractéristiques de ces signaux. Ces caractéristiques dépendent des paramètres optiques du milieu diffusant. On distingue deux propriétés physiques, le coefficient d'absorption µ[indice inférieur a] et le coefficient de diffusion réduit µ'[indice inférieur s]. Un premier objectif du projet est de débruiter les mesures. À cette fin, un algorithme de débruitage par les ondelettes a été développé. Un second objectif est de concevoir un algorithme de déconvolution pour éliminer l'influence de l'IRF. La déconvolution est le raisonnement inverse de la convolution. Une solution est l'utilisation du filtre optimal de Wiener. Une fois cela réalisé, un troisième objectif consistait à implémenter un algorithme de régression non linéaire pour extraire les caractérisitiques optiques du milieu des courbes temporelles afin de caractériser le milieu. Pour cela, un modèle analytique de propagation de la lumière, le modèle développé par Patterson, Chance et Wilson, est comparé à nos mesures traitées. Par minimisation de l'erreur quadratique moyenne, il est ainsi possible de déterminer la valeur des paramètres optiques recherchés. Pour qualifier au mieux la méthode de déconvolution, la convolution itérative (IC- Itérative Convolution) ou reconvolution a également été implémentée. Actuellement, la reconvolution est la méthode la plus couramment utilisée en imagerie optique pour caractériser un milieu. Elle consiste à convoluer le modèle avec l'IRF du système pour obtenir un modèle représentatif des mesures optiques du système d'instrumentation. Enfin, un quatrième objectif consiste à étudier, à l'aide du même modèle, des changements du comportement du signal, lorsqu'on fait varier les paramètres µ[indice inférieur a], µ'[indice inférieur s]. Ceci permettra d'acquérir de nouvelles connaissances sur les vitesses de propagation dans le milieu et sur les temps d'arrivée des premiers photons.
23

Etude de la forme des spectres β / Study of the shape of β spectra

Bisch, Charlène 26 September 2014 (has links)
L'objectif de ce travail de thèse est de mettre au point un dispositif dédié à la mesure de spectres bêta avec une précision métrologique. Le dispositif conçu autour d'un semi-conducteur silicium tient compte des phénomènes physiques et de détection à l'origine de déformations dans le spectre mesuré, afin de les limiter et de les réduire au maximum. Des simulations Monte-Carlo de la chambre de détection ont permis de déterminer la géométrie et les matériaux à utiliser. La qualité des sources radioactives est également déterminante pour obtenir des spectres de qualité. Après la mesure, les spectres sont traiter afin de les corriger des déformations restantes. Une fonction de réponse doit donc être déterminée pour chaque géométrie de mesure. Cette détermination se fait à l'aide des simulations MC. Nos premiers résultats montrent qu'une déconvolution du spectre mesuré avec la réponse du système de détection permet d'obtenir la forme réelle du spectre bêta avec une grande précision. / The goal of this PhD work is to build an experimental device dedicated to measuring beta spectra with a precision relevant to modern metrology requirements. The device, which is based on a silicon semi-conductor detector, must take into account certain physical phenomena and detector characteristics which could lead to deformation of the measured spectra. These must be understood and minimized. Monte-Carlo simulations have allowed the geometry and construction materials to be optimized. The quality of the radioactive sources is paramount in obtaining spectra of high-quality. Nonetheless, the measured spectra must be corrected for any remaining distortion. A response function must therefore be determined for each measurement geometry. This can be achieved via Monte-Carlo simulations. The first results show that de-convolution of the measured spectra with the response function allows the accurate determination of the true form of the beta spectra.
24

Déconvolution et séparation d'images hyperspectrales en microscopie / Deconvolution and separation of hyperspectral images : applications to microscopy

Henrot, Simon 27 November 2013 (has links)
L'imagerie hyperspectrale consiste à acquérir une scène spatiale à plusieurs longueurs d'onde, e.g. en microscopie. Cependant, lorsque l'image est observée à une résolution suffisamment fine, elle est dégradée par un flou (convolution) et une procédure de déconvolution doit être utilisée pour restaurer l'image originale. Ce problème inverse, par opposition au problème direct modélisant la dégradation de l'image observée, est étudié dans la première partie . Un autre problème inverse important en imagerie, la séparation de sources, consiste à extraire les spectres des composants purs de l'image (sources) et à estimer les contributions de chaque source à l'image. La deuxième partie propose des contributions algorithmiques en restauration d'images hyperspectrales. Le problème est formulé comme la minimisation d'un critère pénalisé et résolu à l'aide d'une structure de calcul rapide. La méthode est adaptée à la prise en compte de différents a priori sur l'image, tels que sa positivité ou la préservation des contours. Les performances des techniques proposées sont évaluées sur des images de biocapteurs bactériens en microscopie confocale de fluorescence. La troisième partie est axée sur le problème de séparation de sources, abordé dans un cadre géométrique. Nous proposons une nouvelle condition suffisante d'identifiabilité des sources à partir des coefficients de mélange. Une étude innovante couplant le modèle d'observation avec le mélange de sources permet de montrer l'intérêt de la déconvolution comme étape préliminaire de la séparation. Ce couplage est validé sur des données acquises en spectroscopie Raman / Hyperspectral imaging refers to the acquisition of spatial images at many spectral bands, e.g. in microscopy. Processing such data is often challenging due to the blur caused by the observation system, mathematically expressed as a convolution. The operation of deconvolution is thus necessary to restore the original image. Image restoration falls into the class of inverse problems, as opposed to the direct problem which consists in modeling the image degradation process, treated in part 1 of the thesis. Another inverse problem with many applications in hyperspectral imaging consists in extracting the pure materials making up the image, called endmembers, and their fractional contribution to the data or abundances. This problem is termed spectral unmixing and its resolution accounts for the nonnegativity of the endmembers and abundances. Part 2 presents algorithms designed to efficiently solve the hyperspectral image restoration problem, formulated as the minimization of a composite criterion. The methods are based on a common framework allowing to account for several a priori assumptions on the solution, including a nonnegativity constraint and the preservation of edges in the image. The performance of the proposed algorithms are demonstrated on fluorescence confocal images of bacterial biosensors. Part 3 deals with the spectral unmixing problem from a geometrical viewpoint. A sufficient condition on abundance coefficients for the identifiability of endmembers is proposed. We derive and study a joint observation model and mixing model and demonstrate the interest of performing deconvolution as a prior step to spectral unmixing on confocal Raman microscopy data
25

Imagerie astrophysique à la limite de diffraction des grands télescopes. Application à l'observation des objets froids.

Thiébaut, Eric 08 June 1994 (has links) (PDF)
L'interférométrie des tavelures permet de restaurer des images à la limite de résolution angulaire (quelques dizaines de millisecondes d'arc dans le visible) des plus grands télescopes terrestres malgré les effets de la turbulence atmosphérique. Je présente différentes méthodes de l'interférométrie des tavelures (méthodes de Labeyrie, de Knox et Thompson, du bispectre et de l'holographie auto-référencée) pour mettre en évidence la rigueur nécessaire à leur exploitation. L'application en astronomie visible de ces méthodes nécessite un détecteur à comptage de photons. J'explique comment je compense le défaut dit du "trou du comptage" de photons en intégrant des intercorrélations. Je propose une approche robuste pour résoudre le problème de la restauration d'image à partir de mesures très bruitées et/ou lacunaires. Je montre que cette approche générale peut être adaptée à la nature des mesures, en particulier à celles de l'interférométrie des tavelures. Cela me permet de dériver ou d'améliorer un certain nombre d'algorithmes : déconvolution, déconvolution en aveugle, restauration d'image en interférométrie des tavelures, etc. Ces algorithmes me permettent d'obtenir des résultats fiables et d'intérêt astrophysique : la découverte en Halpha de la base du jet émanant de T-Tau, la première mise en évidence du mouvement orbital d'une étoile double pré-séquence principale pour DF-Tau, la détection dans le visible du compagnon dit "infrarouge" de ZCMa et le sondage de l'atmosphère étendue de chi-Cygni dans les bandes du TiO.
26

EXPLOITATION DES SPECTRES GAMMA PAR METHODE NON PARAMETRIQUE ET INDEPENDANTE D'A PRIORI FORMULES PAR L'OPERATEUR

Vigineix, Thomas 04 November 2011 (has links) (PDF)
La spectrométrie gamma est une des mesures non destructives passives la plus utilisée pour la quantification des radionucléides dans les déchets nucléaires. Le travail de thèse a pour but l'amélioration de l'exploitation du spectre gamma (c'est-à-dire après l'étape d'acquisition du spectre). L'exploitation des spectres se faisant en deux étapes (restituer les énergies et les surfaces nettes des pics contenus dans le spectre et déterminer le rendement de détection de la mesure), le travail de thèse s'est divisé en deux parties. Dans un premier temps, nous avons mis en place un procédé de validation qui quantifie les incertitudes engendrées par l'extraction des énergies et des surfaces et qui est applicable à n'importe quel logiciel de déconvolution. Avec ce procédé, nous avons étudié les performances de la déconvolution effectuée par le logiciel SINBAD. Le travail de thèse a ainsi permis de disposer d'un outil automatisé d'extraction des énergies et des surfaces nettes des pics d'absorption validé et dont les incertitudes sont quantifiées. Enfin, la deuxième partie de la thèse a permis de définir une méthode automatisée de calcul du rendement de détection, applicable à n'importe quel objet mesuré. La faisabilité de la méthode sur des cas simples a été attestée par le travail de thèse. L'extrapolation à des cas plus complexes devra faire l'objet d'études supplémentaires.
27

Préparation à l'étude du plasma de quarks et de gluons dans ALICE : le détecteur V0 et les résonances de masses dans le spectromètre à muons

Nendaz, Fabien 22 September 2009 (has links) (PDF)
L'expérience ALICE au LHC va étudier dès 2010 le plasma de quarks et de gluons (QGP), état de la matière dans lequel les quarks et les gluons sont déconfinés. Le travail présenté ici a été effectué au sein de la collaboration ALICE, dans le but de préparer l'analyse des futures données expérimentales. Outre une approche théorique du QGP et de la symétrie chirale, nous y développons trois aspects expérimentaux : le sous-détecteur V0, l'étude des mésons de basses masses et la déconvolution. Tout d'abord, nous détaillons les mesures de luminosité et de multiplicité réalisables avec le V0. Ensuite, nous développons l'étude des dimuons dans le spectromètre à muons. Nous nous concentrons en particulier sur les mésons de basses masses : le rho, le omega et le phi. Enfin, nous présentons une façon d'améliorer les données du spectromètre : la déconvolution de Richardson-Lucy.
28

Préparation à l'étude du plasma de quarks et de gluons dans ALICE : le détecteur V0 et les résonances de masses dans le spectromètre à muons / Preparation of the study of the quark-gluon plasma in ALICE : the V0 detector and the low masses resonances in the muon spectrometer

Nendaz, Fabien 22 September 2009 (has links)
L'expérience ALICE au LHC va étudier dès 2010 le plasma de quarks et de gluons (QGP), état de la matière dans lequel les quarks et les gluons sont déconfinés. Le travail présenté ici a été effectué au sein de la collaboration ALICE, dans le but de préparer l'analyse des futures données expérimentales. Outre une approche théorique du QGP et de la symétrie chirale, nous y développons trois aspects expérimentaux : le sous-détecteur V0, l'étude des mésons de basses masses et la déconvolution. Tout d'abord, nous détaillons les mesures de luminosité et de multiplicité réalisables avec le V0. Ensuite, nous développons l'étude des dimuons dans le spectromètre à muons. Nous nous concentrons en particulier sur les mésons de basses masses : le rho, le omega et le phi. Enfin, nous présentons une façon d'améliorer les données du spectromètre : la déconvolution de Richardson-Lucy. / The ALICE experiment at LHC will study from 2010 the quark-gluon plasma (QGP), phase of the matter in which quarks and gluons are deconfined. The work presented here was done within the ALICE collaboration, for preparing the analysis of the incoming experimental data. Besides a theoretical approach of the QGP and of the chiral symmetry, we develop three experimental aspects: the V0 sub-detector, the study of the low mass mesons and the deconvolution. First, we detail the measures of luminosity and multiplicity that can be done with the V0. We then develop the study of the dimuons in the muon spectometer. We concentrate on the low masses mesons: the rho, the omega and the phi. Finally, we present a method for improving the spectrometer data: the Richardson-Lucy deconvolution.
29

Blind inverse imaging with positivity constraints / Inversion aveugle d'images avec contraintes de positivité

Lecharlier, Loïc 09 September 2014 (has links)
Dans les problèmes inverses en imagerie, on suppose généralement connu l’opérateur ou matrice décrivant le système de formation de l’image. De façon équivalente pour un système linéaire, on suppose connue sa réponse impulsionnelle. Toutefois, ceci n’est pas une hypothèse réaliste pour de nombreuses applications pratiques pour lesquelles cet opérateur n’est en fait pas connu (ou n’est connu qu’approximativement). On a alors affaire à un problème d’inversion dite “aveugle”. Dans le cas de systèmes invariants par translation, on parle de “déconvolution aveugle” car à la fois l’image ou objet de départ et la réponse impulsionnelle doivent être estimées à partir de la seule image observée qui résulte d’une convolution et est affectée d’erreurs de mesure. Ce problème est notoirement difficile et pour pallier les ambiguïtés et les instabilités numériques inhérentes à ce type d’inversions, il faut recourir à des informations ou contraintes supplémentaires, telles que la positivité qui s’est avérée un levier de stabilisation puissant dans les problèmes d’imagerie non aveugle. La thèse propose de nouveaux algorithmes d’inversion aveugle dans un cadre discret ou discrétisé, en supposant que l’image inconnue, la matrice à inverser et les données sont positives. Le problème est formulé comme un problème d’optimisation (non convexe) où le terme d’attache aux données à minimiser, modélisant soit le cas de données de type Poisson (divergence de Kullback-Leibler) ou affectées de bruit gaussien (moindres carrés), est augmenté par des termes de pénalité sur les inconnues du problème. La stratégie d’optimisation consiste en des ajustements alternés de l’image à reconstruire et de la matrice à inverser qui sont de type multiplicatif et résultent de la minimisation de fonctions coût “surrogées” valables dans le cas positif. Le cadre assez général permet d’utiliser plusieurs types de pénalités, y compris sur la variation totale (lissée) de l’image. Une normalisation éventuelle de la réponse impulsionnelle ou de la matrice est également prévue à chaque itération. Des résultats de convergence pour ces algorithmes sont établis dans la thèse, tant en ce qui concerne la décroissance des fonctions coût que la convergence de la suite des itérés vers un point stationnaire. La méthodologie proposée est validée avec succès par des simulations numériques relatives à différentes applications telle que la déconvolution aveugle d'images en astronomie, la factorisation en matrices positives pour l’imagerie hyperspectrale et la déconvolution de densités en statistique. / Doctorat en Sciences / info:eu-repo/semantics/nonPublished
30

Méthodes d'augmentation de résolution en microscopie optique exploitant le modelage de faisceau laser et la déconvolution

Thibon, Louis 03 May 2019 (has links)
La microscopie à balayage laser est limitée en résolution par la limite de diffraction de la lumière. Plusieurs méthodes de superrésolution ont été développées depuis les années 90 pour franchir cette limite. Cependant, la superrésolution est souvent obtenue au prix d'une grande complexité (laser de haute puissance pulsé, temps d'acquisition long, fluorophores spécifiques) ainsi que des limitations dans le type d'échantillon observé (observation en surface uniquement). Dans certains cas, comme pour l'illumination structurée et la microscopie SLAM, une amélioration en résolution plus modeste est obtenue, mais avec une complexité et des limites d'utilisation fortement réduites par rapport aux autres méthodes de superrésolution. Les mé- thodes que nous proposons ici sont des méthodes d'augmentation de résolution qui visent à minimiser les contraintes expérimentales et à garder un maximum des avantages des techniques d'imagerie conventionnelles. Dans les cas que nous avons étudiés, les méthodes proposées sont basées sur la microscopie confocale. Nous allons montrer dans un premier temps qu'il est possible d'augmenter de 20% la résolution d'un microscope confocal en changeant le faisceau laser utilisé pour l'excitation par un faisceau Bessel-Gauss tout en ayant un sténopé de la bonne taille (soit 1 Airy Unit). Les avantages de la méthode proposée résident dans sa simplicité d'installation et d'utilisation et sa compatibilité avec d'autres méthodes d'augmentation de résolution. Nous avons démontré les capacités d'augmentation de résolution des faisceaux Bessel-Gauss théoriquement puis exp érimentalement sur des échantillons de nano-sphères et de tissus biologiques obtenant ainsi une résolution de 0.39. Nous avons également montré que l'amélioration en résolution des faisceaux Bessel-Gauss donne une analyse statistique de la colocalisation avec un taux plus faible de faux positifs. Nous avons utilisé des faisceaux Bessel-Gauss de différents ordres pour améliorer la méthode de la microscopie SLAM et ainsi obtenir une résolution descendant à 0.17 (90 nm avec une longueur d'onde de 532 nm). La méthode proposée est entièrement basée sur la microscopie confocale et seul un module permettant de changer le faisceau laser doit être ajouté au montage. Dans un second temps, nous proposons une méthode permettant de bénéficier au maximum des propriétés de la déconvolution pour augmenter la résolution de la microscopie confocale. Pour cela, nous avons utilisé différents modes laser pour l'acquisition d'images et ces images sont utilisées comme données d'entrée pour la déconvolution (avec des mesures des PSF respectives). Les faisceaux laser utilisés apportent ainsi des informations complémentaires à l'algorithme de déconvolution permettant ainsi d'obtenir des images avec une résolution encore meilleure que si une simple déconvolution (utilisant le même algorithme) était utilisée sur l'image confocale. Par la suite, nous avons changé les faisceaux laser par des faisceaux Bessel-Gauss pour augmenter davantage l'ecacité de la déconvolution. Encore une fois, la méthode proposée est entièrement basée sur la microscopie confocale et seul un module permettant de changer le faisceau laser doit être ajouté au montage. Enfin, nous proposons d'aborder une méthode de reconstruction en trois dimensions par tomographie basée sur des projections obtenues en microscopie à deux photons utilisant les faisceaux Bessel-Gauss. En focalisant des faisceaux Bessel-Gauss à angle en microscopie deux photons, on obtient une série de projections utilisables pour une reconstruction tomographique. Le but est de tester la faisabilité de la méthode qui permettrait de reconstruire un volume, en nécessitant moins d'images que dans le cas d'une acquisition plan par plan, en microscopie deux photons classique. / Laser scanning microscopy is limited in lateral resolution by the diffraction of light. Superresolution methods have been developed since the 90s to overcome this limitation. However, superresolution is generally achieved at the cost of a greater complexity (high power lasers, very long acquisition times, specic uorophores) and limitations on the observable samples. In some cases, such as Structured Illumination Microscopy (SIM) and Switching Laser Modes (SLAM), a more modest improvement in resolution is obtained with a reduced complexity and fewer limitations. We propose here methods which improve the resolution while minimizing the experimental constraints and keeping most of the advantages of classical microscopy. First, we show that we can improve by twenty percent the resolution of confocal microscopy by using Bessel-Gauss beams, and by having the right pinhole size (1 Airy Unit), compared to conventional Gaussian beam based confocal microscopy. The advantages of this strategy include simplicity of installation and use, linear polarization compatibility, possibility to combine it with other resolution enhancement and superresolution strategies. We demonstrate the resolution enhancement capabilities of Bessel-Gauss beams both theoretically and experimentally on nano-spheres and biological tissue samples with a resolution of 0.39. We achieved these resolutions without any residual artifacts coming from the Bessel-Gauss beam side lobes. We also show that the resolution enhancement of Bessel-Gauss beams leads to a better statistical colocalization analysis with fewer false positive results than when using Gaussian beams. We have also used Bessel-Gauss beams of different orders to further improve the resolution by combining them in SLAM microscopy achieving a resolution of 0.17 (90 nm with a wavelength of 532 nm). In a second step, we propose a method to improve the resolution of confocal microscopy by combining different laser modes and deconvolution. Two images of the same eld are acquired with the confocal microscope using different laser modes and are used as inputs to a deconvolution algorithm. The two laser modes have different Point Spread Functions and thus provide complementary information leading to an image with enhanced resolution compared to using a single confocal image as input to the same deconvolution algorithm. By changing the laser modes to Bessel-Gauss beams, we were able to improve the effciency of the deconvolution algorithm and to obtain images with a residual Point Spread Function having a width smaller than 100 nm. The proposed method requires only a few add-ons to the classic confocal or two photon microscopes. Finally, we propose a three dimensional tomography reconstruction method using Bessel-Gauss beams as projection tools in two-photon microscopy. While focussing Bessel-Gauss beams at an angle in two photon microscopy, we can obtain a series of projections that can be used for tomography reconstruction. The aim is to test the practicality of the methods allowing to reconstruct a volume while using fewer images than plane by plane acquisitions as in classic two-photon microscopy.

Page generated in 0.0952 seconds