• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 522
  • 310
  • 129
  • 76
  • 51
  • 7
  • Tagged with
  • 1079
  • 468
  • 252
  • 194
  • 170
  • 149
  • 131
  • 125
  • 119
  • 116
  • 96
  • 90
  • 89
  • 86
  • 85
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
451

Imagerie multi-résolution par tomographie aux rayons X : application à la tomographie locale en science des matériaux / Imagering multi-resolution by the X-ray tomography : application to the local tomography in materials science

Zhang, Tao 22 May 2012 (has links)
L'objectif de cette thèse étudie puis d’implémenter une méthode de reconstruction sur la tomographie aux rayons X qui permette de scanner des gros échantillons avec une bonne résolution qui permettrait de scanner l’intérieur d’un cylindre(tomographie locale) et caractériser des matériaux réels. Notre méthode peut être réalisé pour améliorer la quantitative et la qualitative d'image de fantôme. Dans cette thèse, cet méthode est utilisé sue les matériaux cellulaires. Nous avons réalisé des essais in situ en tomographie aux rayons X sur le mousse ERG et les sphères creuses. Un comparaison entre les résultats d’Élément Finis et des essais réels montre le mécanisme d'endommagement de ces matériaux. / The objective of this thesis studies to implement a method of reconstruction of the X-ray tomography that scanner a large samples with good resolution that would scan inside a cylinder (local tomography) and characterize reals materials. Our method can be done to improve the quantitative and qualitative picture of a ghost. In this thesis, this method is used sue the cellular materials. We conducted tests in situ X-ray tomography on the ERG foam and hollow spheres. A comparison between the results of Finite Element and live testing shows the damage mechanism of these materials.
452

Model-based and machine learning techniques for nonlinear image reconstruction in diffuse optical tomography / Techniques basées sur des modèles et apprentissage machine pour la reconstruction d’image non-linéaire en tomographie optique diffuse

Ettehadi, Seyedrohollah January 2017 (has links)
La tomographie optique diffuse (TOD) est une modalité d’imagerie biomédicale 3D peu dispendieuse et non-invasive qui permet de reconstruire les propriétés optiques d’un tissu biologique. Le processus de reconstruction d’images en TOD est difficile à réaliser puisqu’il nécessite de résoudre un problème non-linéaire et mal posé. Les propriétés optiques sont calculées à partir des mesures de surface du milieu à l’étude. Dans ce projet, deux méthodes de reconstruction non-linéaire pour la TOD ont été développées. La première méthode utilise un modèle itératif, une approche encore en développement qu’on retrouve dans la littérature. L’approximation de la diffusion est le modèle utilisé pour résoudre le problème direct. Par ailleurs, la reconstruction d’image à été réalisée dans différents régimes, continu et temporel, avec des mesures intrinsèques et de fluorescence. Dans un premier temps, un algorithme de reconstruction en régime continu et utilisant des mesures multispectrales est développé pour reconstruire la concentration des chromophores qui se trouve dans différents types de tissus. Dans un second temps, un algorithme de reconstruction est développé pour calculer le temps de vie de différents marqueurs fluorescents à partir de mesures optiques dans le domaine temporel. Une approche innovatrice a été d’utiliser la totalité de l’information du signal temporel dans le but d’améliorer la reconstruction d’image. Par ailleurs, cet algorithme permettrait de distinguer plus de trois temps de vie, ce qui n’a pas encore été démontré en imagerie de fluorescence. La deuxième méthode qui a été développée utilise l’apprentissage machine et plus spécifiquement l’apprentissage profond. Un modèle d’apprentissage profond génératif est mis en place pour reconstruire la distribution de sources d’émissions de fluorescence à partir de mesures en régime continu. Il s’agit de la première utilisation d’un algorithme d’apprentissage profond appliqué à la reconstruction d’images en TOD de fluorescence. La validation de la méthode est réalisée avec une mire aux propriétés optiques connues dans laquelle sont inséres des marqueurs fluorescents. La robustesse de cette méthode est démontrée même dans les situations où le nombre de mesures est limité et en présence de bruit. / Abstract : Diffuse optical tomography (DOT) is a low cost and noninvasive 3D biomedical imaging technique to reconstruct the optical properties of biological tissues. Image reconstruction in DOT is inherently a difficult problem, because the inversion process is nonlinear and ill-posed. During DOT image reconstruction, the optical properties of the medium are recovered from the boundary measurements at the surface of the medium. In this work, two approaches are proposed for non-linear DOT image reconstruction. The first approach relies on the use of iterative model-based image reconstruction, which is still under development for DOT and that can be found in the literature. A 3D forward model is developed based on the diffusion equation, which is an approximation of the radiative transfer equation. The forward model developed can simulate light propagation in complex geometries. Additionally, the forward model is developed to deal with different types of optical data such as continuous-wave (CW) and time-domain (TD) data for both intrinsic and fluorescence signals. First, a multispectral image reconstruction algorithm is developed to reconstruct the concentration of different tissue chromophores simultaneously from a set of CW measurements at different wavelengths. A second image reconstruction algorithm is developed to reconstruct the fluorescence lifetime (FLT) of different fluorescent markers from time-domain fluorescence measurements. In this algorithm, all the information contained in full temporal curves is used along with an acceleration technique to render the algorithm of practical use. Moreover, the proposed algorithm has the potential of being able to distinguish more than 3 FLTs, which is a first in fluorescence imaging. The second approach is based on machine learning techniques, in particular deep learning models. A deep generative model is proposed to reconstruct the fluorescence distribution map from CW fluorescence measurements. It is the first time that such a model is applied for fluorescence DOT image reconstruction. The performance of the proposed algorithm is validated with an optical phantom and a fluorescent marker. The proposed algorithm recovers the fluorescence distribution even from very noisy and sparse measurements, which is a big limitation in fluorescence DOT imaging.
453

Optical diffraction tomography microscopy : towards 3D isotropic super-resolution / Microscopie optique tomographie de diffraction : vers une super-résolution isotrope en 3D

Godavarthi, Charankumar 20 September 2016 (has links)
Cette thèse vise à améliorer la résolution en trois dimensions grâce à une technique récente d’imagerie : la microscopie tomographique diffractive (MTD). Son principe est d’éclairer l’objet successivement sous différents angles en lumière cohérente, de détecter le champ diffracté en phase et en amplitude, et de reconstruire la carte 3D de permittivité de l’objet par un algorithme d’inversion. La MTD s’est avérée capable de combiner plusieurs modalités utiles pour la microscopie sans marquage, telles que plein champ, champ sombre, à contraste de phase, confocale, ou encore la microscopie à synthèse d’ouverture 2D ou 3D. Toutes sont basées sur des approximations scalaires et linéaires, ce qui restreint leur domaine d’application pour restituer l’objet de manière quantitative. A l’aide d’une inversion numérique rigoureuse prenant en compte la polarisation du champ et le phénomène de diffusion multiple, nous sommes parvenus à reconstruire la carte 3D de permittivité d’objets avec une résolution de λ/4. Une amélioration supplémentaire la portant à λ/10 a été rendue possible par l’insertion d’information a priori sur l’objet dans l’algorithme d’inversion. Enfin, la résolution axiale est moins bonne du fait de l’asymétrie des schémas d’illumination et de détection dans les microscopes. Pour s’affranchir de cette limitation, une configuration de tomographie assistée par miroir a été implémentée et a mis en évidence un pouvoir de séparation axial meilleur que λ/2. Au final, la MTD s’est illustrée comme un outil de caractérisation puissant pour reconstruire en 3D les objets ainsi que leurs indices optiques, à des résolutions bien supérieures à celles des microscopes conventionnels. / This PhD thesis is devoted to the three-dimensional isotropic resolution improvement using optical tomographic diffraction microscopy (TDM), an emerging optical microscope technique. The principle is to illuminate the sample successively with various angles of coherent light, collect the complex (amplitude and phase) diffracted field and reconstruct the sample 3D permittivity map through an inversion algorithm. A single TDM measurement was shown to combine several popular microscopy techniques such as bright-field microscope, dark-field microscope, phase-contrast microscope, confocal microscope, 2D and 3D synthetic aperture microscopes. All rely on scalar and linear approximations that assume a linear link between the object and the field diffracted by it, which limit their applicability to retrieve the object quantitatively. Thanks to a rigorous numerical inversion of the TDM diffracted field data which takes into account the polarization of the field and the multiple scattering process, we were able to reconstruct the 3D permittivity map of the object with a λ/4 transverse resolution. A further improvement to λ/10 transverse resolution was achieved by providing a priori information about the sample to the non-linear inversion algorithm. Lastly, the poor axial resolution in microscopes is due to the fundamental asymmetry of illumination and detection. To overcome this, a mirror-assisted tomography configuration was implemented, and has demonstrated a sub-λ/2 axial resolution capability. As a result, TDM can be seen as a powerful tool to reconstruct objects in three-dimensions with their optical material properties at resolution far superior to conventional microscopes.
454

Optimiser l'utilisation des données en reconstruction TEP: modélisation de résolution dans l'espace image et contribution à l'évaluation de la correction de mouvement

Cloquet, Christophe 11 July 2011 (has links)
Cancers et maladies cardio-vasculaires sont responsables de plus de 40 % des décès dans le monde. De nombreuses personnes souffrent par ailleurs quotidiennement de ces maladies. En réduire la fréquence dans le futur passe avant tout par une adaptation de notre mode de vie et une prévention accrue, éclairées par une connaissance plus approfondie des mécanismes de ces maladies. Il est également crucial d'améliorer les diagnostics et les traitements actuels afin de mieux prendre en charge les malades d'aujourd'hui et de demain.<p><p>Lorsque le tableau clinique présenté par un patient n'est pas clair, de nombreuses techniques d'imagerie médicale permettent d'affiner le diagnostic, de préciser le pronostic et de suivre l'évolution des maladies au cours du temps. Ces mêmes techniques sont également utilisées en recherche fondamentale pour faire progresser la connaissance du fonctionnement normal et pathologique du corps humain. Il s'agit par exemple de l'échographie, de l'imagerie par résonance magnétique, de la tomodensitométrie à rayons X ou encore de la tomographie par émission de positrons (TEP).<p><p>Certaines de ces techniques mettent en évidence le métabolisme de molécules, comme le glucose et certains acides aminés. C'est le cas de la tomographie par émission de positrons, dans laquelle une petite quantité de molécules marquées avec un élément radioactif est injectée au patient. Ces molécules se concentrent de préférence dans les endroits du corps humain où elles sont utilisées. Instables, les noyaux radioactifs se désintègrent en émettant un anti-électron, encore appelé positron. Chaque positron s'annihile ensuite à proximité du lieu d'émission avec un électron du corps du patient, provoquant l'émission simultanée de deux photons de haute énergie dans deux directions opposées. Après avoir traversé les tissus, ces photons sont captés par un anneau de détecteurs entourant le patient. Sur base de l'ensemble des événements collectés, un algorithme de reconstruction produit enfin une image de la distribution du traceur radioactif.<p><p>La tomographie par émission de positrons permet notamment d'évaluer l'efficacité du traitement des tumeurs avant que la taille de celles-ci n'ait changé, ce qui permet d'aider à décider de poursuivre ou non le traitement en cours. En cardiologie, cette technique permet de quantifier la viabilité du muscle cardiaque après un infarctus et aide ainsi à évaluer la pertinence d'une intervention chirurgicale.<p><p>Plusieurs facteurs limitent la précision des images TEP. Parmi ceux-ci, on trouve l'effet de volume partiel et le mouvement du coeur.<p><p>L'effet de volume partiel mène à des images floues, de la même manière qu'un objectif d'appareil photo incorrectement mis au point produit des photographies floues. Deux possibilités s'offrent aux photographes pour éviter cela :soit améliorer la mise au point de leur objectif, soit retoucher les images après les avoir réalisées ;améliorer la mise au point de l'objectif peut s'effectuer dans l'espace des données (ajouter une lentille correctrice avant l'objectif) ou dans l'espace des images (ajouter une lentille correctrice après l'objectif).<p><p>Le mouvement cardiaque provoque également une perte de netteté des images, analogue à l'effet de flou sur une photographie d'une voiture de course réalisée avec un grand temps de pose. Classiquement, on peut augmenter la netteté d'une image en diminuant le temps de pose. Cependant, dans ce cas, moins de photons traversent l'objectif et l'image obtenue est plus bruitée.<p><p>On pourrait alors imaginer obtenir de meilleurs images en suivant la voiture au moyen de l'appareil photo. <p><p>De cette manière, la voiture serait à la fois nette et peu corrompue par du bruit, car beaucoup de photons pourraient être détectés.<p><p>En imagerie TEP, l'effet de volume partiel est dû à de nombreux facteurs dont le fait que le positron ne s'annihile pas exactement à l'endroit de son émission et que le détecteur frappé par un photon n'est pas toujours correctement identifié. La solution passe par une meilleure modélisation de la physique de l'acquisition au cours de la reconstruction, qui, en pratique est complexe et nécessite d'effectuer des approximations.<p><p>La perte de netteté due au mouvement du coeur est classiquement traitée en figeant le mouvement dans plusieurs images successives au cours d'un battement cardiaque. Cependant, une telle solution résulte en une diminution du nombre de photons, et donc en une augmentation du bruit dans les images. Tenir compte du mouvement de l'objet pendant la reconstruction TEP permettrait d'augmenter la netteté en gardant un bruit acceptable. On peut également penser à superposer différentes images recalées au moyen du mouvement.<p><p>Au cours de ce travail, nous avons étudié des méthodes qui tirent le meilleur parti possible des informations fournies par les événements détectés. Pour ce faire, nous avons choisi de baser nos reconstructions sur une liste d'événements contenant la position exacte des détecteurs et le temps exact d'arrivée des photons, au lieu de l'histogramme classiquement utilisé.<p><p>L'amélioration de résolution passe par la connaissance de l'image d'une source ponctuelle radioactive produite par la caméra.<p><p>À la suite d'autres travaux, nous avons mesuré cette image et nous l'avons modélisée, pour la première fois, au moyen d'une fonction spatialement variable, non-gaussienne et asymétrique. Nous avons ensuite intégré cette fonction dans un algorithme de reconstruction, dans l'espace image. C'est la seule possibilité pratique dans le cas d'acquisitions en mode liste. Nous avons ensuite comparé les résultats obtenus avec un traitement de l'image après la reconstruction.<p><p>Dans le cadre de la correction de mouvement cardiaque, nous avons opté pour l'étude de la reconstruction simultanée de l'image et du déplacement, sans autres informations externes que les données TEP et le signal d'un électrocardiogramme. Nous avons ensuite choisi d'étudier la qualité de ces estimateurs conjoints intensité-déplacement au moyen de leur variance. Nous avons étudié la variance minimale que peut atteindre un estimateur conjoint intensité-mouvement, sur base des données TEP uniquement, au moyen d'un outil appelé borne de Cramer-Rao. Dans ce cadre, nous avons étudié différentes manières existantes d'estimer la borne de Cramer-Rao et nous avons proposé une nouvelle méthode d'estimation de la borne de Cramer-Rao adaptée à des images de grande dimension. Nous avons enfin mis en évidence que la variance de l'algorithme classique OSEM était supérieure à celle prédite par la borne de Cramer-Rao. En ce qui concerne les estimateurs combinés intensité-déplacement, nous avons observé la diminution de la variance minimale possible sur les intensités lorsque le déplacement était paramétrisé sur des fonctions spatiales lisses.<p><p>Ce travail est organisé comme suit. Le chapitre théorique commence par brosser brièvement le contexte historique de la tomographie par émission de positrons. Nous avons souhaité insister sur le fait que l'évolution des idées n'est romantique et linéaire qu'à grande échelle. Nous abordons ensuite la description physique de l'acquisition TEP. Dans un deuxième chapitre, nous rappelons quelques éléments de la théorie de l'estimation et de l'approximation et nous traitons des problèmes inverses en général et de la reconstruction TEP en particulier.<p><p>La seconde partie aborde le problème du manque de netteté des images et la solution que nous avons choisi d'y apporter :une modélisation dans l'espace image de la réponse impulsionnelle de la caméra, en tenant compte de ses caractéristiques non gaussienne, asymétrique et spatialement variable. Nous présentons également le résultat de la comparaison avec une déconvolution post-reconstruction. Les résultats présentés dans ce chapitre ont fait l'objet d'une publication dans la revue Physics in Medicine and Biology.<p><p>Dans un troisième volet, nous abordons la correction de mouvement. Une premier chapitre brosse le contexte de la correction de mouvement en TEP et remet en perspective les différentes méthodes existantes, dans un cadre bayésien unificateur.<p><p>Un second chapitre aborde ensuite l'estimation de la qualité des images TEP et étudie en particulier la borne de Cramer-Rao.<p><p>Les résultats obtenus sont enfin résumés et replacés dans leur contexte dans une conclusion générale.<p> / Doctorat en Sciences de l'ingénieur / info:eu-repo/semantics/nonPublished
455

Sequential acoustic inversion for the characterization of shallow sea environments / Inversion acoustique séquentielle pour la caractérisation des environnements marins peu profonds

Carrière, Olivier 01 March 2011 (has links)
In marine environments, acoustic wave propagation is determined by sound-speed variations in the water column (related to salinity, temperature and pressure) ,and seafloor properties in shallow environments. The refraction index variations and the boundary conditions guide the wave propagation so that an important amount of acoustic energy can propagate over long distances. Measurements of acoustic transmissions coupled with propagation models can be inverted to infer the water column properties (tomography) and the seafloor and subseafloor properties (geoacoustics).<p><p>In this thesis a new method for shallow water inversion based on the sequential assimilation of acoustic measurements in Kalman filters is developed. Filtering algorithms for nonlinear systems, as the ensemble Kalman filter (EnKF), enable the integration of complex acoustic propagation models in the measurement model. The inverse problem is here reformulated into a state-space model to track sequentially the parameters (temperature, receiver positions, etc.) and their uncertainty by filtering regularly new acoustic data.<p><p>Different applications are proposed to demonstrate the sequential acoustic filtering approach. First, the problem of characterizing horizontal inhomogeneities in the sound-speed field between an acoustic source and a vertical array of receivers is addressed. Starting from a range-averaged sound-speed profile, the filtering of complex multifrequency data enables the estimate and tracking of the range-dependence of the sound-speed field.<p>The second application deals with the geoacoustic inversion problem based on a mobile source-receiver setup. The filtering approach is shown to provide more stable results than conventional inversion methods with a reduced computational burden. The last application is dedicated to the tracking of specific oceanic structures affecting the sound-speed field, here thermal fronts. An original parameterization scheme which is specific to the tracked feature is developed and enables to monitor the principal characteristics of the sound-speed field by filtering multifrequency acoustic data.<p><p>This work shows that the sequential filtering approach of transmitted acoustic data can lead to environmental estimates on spatial and temporal scale of interest for regional or coastal oceanographic models and can supplement the dataset assimilated nowadays for forecasting purposes./Dans les environnements marins, la propagation des ondes acoustiques est directement conditionnée par les variations de vitesse de propagation dans l'eau (liée à la température, la salinité et la pression hydrostatique), ainsi que les propriétés du fond, lorsque le milieu est peu profond. La propagation de ces ondes, typiquement guidée par les variations d'indice de réfraction et les conditions aux limites, permet de transmettre une quantité d'énergie acoustique importante sur de longues distances. Associées à des modèles de propagation, des mesures de transmission acoustique peuvent être inversées afin de déterminer les propriétés de l'environnement sondé, que ce soit de la colonne d'eau (tomographie) ou du fond marin (géoacoustique).<p><p>Dans cette thèse, une nouvelle méthode d'inversion en milieu peu profond, basée sur l'assimilation séquentielle de mesures acoustiques dans des filtres de Kalman, est développée. Les algorithmes de filtrage développés pour les systèmes non linéaires, tel que l'ensemble Kalman filter (EnKF), permettent d'intégrer des modèles de propagation acoustique complexes au sein du modèle de mesure. Le problème inverse est reformulé de façon séquentielle, en un modèle d'espace d'états, de sorte que l'évolution des paramètres (température, positions des récepteurs, etc.) et de leur incertitude est suivie au fur et à mesure de l'assimilation de nouvelles mesures.<p><p>Différentes applications sont proposées pour démontrer les performances du filtrage séquentiel. Le premier problème abordé est celui de l'inversion et du suivi des inhomogénéités horizontales du champ de vitesse entre une source acoustique et une antenne verticale de récepteurs. A partir d'un profil de vitesse moyen sur la distance source-récepteurs, le filtrage de mesures complexes multi-fréquences permet d'estimer la dépendance horizontale du champ de vitesse et son évolution au cours du temps. La nature séquentielle de l'algorithme de filtrage motive la seconde application, dédiée à l'estimation des paramètres géoacoustiques d'un environnement à partir d'une configuration source-récepteur mobile. Les résultats démontrent que l'approche par filtrage permet d'obtenir des estimations géoacoustiques plus stables que celles obtenues par les méthodes d'inversion conventionnelles avec un coût de calcul réduit. La troisième et dernière application est dédiée au suivi de structures océaniques marquées, tels que les fronts thermiques. Une paramétrisation originale spécifique à la structure inversée est proposée et permet d'estimer et de suivre les caractéristiques principales du champ de température par filtrage de données acoustiques multi-fréquences.<p><p>Ce travail montre que l'approche séquentielle de l'inversion des données acoustiques peut mener à des estimations environnementales sur des échelles spatiales et temporelles d'intérêt pour les modèles océanographiques côtiers et régionaux, de façon à compléter les données assimilées quotidiennement pour les prédictions. / Doctorat en Sciences / info:eu-repo/semantics/nonPublished
456

Développements méthodologiques en géophysique haute résolution pour la caractérisation hydro-mécanique de glissements de terrain argileux / Methodological developments in high-resolution geophysics for the hydro-mechanical characterization of clayey landslides

Gance, Julien 26 June 2014 (has links)
Ce projet de recherche répond à l'objectif d'améliorer notre connaissance des processus élémentaires contrôlant le comportement hydrologique post-rupture des glissements de terrain argileux, afin de pouvoir comprendre, reproduire et éventuellement prévoir leur comportement par des modèles hydromécaniques adaptés. Ce travail consiste à améliorer et développer des méthodes de traitement et d'interprétation de paramètres géophysiques en milieu argileux et hétérogène. Les objectifs principaux de ce travail sont : 1. D'améliorer des méthodes géophysiques et géodésiques de mesure de la déformation et de la géométrie interne des glissements. 2. De caractériser les relations possibles entre géométrie et structure interne du glissement. 3. De développer et améliorer des méthodes de détection et d'imagerie des circulations préférentielles de fluide dans un milieu fissuré et déformable. 4. De caractériser temporellement et spatialement les réponses hydrologiques du versant. Un algorithme d'inversion haute-résolution des temps de premières arrivées est développé. Il utilise les volumes de Fresnel pour rétropropager les résidus ainsi que l'hypothèse d'un signal source de bande-passante finie et permet de retrouver une image haute-résolution de la structure du glissement. L'atténuation sismique des ondes-P est également inversée pour retrouver la distribution des zones fissurées en surface. Des méthodes photogrammétriques sont utilisées pour caractériser et quantifier les déformations de surface. Une méthode alternative à la corrélation d'image est développée, fondée sur la détection et le suivi de cibles. Le lien entre les variations de régime de déformation le long du profil, et l'existence de fissures en surface est finalement discuté. Les informations précédentes sont ensuite intégrées dans un modèle géométrique par une méthode de fusion de données. Par la modélisation numérique, nous vérifions si l'état de contrainte calculé peut être en rapport avec la distribution de la fissuration en surface. Une méthode de correction de l'effet géométrique des fissures sur les résistivités apparentes est développée. Différents types d'artefacts d'inversion liés à la présence de fissure sont identifiés et la capacité de la méthode proposée à réduire ces artefacts est testée. Une méthodologie de sélection et de traitement des données ERT time-lapse acquises sur une période d'un an est développée. La réponse électrique courte (de quelques heures à quelques jours) aux évènements pluvieux naturels est ensuite analysée pour proposer des modèles conceptuels de réponse hydrologique à ces évènements pluvieux. / The objective of this research project is the improvement of our knowledge of the elementary processes controlling the post-rupture hydrological behavior of clayey landslides. It should allow understanding, reproducing and possibly forecasting their behaviors by the use of adapted hydro-mechanical models. This work consists in the improvement and the development of geophysical parameters processing and interpretation methodologies in clayey and heterogeneous medium. The main objectives of this work are : 1. The improvement of geophysical and geodesic methods to measure the internal geometry and structure of the landslide. 2. The characterization of possible relationships between landslide internal geometry and structure, presence of discontinuities, slope hydrology and deformations. 3. The development and improvement of methodology for the detection and imaging of preferential flows in a fissured and deformable medium. 4. The spatial and temporal characterization of the hydrological response of the slope. A high resolution inversion algorithm of the first seismic arrivals is developed. It uses the Fresnel volumes for the retropropagation of the residuals and the assumptions of a finite-bandwidth source signal. It permits to recover a high resolution image of the internal structure of the landslide. The seismic P-wave attenuation is also inverted to characterize surface fissured zones. Photogrammetric methods are used to characterize and quantify the surface deformations. A method alternative to image correlation is developed, based on the target detection and tracking. The link between changes in deformation regime along the profile and the existence of surface fissures is finally discussed. The previous data are integrated inside a geometric model trough data fusion. Using numerical modeling, we verify if the state of stress computed is related to the surface fissure density distribution. A methodology of correction of the geometrical effect of fissures on apparent resistivity is developed. Different types of inversion artefacts, linked to the presence of surface fissures, are identified. The ability of the proposed method to limit this artifact is tested. A methodology of selection and processing of the time-lapse ERT data is developed. The short electrical response (from several hours to several days) to natural rainfall events is analyzed and conceptual hydrological responses to these rainfall events are proposed.
457

Évaluation de ligands pour l’imagerie moléculaire de la néoangiogenèse tumorale / Evaluation of tracers for molecular imaging of tumor neoangiogenesis

Debordeaux, Frédéric 15 December 2015 (has links)
La néoangiogenèse tumorale est un élément pronostique de l’évolution de nombreux cancers. L’intégrine alphaVbeta3 ainsi que la métalloprotéase matricielle 9 (MMP-9), sont des marqueurs de ce processus. Leur ciblage offre la perspective d’une information diagnostique pour la détection précoce, l’évaluation de l’agressivité de pathologies et la sélection de patients répondeurs aux nouvelles thérapies anti-angiogéniques. Dans ce contexte, notre travail s’attèle à mettre au point les techniques nécessaires à la caractérisation de radiotraceurs. Des modèles de tumeurs richement néovascularisées ont été sélectionnés : le mélanome malin et le gliome malin. Nous nous sommes dans un premier temps intéressés à la détection de l’intégrine alphaVbeta3. Un traceur technétié, le 99mTc-DTPA-bis-c(RGDfK) a servi de support à la validation de nos techniques d’analyse. Cette méthodologie d’évaluation a ensuite été adaptée à des projets collaboratifs. L’étude du 18F-ribofuranose-RGD est réalisée avec le Centre de Recherche en Cancérologie de Toulouse (INSERM UMR 1037) et l’Institut des Sciences Moléculaires (CNRS UMR 5255). Un radioligand de la MMP-9, l’111In- DOTA-F3B, fait l’objet d’un partenariat avec l’ARNA (ARN : Régulations Naturelle et Artificielle, INSERM UMR 869) et l’Institut Lumière Matière (CNRS UMR 5306). Le composé technétié a démontré une bonne affinité et spécificité pour alphaVbeta3. In vivo, chez l’animal, les radioligands technétiés et fluorés ont permis l’identification de tumeurs alphaVbeta3 positives. L’111In-DOTA-F3B a, quant à lui, permis la visualisation de tumeurs chez l’animal et sur coupes tissulaires. Ces traceurs constituent une piste intéressante pour l’imagerie de la néoangiogenèse tumorale. / Tumor neoangiogenesis is a predictive element of the evolution of numerous cancers. AlphaVbeta3 integrin and matrix metalloprotease 9 (MMP-9) are markers of tumor neoangiogenesis. Their targeting appears of great interest either for early detection, aggressiveness staging of the disease or for selection of responders to new-targeted therapies. In this context, our objective is to develop methodologies needed for radiotracers characterization. Tracers have been investigated in different tumor models for which vascularization is very important: melanoma and glioma. First of all 99mTc-DTPA-bis-c(RGDfK) has been assessed in our laboratory and helped us to develop analytical methods. These methodologies were used in different partnership, the evaluation of 18F-ribofuranose-RGD targeting alphaVbeta3 with INSERM UMR 1037 and CNRS UMR 5255, and 111In-DOTA-F3B for molecular imaging of MMP-9 with INSERM UMR 869 and CNRS UMR 5306.The technetium peptide has demonstrated good affinity and specificity for alphaVbeta3. In vivo analysis in mice showed that both tracers were able to identify some alphaVbeta3-positive tumors. 111In-DOTA-F3B allowed us to detect hMMP-9 positive tumors in mice and in tumor tissue sections. In conclusion, these tracers still require to be investigated but represent promising tracers for tumor neoangiogenesis.
458

Débruitage, déconvolution et extraction de caractéristiques de signaux dans le domaine temporel pour imagerie biomédicale optique

Bodi, Geoffroy January 2010 (has links)
Un scanner permettant l'imagerie moléculaire est d'un grand intérêt pour l'industrie pharmaceutique dans le développement de nouveaux médicaments, notamment pour visualiser leur efficacité m-vivo (par exemple pour le cancer). Le groupe de recherche TomOptUS développe un scanner par tomographie optique diffuse par fluorescence pour imagerie moléculaire sur petit animal. Le but est de localiser en 3D les centres de fluorescence d'un traceur injecté dans l'animal. À cette fin, nous utilisons des mesures de signaux optiques de fluorescence obtenues par comptage de photons corrélé en temps (mesures dans le domaine temporel). On sait que les mesures contiennent de l'information sur les caractéristiques optiques du milieu, mais à ce jour, cette information n'est pas exploitée à son plein potentiel. Extraire cette information est essentiel en reconstruction tomographique. Le système d'instrumentation, comme tout système de mesure, celle-ci influe sur le signal optique à mesurer. Mathématiquement, les mesures optiques dans un milieu peuvent être décrites comme la convolution entre le signal d'intérêt et la fonction de réponse (ou fonction de transfert) du système de mesures optiques (IRF - instrument response function), le tout perturbé par du bruit. Les causes du bruit proviennent du système de détection, des conditions d'utilisation du système et des facteurs extérieurs. Il est indispensable d'éliminer les différents effets perturbateurs pour permettre l'extraction de caractéristiques de ces signaux. Ces caractéristiques dépendent des paramètres optiques du milieu diffusant. On distingue deux propriétés physiques, le coefficient d'absorption µ[indice inférieur a] et le coefficient de diffusion réduit µ'[indice inférieur s]. Un premier objectif du projet est de débruiter les mesures. À cette fin, un algorithme de débruitage par les ondelettes a été développé. Un second objectif est de concevoir un algorithme de déconvolution pour éliminer l'influence de l'IRF. La déconvolution est le raisonnement inverse de la convolution. Une solution est l'utilisation du filtre optimal de Wiener. Une fois cela réalisé, un troisième objectif consistait à implémenter un algorithme de régression non linéaire pour extraire les caractérisitiques optiques du milieu des courbes temporelles afin de caractériser le milieu. Pour cela, un modèle analytique de propagation de la lumière, le modèle développé par Patterson, Chance et Wilson, est comparé à nos mesures traitées. Par minimisation de l'erreur quadratique moyenne, il est ainsi possible de déterminer la valeur des paramètres optiques recherchés. Pour qualifier au mieux la méthode de déconvolution, la convolution itérative (IC- Itérative Convolution) ou reconvolution a également été implémentée. Actuellement, la reconvolution est la méthode la plus couramment utilisée en imagerie optique pour caractériser un milieu. Elle consiste à convoluer le modèle avec l'IRF du système pour obtenir un modèle représentatif des mesures optiques du système d'instrumentation. Enfin, un quatrième objectif consiste à étudier, à l'aide du même modèle, des changements du comportement du signal, lorsqu'on fait varier les paramètres µ[indice inférieur a], µ'[indice inférieur s]. Ceci permettra d'acquérir de nouvelles connaissances sur les vitesses de propagation dans le milieu et sur les temps d'arrivée des premiers photons.
459

Conception d'un capteur de température, d'un récepteur LVSD et d'un générateur de charge en technologie CMOS 0,18 um pour un scanner TEP/TDM

Ben Attouch, Mohamed Walid January 2011 (has links)
La recherche en imagerie moléculaire repose beaucoup sur les performances en tomographie d'émission par positrons (TEP). Les avancées technologiques en électronique ont permis d'améliorer la qualité de l'image fournie par les scanners TEP et d'en augmenter le champ d'application. Le scanner LabPET II, en développement à l'Université de Sherbrooke, permettra d'atteindre des résolutions spatiales inégalées.La conception de ce scanner requiert une très grande densité de détecteurs de l'ordre de 39 000 sur un anneau de 15 cm de diamètre par 12 cm de longueur axiale. D'autre part, l'Université de Sherbrooke mène également des travaux en tomodensitométrie (TDM) par comptage de photons individuels. Ces travaux s'insèrent dans un programme de recherche menant à réduire par un facteur 1,5 à 10 la dose de rayon X par rapport aux doses actuelles en TDM. Un circuit intégré (ASIC) a été développé pour supporter les performances attendues en TEP et en TDM. Cependant, la très grande densité de canaux rend inadéquate la vérification externe, sur circuits imprimés (PCB), des fonctionnalités des 64 canaux d'acquisition du circuit intégré actuellement en conception. Ainsi, un générateur de charge électronique a été conçu et intégré dans l'ASIC afin de pouvoir vérifier directement sur le circuit intégré ( On-Chip ) le fonctionnement de la chaine d'acquisition. Il permettra aussi de faire les tests pour le calcul de la résolution d'énergie et de la résolution en temps intrinsèque. La communication des données avec l'ASIC se fait par une ligne différentielle afin de maximiser l'immunité des signaux contre le bruit et d'assurer la vitesse de communication voulue.La norme Low-Voltage Differential Signaling (LVDS) a été choisie pour ce type de communication. En effet, trois récepteurs LVDS, basse consommation, ont été conçus et intégrés dans l'ASIC afin de recevoir les commandes de fonctionnement de l'ASIC à partir d'une matrice de portes programmables Field-Programmable Gate Array (FPGA) et de communiquer le signal d'horloge aux différents blocs. Pour augmenter la fiabilité du traitement effectué par l'électronique frontale, une mesure en température de l'ASIC est nécessaire. Un capteur de température basé sur la boucle à délais Delay-Locked Loop (DLL) a été conçu et intégré. En effet, la mesure de la température de l'ASIC permet d'intervenir en réalisant une compensation sur les mesures et en contrôlant le système de refroidissement en cas de sur-échauffement.
460

Ajout de degrés de liberté à un appareil d'imagerie optique pour acquisition de données destinées à la reconstruction 3D par tomographie optique diffuse

Letendre-Jauniaux, Mathieu January 2013 (has links)
La tomographie optique diffuse (TOD) et la tomographie optique diffuse par fluorescence (TODF) sont de nouvelles techniques d'imagerie médicale fort prometteuses. L'utilisation de lumière dans le proche infrarouge(PIR) permet une acquisition in vivo fréquente et même en continue sans danger pour l'opérateur ou pour le sujet. Ces méthodes sont présentement le sujet de plusieurs recherches notamment par le groupe TomOptUS. Un appareil d'imagerie optique sur petit animal, le Quidd Optical imaging System (QOS) est disponible au Centre Hospitalier Universitaire de Sherbrooke (CHUS). Muni d'une caméra refroidie à haute sensibilité et d'actionneurs contrôlés par ordinateur, il donne une grande flexibilité dans la géométrie d'acquisition en permettant notamment une rotation de la caméra sur une plage de ±60 degrés. L'appareil ne permet toutefois que l'acquisition de données en rétro-diffusion (ou épi-illumination), c'est à dire que la détection sur l'animal se fait du même côté que l'illumination. En TODF, un enjeu majeur est de pouvoir imager en profondeur dans les tissus. Pour ce faire, il devient important d'avoir accès à des mesures en transillumination. Le présent mémoire traite de l'ajout de degrés de libertés au QOS affin de permettre l'imagerie en transillumination tout en conservant la capacité d'épi-illumination. La configuration développée permet de déplacer l'excitation lumineuse indépendamment de l'acquisition et ce linéairement ainsi qu'angulairement autour du sujet. L'implantation nécessitant trois degrés de libertés (DDL) supplémentaires, l'utilisation de composantes standard a été préférée. Étant donné les contraintes identifiées, un actionneur rotatif ainsi que son contrôleur à base de micro-contrôleur ont été développés. Le présent document détaille les choix de conception ainsi que l'architecture du contrôleur. Avec la réalisation de ce projet, les utilisateurs du QOS disposent dorénavant d'un appareil flexible permettant l'acquisition de données tomographiques qui aideront à imager en profondeur dans le sujet. Quoique ceci ne fasse pas partie du cadre de cette maîtrise, le but ultime de l'acquisition de ces données est la reconstruction en trois dimensions de l'intérieur de l'animal imagé.

Page generated in 0.0527 seconds