Spelling suggestions: "subject:"homographie"" "subject:"d'homographie""
451 |
Matériaux architecturés pour refroidissement par transpiration : application aux chambres de combustion / Architectured materials for transpiration cooling : application to combustion chambersPinson, Sébastien 09 December 2016 (has links)
Dans l’optique de refroidir les parois des chambres de combustion aéronautiques le plus efficacement possible, un intérêt particulier est aujourd’hui porté à la technologie de refroidissement par transpiration. L’air de refroidissement s’écoule au travers d’une paroi poreuse dans laquelle une grande quantité de chaleur est échangée par convection. L’éjection de l’air profite ensuite de la distribution des pores pour former une couche limite protectrice relativement homogène.Les matériaux métalliques obtenus à partir de poudres partiellement frittées sont de bons candidats pour former ces parois poreuses. Ce travail se focalise sur les échanges internes et consiste à développer une méthodologie permettant de dégager les architectures partiellement frittées les plus adaptées à ce type d’application.L’écoulement et les échanges de chaleur lors du refroidissement par transpiration sont régis par quelques propriétés effectives des matériaux qui sont fonction de l’architecture : la conductivité thermique effective, le coefficient de transfert convectif volumique et les propriétés de perméabilité. A l’aide de travaux expérimentaux ou d’études numériques sur des échantillons numérisés par tomographie aux rayons X, des relations simples entre les propriétés effectives des matériaux partiellement frittés et leurs paramètres architecturaux sont tout d’abord développées. La porosité, la surface spécifique et le type de poudre utilisé sont retenus pour prédire les paramètres effectifs.Ces relations sont finalement intégrées dans un modèle de transfert de chaleur prédisant la performance d’une solution dans les conditions de fonctionnement du moteur. Une optimisation "multi-objectifs" et une analyse des designs optimaux permettent alors de mettre en valeur quelques architectures montrant un fort potentiel pour des applications de refroidissement par transpiration. Des matériaux peu poreux formés à partir de larges poudres irrégulières semblent assurer le meilleur compromis entre tous les critères pris en compte. / In order to cool aero-engine combustion chambers as efficiently as possible, there is today a special interest given to transpiration cooling technology. The cooling air flows through a porous liner in which a large amount of heat can be exchanged by convection. The air injection could then take benefit of the pore distribution to form a more homogeneous protective boundary layer.Partially sintered metallic materials are potential candidates to form these porous liners. The present work focuses on internal heat transfers. It aims to develop a methodology capable of highlighting the most adapted partially sintered architectures to this kind of application.During transpiration cooling, flows and heat transfers are governed by some effective material properties which depends on the porous architecture: the effective solid phase thermal conductivity, the volumetric heat transfer coefficient and the permeability properties. Thanks to experimental works and numerical studies on samples digitized by X-ray tomography, simple relationships are first developed between the effective material properties of partially sintered materials and their architectural parameters. The porosity, the specific surface area and the powder type are selected to predict the effective properties.These relationships are finally integrated into a heat transfer model predicting the thermal performance of a design at working engine conditions. A multi-objective optimization and an analysis of the optimal designs highlight some architectures as being potentially interesting for transpiration cooling. Materials with a low porosity and made of large irregular powders seem to ensure the best trade-off among the different criteria taken into consideration.
|
452 |
Imagerie multi-résolution par tomographie aux rayons X : application à la tomographie locale en science des matériaux / Imagering multi-resolution by the X-ray tomography : application to the local tomography in materials scienceZhang, Tao 22 May 2012 (has links)
L'objectif de cette thèse étudie puis d’implémenter une méthode de reconstruction sur la tomographie aux rayons X qui permette de scanner des gros échantillons avec une bonne résolution qui permettrait de scanner l’intérieur d’un cylindre(tomographie locale) et caractériser des matériaux réels. Notre méthode peut être réalisé pour améliorer la quantitative et la qualitative d'image de fantôme. Dans cette thèse, cet méthode est utilisé sue les matériaux cellulaires. Nous avons réalisé des essais in situ en tomographie aux rayons X sur le mousse ERG et les sphères creuses. Un comparaison entre les résultats d’Élément Finis et des essais réels montre le mécanisme d'endommagement de ces matériaux. / The objective of this thesis studies to implement a method of reconstruction of the X-ray tomography that scanner a large samples with good resolution that would scan inside a cylinder (local tomography) and characterize reals materials. Our method can be done to improve the quantitative and qualitative picture of a ghost. In this thesis, this method is used sue the cellular materials. We conducted tests in situ X-ray tomography on the ERG foam and hollow spheres. A comparison between the results of Finite Element and live testing shows the damage mechanism of these materials.
|
453 |
Model-based and machine learning techniques for nonlinear image reconstruction in diffuse optical tomography / Techniques basées sur des modèles et apprentissage machine pour la reconstruction d’image non-linéaire en tomographie optique diffuseEttehadi, Seyedrohollah January 2017 (has links)
La tomographie optique diffuse (TOD) est une modalité d’imagerie biomédicale 3D peu
dispendieuse et non-invasive qui permet de reconstruire les propriétés optiques d’un tissu
biologique. Le processus de reconstruction d’images en TOD est difficile à réaliser puisqu’il
nécessite de résoudre un problème non-linéaire et mal posé. Les propriétés optiques sont
calculées à partir des mesures de surface du milieu à l’étude. Dans ce projet, deux méthodes
de reconstruction non-linéaire pour la TOD ont été développées. La première méthode
utilise un modèle itératif, une approche encore en développement qu’on retrouve dans la
littérature. L’approximation de la diffusion est le modèle utilisé pour résoudre le problème
direct. Par ailleurs, la reconstruction d’image à été réalisée dans différents régimes, continu
et temporel, avec des mesures intrinsèques et de fluorescence. Dans un premier temps, un
algorithme de reconstruction en régime continu et utilisant des mesures multispectrales
est développé pour reconstruire la concentration des chromophores qui se trouve dans
différents types de tissus. Dans un second temps, un algorithme de reconstruction est
développé pour calculer le temps de vie de différents marqueurs fluorescents à partir de
mesures optiques dans le domaine temporel. Une approche innovatrice a été d’utiliser
la totalité de l’information du signal temporel dans le but d’améliorer la reconstruction
d’image. Par ailleurs, cet algorithme permettrait de distinguer plus de trois temps de vie,
ce qui n’a pas encore été démontré en imagerie de fluorescence. La deuxième méthode
qui a été développée utilise l’apprentissage machine et plus spécifiquement l’apprentissage
profond. Un modèle d’apprentissage profond génératif est mis en place pour reconstruire la
distribution de sources d’émissions de fluorescence à partir de mesures en régime continu.
Il s’agit de la première utilisation d’un algorithme d’apprentissage profond appliqué à la
reconstruction d’images en TOD de fluorescence. La validation de la méthode est réalisée
avec une mire aux propriétés optiques connues dans laquelle sont inséres des marqueurs
fluorescents. La robustesse de cette méthode est démontrée même dans les situations où
le nombre de mesures est limité et en présence de bruit. / Abstract : Diffuse optical tomography (DOT) is a low cost and noninvasive 3D biomedical imaging
technique to reconstruct the optical properties of biological tissues. Image reconstruction
in DOT is inherently a difficult problem, because the inversion process is nonlinear and
ill-posed. During DOT image reconstruction, the optical properties of the medium are
recovered from the boundary measurements at the surface of the medium. In this work,
two approaches are proposed for non-linear DOT image reconstruction. The first approach
relies on the use of iterative model-based image reconstruction, which is still under development
for DOT and that can be found in the literature. A 3D forward model is developed
based on the diffusion equation, which is an approximation of the radiative transfer equation.
The forward model developed can simulate light propagation in complex geometries.
Additionally, the forward model is developed to deal with different types of optical data
such as continuous-wave (CW) and time-domain (TD) data for both intrinsic and fluorescence
signals. First, a multispectral image reconstruction algorithm is developed to
reconstruct the concentration of different tissue chromophores simultaneously from a set
of CW measurements at different wavelengths. A second image reconstruction algorithm
is developed to reconstruct the fluorescence lifetime (FLT) of different fluorescent markers
from time-domain fluorescence measurements. In this algorithm, all the information contained
in full temporal curves is used along with an acceleration technique to render the
algorithm of practical use. Moreover, the proposed algorithm has the potential of being
able to distinguish more than 3 FLTs, which is a first in fluorescence imaging. The second
approach is based on machine learning techniques, in particular deep learning models. A
deep generative model is proposed to reconstruct the fluorescence distribution map from
CW fluorescence measurements. It is the first time that such a model is applied for fluorescence
DOT image reconstruction. The performance of the proposed algorithm is validated
with an optical phantom and a fluorescent marker. The proposed algorithm recovers the
fluorescence distribution even from very noisy and sparse measurements, which is a big
limitation in fluorescence DOT imaging.
|
454 |
Optical diffraction tomography microscopy : towards 3D isotropic super-resolution / Microscopie optique tomographie de diffraction : vers une super-résolution isotrope en 3DGodavarthi, Charankumar 20 September 2016 (has links)
Cette thèse vise à améliorer la résolution en trois dimensions grâce à une technique récente d’imagerie : la microscopie tomographique diffractive (MTD). Son principe est d’éclairer l’objet successivement sous différents angles en lumière cohérente, de détecter le champ diffracté en phase et en amplitude, et de reconstruire la carte 3D de permittivité de l’objet par un algorithme d’inversion. La MTD s’est avérée capable de combiner plusieurs modalités utiles pour la microscopie sans marquage, telles que plein champ, champ sombre, à contraste de phase, confocale, ou encore la microscopie à synthèse d’ouverture 2D ou 3D. Toutes sont basées sur des approximations scalaires et linéaires, ce qui restreint leur domaine d’application pour restituer l’objet de manière quantitative. A l’aide d’une inversion numérique rigoureuse prenant en compte la polarisation du champ et le phénomène de diffusion multiple, nous sommes parvenus à reconstruire la carte 3D de permittivité d’objets avec une résolution de λ/4. Une amélioration supplémentaire la portant à λ/10 a été rendue possible par l’insertion d’information a priori sur l’objet dans l’algorithme d’inversion. Enfin, la résolution axiale est moins bonne du fait de l’asymétrie des schémas d’illumination et de détection dans les microscopes. Pour s’affranchir de cette limitation, une configuration de tomographie assistée par miroir a été implémentée et a mis en évidence un pouvoir de séparation axial meilleur que λ/2. Au final, la MTD s’est illustrée comme un outil de caractérisation puissant pour reconstruire en 3D les objets ainsi que leurs indices optiques, à des résolutions bien supérieures à celles des microscopes conventionnels. / This PhD thesis is devoted to the three-dimensional isotropic resolution improvement using optical tomographic diffraction microscopy (TDM), an emerging optical microscope technique. The principle is to illuminate the sample successively with various angles of coherent light, collect the complex (amplitude and phase) diffracted field and reconstruct the sample 3D permittivity map through an inversion algorithm. A single TDM measurement was shown to combine several popular microscopy techniques such as bright-field microscope, dark-field microscope, phase-contrast microscope, confocal microscope, 2D and 3D synthetic aperture microscopes. All rely on scalar and linear approximations that assume a linear link between the object and the field diffracted by it, which limit their applicability to retrieve the object quantitatively. Thanks to a rigorous numerical inversion of the TDM diffracted field data which takes into account the polarization of the field and the multiple scattering process, we were able to reconstruct the 3D permittivity map of the object with a λ/4 transverse resolution. A further improvement to λ/10 transverse resolution was achieved by providing a priori information about the sample to the non-linear inversion algorithm. Lastly, the poor axial resolution in microscopes is due to the fundamental asymmetry of illumination and detection. To overcome this, a mirror-assisted tomography configuration was implemented, and has demonstrated a sub-λ/2 axial resolution capability. As a result, TDM can be seen as a powerful tool to reconstruct objects in three-dimensions with their optical material properties at resolution far superior to conventional microscopes.
|
455 |
Optimiser l'utilisation des données en reconstruction TEP: modélisation de résolution dans l'espace image et contribution à l'évaluation de la correction de mouvementCloquet, Christophe 11 July 2011 (has links)
Cancers et maladies cardio-vasculaires sont responsables de plus de 40 % des décès dans le monde. De nombreuses personnes souffrent par ailleurs quotidiennement de ces maladies. En réduire la fréquence dans le futur passe avant tout par une adaptation de notre mode de vie et une prévention accrue, éclairées par une connaissance plus approfondie des mécanismes de ces maladies. Il est également crucial d'améliorer les diagnostics et les traitements actuels afin de mieux prendre en charge les malades d'aujourd'hui et de demain.<p><p>Lorsque le tableau clinique présenté par un patient n'est pas clair, de nombreuses techniques d'imagerie médicale permettent d'affiner le diagnostic, de préciser le pronostic et de suivre l'évolution des maladies au cours du temps. Ces mêmes techniques sont également utilisées en recherche fondamentale pour faire progresser la connaissance du fonctionnement normal et pathologique du corps humain. Il s'agit par exemple de l'échographie, de l'imagerie par résonance magnétique, de la tomodensitométrie à rayons X ou encore de la tomographie par émission de positrons (TEP).<p><p>Certaines de ces techniques mettent en évidence le métabolisme de molécules, comme le glucose et certains acides aminés. C'est le cas de la tomographie par émission de positrons, dans laquelle une petite quantité de molécules marquées avec un élément radioactif est injectée au patient. Ces molécules se concentrent de préférence dans les endroits du corps humain où elles sont utilisées. Instables, les noyaux radioactifs se désintègrent en émettant un anti-électron, encore appelé positron. Chaque positron s'annihile ensuite à proximité du lieu d'émission avec un électron du corps du patient, provoquant l'émission simultanée de deux photons de haute énergie dans deux directions opposées. Après avoir traversé les tissus, ces photons sont captés par un anneau de détecteurs entourant le patient. Sur base de l'ensemble des événements collectés, un algorithme de reconstruction produit enfin une image de la distribution du traceur radioactif.<p><p>La tomographie par émission de positrons permet notamment d'évaluer l'efficacité du traitement des tumeurs avant que la taille de celles-ci n'ait changé, ce qui permet d'aider à décider de poursuivre ou non le traitement en cours. En cardiologie, cette technique permet de quantifier la viabilité du muscle cardiaque après un infarctus et aide ainsi à évaluer la pertinence d'une intervention chirurgicale.<p><p>Plusieurs facteurs limitent la précision des images TEP. Parmi ceux-ci, on trouve l'effet de volume partiel et le mouvement du coeur.<p><p>L'effet de volume partiel mène à des images floues, de la même manière qu'un objectif d'appareil photo incorrectement mis au point produit des photographies floues. Deux possibilités s'offrent aux photographes pour éviter cela :soit améliorer la mise au point de leur objectif, soit retoucher les images après les avoir réalisées ;améliorer la mise au point de l'objectif peut s'effectuer dans l'espace des données (ajouter une lentille correctrice avant l'objectif) ou dans l'espace des images (ajouter une lentille correctrice après l'objectif).<p><p>Le mouvement cardiaque provoque également une perte de netteté des images, analogue à l'effet de flou sur une photographie d'une voiture de course réalisée avec un grand temps de pose. Classiquement, on peut augmenter la netteté d'une image en diminuant le temps de pose. Cependant, dans ce cas, moins de photons traversent l'objectif et l'image obtenue est plus bruitée.<p><p>On pourrait alors imaginer obtenir de meilleurs images en suivant la voiture au moyen de l'appareil photo. <p><p>De cette manière, la voiture serait à la fois nette et peu corrompue par du bruit, car beaucoup de photons pourraient être détectés.<p><p>En imagerie TEP, l'effet de volume partiel est dû à de nombreux facteurs dont le fait que le positron ne s'annihile pas exactement à l'endroit de son émission et que le détecteur frappé par un photon n'est pas toujours correctement identifié. La solution passe par une meilleure modélisation de la physique de l'acquisition au cours de la reconstruction, qui, en pratique est complexe et nécessite d'effectuer des approximations.<p><p>La perte de netteté due au mouvement du coeur est classiquement traitée en figeant le mouvement dans plusieurs images successives au cours d'un battement cardiaque. Cependant, une telle solution résulte en une diminution du nombre de photons, et donc en une augmentation du bruit dans les images. Tenir compte du mouvement de l'objet pendant la reconstruction TEP permettrait d'augmenter la netteté en gardant un bruit acceptable. On peut également penser à superposer différentes images recalées au moyen du mouvement.<p><p>Au cours de ce travail, nous avons étudié des méthodes qui tirent le meilleur parti possible des informations fournies par les événements détectés. Pour ce faire, nous avons choisi de baser nos reconstructions sur une liste d'événements contenant la position exacte des détecteurs et le temps exact d'arrivée des photons, au lieu de l'histogramme classiquement utilisé.<p><p>L'amélioration de résolution passe par la connaissance de l'image d'une source ponctuelle radioactive produite par la caméra.<p><p>À la suite d'autres travaux, nous avons mesuré cette image et nous l'avons modélisée, pour la première fois, au moyen d'une fonction spatialement variable, non-gaussienne et asymétrique. Nous avons ensuite intégré cette fonction dans un algorithme de reconstruction, dans l'espace image. C'est la seule possibilité pratique dans le cas d'acquisitions en mode liste. Nous avons ensuite comparé les résultats obtenus avec un traitement de l'image après la reconstruction.<p><p>Dans le cadre de la correction de mouvement cardiaque, nous avons opté pour l'étude de la reconstruction simultanée de l'image et du déplacement, sans autres informations externes que les données TEP et le signal d'un électrocardiogramme. Nous avons ensuite choisi d'étudier la qualité de ces estimateurs conjoints intensité-déplacement au moyen de leur variance. Nous avons étudié la variance minimale que peut atteindre un estimateur conjoint intensité-mouvement, sur base des données TEP uniquement, au moyen d'un outil appelé borne de Cramer-Rao. Dans ce cadre, nous avons étudié différentes manières existantes d'estimer la borne de Cramer-Rao et nous avons proposé une nouvelle méthode d'estimation de la borne de Cramer-Rao adaptée à des images de grande dimension. Nous avons enfin mis en évidence que la variance de l'algorithme classique OSEM était supérieure à celle prédite par la borne de Cramer-Rao. En ce qui concerne les estimateurs combinés intensité-déplacement, nous avons observé la diminution de la variance minimale possible sur les intensités lorsque le déplacement était paramétrisé sur des fonctions spatiales lisses.<p><p>Ce travail est organisé comme suit. Le chapitre théorique commence par brosser brièvement le contexte historique de la tomographie par émission de positrons. Nous avons souhaité insister sur le fait que l'évolution des idées n'est romantique et linéaire qu'à grande échelle. Nous abordons ensuite la description physique de l'acquisition TEP. Dans un deuxième chapitre, nous rappelons quelques éléments de la théorie de l'estimation et de l'approximation et nous traitons des problèmes inverses en général et de la reconstruction TEP en particulier.<p><p>La seconde partie aborde le problème du manque de netteté des images et la solution que nous avons choisi d'y apporter :une modélisation dans l'espace image de la réponse impulsionnelle de la caméra, en tenant compte de ses caractéristiques non gaussienne, asymétrique et spatialement variable. Nous présentons également le résultat de la comparaison avec une déconvolution post-reconstruction. Les résultats présentés dans ce chapitre ont fait l'objet d'une publication dans la revue Physics in Medicine and Biology.<p><p>Dans un troisième volet, nous abordons la correction de mouvement. Une premier chapitre brosse le contexte de la correction de mouvement en TEP et remet en perspective les différentes méthodes existantes, dans un cadre bayésien unificateur.<p><p>Un second chapitre aborde ensuite l'estimation de la qualité des images TEP et étudie en particulier la borne de Cramer-Rao.<p><p>Les résultats obtenus sont enfin résumés et replacés dans leur contexte dans une conclusion générale.<p> / Doctorat en Sciences de l'ingénieur / info:eu-repo/semantics/nonPublished
|
456 |
Sequential acoustic inversion for the characterization of shallow sea environments / Inversion acoustique séquentielle pour la caractérisation des environnements marins peu profondsCarrière, Olivier 01 March 2011 (has links)
In marine environments, acoustic wave propagation is determined by sound-speed variations in the water column (related to salinity, temperature and pressure) ,and seafloor properties in shallow environments. The refraction index variations and the boundary conditions guide the wave propagation so that an important amount of acoustic energy can propagate over long distances. Measurements of acoustic transmissions coupled with propagation models can be inverted to infer the water column properties (tomography) and the seafloor and subseafloor properties (geoacoustics).<p><p>In this thesis a new method for shallow water inversion based on the sequential assimilation of acoustic measurements in Kalman filters is developed. Filtering algorithms for nonlinear systems, as the ensemble Kalman filter (EnKF), enable the integration of complex acoustic propagation models in the measurement model. The inverse problem is here reformulated into a state-space model to track sequentially the parameters (temperature, receiver positions, etc.) and their uncertainty by filtering regularly new acoustic data.<p><p>Different applications are proposed to demonstrate the sequential acoustic filtering approach. First, the problem of characterizing horizontal inhomogeneities in the sound-speed field between an acoustic source and a vertical array of receivers is addressed. Starting from a range-averaged sound-speed profile, the filtering of complex multifrequency data enables the estimate and tracking of the range-dependence of the sound-speed field.<p>The second application deals with the geoacoustic inversion problem based on a mobile source-receiver setup. The filtering approach is shown to provide more stable results than conventional inversion methods with a reduced computational burden. The last application is dedicated to the tracking of specific oceanic structures affecting the sound-speed field, here thermal fronts. An original parameterization scheme which is specific to the tracked feature is developed and enables to monitor the principal characteristics of the sound-speed field by filtering multifrequency acoustic data.<p><p>This work shows that the sequential filtering approach of transmitted acoustic data can lead to environmental estimates on spatial and temporal scale of interest for regional or coastal oceanographic models and can supplement the dataset assimilated nowadays for forecasting purposes./Dans les environnements marins, la propagation des ondes acoustiques est directement conditionnée par les variations de vitesse de propagation dans l'eau (liée à la température, la salinité et la pression hydrostatique), ainsi que les propriétés du fond, lorsque le milieu est peu profond. La propagation de ces ondes, typiquement guidée par les variations d'indice de réfraction et les conditions aux limites, permet de transmettre une quantité d'énergie acoustique importante sur de longues distances. Associées à des modèles de propagation, des mesures de transmission acoustique peuvent être inversées afin de déterminer les propriétés de l'environnement sondé, que ce soit de la colonne d'eau (tomographie) ou du fond marin (géoacoustique).<p><p>Dans cette thèse, une nouvelle méthode d'inversion en milieu peu profond, basée sur l'assimilation séquentielle de mesures acoustiques dans des filtres de Kalman, est développée. Les algorithmes de filtrage développés pour les systèmes non linéaires, tel que l'ensemble Kalman filter (EnKF), permettent d'intégrer des modèles de propagation acoustique complexes au sein du modèle de mesure. Le problème inverse est reformulé de façon séquentielle, en un modèle d'espace d'états, de sorte que l'évolution des paramètres (température, positions des récepteurs, etc.) et de leur incertitude est suivie au fur et à mesure de l'assimilation de nouvelles mesures.<p><p>Différentes applications sont proposées pour démontrer les performances du filtrage séquentiel. Le premier problème abordé est celui de l'inversion et du suivi des inhomogénéités horizontales du champ de vitesse entre une source acoustique et une antenne verticale de récepteurs. A partir d'un profil de vitesse moyen sur la distance source-récepteurs, le filtrage de mesures complexes multi-fréquences permet d'estimer la dépendance horizontale du champ de vitesse et son évolution au cours du temps. La nature séquentielle de l'algorithme de filtrage motive la seconde application, dédiée à l'estimation des paramètres géoacoustiques d'un environnement à partir d'une configuration source-récepteur mobile. Les résultats démontrent que l'approche par filtrage permet d'obtenir des estimations géoacoustiques plus stables que celles obtenues par les méthodes d'inversion conventionnelles avec un coût de calcul réduit. La troisième et dernière application est dédiée au suivi de structures océaniques marquées, tels que les fronts thermiques. Une paramétrisation originale spécifique à la structure inversée est proposée et permet d'estimer et de suivre les caractéristiques principales du champ de température par filtrage de données acoustiques multi-fréquences.<p><p>Ce travail montre que l'approche séquentielle de l'inversion des données acoustiques peut mener à des estimations environnementales sur des échelles spatiales et temporelles d'intérêt pour les modèles océanographiques côtiers et régionaux, de façon à compléter les données assimilées quotidiennement pour les prédictions. / Doctorat en Sciences / info:eu-repo/semantics/nonPublished
|
457 |
Développements méthodologiques en géophysique haute résolution pour la caractérisation hydro-mécanique de glissements de terrain argileux / Methodological developments in high-resolution geophysics for the hydro-mechanical characterization of clayey landslidesGance, Julien 26 June 2014 (has links)
Ce projet de recherche répond à l'objectif d'améliorer notre connaissance des processus élémentaires contrôlant le comportement hydrologique post-rupture des glissements de terrain argileux, afin de pouvoir comprendre, reproduire et éventuellement prévoir leur comportement par des modèles hydromécaniques adaptés. Ce travail consiste à améliorer et développer des méthodes de traitement et d'interprétation de paramètres géophysiques en milieu argileux et hétérogène. Les objectifs principaux de ce travail sont : 1. D'améliorer des méthodes géophysiques et géodésiques de mesure de la déformation et de la géométrie interne des glissements. 2. De caractériser les relations possibles entre géométrie et structure interne du glissement. 3. De développer et améliorer des méthodes de détection et d'imagerie des circulations préférentielles de fluide dans un milieu fissuré et déformable. 4. De caractériser temporellement et spatialement les réponses hydrologiques du versant. Un algorithme d'inversion haute-résolution des temps de premières arrivées est développé. Il utilise les volumes de Fresnel pour rétropropager les résidus ainsi que l'hypothèse d'un signal source de bande-passante finie et permet de retrouver une image haute-résolution de la structure du glissement. L'atténuation sismique des ondes-P est également inversée pour retrouver la distribution des zones fissurées en surface. Des méthodes photogrammétriques sont utilisées pour caractériser et quantifier les déformations de surface. Une méthode alternative à la corrélation d'image est développée, fondée sur la détection et le suivi de cibles. Le lien entre les variations de régime de déformation le long du profil, et l'existence de fissures en surface est finalement discuté. Les informations précédentes sont ensuite intégrées dans un modèle géométrique par une méthode de fusion de données. Par la modélisation numérique, nous vérifions si l'état de contrainte calculé peut être en rapport avec la distribution de la fissuration en surface. Une méthode de correction de l'effet géométrique des fissures sur les résistivités apparentes est développée. Différents types d'artefacts d'inversion liés à la présence de fissure sont identifiés et la capacité de la méthode proposée à réduire ces artefacts est testée. Une méthodologie de sélection et de traitement des données ERT time-lapse acquises sur une période d'un an est développée. La réponse électrique courte (de quelques heures à quelques jours) aux évènements pluvieux naturels est ensuite analysée pour proposer des modèles conceptuels de réponse hydrologique à ces évènements pluvieux. / The objective of this research project is the improvement of our knowledge of the elementary processes controlling the post-rupture hydrological behavior of clayey landslides. It should allow understanding, reproducing and possibly forecasting their behaviors by the use of adapted hydro-mechanical models. This work consists in the improvement and the development of geophysical parameters processing and interpretation methodologies in clayey and heterogeneous medium. The main objectives of this work are : 1. The improvement of geophysical and geodesic methods to measure the internal geometry and structure of the landslide. 2. The characterization of possible relationships between landslide internal geometry and structure, presence of discontinuities, slope hydrology and deformations. 3. The development and improvement of methodology for the detection and imaging of preferential flows in a fissured and deformable medium. 4. The spatial and temporal characterization of the hydrological response of the slope. A high resolution inversion algorithm of the first seismic arrivals is developed. It uses the Fresnel volumes for the retropropagation of the residuals and the assumptions of a finite-bandwidth source signal. It permits to recover a high resolution image of the internal structure of the landslide. The seismic P-wave attenuation is also inverted to characterize surface fissured zones. Photogrammetric methods are used to characterize and quantify the surface deformations. A method alternative to image correlation is developed, based on the target detection and tracking. The link between changes in deformation regime along the profile and the existence of surface fissures is finally discussed. The previous data are integrated inside a geometric model trough data fusion. Using numerical modeling, we verify if the state of stress computed is related to the surface fissure density distribution. A methodology of correction of the geometrical effect of fissures on apparent resistivity is developed. Different types of inversion artefacts, linked to the presence of surface fissures, are identified. The ability of the proposed method to limit this artifact is tested. A methodology of selection and processing of the time-lapse ERT data is developed. The short electrical response (from several hours to several days) to natural rainfall events is analyzed and conceptual hydrological responses to these rainfall events are proposed.
|
458 |
Évaluation de ligands pour l’imagerie moléculaire de la néoangiogenèse tumorale / Evaluation of tracers for molecular imaging of tumor neoangiogenesisDebordeaux, Frédéric 15 December 2015 (has links)
La néoangiogenèse tumorale est un élément pronostique de l’évolution de nombreux cancers. L’intégrine alphaVbeta3 ainsi que la métalloprotéase matricielle 9 (MMP-9), sont des marqueurs de ce processus. Leur ciblage offre la perspective d’une information diagnostique pour la détection précoce, l’évaluation de l’agressivité de pathologies et la sélection de patients répondeurs aux nouvelles thérapies anti-angiogéniques. Dans ce contexte, notre travail s’attèle à mettre au point les techniques nécessaires à la caractérisation de radiotraceurs. Des modèles de tumeurs richement néovascularisées ont été sélectionnés : le mélanome malin et le gliome malin. Nous nous sommes dans un premier temps intéressés à la détection de l’intégrine alphaVbeta3. Un traceur technétié, le 99mTc-DTPA-bis-c(RGDfK) a servi de support à la validation de nos techniques d’analyse. Cette méthodologie d’évaluation a ensuite été adaptée à des projets collaboratifs. L’étude du 18F-ribofuranose-RGD est réalisée avec le Centre de Recherche en Cancérologie de Toulouse (INSERM UMR 1037) et l’Institut des Sciences Moléculaires (CNRS UMR 5255). Un radioligand de la MMP-9, l’111In- DOTA-F3B, fait l’objet d’un partenariat avec l’ARNA (ARN : Régulations Naturelle et Artificielle, INSERM UMR 869) et l’Institut Lumière Matière (CNRS UMR 5306). Le composé technétié a démontré une bonne affinité et spécificité pour alphaVbeta3. In vivo, chez l’animal, les radioligands technétiés et fluorés ont permis l’identification de tumeurs alphaVbeta3 positives. L’111In-DOTA-F3B a, quant à lui, permis la visualisation de tumeurs chez l’animal et sur coupes tissulaires. Ces traceurs constituent une piste intéressante pour l’imagerie de la néoangiogenèse tumorale. / Tumor neoangiogenesis is a predictive element of the evolution of numerous cancers. AlphaVbeta3 integrin and matrix metalloprotease 9 (MMP-9) are markers of tumor neoangiogenesis. Their targeting appears of great interest either for early detection, aggressiveness staging of the disease or for selection of responders to new-targeted therapies. In this context, our objective is to develop methodologies needed for radiotracers characterization. Tracers have been investigated in different tumor models for which vascularization is very important: melanoma and glioma. First of all 99mTc-DTPA-bis-c(RGDfK) has been assessed in our laboratory and helped us to develop analytical methods. These methodologies were used in different partnership, the evaluation of 18F-ribofuranose-RGD targeting alphaVbeta3 with INSERM UMR 1037 and CNRS UMR 5255, and 111In-DOTA-F3B for molecular imaging of MMP-9 with INSERM UMR 869 and CNRS UMR 5306.The technetium peptide has demonstrated good affinity and specificity for alphaVbeta3. In vivo analysis in mice showed that both tracers were able to identify some alphaVbeta3-positive tumors. 111In-DOTA-F3B allowed us to detect hMMP-9 positive tumors in mice and in tumor tissue sections. In conclusion, these tracers still require to be investigated but represent promising tracers for tumor neoangiogenesis.
|
459 |
Débruitage, déconvolution et extraction de caractéristiques de signaux dans le domaine temporel pour imagerie biomédicale optiqueBodi, Geoffroy January 2010 (has links)
Un scanner permettant l'imagerie moléculaire est d'un grand intérêt pour l'industrie pharmaceutique dans le développement de nouveaux médicaments, notamment pour visualiser leur efficacité m-vivo (par exemple pour le cancer). Le groupe de recherche TomOptUS développe un scanner par tomographie optique diffuse par fluorescence pour imagerie moléculaire sur petit animal. Le but est de localiser en 3D les centres de fluorescence d'un traceur injecté dans l'animal. À cette fin, nous utilisons des mesures de signaux optiques de fluorescence obtenues par comptage de photons corrélé en temps (mesures dans le domaine temporel). On sait que les mesures contiennent de l'information sur les caractéristiques optiques du milieu, mais à ce jour, cette information n'est pas exploitée à son plein potentiel. Extraire cette information est essentiel en reconstruction tomographique. Le système d'instrumentation, comme tout système de mesure, celle-ci influe sur le signal optique à mesurer. Mathématiquement, les mesures optiques dans un milieu peuvent être décrites comme la convolution entre le signal d'intérêt et la fonction de réponse (ou fonction de transfert) du système de mesures optiques (IRF - instrument response function), le tout perturbé par du bruit. Les causes du bruit proviennent du système de détection, des conditions d'utilisation du système et des facteurs extérieurs. Il est indispensable d'éliminer les différents effets perturbateurs pour permettre l'extraction de caractéristiques de ces signaux. Ces caractéristiques dépendent des paramètres optiques du milieu diffusant. On distingue deux propriétés physiques, le coefficient d'absorption µ[indice inférieur a] et le coefficient de diffusion réduit µ'[indice inférieur s]. Un premier objectif du projet est de débruiter les mesures. À cette fin, un algorithme de débruitage par les ondelettes a été développé. Un second objectif est de concevoir un algorithme de déconvolution pour éliminer l'influence de l'IRF. La déconvolution est le raisonnement inverse de la convolution. Une solution est l'utilisation du filtre optimal de Wiener. Une fois cela réalisé, un troisième objectif consistait à implémenter un algorithme de régression non linéaire pour extraire les caractérisitiques optiques du milieu des courbes temporelles afin de caractériser le milieu. Pour cela, un modèle analytique de propagation de la lumière, le modèle développé par Patterson, Chance et Wilson, est comparé à nos mesures traitées. Par minimisation de l'erreur quadratique moyenne, il est ainsi possible de déterminer la valeur des paramètres optiques recherchés. Pour qualifier au mieux la méthode de déconvolution, la convolution itérative (IC- Itérative Convolution) ou reconvolution a également été implémentée. Actuellement, la reconvolution est la méthode la plus couramment utilisée en imagerie optique pour caractériser un milieu. Elle consiste à convoluer le modèle avec l'IRF du système pour obtenir un modèle représentatif des mesures optiques du système d'instrumentation. Enfin, un quatrième objectif consiste à étudier, à l'aide du même modèle, des changements du comportement du signal, lorsqu'on fait varier les paramètres µ[indice inférieur a], µ'[indice inférieur s]. Ceci permettra d'acquérir de nouvelles connaissances sur les vitesses de propagation dans le milieu et sur les temps d'arrivée des premiers photons.
|
460 |
Conception d'un capteur de température, d'un récepteur LVSD et d'un générateur de charge en technologie CMOS 0,18 um pour un scanner TEP/TDMBen Attouch, Mohamed Walid January 2011 (has links)
La recherche en imagerie moléculaire repose beaucoup sur les performances en tomographie d'émission par positrons (TEP). Les avancées technologiques en électronique ont permis d'améliorer la qualité de l'image fournie par les scanners TEP et d'en augmenter le champ d'application. Le scanner LabPET II, en développement à l'Université de Sherbrooke, permettra d'atteindre des résolutions spatiales inégalées.La conception de ce scanner requiert une très grande densité de détecteurs de l'ordre de 39 000 sur un anneau de 15 cm de diamètre par 12 cm de longueur axiale. D'autre part, l'Université de Sherbrooke mène également des travaux en tomodensitométrie (TDM) par comptage de photons individuels. Ces travaux s'insèrent dans un programme de recherche menant à réduire par un facteur 1,5 à 10 la dose de rayon X par rapport aux doses actuelles en TDM. Un circuit intégré (ASIC) a été développé pour supporter les performances attendues en TEP et en TDM. Cependant, la très grande densité de canaux rend inadéquate la vérification externe, sur circuits imprimés (PCB), des fonctionnalités des 64 canaux d'acquisition du circuit intégré actuellement en conception. Ainsi, un générateur de charge électronique a été conçu et intégré dans l'ASIC afin de pouvoir vérifier directement sur le circuit intégré ( On-Chip ) le fonctionnement de la chaine d'acquisition. Il permettra aussi de faire les tests pour le calcul de la résolution d'énergie et de la résolution en temps intrinsèque. La communication des données avec l'ASIC se fait par une ligne différentielle afin de maximiser l'immunité des signaux contre le bruit et d'assurer la vitesse de communication voulue.La norme Low-Voltage Differential Signaling (LVDS) a été choisie pour ce type de communication. En effet, trois récepteurs LVDS, basse consommation, ont été conçus et intégrés dans l'ASIC afin de recevoir les commandes de fonctionnement de l'ASIC à partir d'une matrice de portes programmables Field-Programmable Gate Array (FPGA) et de communiquer le signal d'horloge aux différents blocs. Pour augmenter la fiabilité du traitement effectué par l'électronique frontale, une mesure en température de l'ASIC est nécessaire. Un capteur de température basé sur la boucle à délais Delay-Locked Loop (DLL) a été conçu et intégré. En effet, la mesure de la température de l'ASIC permet d'intervenir en réalisant une compensation sur les mesures et en contrôlant le système de refroidissement en cas de sur-échauffement.
|
Page generated in 0.0423 seconds