• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1846
  • 779
  • 194
  • 3
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 2796
  • 1331
  • 678
  • 505
  • 398
  • 356
  • 340
  • 275
  • 260
  • 259
  • 257
  • 246
  • 244
  • 238
  • 233
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
171

A versatile and efficient data fusion methodology for heterogeneous airborne LiDAR and optical imagery data acquired under unconstrained conditions

Nguyen, Thanh Huy 02 February 2024 (has links)
Thèse en cotutelle : Université Laval Québec, Canada et École nationale supérieure des télécommunications de Bretagne Brest, France / La nécessité et l’importance de représenter une scène en 3-D ont été illustrées par de nombreuses applications en télédétection, telles que la planification urbaine, la gestion des catastrophes, etc. Dans ces applications, les données issues du LiDAR et de l’imagerie optique aérienne et satellitaire ont été largement utilisées. Il existe une complémentarité entre les données issues du LiDAR aéroporté et de l’imagerie optique aérienne/satellite, qui motive la fusion de ces données permettant de représenter des scènes observées en 3-D avec une meilleure précision et complétude. Ces dernières années, l’extraction automatique de l’empreinte des bâtiments dans les scènes urbaines et résidentielles est devenue un sujet d’intérêt croissant dans le domaine de la représentation et de la reconstruction de scènes en 3-D. Avec l’augmentation de la disponibilité d’une quantité massive de données capturées par différents capteurs LiDAR et d’imagerie installés sur des plateformes aériennes et spatiales, de nouvelles opportunités se présentent pour effectuer cette tâche à grande échelle. Cependant, les méthodes de fusion existantes considèrent généralement soit des systèmes d’acquisition hybrides composés de LiDAR et de caméras optiques fixés rigidement, soit des jeux de données acquis à partir de la même plateforme à des dates identiques ou très proches, et ayant la même résolution spatiale. Elles n’ont pas été conçues pour traiter des jeux de données acquis avec des plateformes différentes, dans différentes configurations, à des moments différents, ayant des résolutions spatiales et des niveaux de détail différents. Un tel contexte est appelé contexte d’acquisition non-contraint. D’autre part, l’extraction automatique de l’empreinte des bâtiments à grande échelle est une tâche complexe. Des méthodes existantes ont obtenu des résultats relativement significatifs mais en définissant des formes a priori pour les bâtiments, en imposant des contraintes géométriques, ou en se limitant à des zones spécifiques. De telles hypothèses ne sont plus envisageables pour des jeux de données à grande échelle. Ce travail de recherche est consacré au développement d’une méthode versatile de recalage grossier puis fin de jeux de données collectés selon un contexte d’acquisition non-contraint. Il vise à surmonter les défis associés à ce contexte tels que le décalage spatial entre les jeux de données, la différence de résolution spatiale et de niveau de détail, etc. De plus, ce travail de recherche propose une méthode d’extraction efficace des empreintes des bâtiments, offrant un niveau de précision élevé tout en étant une méthode non-supervisée dédiée aux applications à grande échelle. La méthode proposée, appelée “Super-Resolution-based Snake Model” (SRSM), consiste en une adaptation des modèles de snakes—une technique classique de segmentation d’images—pour exploiter des images d’élévation LiDAR à haute résolution générées par un processus de super-résolution. Il se rapporte au contexte d’acquisition de données non-contraint, servant d’exemple d’application de premier ordre. Des résultats pertinents ont été obtenus lors des évaluations rigoureuses des méthodes proposées, à savoir un niveau de précision hautement souhaitable par rapport aux méthodes existantes. Mots-clés : LiDAR aéroporté, imagerie optique satellitaire et aérienne, recalage de données, information mutuelle, super-résolution, scènes urbaines, extraction de bâtiments, grande échelle.
172

Development of a miniaturized microscope for depth-scanning imaging at subcellular resolution in freely behaving animals

Bagramyan, Arutyun 02 February 2024 (has links)
Le fonctionnement du cerveau humain est fascinant. En seulement quelques millisecondes, des milliards de neurones synchronisés perçoivent, traitent et redirigent les informations permettant le contrôle de notre corps, de nos sentiments et de nos pensées. Malheureusement, notre compréhension du cerveau reste limitée et de multiples questions physiologiques demeurent. Comment sont exactement reliés le fonctionnement neuronal et le comportement humain ? L’imagerie de l’activité neuronale au moyen de systèmes miniatures est l’une des voies les plus prometteuses permettant d’étudier le cerveau des animaux se déplaçant librement. Cependant, le développement de ces outils n’est pas évident et de multiples compromis techniques doivent être faits pour arriver à des systèmes suffisamment petits et légers. Les outils actuels ont donc souvent des limitations concernant leurs caractéristiques physiques et optiques. L’un des problèmes majeur est le manque d’une lentille miniature électriquement réglable et à faible consommation d’énergie permettant l’imagerie avec un balayage en profondeur. Dans cette thèse, nous proposons un nouveau type de dispositif d’imagerie miniature qui présente de multiples avantages mécaniques, électriques et optiques par rapport aux systèmes existants. Le faible poids, la petite dimension, la capacité de moduler électriquement la distance focale à l’aide d’une lentille à cristaux liquides (CL) et la capacité d’imager des structures fines sont au cœur des innovations proposées. Dans un premier temps, nous présenterons nos travaux (théoriques et expérimentaux) de conception, assemblage et optimisation de la lentille à CL accordable (TLCL, pour tunable liquid crystal lens). Deuxièmement, nous présenterons la preuve de concept macroscopique du couplage optique entre la TLCL et la lentille à gradient d’indice (GRIN, pour gradient index) en forme d’une tige. Utilisant le même système, nous démontrerons la capacité de balayage en profondeur dans le cerveau des animaux anesthésiés. Troisièmement, nous montrerons un dispositif d’imagerie (2D) miniature avec de nouvelles caractéristiques mécaniques et optiques permettant d’imager de fines structures neuronales dans des tranches de tissus cérébraux fixes. Enfin, nous présenterons le dispositif miniaturisé, avec une TLCL intégrée. Grâce à notre système, nous obtenons ≈ 100 µm d’ajustement électrique de la profondeur d’imagerie qui permet d’enregistrer l’activité de fines structures neuronales lors des différents comportements (toilettage, marche, etc.) de la souris. / The functioning of the human brain is fascinating. In only a few milliseconds, billions of finely tuned and synchronized neurons perceive, process and exit the information that drives our body, our feelings and our thoughts. Unfortunately, our understating of the brain is limited and multiple physiological questions remain. How exactly are related neural functioning and human behavior ? The imaging of the neuronal activity by means of miniaturized systems is one of the most promising avenues allowing to study the brain of the freely moving subjects. However, the development of these tools is not obvious and multiple technical trade-offs must be made to build a system that is sufficiently small and light. Therefore, the available tools have different limitations regarding their physical and optical characteristics. One of the major problems is the lack of an electrically adjustable and energy-efficient miniature lens allowing to scan in depth. In this thesis, we propose a new type of miniature imaging device that has multiple mechanical, electrical and optical advantages over existing systems. The low weight, the small size, the ability to electrically modulate the focal distance using a liquid crystal (LC) lens and the ability to image fine structures are among the proposed innovations. First, we present our work (theoretical and experimental) of design, assembling and optimization of the tunable LC lens (TLCL). Second, we present the macroscopic proof-of-concept optical coupling between the TLCL and the gradient index lens (GRIN) in the form of a rod. Using the same system, we demonstrate the depth scanning ability in the brain of anaesthetized animals. Third, we show a miniature (2D) imaging device with new mechanical and optical features allowing to image fine neural structures in fixed brain tissue slices. Finally, we present a state-of-the-art miniaturized device with an integrated TLCL. Using our system, we obtain a ≈ 100 µm electrical depth adjustment that allows to record the activity of fine neuronal structures during the various behaviours (grooming, walking, etc.) of the mouse.
173

Superposition d'un modèle 3D numérisé par un capteur télémétrique tenu en main sur l'objet réel avec des lunettes de réalité augmentée

Nadeau, Carl 21 May 2024 (has links)
Afin d'explorer l'utilisabilité de technologies de réalité augmentée pour s'interfacer avec le logiciel de numérisation 3D des capteurs Creaform, les Hololens de Microsoft ont été retenues pour ses différentes fonctionnalités. Un emploi envisagé pour ce système était d'utiliser les Hololens pour inspecter un modèle 3D numérisé en le superposant sur l'objet qu'il représente.Ce mémoire décrit les étapes menant à l'obtention de ce résultat et les lacunes de cette approche. Pour numériser la surface d'un objet, il doit être couvert de pastilles rétro-réfléchissantes.Ces marqueurs servent de points de repère pour certains capteurs Creaform et pour l'approche présentée. Deux photos de l'objet sont prises avec les Hololens afin d'effectuer des calculs stéréoscopiques avec les marqueurs détectés. Les positions 3D de ces marqueurs sont estimées avec ces calculs et elles forment le nuage de points pour le référentiel des lunettes Hololens. Des appariements entre ce nuage de points et celui du capteur Creaform sont déduits et un alignement est calculé pour superposer le modèle 3D sur l'objet. / To explore the usability of augmented reality technologies interfacing with Creaform's 3Dscanning software, Microsoft's Hololens was chosen for its diverse functionalities. One envisioned application for this system was utilizing the Hololens to inspect a scanned 3D model by overlaying it onto the corresponding object. This document outlines the steps taken to achieve this outcome and highlights the shortcomings of this approach.To scan the surface of an object, it must be covered with retro-reflective markers. These markers serve as reference points for certain Creaform sensors and for the presented approach.Two photos of the object are taken with the Hololens to perform stereoscopic calculations with the detected markers. The 3D positions of these markers are estimated using these calculations,forming the point cloud for the Hololens reference frame. Matches between theHololens' and the Creaform's sensor point clouds are deduced, and an alignment is calculated to overlay the 3D model onto the object.
174

Évaluation des performances du scanner LabPET

Bergeron, Mélanie January 2009 (has links)
Ce mémoire porte sur l'évaluation et l'amélioration des performances du premier appareil commercial de Tomographie d'Émission par Positrons (TEP) pour petits animaux basé sur des détecteurs à photodiode avalanche (PDA) et une électronique de traitement entièrement numérique. Cet appareil est la version améliorée d'un premier prototype TEP basé sur les PDA datant de 1995. Cette nouvelle version a été conçue sur une plateforme électronique numérique pour améliorer à la fois la résolution spatiale, permettant de détecter de plus petites structures chez la souris, et la sensibilité afin d'injecter une dose de radiotraceur plus faible à l'animal. Le but d'utiliser une électronique numérique était d'augmenter la flexibilité du traitement des signaux pour l'adapter selon de nouvelles applications. Afin de vérifier toutes ces caractéristiques potentielles, nous avons effectué une évaluation systématique et exhaustive des performances de ce nouveau scanner (désigné sous le sigle commercial « LabPET ») pour l'application en imagerie moléculaire. Des procédures d'ajustement automatique de plusieurs paramètres du scanner, dont la tension de polarisation des détecteurs PDA dans les conditions optimales d'opération, ont été mises au point pour faciliter l'étalonnage du grand nombre de détecteurs (1536 ou 3072 selon la version du scanner). Une technique pour normaliser les délais temporels de chaque détecteur a permis d'améliorer les performances temporelles du scanner et la qualité d'image. Cette technique a aussi servi à caractériser de façon individuelle les détecteurs au niveau de leur résolution en temps, ce qui permet de connaître leurs performances et de suivre leur possible dégradation à long terme. Par la suite, les performances de l'appareil pour l'imagerie, telles que la résolution spatiale et temporelle, la résolution en énergie, la sensibilité, le temps mort et le taux de comptage, ont été mesurées en suivant dans la mesure du possible les recommandations des normes de la National Electrical Manufacturers Association (NEMA) pour l'évaluation d'appareils d'imagerie. De plus, des balises pour l'élaboration de protocoles d'acquisition ont été établies afin d'obtenir des images optimales. Pour ce faire, une caractérisation plus exhaustive de la qualité d'image à l'aide de mires et d'images de rats et de souris a été réalisée. Deux appareils avec champ axial de 3.75 et 7.5 cm ont été caractérisés dans le cadre de ce projet de maîtrise. À la suite de toutes les améliorations apportées à l'appareil et à la lumière des résultats obtenus, la plupart des concepts utilisés pour la fabrication de l'appareil ont conduit à des images de qualité supérieure.
175

Réalisation d'un nouveau prototype combiné TEP/TDM pour l'imagerie moléculaire de petits animaux

Bérard, Philippe January 2010 (has links)
Au cours des dernières années, la tomographie d'émission par positrons (TEP) s'est imposée comme l'outil diagnostique par excellence pour déceler la présence de tumeurs et caractériser leur statut métabolique. Comme les images TEP souffrent généralement d'une localisation anatomique imprécise, le diagnostic est d'autant plus fiable lorsque l'information fonctionnelle et moléculaire fournie par la TEP peut être complétée par l'information anatomique détaillée obtenue par une autre modalité d'imagerie comme la tomodensitométrie (TDM) ou l'imagerie par résonance magnétique (IRM). L'émergence de l'imagerie multi-modale TEP/TDM (ou"PET/CT") permet d'obtenir, à tour de rôle, l'information anatomique et métabolique du patient en effectuant successivement les examens TDM et TEP sans avoir à déplacer le patient d'une salle à l'autre, ce qui facilite beaucoup les procédures de recalage d'images. Toutefois, il peut arriver, vu le déplacement du lit du patient d'un scanner à l'autre, que le patient bouge volontairement ou involontairement (mouvement péristaltique, cardiaque ou pulmonaire), ce qui cause des imprécisions dans les images fusionnées. Afin d'éviter ce problème, un simulateur TEP/TDM reposant sur un système de détection commun, celui du scanner LabPET(TM), a été développé. Détectant à la fois le rayonnement émis par le radiotraceur utilisé en TEP et les rayons-X de plus faible énergie utilisée en TDM, des images TEP/TDM ont été obtenues sans aucun déplacement du sujet. Pour obtenir ces images, des algorithmes numériques de traitement de signal ont été développés afin de diminuer l'empilement de signaux et ainsi mieux discerner les photons incidents du niveau de bruit électronique. De plus, des algorithmes de reconstruction d'images adaptés à la géométrie du simulateur ont été développés. Les résultats obtenus ont démontré qu'il est possible d'obtenir, avec relativement peu de radiations ionisantes, des images anatomiques avec un contraste suffisant pour l'imagerie moléculaire. Cependant, la résolution spatiale obtenue avec cet appareil n'était pas suffisante pour bien identifier les structures anatomiques fines chez la souris (le modèle animal par excellence en recherche biomédicale). Le détecteur LabPET II, dont les pixels font 1.2 × 1 2 mm[indice supérieur 2] a donc été développé afin d'atteindre une résolution submillimétrique en imagerie TEP et de l'ordre de 500 [micro]m en imagerie TDM. Fabriqué à partir de deux matrices de photodiodes avalanches, ce détecteur comptant 64 canaux d'acquisition individuels a été caractérisé ainsi que son électronique. Le rehaussement du simulateur avec ces détecteurs permettra de construire sous peu le premier appareil TEP/TDM avec un nouveau système de détection. Les applications de ce type d'appareil en recherche sur modèle animal sont nombreuses et diversifiées : étude de la croissance normale, étude de l'évolution des maladies et évaluation de l'efficacité des thérapies, développement de produits radiopharmaceutiques, etc.... Chez l'humain, l'approche TEP/TDM combinée proposée permettra d'améliorer la détection précoce des cancers et de faciliter le suivi des patients sous thérapie grâce à une réduction importante des doses de radiations.
176

La voie ventrale sémantique du langage : une étude de connectivite anatomique, de connectivite fonctionnelle et de sa plasticité périopératoire / Language semantic processing : structural connectivity, functional connectivity and perioperative plasticity

Menjot de Champfleur, Nicolas 10 December 2012 (has links)
La conception classique de l'organisation des réseaux cérébraux participant au langage décrit deux zones corticales, l'une frontale (Broca), l'autre temporale intervenant respectivement dans la production et la compréhension du langage, unies par un faisceau de substance blanche: le faisceau longitudinal supérieur. L'imagerie par résonance magnétique d'activation (IRMf) a rendu possible la visualisation de zones d'activation corticales, et l'imagerie en tenseur de diffusion avec la tractographie celle des faisceaux de substance blanche. Ces données nouvelles permettent de repenser l'organisation corticale et sous-corticale du langage. L'ensemble des travaux en imagerie d'activation étaye l'hypothèse d'une dissociation dorso-ventrale du traitement du langage. Les zones de traitement de l'information phonétique étant dorsales, et les centres impliqués dans le traitement sémantique plus ventraux. Imagerie d'activation, imagerie du tenseur de diffusion, stimulations corticales et sous-corticales ont permis d'aboutir à un modèle de réseau du langage impliquant une voie dorsale, essentiellement phonologique et une voie ventrale, sémantique présentant deux composantes. La première est directe, par le faisceau fronto-occipital inférieur connectant les aires temporales postérieures à la région orbito-frontale. La seconde est une voie indirecte qui connecte successivement la région occipito-temporale au pôle temporal par l'intermédiaire du faisceau longitudinal inférieur puis le pôle temporal aux aires basifrontales par le faisceau unciné. Cette dernière voie est compensée après résection ou lors des stimulations per-opératoires, suggérant la possibilité de réseaux de suppléance parallèles et bilatéraux. Dans cette vision d'une voie ventrale sémantique bilatérale, notre travail a pour objet par l'utilisation de l'imagerie fonctionnelle d'activation, d'une part, et de l'imagerie en tenseur de diffusion d'autre part, 1) de vérifier le nombre de faisceaux qui sous-tendent cette voie et en particulier de la part attribuable au faisceau longitudinal moyen; 2) de caractériser les réorganisations de la connectivité fonctionnelle du réseau du langage après une chirurgie de tumeur gliale hémisphérique gauche. Dans la première partie de ce travail, après avoir rappelé la filiation phylogénétique de l'homme et du primate non-humain, en insistant sur les dissemblances qui existent dans leur anatomie corticale et sous-corticale, nous exposons comment ces données ont permis d'aboutir à la découverte du faisceau longitudinal moyen chez l'homme. Nous confirmons la visibilité en imagerie du tenseur de diffusion de ce faisceau et nous précisons ses rapports avec les différents faisceaux de substance blanche constitutifs des voies ventrales et dorsales du langage. Enfin nous discutons ces données tractographiques à la lumière de la dissection et discutons du rôle présumé du faisceau dans le langage. Dans un deuxième temps, nous présentons les concepts de connectivité anatomique, fonctionnelle et effective. Puis nous appliquons un outil d'analyse de la connectivité fonctionnelle à des données périopératoires en tâches de fluence afin de réaliser une cartographie de la plasticité périopératoire de la composante sémantique du langage. Les résultats de cette deuxième étude suggèrent un recrutement de l'hémisphère ipsilatéral à la lésion au décours de la chirurgie. Enfin, nous évoquons la possibilité d'induire une désynchronisation (i.e. une altération de la connectivité) du réseau du mode par défaut par une stimulation peropératoire de la partie postérieure du faisceau cingulaire, induisant une sensation de dépersonnalisation, ces résultats suggérant qu'une des fonctions du noeud le plus postérieur du réseau soit de maintenir un état de conscience du monde extérieur. / According to classical conception of the anatomo-functional organization of language, there are two main cortical areas: a frontal area (Broca) and a temporal one (Wernicke) respectively involved in language production and comprehension. Functional magnetic resonance Imaging (fMRI) reveals cortical areas of activation and diffusion tensor imaging-based tractography (DTI) makes feasible the visualization of white-matter tracts in the human brain. On the basis of these techniques, a new conception of language cortical and sub-cortical organization arose, supporting the hypothesis that language processing network is dissociated in an dorso-ventral way. Dorsal areas of the brain being devoted to phonologic processing and its ventral areas to semantic processing of speech. Different techniques such as fMRI, DTI, intraoperative cortical and subcortical mapping made possible to describe two pathways involved in the language network: a dorsal stream and a ventral stream respectively involved in phonologic and semantic processing. As the dorsal route is composed of a unique pathway, the superior longitudinal fasciculus, the ventral stream appears to be composed of two different pathways. First a direct pathway, the inferior occipitofrontal fasciculus, connecting the posterior temporal areas to the orbitofrontal region. The second one, an indirect pathway, the inferior longitudinal fasciculus links the posterior occipitotemporal to the temporal pole, then relayed by the uncinate fasciculus connecting the temporal pole to the basifrontal areas. According to these observations the aim of our work is In the present work, we aim (1) to confirm that the MdLF is constantly found in control subjects and that it can be delineated from the other fiber tracts that constitute language pathways, (2) to characterize the reorganization of language network's functional connectivity follmowing surgical removal of left hemisphere low grade gliomas. In this study, we confirmed that the MdLF is constantly found in healthy volunteers and we clearly delineate the MdLF from the other fascicles that constitute language pathways, especially the ventral pathway. Considering language plasticity, our findings suggest that in the postoperative period, brain plasticity occurs with an ipsilateral recrutment and increased fonctional connectivity in the left hemisphere. Finally, we report a collaborative work observing that intraoperative electrostimulations of the white matter underlying the left posterior cingulate, while performing a naming task, systematically induced an unresponsive state for few seconds in relationship with a dream-like state. This result provides direct evidence that connectivity underlying the posterior node of the default mode network permits maintained consciousness of the external world.
177

Imagerie hyperspectrale par transformée de Fourier : limites de détection caractérisation des images et nouveaux concepts d'imagerie / Hyperspectral imaging by Fourier transfom : detection limits, image characterization, and new imaging concepts

Matallah, Noura 16 March 2011 (has links)
L’imagerie hyperspectrale est maintenant très développée dans les applications de télédétection. Il y a principalement deux manières de construire les imageurs associés : la première méthode utilise un réseau et une fente, et l’image spectrale est acquise ligne par la ligne le long de la trajectoire du porteur. La seconde est basée sur le principe de la spectrométrie par transformée de Fourier (TF). Certains des systèmes utilisés sont construits de manière à enregistrer l’interférogramme de chaque point de la scène suivant le déplacement dans le champ. Le spectre de la lumière venant d’un point de la scène est alors calculé par la transformée de Fourier de son interférogramme. Les imageurs classiques basés sur des réseaux sont plus simples à réaliser et les données qu’ils fournissent sont souvent plus faciles à interpréter. Cependant, les spectro-imageurs par TF fournissent un meilleur rapport signal sur bruit si la source principale de bruit vient du détecteur.Dans la première partie de cette thèse, nous étudions l’influence de différents types de bruit sur les architectures classiques et TF afin d’identifier les conditions dans lesquelles ces dernières présentent un avantage. Nous étudions en particulier l’influence des bruits de détecteur, de photons, des fluctuations de gain et d’offset du détecteur et des propriétés de corrélation spatiale des fluctuations d’intensité du spectre mesuré. Dans la seconde partie, nous présentions la conception, la réalisation et les premiers résultats d’un imageur basé sur un interféromètre de Michelson à dièdres statique nommé DéSIIR (Démonstrateur de Spectro-Imagerie Infrarouge). Les premiers résultats montrent, qu’en mode spectromètre simultané, DéSIIR permet la restitution du spectre avec les spécifications requises dans le cadre des applications recherchées, c'est-à-dire détecter avec une résolution d environ 25 cm-1 un object de quelques degrés plus chaud que le fond de la scène et présentant une signature spectrale entre 3 et 5 juin. En mode spectromètre imageur, après recalage des images, il est possible de reconstruire le spectre de chaque point de la scène observée. / Hyperspectral imaging is now very important in remote sensing applications. There are two main ways to build such imagers : the first one uses a grating and a slit, and the spectral image is acquired line by line along the track of the carrier. The second way is to use the principle of Fourier transform (FT) spectrometry. Some of these systems are built in such a way that they record the interferogram of each point of the scene as it moves through the field of view. The spectrum of the light coming from a particular point is then calculated by the Fourier transform of its interferogram. Classical gratting-based spectral imagers are easier to build and the data they provide a better signal to noise ratio if the main source of noise comes from the detector.In the first part of this thesis, we study the influence of various types of noise on the classic and TF-based architectures to identify the conditions in which these last ones present an advantage. We study particularly the influence of detector noise, photons noise, detector gain and offset fluctuations and spatial correlation properties of the intensity fluctuations. In the second part, we present the conception, the realization and the first results of an imager bases on a Michelson interferometer with dihedrons named DéSIIR (“Démonstrateur de Spectro Imagerie Infrarouge”). The first results show that, in simultaneous spectrometer mode, DéSIIR allows the reconstruction of the spectrum with respect to the specific requirements, which are to be able to detect an objet of some degrees warmer than the background of the scene observed with a resolution of about 25 cm -1. In imager mode, this reconstruction is performed for each point of the scene.
178

Nanoparticules multimodales à base de lanthanides pour l'imagerie biomédicale et le suivi de cellules mésenchymateuses / Lanthanide-based multimodal nanoparticles for biomedical imaging and mesenchymal cells tracking

Santelli, Julien 12 April 2018 (has links)
L'objectif de ces travaux a été de mettre en pratique l'utilisation de nanoparticules multimodales (NPs) à base de lanthanides pour l'imagerie biomédicale en général et le suivi de cellules mésenchymateuses (MSCs) en particulier. Dans cette optique, deux types de NPs ont été utilisées, présentant toutes deux une matrice d'oxysulfure de gadolinium (Gd2O2S) permettant l'imagerie par résonnance magnétique (IRM) et la tomodensitométrie. L'ajout d'éléments dopants apporte des propriétés de fluorescence : l'europium (Gd2O2S :Eu3+), plus adapté à un examen in vitro et le couple ytterbium/thulium (Gd2O2S :Yb3+/Tm3+) à un examen in vivo grâce au phénomène de conversion ascendante de photons (up-conversion). Nous avons, dans un premier temps, démontré la possibilité de visualiser ces NPs au cours du temps au sein d'un organisme vivant par des méthodes complémentaires (IRM et fluorescence). L'étude complète de leur distribution et des voies d'élimination nous a permis de mettre en évidence une métabolisation hépatobiliaire associée à une lente excrétion dans les fèces. Le marquage d'un grand nombre de types cellulaires (lignées et cellules primaires d'espèces différentes) a également mis en avant leur potentiel en tant que traceur cellulaire universel. Nous avons par la suite concentré nos travaux sur le suivi de cellules mésenchymateuses dans un contexte de thérapie cellulaire. La biocompatibilité cellulaire à court, moyen et long terme a été validée par une série d'analyses (MTT, rouge neutre, wound healing, différenciation) et la fiabilité du traceur a été confirmée par l'étude approfondie du marquage cellulaire. Enfin, après mise au point d'un système personnalisé dédié à l'imagerie par up-conversion chez le petit animal, nous avons pu réaliser le suivi de ces cellules marquées, au cours du temps après injection dans un organe solide. Nous avons alors été en mesure de visualiser les MSCs par imagerie multimodale : IRM ; tomodensitométrie et fluorescence par up-conversion. L'ensemble de ces résultats met en avant le potentiel de ces nanoparticules pour l'imagerie à long terme dans des études précliniques et/ou cliniques. / The objective of these works was to put into practice the use of lanthanide-based multimodal nanoparticles (NPs) for biomedical imaging in general and mesenchymal cells (MSCs) tracking in particular. To that purpose, two types of NPs have been used, both presenting a gadolinium oxysulfide (Gd2O2S) matrix allowing magnetic resonance imaging (MRI) and computed tomography. The addition of dopant elements brings fluorescence properties: europium (Gd2O2S :Eu3+) is more appropriate for an in vitro examination whereas the combination ytterbium/thulium (Gd2O2S :Yb3+/Tm3+) is more appropriate for an in vivo examination through the up-conversion process. First, we have demonstrated the possibility of visualizing those NPs over-time in a living organism with complementary methods (MRI and fluorescence). The complete study of their biodistribution and ways of elimination allowed us to highlight a hepatobiliary metabolization associated with a slow feces excretion. The labeling of a wide variety of cell types (lines and primary cells from different species) has also pointed out their potential as a universal cell tracer. Thereafter, we focused our research on mesenchymal cells tracking in a cell therapy context. Short, medium and long term biocompatibility was validated via a series of analyses (MTT, neutral red, wound healing and differentiation) and the reliability of the tracer was confirmed by detailed study of the cell labeling. Finally, after developing a custom-made system dedicated to up-conversion imaging in small animals, we were able to perform over-time tracking of those labeled cells after injection in a solid organ. We achieved multimodal imaging of the MSCs with MRI, computed tomography and up-conversion. Altogether, these results underline the potential of these nanoparticles for long term imaging in preclinical and/or clinical studies.
179

Construction et validation d’une base de données multimodales pour la stimulation cérébrale profonde / Construction and validation of a multimodal database for deep brain stimulation

Haegelen, Claire 08 April 2014 (has links)
La stimulation cérébrale profonde est un traitement efficace pour traiter les symptômes parkinsoniens chez les patients en échappement thérapeutique médical. L’intervention chirurgicale consiste à positionner au millimètre près une électrode de stimulation dans un noyau cérébral profond. La qualité du ciblage peut être améliorée par des bases de données multimodales, à la fois anatomiques, cliniques et électrophysiologiques. En premier lieu, nous avons créé une IRM moyennée appelée template Parkinson, puis nous avons validé la segmentation des 24 structures cérébrales profondes du template. Dans un deuxième temps, nous nous sommes intéressés à la meilleure localisation du plot stimulé dans le noyau subthalamique (NST) en étudiant les résultats moteur et neuropsychologiques de 30 patients parkinsoniens stimulés dans le NST. Pour chaque score clinique, nous avons obtenu un atlas anatomo-clinique, associant le degré d’amélioration ou de dégradation du patient avec son plot stimulé. Nous avons constaté une discordance entre la meilleure amélioration motrice et l’inévitable dégradation des fluences en stimulant dans la région postéro-supérieure du NST. Dans un troisième temps, nous avons développé des cartes statistiques anatomo-cliniques pour visualiser les conséquences motrices et neuropsychologiques à 6 mois d’une stimulation du pallidum médial (GPm) chez 20 patients parkinsoniens. Les patients étaient tous améliorés sur le plan moteur sans altération neuropsychologique. La zone où la majorité des patients étaient améliorés sur le plan moteur, était la partie postéro-ventrale du GPm, un peu plus latéralement que les données de la littérature. Notre but est d’utiliser les cartes statistiques de manière prospective chez d’autres patients à opérer, pour raccourcir le temps de ciblage pré-chirurgical le jour de l’intervention et pour améliorer le résultat postopératoire, tant sur le plan moteur que neuropsychologique. / Deep brain stimulation (DBS) is an effective treatment for patients with severe disabled Parkinson’s disease refractory to medical treatments. DBS surgery consists of the accurate implantation of an electrode in a deep brain nucleus. The quality of the surgical planning can be improved by developing a multimodal database based on anatomical, clinical and electrophysiologial data. The first step was to develop a specific magnetic resonance imaging (MRI) template of Parkinson’s disease patients’ anatomy, and to validate the segmentation of the 24 deep brain structures made on this template. Secondly, we focused on identifying optimum sites for subthalamic nucleus (STN) stimulation by studying symptomatic motor improvement along with neuropsychological side effects in 30 patients with PD. Each clinical score produced one anatomo-clinical atlas, associating the degree of improvement or worsening of the patient with its active contacts.We showed a discrepancy between a good motor improvement and an invevitable deterioration of the fluencies by targeting the postero-superior region of the STN. Finally, we developed new statistical anatomo-clinical maps the better to visualize the motor and neuropsychological consequences at 6 months of GPm stimulation in 20 patients with PD. These maps provided us with the motor improvement of GPm stimulation without cognitive impairments. We also proposed a new more lateral targeting of the GPm in PD because of the cortico-subcortical atrophy induced by the disease. Our goal is to use these statistical maps prospectively in further patients to improve their targeting, thus ensuring a shorter planning step on the day of the surgery as well as better outcomes from motor and neuropsychological point of view.
180

Imageurs à amplification / Amplified imagers

Gach, Jean-Luc 03 April 2018 (has links)
La quête du détecteur parfait, sans bruit, capable de détecter des photons uniques dans le visible et l’infrarouge, et ultimement de déterminer leur énergie est le graal de la détection. Pour arriver à ce but, de nombreux scientifiques ont développé des dispositifs depuis plusieurs dizaines d’années, et les astronomes ont toujours été à la pointe en ce domaine. En ce sens les imageurs à amplification semblent être la voie la plus rapide et la plus prometteuse pour atteindre ce but ultime. Ainsi après un bref historique de l’état de l’art sont exposés les systèmes à comptage de photons (IPCS) développés au LAM, qui ont été utilisés sur les télescopes ESO 3m60, OHP 1m93 ou encore WHT 4m20. Sont ensuite abordés les dispositifs imageurs intégrés à amplification comme les EMCCD (Electron multiplying charge coupled devices) dans le visible, avec quelques exemples de leur utilisation en astronomie. C’est la technologie qui, appliquée aux senseurs de front d’onde, aura permis conjointement à d’autres développements l’avènement des optiques adaptatives extrêmes comme celle de l’instrument VLT-SPHERE ou encore de SUBARU-SCExAO. Pour finir les e-APD (electron initiated avalanche photodiode) dans l’infrarouge seront abordés. Les e-APD ont cette propriété très intéressante d’être des amplificateurs quasi parfaits, et ont une capacité à détecter l’énergie des photons, des propriétés qui seront développées et analysées. Nous finirons par les perspectives et les progrès que nous sommes en droit d’attendre dans les prochaines années. / The quest for the perfect, noiseless detector, capable of detecting unique photons in the visible and infrared, and ultimately determining their energy is the grail of detection. To achieve this goal, many scientists have developed devices for several decades, and astronomers have always been at the forefront in this area. In this sense amplification imagers seem to be the fastest and most promising way to achieve this ultimate goal. Thus, after a brief history of the state of the art are exposed the photon counting systems (IPCS) developed at LAM, which were used on ESO telescopes 3m60, OHP 1m93 or WHT 4m20. Imaging integrated imaging devices such as Electron Multiplying Charge Coupled Devices (EMCCDs) are then discussed in the visible, with some examples of their use in astronomy. It is the technology that, applied to the wavefront sensors, has jointly enabled other developments the advent of extreme adaptive optics such as the VLT-SPHERE or SUBARU-SCExAO. To finish the e-APD (electron-induced avalanche photodiode) in the infrared will be discussed. E-APDs have this very interesting property of being almost perfect amplifiers, and have an ability to detect photon energy, properties that will be developed and analyzed. We will end up with the prospects and the progress that we are entitled to expect in the coming years.

Page generated in 0.0532 seconds