171 |
Superposition d'un modèle 3D numérisé par un capteur télémétrique tenu en main sur l'objet réel avec des lunettes de réalité augmentéeNadeau, Carl 21 May 2024 (has links)
Afin d'explorer l'utilisabilité de technologies de réalité augmentée pour s'interfacer avec le logiciel de numérisation 3D des capteurs Creaform, les Hololens de Microsoft ont été retenues pour ses différentes fonctionnalités. Un emploi envisagé pour ce système était d'utiliser les Hololens pour inspecter un modèle 3D numérisé en le superposant sur l'objet qu'il représente.Ce mémoire décrit les étapes menant à l'obtention de ce résultat et les lacunes de cette approche. Pour numériser la surface d'un objet, il doit être couvert de pastilles rétro-réfléchissantes.Ces marqueurs servent de points de repère pour certains capteurs Creaform et pour l'approche présentée. Deux photos de l'objet sont prises avec les Hololens afin d'effectuer des calculs stéréoscopiques avec les marqueurs détectés. Les positions 3D de ces marqueurs sont estimées avec ces calculs et elles forment le nuage de points pour le référentiel des lunettes Hololens. Des appariements entre ce nuage de points et celui du capteur Creaform sont déduits et un alignement est calculé pour superposer le modèle 3D sur l'objet. / To explore the usability of augmented reality technologies interfacing with Creaform's 3Dscanning software, Microsoft's Hololens was chosen for its diverse functionalities. One envisioned application for this system was utilizing the Hololens to inspect a scanned 3D model by overlaying it onto the corresponding object. This document outlines the steps taken to achieve this outcome and highlights the shortcomings of this approach.To scan the surface of an object, it must be covered with retro-reflective markers. These markers serve as reference points for certain Creaform sensors and for the presented approach.Two photos of the object are taken with the Hololens to perform stereoscopic calculations with the detected markers. The 3D positions of these markers are estimated using these calculations,forming the point cloud for the Hololens reference frame. Matches between theHololens' and the Creaform's sensor point clouds are deduced, and an alignment is calculated to overlay the 3D model onto the object.
|
172 |
Multimodality imaging in aortic stenosis and its consequencesGuzzetti, Ezequiel 25 March 2024 (has links)
Titre de l'écran-titre (visionné le 6 novembre 2023) / La sténose aortique calcifiante (SA), est également connue sous le nom de SA dégénérative. La SA est la maladie valvulaire cardiaque la plus répandue dans les pays industrialisés. Elle est la conséquence d'un remodelage fibro-calcique progressif survenant sur une valve aortique initialement normale (tricuspide) ou sur une valve aortique congénitalement anormale (bicuspide principalement). La prévalence de la SA augmente généralement avec l'âge, affectant jusqu'à 10 % des personnes de plus de 80 ans. Par conséquent, la SA est considérée comme un problème de santé publique en raison de sa prévalence croissante liée au vieillissement d'une population avec une espérance de vie accrue. La SA est une maladie complexe affectant non seulement la valve mais aussi le myocarde. L'échocardiographie-Doppler reste la pierre angulaire du diagnostic et de la prise en charge de la SA, mais une proportion importante (jusqu'à 35 %) des patients présentent des résultats discordants à l'échocardiographie, ce qui soulève des doutes sur la gravité réelle de la maladie. Des techniques d'imagerie avancées non invasives telles que la tomodensitométrie et la résonance magnétique cardiovasculaire (cardiac magnetic resonance- CMR) se sont progressivement intégrées à l'arsenal diagnostic de la SA. Cependant, de nombreux pièges techniques restent inexplorés et de nombreuses recommandations des guides de pratique sont basées sur des preuves rares ou des hypothèses théoriques. En outre, une grande quantité de preuves est basée sur des populations principalement masculines et caucasiennes, et les différences sexuelles et ethniques restent à élucider. Bien que plusieurs modalités d'imagerie existent, une approche centrée sur le patient doit être encouragée, dans laquelle la technique et l'approche doivent être adaptées aux besoins de chaque patient. L'objectif général de ce projet de thèse est donc d'optimiser l'approche diagnostique des patients atteints de SA par l'imagerie multimodalité. Plus précisément, nous visons à : i) optimiser l'évaluation du débit à l'aide de l'échocardiographie-Doppler et de l'IRM à contraste de phase; ii) améliorer l'évaluation anatomique de la gravité de la SA à l'aide de la tomographie, d'abord en abordant les aspects techniques de la mesure de la calcification de la valve aortique (aortic valve calcification- AVC) et ensuite, en évaluant les différences ethniques; et iii) améliorer l'évaluation de la réponse myocardique à la SA: d'abord en comparant l'évaluation de la masse et dure modelage du ventricule gauche (VG) par échocardiographie en utilisant la CMR comme étalon-or, puis en évaluant la réponse myocardique suite au remplacement de la valve aortique chez des patients atteints de diabète et/ou de syndrome métabolique. / Aortic stenosis (AS) is the most prevalent heart valve disease in industrialized countries. Calcific AS, also known as degenerative AS, is the by far the most frequent sub-type of AS. It is the consequence of progressive fibro-calcific remodeling occurring on an initially normal (tricuspid) aortic valve or a congenitally abnormal (mostly bicuspid) aortic valve. Prevalence of calcific AS increases steadily with age, affecting up to 10% of those > 80 years old. Therefore, AS is considered a public health problem due to its increasing prevalence because of an aging population with increased life expectancy. AS is a complex disease affecting not only the valve but also the myocardium. Doppler echocardiography remains the cornerstone of AS diagnosis and management, but a significant proportion (up to 35%) of patients present with discordant findings at echocardiography, which raise doubts about the actual severity of the disease. Advanced non-invasive imaging techniques such as multidetector computed tomography (MDCT) and cardiovascular magnetic resonance (CMR) are being progressively incorporated into the diagnostic arsenal for AS and each of them has their strengths and weaknesses. However, many technical pitfalls remain unexplored and numerous recommendations from practice guidelines are based on scarce evidence or theoretical assumptions. Furthermore, a vast amount of evidence is based on mostly male and Caucasian populations, and sex and ethnic differences remain to be elucidated. Finally, though multiple imaging modalities exist, a patient-centered approach should be encouraged, in which the precise technique and approach is tailored to fit the needs of the individual patient. The general objective of this PhD project is thus to optimize the diagnostic approach to patients with AS using multimodality imaging. Specifically, we aim to: i) optimize flow assessment using Doppler echocardiography and phase-contrast CMR; ii) improve anatomical assessment of AS severity using MDCT, first by addressing technical aspects of aortic valve calcification (AVC) measurement and secondly by evaluating ethnic differences; and iii) improve assessment of themyocardial response to AS: first by comparing LV mass and remodeling assessmentby echocardiography using CMR as a gold standard and then assessing the myocardial response to AVR in patients with diabetes mellitus and metabolic syndrome.
|
173 |
Infrared image enhancement based on hybrid-domain consideration and data fusion methodsZhang, Qiong 20 November 2024 (has links)
Au cours des dernières décennies, l’effort sur les applications de capteurs infrarouges a largement progressé dans le monde. Mais, une certaine difficulté demeure, en ce qui concerne le fait que les objets ne sont pas assez clairs ou ne peuvent pas toujours être distingués facilement dans l’image obtenue pour la scène observée. L’amélioration de l’image infrarouge a joué un rôle important dans le développement de technologies de la vision infrarouge de l’ordinateur, le traitement de l’image et les essais non destructifs, etc. Cette thèse traite de la question des techniques d’amélioration de l’image infrarouge en deux aspects, y compris le traitement d’une seule image infrarouge dans le domaine hybride espacefréquence, et la fusion d’images infrarouges et visibles employant la technique du nonsubsampled Contourlet transformer (NSCT). La fusion d’images peut être considérée comme étant la poursuite de l’exploration du modèle d’amélioration de l’image unique infrarouge, alors qu’il combine les images infrarouges et visibles en une seule image pour représenter et améliorer toutes les informations utiles et les caractéristiques des images sources, car une seule image ne pouvait contenir tous les renseignements pertinents ou disponibles en raison de restrictions découlant de tout capteur unique de l’imagerie. Nous examinons et faisons une enquête concernant le développement de techniques d’amélioration d’images infrarouges, et ensuite nous nous consacrons à l’amélioration de l’image unique infrarouge, et nous proposons un schéma d’amélioration de domaine hybride avec une méthode d’évaluation floue de seuil amélioré, qui permet d’obtenir une qualité d’image supérieure et améliore la perception visuelle humaine. Les techniques de fusion d’images infrarouges et visibles sont établies à l’aide de la mise en oeuvre d’une mise en registre précise des images sources acquises par différents capteurs. L’algorithme SURF-RANSAC est appliqué pour la mise en registre tout au long des travaux de recherche, ce qui conduit à des images mises en registre de façon très précise et des bénéfices accrus pour le traitement de fusion. Pour les questions de fusion d’images infrarouges et visibles, une série d’approches avancées et efficaces sont proposés. Une méthode standard de fusion à base de NSCT multi-canal est présente comme référence pour les approches de fusion proposées suivantes. Une approche conjointe de fusion, impliquant l’Adaptive-Gaussian NSCT et la transformée en ondelettes (Wavelet Transform, WT) est propose, ce qui conduit à des résultats de fusion qui sont meilleurs que ceux obtenus avec les méthodes non-adaptatives générales. Une approche de fusion basée sur le NSCT employant la détection comprime (CS, compressed sensing) et de la variation totale (TV) à des coefficients d’échantillons clairsemés et effectuant la reconstruction de coefficients fusionnés de façon précise est proposée, qui obtient de bien meilleurs résultats de fusion par le biais d’une pré-amélioration de l’image infrarouge et en diminuant les informations redondantes des coefficients de fusion. Une procédure de fusion basée sur le NSCT utilisant une technique de détection rapide de rétrécissement itératif comprimé (fast iterative-shrinking compressed sensing, FISCS) est proposée pour compresser les coefficients décomposés et reconstruire les coefficients fusionnés dans le processus de fusion, qui conduit à de meilleurs résultats plus rapidement et d’une manière efficace. / In recent decades, the endeavor on infrared sensor applications has been proceeding widely all through the world. But there are some problems, namely that the targets are not clear enough or cannot be distinguished easily in the image obtained for the observed scene. Infrared image enhancement has been playing a significant role of an early stage technology in infrared computer vision, image processing and non-destructive testing, etc. This thesis addresses the issue of infrared image enhancement techniques in two aspects, including the single infrared image processing in hybrid space-frequency domain, and the infrared-visible image fusion employing the nonsubsampled Contourlet transform (NSCT) technique. The image fusion can be considered as being the further exploration of the model of singe infrared image enhancement, while it combines the infrared and visible images altogether into one image to represent and protrude all useful information and characteristics from the source images, by reason that a single image could not contain all relevant or available information in terms of the restrictions stemming from any single sensor of imaging. After the investigation and review for the development of infrared image enhancement techniques, in the topic of single infrared image enhancement, a hybrid-domain enhancement scheme with a threshold-improved fuzzy evaluation method is proposed, which achieves superior image quality and human visual perception. Infrared and visible image fusion techniques are established upon the implementation of accurate registration for source images acquired by different sensors. The SURF-RANSAC algorithm is applied in the registration issue all through the entire research work, which ensures us to receive very precisely registered images and to benefit further for the fusion processing. For the infrared-visible image fusion issues, a series of advanced and effective approaches are proposed. A multi-channel NSCT-based standard fusion method is presented as a reference for the subsequently proposed fusion approaches. An Adaptive-Gaussian NSCT and Wavelet Transform (WT) based joint fusion scheme is proposed, which obtains better fusion outcomes than the general non-adaptive methods. A NSCT-based fusion approach employing compressed sensing (CS) and total variation (TV) to sample coefficients sparsely and reconstruct fused coefficients accurately is proposed, which receives much better fusion results through pre-enhancing the infrared image and decreasing the redundant fusion coefficients information. A NSCT-based fusion scheme using fast iterative-shrinking compressed sensing (FISCS) technique is proposed to compress the decomposed coefficients and reconstruct the fused coefficients in the fusion process, which is able to achieve better results more rapidly and effectively.
|
174 |
Data-driven HDR Illumination from Outdoor ImagesZhang, Jinsong 27 January 2024 (has links)
L'éclairage extérieur joue un rôle important dans la recherche et l'industrie. La compréhension de l'éclairage extérieur est essentielle dans de nombreuses applications en vision par ordinateur, infographie, films d'animation par ordinateur, gestion de l'énergie solaire, etc. L'éclairage extérieur, d'où la contribution provient majoritairement du soleil et du ciel, possède une plage dynamique extrêmement élevée (HDR pour high dynamic range). La capture de l'éclairage extérieur, y compris l'étendue de la plage dynamique et l'intensité absolue du soleil, nécessite des appareils ou des techniques spécialisés : une caméra ordinaire est incapable de la capturer. Le contenu de l'image capturé avec un appareil photo grand public est actuellement disponible sous forme de données à basse plage dynamique (LDR pour low dynamic range). Ces problèmes deviennent un obstacle majeur à la compréhension de l'éclairage extérieur. Comprendre l'éclairage extérieur à partir d'images est également une tâche difficile en raison de sa diversité : l'éclairage change considérablement en raison du mouvement des nuages et des conditions météorologiques. Dans le cadre de ce travail, nous proposons de raisonner sur l'éclairage HDR à partir d'images LDR à partir de données. Nous explorons ce problème avec le trois objectifs suivants 1) reconstruire automatiquement l'éclairage HDR à partir de panoramas extérieurs LDR capturés avec une caméra 360⁰ point-and-shoot, 2) prévoir l'énergie solaire à partir d'images du ciel capturées avec une caméra standard ; 3) estimer les paramètres d'éclairage significatifs à partir d'une seule image conventionnelle à champ de vision limité. Ces objectifs sont appuyés par des expériences et des analyses détaillées. Nous espérons que cette recherche aidera à mieux comprendre l'éclairage extérieur HDR. / Outdoor lighting plays an important role in both research and industry. Understanding outdoor illumination is essential in many applications in computer vision, computer graphics, computer-animated movies, solar energy management, etc. Outdoor illumination, which is mainly contributed by the sun and sky, has an extremely high dynamic range (HDR). Capturing outdoor illumination including the breadth of the dynamic range and the absolute intensity of the sun requires specialized devices or techniques : a regular camera is incapable of capturing it. The image contents captured with a consumer camera are currently available as low dynamic range (LDR) data. These issues become a big obstacle to understanding outdoor lighting. Understanding outdoor illumination from images is also a challenging task because of its diversity : the lighting changes dramatically due to clouds movement and weather conditions. In this work, we propose to reason about the HDR illumination from LDR images in a data-driven way. We explore this problem in the following three objectives 1) automatically reconstruct the HDR lighting from LDR outdoor panoramas captured with a point-and-shoot 360⁰ camera, 2) forecast solar energy from sky images captured with an off-the-shelf camera; 3) estimate meaningful lighting parameters from a single conventional limited field of view image. Each of these objectives provides detailed experiments and analyses. We hope this research could help to better understand the HDR outdoor illumination.
|
175 |
Identification de voiture électrique à l'aide d'images infrarouge : développement de système d'acquisition pour la collecte d'images infrarouges d'objet en mouvementLamoureux-Lévesque, Rémi 26 April 2024 (has links)
Le présent document fait la présentation du travail réalisé au cours d'un projet de maitrise avec l'intention d'obtenir un diplôme à la maitrise en génie électrique.Le projet consistait à développer un système capable d'identifier le type de véhicule qui se retrouve dans une image infrarouge. Les deux types de véhicules visés par cette identification étaient les véhicules électriques ainsi que les véhicules à essence. Pour pouvoir être en mesure de l'identifier, il a d'abord fallu développer un système de prise d'images qui permette d'obtenir un échantillon de données comprenant des images infrarouges de différentes voitures. Deux systèmes ont été développés pour atteindre cet objectif : le premier est un système de caméra fixe et le second implique un système de mouvement des caméras. Une fois ces deux systèmes mis en place, la collecte des images fut réalisée avec chacun d'eux. Il fut remarqué que les images obtenues avec le second système étaient de meilleure qualité. Différents contextes de prise d'images ont été explorés. Lorsqu'une quantité suffisante d'images fut obtenue, l'exploration pour la sélection du réseau de neurones permettant l'identification du type de voiture a débuté. Plusieurs solutions ont été envisagées et l'évaluation de celles-ci a été réalisée. Le présent document débute par la présentation d'un article scientifique qui décrit en détails le système de mouvement des caméras / The present document elaborates on the work done for a master project with the intent to obtain a master's in electrical engineering. The project was todevelop a system that identifies the vehicle’s type within an infrared image. The two types of vehicles targeted for identification are electrical vehicles and internal combustion engine vehicles. To identify their type, the development of an acquisition system was necessary for us to collect data and build our dataset, which containsimages of each type of vehicle. Two systems were developed to achieve this goal: the first one is a fixed camera system and the second one is a motion camera system. Once each system was in place, we collected images with each system. Different situations for collecting the images were explored. It was noticed that the second system improved the images 'quality. Once we collected enough images, the exploration of the neural network for classifying the vehicle type started. Many solutions for the neural network have been presented and evaluated to choose the one that meets our needs. The present document begins with a scientific paper that has been donefor the master project which presents in details the motion camera system.
|
176 |
Développement et utilisation de la microscopie holographique numérique polychromatiqueLarivière-Loiselle, Céline 27 January 2024 (has links)
La microscopie holographique numérique (DHM) est une technique d'imagerie polyvalente prometteuse pour l'identification de biomarqueurs de maladies psychiatriques majeures. Les images obtenues par DHM sont toutefois affectées par le bruit cohérent, qui entrave entre autres la visualisation de petites ramifications nerveuses dans les tissus neuronaux. Le projet présenté dans ce mémoire tâche d'affranchir la DHM de ce défaut grâce à une approche dite polychromatique exploitant un laser à longueur d'onde modulable. Des cultures neuronales de rat et des cellules minces ont été analysées au moyen de cette approche, permettant de révéler de fins détails, tels que des dendrites et des organites. Finalement, dans l'objectif de mesurer des réponses cellulaires de façon dynamique, la méthode a été automatisée et optimisée. La stratégie proposée ici augure favorablement pour l'étude de la connectivité neuronale, et le montage peut être adapté pour des applications additionnelles de la DHM en biologie cellulaire. / Digital holographic microscopy (DHM) is a promising versatile imaging technique for the identification of biomarkers of major psychiatric illnesses. However, images obtained by DHM are affected by coherent noise, which among other things prevents from properly distinguishing nerve branches in neural tissue. The project presented in this thesis aims to remove this defect thanks to a socalled polychromatic approach using a laser with modulable wave lengths. Using this approach, neuronal cultures and thin cells were imaged, revealing fine details, such as dendrites and cell organelles. The setup was then optimized to measure dynamical cellular responses. The strategy proposed here bodes well for the study of neuronal connectivity and the setup can be adapted for additional DHM applications in cellularbiology.
|
177 |
Évaluation des performances du scanner LabPETBergeron, Mélanie January 2009 (has links)
Ce mémoire porte sur l'évaluation et l'amélioration des performances du premier appareil commercial de Tomographie d'Émission par Positrons (TEP) pour petits animaux basé sur des détecteurs à photodiode avalanche (PDA) et une électronique de traitement entièrement numérique. Cet appareil est la version améliorée d'un premier prototype TEP basé sur les PDA datant de 1995. Cette nouvelle version a été conçue sur une plateforme électronique numérique pour améliorer à la fois la résolution spatiale, permettant de détecter de plus petites structures chez la souris, et la sensibilité afin d'injecter une dose de radiotraceur plus faible à l'animal. Le but d'utiliser une électronique numérique était d'augmenter la flexibilité du traitement des signaux pour l'adapter selon de nouvelles applications. Afin de vérifier toutes ces caractéristiques potentielles, nous avons effectué une évaluation systématique et exhaustive des performances de ce nouveau scanner (désigné sous le sigle commercial « LabPET ») pour l'application en imagerie moléculaire. Des procédures d'ajustement automatique de plusieurs paramètres du scanner, dont la tension de polarisation des détecteurs PDA dans les conditions optimales d'opération, ont été mises au point pour faciliter l'étalonnage du grand nombre de détecteurs (1536 ou 3072 selon la version du scanner). Une technique pour normaliser les délais temporels de chaque détecteur a permis d'améliorer les performances temporelles du scanner et la qualité d'image. Cette technique a aussi servi à caractériser de façon individuelle les détecteurs au niveau de leur résolution en temps, ce qui permet de connaître leurs performances et de suivre leur possible dégradation à long terme. Par la suite, les performances de l'appareil pour l'imagerie, telles que la résolution spatiale et temporelle, la résolution en énergie, la sensibilité, le temps mort et le taux de comptage, ont été mesurées en suivant dans la mesure du possible les recommandations des normes de la National Electrical Manufacturers Association (NEMA) pour l'évaluation d'appareils d'imagerie. De plus, des balises pour l'élaboration de protocoles d'acquisition ont été établies afin d'obtenir des images optimales. Pour ce faire, une caractérisation plus exhaustive de la qualité d'image à l'aide de mires et d'images de rats et de souris a été réalisée. Deux appareils avec champ axial de 3.75 et 7.5 cm ont été caractérisés dans le cadre de ce projet de maîtrise. À la suite de toutes les améliorations apportées à l'appareil et à la lumière des résultats obtenus, la plupart des concepts utilisés pour la fabrication de l'appareil ont conduit à des images de qualité supérieure.
|
178 |
Réalisation d'un nouveau prototype combiné TEP/TDM pour l'imagerie moléculaire de petits animauxBérard, Philippe January 2010 (has links)
Au cours des dernières années, la tomographie d'émission par positrons (TEP) s'est imposée comme l'outil diagnostique par excellence pour déceler la présence de tumeurs et caractériser leur statut métabolique. Comme les images TEP souffrent généralement d'une localisation anatomique imprécise, le diagnostic est d'autant plus fiable lorsque l'information fonctionnelle et moléculaire fournie par la TEP peut être complétée par l'information anatomique détaillée obtenue par une autre modalité d'imagerie comme la tomodensitométrie (TDM) ou l'imagerie par résonance magnétique (IRM). L'émergence de l'imagerie multi-modale TEP/TDM (ou"PET/CT") permet d'obtenir, à tour de rôle, l'information anatomique et métabolique du patient en effectuant successivement les examens TDM et TEP sans avoir à déplacer le patient d'une salle à l'autre, ce qui facilite beaucoup les procédures de recalage d'images. Toutefois, il peut arriver, vu le déplacement du lit du patient d'un scanner à l'autre, que le patient bouge volontairement ou involontairement (mouvement péristaltique, cardiaque ou pulmonaire), ce qui cause des imprécisions dans les images fusionnées. Afin d'éviter ce problème, un simulateur TEP/TDM reposant sur un système de détection commun, celui du scanner LabPET(TM), a été développé. Détectant à la fois le rayonnement émis par le radiotraceur utilisé en TEP et les rayons-X de plus faible énergie utilisée en TDM, des images TEP/TDM ont été obtenues sans aucun déplacement du sujet. Pour obtenir ces images, des algorithmes numériques de traitement de signal ont été développés afin de diminuer l'empilement de signaux et ainsi mieux discerner les photons incidents du niveau de bruit électronique. De plus, des algorithmes de reconstruction d'images adaptés à la géométrie du simulateur ont été développés. Les résultats obtenus ont démontré qu'il est possible d'obtenir, avec relativement peu de radiations ionisantes, des images anatomiques avec un contraste suffisant pour l'imagerie moléculaire. Cependant, la résolution spatiale obtenue avec cet appareil n'était pas suffisante pour bien identifier les structures anatomiques fines chez la souris (le modèle animal par excellence en recherche biomédicale). Le détecteur LabPET II, dont les pixels font 1.2 × 1 2 mm[indice supérieur 2] a donc été développé afin d'atteindre une résolution submillimétrique en imagerie TEP et de l'ordre de 500 [micro]m en imagerie TDM. Fabriqué à partir de deux matrices de photodiodes avalanches, ce détecteur comptant 64 canaux d'acquisition individuels a été caractérisé ainsi que son électronique. Le rehaussement du simulateur avec ces détecteurs permettra de construire sous peu le premier appareil TEP/TDM avec un nouveau système de détection. Les applications de ce type d'appareil en recherche sur modèle animal sont nombreuses et diversifiées : étude de la croissance normale, étude de l'évolution des maladies et évaluation de l'efficacité des thérapies, développement de produits radiopharmaceutiques, etc.... Chez l'humain, l'approche TEP/TDM combinée proposée permettra d'améliorer la détection précoce des cancers et de faciliter le suivi des patients sous thérapie grâce à une réduction importante des doses de radiations.
|
179 |
La voie ventrale sémantique du langage : une étude de connectivite anatomique, de connectivite fonctionnelle et de sa plasticité périopératoire / Language semantic processing : structural connectivity, functional connectivity and perioperative plasticityMenjot de Champfleur, Nicolas 10 December 2012 (has links)
La conception classique de l'organisation des réseaux cérébraux participant au langage décrit deux zones corticales, l'une frontale (Broca), l'autre temporale intervenant respectivement dans la production et la compréhension du langage, unies par un faisceau de substance blanche: le faisceau longitudinal supérieur. L'imagerie par résonance magnétique d'activation (IRMf) a rendu possible la visualisation de zones d'activation corticales, et l'imagerie en tenseur de diffusion avec la tractographie celle des faisceaux de substance blanche. Ces données nouvelles permettent de repenser l'organisation corticale et sous-corticale du langage. L'ensemble des travaux en imagerie d'activation étaye l'hypothèse d'une dissociation dorso-ventrale du traitement du langage. Les zones de traitement de l'information phonétique étant dorsales, et les centres impliqués dans le traitement sémantique plus ventraux. Imagerie d'activation, imagerie du tenseur de diffusion, stimulations corticales et sous-corticales ont permis d'aboutir à un modèle de réseau du langage impliquant une voie dorsale, essentiellement phonologique et une voie ventrale, sémantique présentant deux composantes. La première est directe, par le faisceau fronto-occipital inférieur connectant les aires temporales postérieures à la région orbito-frontale. La seconde est une voie indirecte qui connecte successivement la région occipito-temporale au pôle temporal par l'intermédiaire du faisceau longitudinal inférieur puis le pôle temporal aux aires basifrontales par le faisceau unciné. Cette dernière voie est compensée après résection ou lors des stimulations per-opératoires, suggérant la possibilité de réseaux de suppléance parallèles et bilatéraux. Dans cette vision d'une voie ventrale sémantique bilatérale, notre travail a pour objet par l'utilisation de l'imagerie fonctionnelle d'activation, d'une part, et de l'imagerie en tenseur de diffusion d'autre part, 1) de vérifier le nombre de faisceaux qui sous-tendent cette voie et en particulier de la part attribuable au faisceau longitudinal moyen; 2) de caractériser les réorganisations de la connectivité fonctionnelle du réseau du langage après une chirurgie de tumeur gliale hémisphérique gauche. Dans la première partie de ce travail, après avoir rappelé la filiation phylogénétique de l'homme et du primate non-humain, en insistant sur les dissemblances qui existent dans leur anatomie corticale et sous-corticale, nous exposons comment ces données ont permis d'aboutir à la découverte du faisceau longitudinal moyen chez l'homme. Nous confirmons la visibilité en imagerie du tenseur de diffusion de ce faisceau et nous précisons ses rapports avec les différents faisceaux de substance blanche constitutifs des voies ventrales et dorsales du langage. Enfin nous discutons ces données tractographiques à la lumière de la dissection et discutons du rôle présumé du faisceau dans le langage. Dans un deuxième temps, nous présentons les concepts de connectivité anatomique, fonctionnelle et effective. Puis nous appliquons un outil d'analyse de la connectivité fonctionnelle à des données périopératoires en tâches de fluence afin de réaliser une cartographie de la plasticité périopératoire de la composante sémantique du langage. Les résultats de cette deuxième étude suggèrent un recrutement de l'hémisphère ipsilatéral à la lésion au décours de la chirurgie. Enfin, nous évoquons la possibilité d'induire une désynchronisation (i.e. une altération de la connectivité) du réseau du mode par défaut par une stimulation peropératoire de la partie postérieure du faisceau cingulaire, induisant une sensation de dépersonnalisation, ces résultats suggérant qu'une des fonctions du noeud le plus postérieur du réseau soit de maintenir un état de conscience du monde extérieur. / According to classical conception of the anatomo-functional organization of language, there are two main cortical areas: a frontal area (Broca) and a temporal one (Wernicke) respectively involved in language production and comprehension. Functional magnetic resonance Imaging (fMRI) reveals cortical areas of activation and diffusion tensor imaging-based tractography (DTI) makes feasible the visualization of white-matter tracts in the human brain. On the basis of these techniques, a new conception of language cortical and sub-cortical organization arose, supporting the hypothesis that language processing network is dissociated in an dorso-ventral way. Dorsal areas of the brain being devoted to phonologic processing and its ventral areas to semantic processing of speech. Different techniques such as fMRI, DTI, intraoperative cortical and subcortical mapping made possible to describe two pathways involved in the language network: a dorsal stream and a ventral stream respectively involved in phonologic and semantic processing. As the dorsal route is composed of a unique pathway, the superior longitudinal fasciculus, the ventral stream appears to be composed of two different pathways. First a direct pathway, the inferior occipitofrontal fasciculus, connecting the posterior temporal areas to the orbitofrontal region. The second one, an indirect pathway, the inferior longitudinal fasciculus links the posterior occipitotemporal to the temporal pole, then relayed by the uncinate fasciculus connecting the temporal pole to the basifrontal areas. According to these observations the aim of our work is In the present work, we aim (1) to confirm that the MdLF is constantly found in control subjects and that it can be delineated from the other fiber tracts that constitute language pathways, (2) to characterize the reorganization of language network's functional connectivity follmowing surgical removal of left hemisphere low grade gliomas. In this study, we confirmed that the MdLF is constantly found in healthy volunteers and we clearly delineate the MdLF from the other fascicles that constitute language pathways, especially the ventral pathway. Considering language plasticity, our findings suggest that in the postoperative period, brain plasticity occurs with an ipsilateral recrutment and increased fonctional connectivity in the left hemisphere. Finally, we report a collaborative work observing that intraoperative electrostimulations of the white matter underlying the left posterior cingulate, while performing a naming task, systematically induced an unresponsive state for few seconds in relationship with a dream-like state. This result provides direct evidence that connectivity underlying the posterior node of the default mode network permits maintained consciousness of the external world.
|
180 |
Imagerie hyperspectrale par transformée de Fourier : limites de détection caractérisation des images et nouveaux concepts d'imagerie / Hyperspectral imaging by Fourier transfom : detection limits, image characterization, and new imaging conceptsMatallah, Noura 16 March 2011 (has links)
L’imagerie hyperspectrale est maintenant très développée dans les applications de télédétection. Il y a principalement deux manières de construire les imageurs associés : la première méthode utilise un réseau et une fente, et l’image spectrale est acquise ligne par la ligne le long de la trajectoire du porteur. La seconde est basée sur le principe de la spectrométrie par transformée de Fourier (TF). Certains des systèmes utilisés sont construits de manière à enregistrer l’interférogramme de chaque point de la scène suivant le déplacement dans le champ. Le spectre de la lumière venant d’un point de la scène est alors calculé par la transformée de Fourier de son interférogramme. Les imageurs classiques basés sur des réseaux sont plus simples à réaliser et les données qu’ils fournissent sont souvent plus faciles à interpréter. Cependant, les spectro-imageurs par TF fournissent un meilleur rapport signal sur bruit si la source principale de bruit vient du détecteur.Dans la première partie de cette thèse, nous étudions l’influence de différents types de bruit sur les architectures classiques et TF afin d’identifier les conditions dans lesquelles ces dernières présentent un avantage. Nous étudions en particulier l’influence des bruits de détecteur, de photons, des fluctuations de gain et d’offset du détecteur et des propriétés de corrélation spatiale des fluctuations d’intensité du spectre mesuré. Dans la seconde partie, nous présentions la conception, la réalisation et les premiers résultats d’un imageur basé sur un interféromètre de Michelson à dièdres statique nommé DéSIIR (Démonstrateur de Spectro-Imagerie Infrarouge). Les premiers résultats montrent, qu’en mode spectromètre simultané, DéSIIR permet la restitution du spectre avec les spécifications requises dans le cadre des applications recherchées, c'est-à-dire détecter avec une résolution d environ 25 cm-1 un object de quelques degrés plus chaud que le fond de la scène et présentant une signature spectrale entre 3 et 5 juin. En mode spectromètre imageur, après recalage des images, il est possible de reconstruire le spectre de chaque point de la scène observée. / Hyperspectral imaging is now very important in remote sensing applications. There are two main ways to build such imagers : the first one uses a grating and a slit, and the spectral image is acquired line by line along the track of the carrier. The second way is to use the principle of Fourier transform (FT) spectrometry. Some of these systems are built in such a way that they record the interferogram of each point of the scene as it moves through the field of view. The spectrum of the light coming from a particular point is then calculated by the Fourier transform of its interferogram. Classical gratting-based spectral imagers are easier to build and the data they provide a better signal to noise ratio if the main source of noise comes from the detector.In the first part of this thesis, we study the influence of various types of noise on the classic and TF-based architectures to identify the conditions in which these last ones present an advantage. We study particularly the influence of detector noise, photons noise, detector gain and offset fluctuations and spatial correlation properties of the intensity fluctuations. In the second part, we present the conception, the realization and the first results of an imager bases on a Michelson interferometer with dihedrons named DéSIIR (“Démonstrateur de Spectro Imagerie Infrarouge”). The first results show that, in simultaneous spectrometer mode, DéSIIR allows the reconstruction of the spectrum with respect to the specific requirements, which are to be able to detect an objet of some degrees warmer than the background of the scene observed with a resolution of about 25 cm -1. In imager mode, this reconstruction is performed for each point of the scene.
|
Page generated in 0.0893 seconds