• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1843
  • 778
  • 192
  • 3
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 2790
  • 1329
  • 675
  • 505
  • 396
  • 354
  • 339
  • 274
  • 258
  • 257
  • 257
  • 246
  • 244
  • 236
  • 233
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
221

Reconnaissance des visages par imagerie multispectrale : du visible à l'infrarouge lointain

Akhloufi, Moulay Abdellatif 19 April 2018 (has links)
La reconnaissance des visages est un domaine de la vision artificielle qui connaît un intérêt grandissant depuis quelques années. Plusieurs approches intéressantes ont été développées dans le spectre visible. Les systèmes opérant dans ce spectre souffrent de plusieurs limitations dues aux changements dans l'éclairage et dans les expressions faciales. Dans ce travail, nous avons utilisé l'imagerie multispectrale, plus particulièrement l'imagerie infrarouge active et passive, pour améliorer la performance de la reconnaissance des visages et éviter les limitations imposées par le spectre visible. Les spectres infrarouges ont aussi leurs propres limitations, comme l'opacité des lunettes dans l'infrarouge thermique. Les solutions développées visent à résoudre ces problématiques. Nous avons développé des stratégies de fusion intra- et inter-spectres opérant dans l'espace des textures et utilisant des approches de réduction de dimensionnalités linéaires et non linéaires. Un nouvel opérateur de texture adaptatif et une nouvelle représentation des caractéristiques physiologiques des visages extraits de l'image thermique ont aussi été développés. Finalement, nous avons produit une base de données multispectrale appelée /.-Faces qui a été utilisée pour les tests ainsi que la base de données Equinox pour l'évaluation des algorithmes développés. Les résultats positifs des essais expérimentaux démontrent l'efficacité des algorithmes proposés pour construire un système de reconnaissance des visages plus performant.
222

La microscopie à illumination à tavelure laser de type HiLo pour l'imagerie volumétrique rapide de l'activité calcique du cerveau du poisson-zèbre

Pineau Noël, Valérie 13 December 2023 (has links)
Ce présent projet de maîtrise porte sur le développement et l'optimisation d'une technique d'imagerie volumétrique rapide à grand champ, appelée la microscopie HiLo, pour imager l'activité calcique du cerveau de poisson-zèbres transgéniques GCaMP au stade juvénile. La microscopie HiLo peut effectivement amener divers avantages au domaine, tels que les faibles coûts et la facilité de conception et d'alignement, tout en procurant des performances d'imagerie similaires aux techniques déjà utilisées dans le domaine. Elle produit des images sectionnées optiquement en combinant deux images à grand champ pour extraire les informations provenant uniquement du plan focal : une à illumination uniforme et l'autre à illumination à tavelures laser. Le contraste des tavelures laser est un paramètre intéressant pour moduler l'épaisseur du sectionnement optique selon les besoins. Dans ce projet, un module Python est développé pour aider à la conception optique, ce qui est employé pour concevoir et construire le microscope HiLo avec les composantes optiques optimales. Le microscope est testé de multiple façon expérimentalement, définissant ses paramètres d'imagerie et démontrant ses performances. Un des aspects les plus intéressants du système est l'incorporation d'une lentille à focale variable pour produire des images volumétriques ainsi qu'un réducteur de tavelures laser pour alterner entre les deux types d'illumination. Beaucoup de travail est fait en ce qui concerne leur optimisation et synchronisation dans le système HiLo. L'algorithme permettant de produire des images sectionnées optiquement avec les deux images brutes à grand champ est développé en langage de programmation Python pour faciliter son utilisation future. Finalement, l'utilisation du microscope HiLo pour acquérir des images d'activité calcique du cerveau de poisson-zèbres permet de conclure que cette technique est prometteuse pour obtenir de l'information sur les connectivités du cerveau selon différents stimuli et stades de développement compte tenu de sa rapidité d'acquisition, son sectionnement optique et son faible coût. / The goal of this master's project is to optimize and develop a widefield imaging technique called HiLo microscopy for fast volumetric calcium imaging in a juvenile transgenic zebrafish brain expressing GCaMP. HiLo microscopy brings multiple advantages to the field, such as the low cost and the ease to design and align it and its performance is comparable to techniques already used in the field. The HiLo technique produces optically sectioned images by combining two raw widefield images to extract the information coming exclusively from the focal plane only. The first of the two images is acquired with a uniform illumination and the second is acquired with a speckle illumination. The speckle contrast is an interesting parameter to tune the optical sectioning thickness because they are indicators of objects' depth position. In this project, a Python module is developed to simulate optical design and calculations, which is then used to design the HiLo microscope with the most optimal optical components. The microscope's function is also tested with many different experiments that define its imaging parameters and demonstrates its performances. Some of the most interesting aspects of this system are the use of an electrically tunable lens to scan the sample in depth and a laser speckle reducer that is used to switch between the uniform and speckle illumination patterns. A significant amount of work is done to optimize and synchronize the components in the system. Next, the algorithm used to produce the optically sectioned images is also developed in this project with the Python programming language to facilitate its future usage. Finally, the HiLo microscope is used to produce calcium imaging acquisitions of zebrafish brains, which show that HiLo microscopy is promising to obtain connectivity information of the brain with different stimuli and at different developmental stages due to its fast acquisition speed, optical sectioning and low cost.
223

Association entre la ß-amyloïde et le déclin cognitif chez les individus âgés cognitivement sains : une revue systématique

Parent, Camille 11 March 2024 (has links)
Dans les dernières décennies, deux conceptualisations distinctes de la maladie d'Alzheimer (MA) se sont développées en parallèle, l'une étant axée sur son syndrome clinique et l'autre sur son processus pathophysiologique. Avec l'avènement des techniques d'imagerie cérébrale, le peptide ß-amyloïde a émergé comme biomarqueur principal de la MA. Son accumulation précoce dans le cerveau, qui précèderait de plusieurs années le déclin cognitif associé à la maladie, en a fait une cible centrale dans l'étude de la MA. L'hypothèse de la cascade amyloïde, selon laquelle l'accumulation anormale de ß-amyloïde dans le cerveau n'est non pas uniquement un marqueur mais bien la cause de la MA, s'est éventuellement établie comme l'hypothèse dominante du processus pathophysiologique de la maladie. Selon cette hypothèse, l'accumulation de ß-amyloïde serait étroitement liée à la progression clinique de la MA, et ses effets sur le déclin cognitif devraient se manifester avant même l'apparition des symptômes cliniques de la maladie. Pourtant, plusieurs résultats de recherche tendent à démontrer que cette relation n'est pas si claire. Dans une perspective de détection précoce et de prévention, il est crucial d'appréhender l'apparition et le développement de la MA en examinant la relation entre sa pathophysiologie putative et son syndrome clinique. Le présent mémoire doctoral s'intéresse à la relation entre l'accumulation de ß-amyloïde et le déclin cognitif à un stade précoce de la maladie, soit chez des individus âgés cognitivement sains, et à l'évolution de cette relation sur plusieurs années. L'objectif du mémoire est d'investiguer cette relation par une revue systématique de la littérature scientifique. À la lueur des résultats issus de cette revue, le mémoire réitère les enjeux reliés au diagnostic clinique et à la pathophysiologie de la MA et remet en question les orientations théoriques et les pratiques méthodologiques dans le domaine de la recherche sur la MA.Dans les dernières décennies, deux conceptualisations distinctes de la maladie d’Alzheimer (MA) se sont développées en parallèle, l’une étant axée sur son syndrome clinique et l’autre sur son processus pathophysiologique. Avec l’avènement des techniques d’imagerie cérébrale, le peptide ß-amyloïde a émergé comme biomarqueur principal de la MA. Son accumulation précoce dans le cerveau, qui précèderait de plusieurs années le déclin cognitif associé à la maladie, en a fait une cible centrale dans l’étude de la MA. L’hypothèse de la cascade amyloïde, selon laquelle l’accumulation anormale de ß-amyloïde dans le cerveau n’est non pas uniquement un marqueur mais bien la cause de la MA, s’est éventuellement établie comme l’hypothèse dominante du processus pathophysiologique de la maladie. Selon cette hypothèse, l’accumulation de ß-amyloïde serait étroitement liée à la progression clinique de la MA, et ses effets sur le déclin cognitif devraient se manifester avant même l’apparition des symptômes cliniques de la maladie. Pourtant, plusieurs résultats de recherche tendent à démontrer que cette relation n’est pas si claire. Dans une perspective de détection précoce et de prévention, il est crucial d’appréhender l’apparition et le développement de la MA en examinant la relation entre sa pathophysiologie putative et son syndrome clinique. Le présent mémoire doctoral s’intéresse à la relation entre l’accumulation de ß-amyloïde et le déclin cognitif à un stade précoce de la maladie, soit chez des individus âgés cognitivement sains, et à l’évolution de cette relation sur plusieurs années. L’objectif du mémoire est d’investiguer cette relation par une revue systématique de la littérature scientifique. À la lueur des résultats issus de cette revue, le mémoire réitère les enjeux reliés au diagnostic clinique et à la pathophysiologie de la MA et remet en question les orientations théoriques et les pratiques méthodologiques dans le domaine de la recherche sur la MA.
224

Utilisation d'axicons pour la microscopie à deux photons

Dufour, Pascal 19 April 2018 (has links)
Un des enjeux majeurs de la biochimie et de la biologie cellulaire actuelle est de pouvoir suivre de manière dynamique les événements moléculaires à l'intérieur de la cellule vivante dans son contexte fonctionnel, c'est-à-dire in situ (dans son tissu d'origine). Il ne suffit plus, par exemple, d'identifier une réaction biochimique in vitro pour pouvoir savoir si un enzyme ou un autre rencontrera son substrat à l'intérieur de la cellule. Il apparaît de plus en plus évident que des facteurs spatio-temporels très fins à l'intérieur de la cellule vivante déterminent en grande partie la spécificité des signaux cellulaires. Il suffit de penser aux fluctuations calciques intracellulaires, par exemple, qui participent à une multitude de cascades de signalisation; sans spécificité spatiale et temporelle, la cellule ne pourrait utiliser les signaux calciques de manière utile et efficace. A cette fin, on propose un système de microscopie laser qui incorpore un axicon, lequel a la propriété de focaliser la lumière en un faisceau quasi-Bessel. Le contrôle du profil du faisceau incident sur l'axicon procure une ligne focale sur l'axe longitudinal ayant une intensité constante dans le milieu absorbant ainsi qu'une grande résolution transverse. Conséquemment, nous devons balayer notre échantillon en deux dimensions seulement pour obtenir une image complète de tout le volume, réduisant ainsi considérablement le temps d'acquisition. Nous présenterons les résultats théoriques de la génération d'un faisceau quasi-Bessel dans un échantillon absorbant, les caractéristiques du laser Ti:saphir utilisé ainsi que le schéma proposé pour la microscopie laser avec un axicon. Nous verrons qu'il est possible d'imager des échantillons fluorescents allant jusqu'à 1 mm d'épaisseur avec un seul balayage. Dans cette thèse, nous passerons en revue quelques principes qui sont à la base des avantages de la microscopie par excitation à deux photons afin de mettre en relief certains des défis (résolution spatiale, résolution temporelle, sensibilité, profondeur de pénétration dans le tissu et phototoxicité) pour améliorer l'utilisation de cette approche pour l'imagerie cellulaire fonctionnelle. Les propriétés des faisceaux de Bessel formés par l'axicon seront étudiées en profondeur. Nous décrirons ensuite notre microscope à deux photons avec un axicon et nous présenterons plusieurs résultats obtenus avec ce dernier.
225

Mineral identification using data-mining in hyperspectral infrared imagery

Yousefi, Bardia 05 July 2018 (has links)
Les applications de l’imagerie infrarouge dans le domaine de la géologie sont principalement des applications hyperspectrales. Elles permettent entre autre l’identification minérale, la cartographie, ainsi que l’estimation de la portée. Le plus souvent, ces acquisitions sont réalisées in-situ soit à l’aide de capteurs aéroportés, soit à l’aide de dispositifs portatifs. La découverte de minéraux indicateurs a permis d’améliorer grandement l’exploration minérale. Ceci est en partie dû à l’utilisation d’instruments portatifs. Dans ce contexte le développement de systèmes automatisés permettrait d’augmenter à la fois la qualité de l’exploration et la précision de la détection des indicateurs. C’est dans ce cadre que s’inscrit le travail mené dans ce doctorat. Le sujet consistait en l’utilisation de méthodes d’apprentissage automatique appliquées à l’analyse (au traitement) d’images hyperspectrales prises dans les longueurs d’onde infrarouge. L’objectif recherché étant l’identification de grains minéraux de petites tailles utilisés comme indicateurs minéral -ogiques. Une application potentielle de cette recherche serait le développement d’un outil logiciel d’assistance pour l’analyse des échantillons lors de l’exploration minérale. Les expériences ont été menées en laboratoire dans la gamme relative à l’infrarouge thermique (Long Wave InfraRed, LWIR) de 7.7m à 11.8 m. Ces essais ont permis de proposer une méthode pour calculer l’annulation du continuum. La méthode utilisée lors de ces essais utilise la factorisation matricielle non négative (NMF). En utlisant une factorisation du premier ordre on peut déduire le rayonnement de pénétration, lequel peut ensuite être comparé et analysé par rapport à d’autres méthodes plus communes. L’analyse des résultats spectraux en comparaison avec plusieurs bibliothèques existantes de données a permis de mettre en évidence la suppression du continuum. Les expérience ayant menés à ce résultat ont été conduites en utilisant une plaque Infragold ainsi qu’un objectif macro LWIR. L’identification automatique de grains de différents matériaux tels que la pyrope, l’olivine et le quartz a commencé. Lors d’une phase de comparaison entre des approches supervisées et non supervisées, cette dernière s’est montrée plus approprié en raison du comportement indépendant par rapport à l’étape d’entraînement. Afin de confirmer la qualité de ces résultats quatre expériences ont été menées. Lors d’une première expérience deux algorithmes ont été évalués pour application de regroupements en utilisant l’approche FCC (False Colour Composite). Cet essai a permis d’observer une vitesse de convergence, jusqu’a vingt fois plus rapide, ainsi qu’une efficacité significativement accrue concernant l’identification en comparaison des résultats de la littérature. Cependant des essais effectués sur des données LWIR ont montré un manque de prédiction de la surface du grain lorsque les grains étaient irréguliers avec présence d’agrégats minéraux. La seconde expérience a consisté, en une analyse quantitaive comparative entre deux bases de données de Ground Truth (GT), nommée rigid-GT et observed-GT (rigide-GT: étiquet manuel de la région, observée-GT:étiquetage manuel les pixels). La précision des résultats était 1.5 fois meilleur lorsque l’on a utlisé la base de données observed-GT que rigid-GT. Pour les deux dernières epxérience, des données venant d’un MEB (Microscope Électronique à Balayage) ainsi que d’un microscopie à fluorescence (XRF) ont été ajoutées. Ces données ont permis d’introduire des informations relatives tant aux agrégats minéraux qu’à la surface des grains. Les résultats ont été comparés par des techniques d’identification automatique des minéraux, utilisant ArcGIS. Cette dernière a montré une performance prometteuse quand à l’identification automatique et à aussi été utilisée pour la GT de validation. Dans l’ensemble, les quatre méthodes de cette thèse représentent des méthodologies bénéfiques pour l’identification des minéraux. Ces méthodes présentent l’avantage d’être non-destructives, relativement précises et d’avoir un faible coût en temps calcul ce qui pourrait les qualifier pour être utilisée dans des conditions de laboratoire ou sur le terrain. / The geological applications of hyperspectral infrared imagery mainly consist in mineral identification, mapping, airborne or portable instruments, and core logging. Finding the mineral indicators offer considerable benefits in terms of mineralogy and mineral exploration which usually involves application of portable instrument and core logging. Moreover, faster and more mechanized systems development increases the precision of identifying mineral indicators and avoid any possible mis-classification. Therefore, the objective of this thesis was to create a tool to using hyperspectral infrared imagery and process the data through image analysis and machine learning methods to identify small size mineral grains used as mineral indicators. This system would be applied for different circumstances to provide an assistant for geological analysis and mineralogy exploration. The experiments were conducted in laboratory conditions in the long-wave infrared (7.7μm to 11.8μm - LWIR), with a LWIR-macro lens (to improve spatial resolution), an Infragold plate, and a heating source. The process began with a method to calculate the continuum removal. The approach is the application of Non-negative Matrix Factorization (NMF) to extract Rank-1 NMF and estimate the down-welling radiance and then compare it with other conventional methods. The results indicate successful suppression of the continuum from the spectra and enable the spectra to be compared with spectral libraries. Afterwards, to have an automated system, supervised and unsupervised approaches have been tested for identification of pyrope, olivine and quartz grains. The results indicated that the unsupervised approach was more suitable due to independent behavior against training stage. Once these results obtained, two algorithms were tested to create False Color Composites (FCC) applying a clustering approach. The results of this comparison indicate significant computational efficiency (more than 20 times faster) and promising performance for mineral identification. Finally, the reliability of the automated LWIR hyperspectral infrared mineral identification has been tested and the difficulty for identification of the irregular grain’s surface along with the mineral aggregates has been verified. The results were compared to two different Ground Truth(GT) (i.e. rigid-GT and observed-GT) for quantitative calculation. Observed-GT increased the accuracy up to 1.5 times than rigid-GT. The samples were also examined by Micro X-ray Fluorescence (XRF) and Scanning Electron Microscope (SEM) in order to retrieve information for the mineral aggregates and the grain’s surface (biotite, epidote, goethite, diopside, smithsonite, tourmaline, kyanite, scheelite, pyrope, olivine, and quartz). The results of XRF imagery compared with automatic mineral identification techniques, using ArcGIS, and represented a promising performance for automatic identification and have been used for GT validation. In overall, the four methods (i.e. 1.Continuum removal methods; 2. Classification or clustering methods for mineral identification; 3. Two algorithms for clustering of mineral spectra; 4. Reliability verification) in this thesis represent beneficial methodologies to identify minerals. These methods have the advantages to be a non-destructive, relatively accurate and have low computational complexity that might be used to identify and assess mineral grains in the laboratory conditions or in the field.
226

Investigating the neural substrates of gambling disorder using multiple neuromodulation and neuroimaging approaches

Bouchard, Amy 13 December 2023 (has links)
Introduction : Le trouble du jeu de hasard et d'argent (GD) est caractérisé par un comportement de jeu inadapté qui interfère avec les activités personnelles ou professionnelles. Ce trouble psychiatrique est difficile à traiter avec les thérapies actuelles et les rechutes sont fréquentes. Les symptômes dépressifs et cognitifs (e.g., l'impulsivité), ainsi que le "craving" (désir intense de jouer) sont des facteurs prédictifs de rechutes. Une meilleure compréhension des substrats neuronaux et leurs significations cliniques pourraient mener au développement de nouveaux traitements. La stimulation transcrânienne à courant direct (tDCS) pourrait être l'un de ceux-ci car elle permet de cibler des circuits neuronaux spécifiques. De plus, la tDCS ciblant le cortex dorsolatéral préfrontal (DLPFC) pourrait améliorer les symptômes dépressifs et cognitifs et réduire le craving. Cependant, les effets précis de la tDCS sur la fonction cérébrale, ainsi que leurs significations cliniques, demeurent à être élucidés. Par ailleurs, étant donné que les patients avec GD présentent souvent des différences morphométriques par rapport aux individus en santé, il est possible de faire l'hypothèse que la morphométrie cérébrale influence les effets de la tDCS. Objectifs : Ce travail avait trois objectifs principaux. Le premier objectif était d'explorer s'il y avait des associations entre les substrats neuronaux et les symptômes cliniques et cognitifs. Le deuxième objectif était d'examiner les effets de la tDCS sur la fonction cérébrale. Le troisième objectif était d'explorer si la morphométrie du site de stimulation (DLPFC) pouvait influencer les effets de la tDCS sur les substrats neuronaux. Méthode : Nous avons réalisé quatre études différentes. Dans la première étude, nous avons mesuré la morphométrie cérébrale en utilisant l'imagerie par résonance magnétique (IRM) structurelle. Nous avons mesuré les corrélations entre la morphométrie et les symptômes cliniques (dépression, sévérité et durée du GD) et cognitifs (impulsivité). De plus, nous avons comparé la morphométrie des patients à celui d'une base de données normative (individus en santé) en contrôlant pour plusieurs facteurs comme l'âge. Dans la deuxième étude, nous avons mesuré la fonction cérébrale (connectivité fonctionnelle) des patients avec l'IRM fonctionnelle. Nous avons examiné s'il y avait des liens entre la connectivité fonctionnelle et les symptômes cognitifs (impulsivité et prise de risque) et cliniques (sévérité et durée du GD). Dans la troisième étude, nous avons étudié les effets de la tDCS sur la connectivité fonctionnelle et si la morphométrie du DLPFC pouvait influencer ces effets. Dernièrement, dans la quatrième étude, nous avons examiné si la morphométrie du DLPFC pouvait influencer les effets de la tDCS sur la neurochimie (avec la spectroscopie par résonance magnétique). Résultats : Nous avons démontré deux corrélations positives entre la superficie du cortex occipital et les symptômes dépressifs (étude I). Nous avons également mis en évidence une corrélation positive entre la connectivité fonctionnelle d'un réseau occipital et l'impulsivité (étude II). De plus, il y avait une corrélation positive entre la connectivité fonctionnelle de ce réseau et la sévérité du GD. Par ailleurs, il y avait des corrélations positives entre la connectivité fonctionnelle de l'opercule frontal droit et la prise de risque (étude II). En outre, la connectivité fonctionnelle d'un réseau cérébelleux était corrélée avec les symptômes dépressifs (étude II). Les patients avaient aussi plusieurs différences morphométriques par rapport aux individus en santé (cortex occipital, préfrontal, etc.). Nous avons démontré également que la tDCS appliquée sur le DLPFC a augmenté la connectivité fonctionnelle d'un réseau fronto-pariétal (étude III). Finalement, cette thèse a montré que la morphométrie du DLPFC influence les augmentations induites par la tDCS sur la connectivité fonctionnelle du réseau fronto-pariétal (étude III) et le niveau de GABA frontal (étude IV). Conclusions : Cette thèse démontre une importance clinique potentielle pour les régions occipitales, frontales et cérébelleuses, particulièrement pour les patients ayant des symptômes dépressifs ou cognitifs. De plus, elle montre que la tDCS peut renforcer le fonctionnement d'un réseau fronto-pariétal connu pour son rôle dans les fonctions exécutives. Il reste à déterminer si un plus grand nombre de sessions pourrait apporter des bénéfices cliniques additionnels afin d'aider les patients à résister le jeu. Finalement, les résultats de cette thèse suggèrent que la morphométrie des régions sous les électrodes pourrait aider à identifier les meilleurs candidats pour la tDCS et pourrait être considéré pour la sélection des cibles de stimulation. / Introduction: Gambling disorder (GD) is characterised by maladaptive gambling behaviour that interferes with personal or professional activities. This psychiatric disorder is difficult to treat with currently available treatments and relapse rates are high. Several factors can predict relapse, including depressive and cognitive (e.g., impulsivity, risk taking) symptoms, in addition to craving (strong desire to gamble). A better understanding of neural substrates and their clinical significance could help develop new treatments. Transcranial direct current stimulation (tDCS) might be one of these since it can target specific neural circuits. In addition, tDCS targeting the dorsolateral prefrontal cortex (DLPFC) could improve depressive and cognitive symptoms as well as reduce craving. However, the precise effects of tDCS on brain function, as well as their clinical significance, remain to be elucidated. Furthermore, considering that patients with GD often display morphometric differences as compared to healthy individuals, it may be worth investigating whether brain morphometry influences the effects of tDCS. Objectives: This work had three main objectives. The first objective was to explore whether there were associations between neural substrates and clinical and cognitive symptoms. The second objective was to examine the effects of tDCS on brain function. The third objective was to explore whether morphometry of the stimulation site (DLPFC) influenced the effects of tDCS on neural substrates. Methods: We carried out four different studies. In the first study, we investigated brain morphometry using structural magnetic resonance imaging (MRI). We tested for correlations between morphometry and clinical symptoms (depression, GD severity, GD duration) and cognitive symptoms (impulsivity). In addition, we compared the morphometry of patients with GD to that of a normative database (healthy individuals) while controlling for several factors such as age. In a second study, we assessed brain function (functional connectivity) in patients with functional MRI (fMRI). We examined whether there were associations between brain function and cognitive symptoms (impulsivity and risk taking) as well as clinical symptoms (GD severity and duration). In the third study, we examined tDCS-induced effects on brain function and whether morphometry of the DLPFC influenced these effects. Lastly, in the fourth study, we examined whether DLPFC morphometry influenced tDCS-induced effects on neurochemistry (using magnetic resonance spectroscopy imaging). Results: Firstly, we found two positive correlations between surface area of the occipital cortex and depressive symptoms (study I). We also showed a positive correlation between functional connectivity of an occipital network and impulsivity (study II). In addition, there was a positive correlation between functional connectivity of this network and GD severity (study II). In addition, there were positive correlations between functional connectivity of the right frontal operculum and risk-taking (study II). Also, functional connectivity of a cerebellar network was positively correlated with depressive symptoms (study II). Moreover, patients with GD had several morphometric differences as compared to healthy individuals (occipital and prefrontal cortices, etc.). Furthermore, we observed that tDCS over the DLPFC increased functional connectivity of a fronto-parietal circuit during stimulation (study III). Lastly, this thesis indicated that DLPFC morphometry influenced tDCS-induced elevations on fronto-parietal functional connectivity (study III) and frontal GABA levels (study IV). Conclusions: This thesis suggests the potential clinical relevance of occipital, frontal, and cerebellar regions, particularly for those with depressive and cognitive symptoms. It also indicates that tDCS can strengthen the functioning of a fronto-parietal network known to be implicated in executive functions. It remains to be seen whether a greater number of tDCS sessions could lead to clinical benefits to help patients resist gambling. Finally, the results of this thesis suggest that morphometry of the regions under the electrodes might help predict better candidates for tDCS and could be considered to select stimulation targets.
227

Imagerie préclinique multimodale chez le petit animal : qualification des instruments et des méthodes (IRM, µTDM et µTEMP) / Preclinical multimodal small animal imaging : qualification of instruments and methods (MRI, µCT and µSPECT)

Dillenseger, Jean-Philippe 26 September 2017 (has links)
L’imagerie préclinique se pratique majoritairement sur des modèles animaux murins principalement des souris (61%), elle représente une étape indispensable en recherche préclinique car elle suit les deux premières recommandations de la règle des 3R (réduction, raffinement et remplacement). Pour donner une signification biologique aux mesures extraites des images acquises in vivo chez la souris, il est nécessaire d’évaluer les performances des instruments utilisés mais également des procédures expérimentales en jeu. La qualification des appareils nécessite l’usage de fantômes spécifiques, et l’évaluation des méthodes impose de tester les procédures sur des individus non pathologiques, avant le passage aux expérimentations proprement dites. L’objectif de ce travail a été de développer des outils et des méthodes permettant de qualifier les instruments d’imagerie et certaines procédures in vivo. La nécessité de quantification, à partir d’images réalisées chez le petit animal, nous amène à considérer les instruments d’imagerie préclinique comme des outils métrologiques ; ce qui amène à intégrer le principe d’incertitude de mesure dans l’expression des résultats. / Preclinical imaging is mostly performed on mouse animal models (61%). It is a necessary step in preclinical research, in compliance the first two recommendations of the 3Rs rules (reduction, refinement and replacement). In order to give a biological significance to measurements extracted from in vivo-acquired mouse images, it is necessary to evaluate instruments performances but also experimental procedures involved. The qualification of apparatuses requires the use of specific phantoms while the evaluation of methods requires procedures tests on non-pathological animals before experimentations. The scope of this work was to develop tools and methods to qualify imaging instruments and in vivo procedures. The need for quantification in small animal imaging, leads us to consider preclinical imaging instruments as metrological tools; which means integrating measurement uncertainty into.
228

Imagerie chimique 3D de tumeurs du cerveau / 3D chemical imaging of brain tumors

Ogunleke, Abiodun 18 March 2019 (has links)
L'histologie tridimensionnelle (3D) est un nouvel outil avancé de cancérologie. L'ensemble du profil chimique et des caractéristiques physiologiques d'un tissu est essentiel pour comprendre la logique du développement d'une pathologie. Cependant, il n'existe aucune technique analytique, in vivo ou histologique, capable de découvrir de telles caractéristiques anormales et de fournir une distribution3D à une résolution microscopique. Nous présentons ici une méthode unique de microscopie infrarouge (IR) à haut débit combinant une correction d'image automatisée et une analyse ultérieure des données spectrales pour la reconstruction d'image 3D-IR. Nous avons effectué l'analyse spectrale d'un organe complet pour un petit modèle animal, un cerveau de souris avec une tumeur de gliome implantée. L'image 3D-IR est reconstruite à partir de 370 coupes de tissus consécutives et corrigée à l'aide du tomogramme à rayons X de l'organe pour une analyse quantitative précise du contenu chimique. Une matrice 3D de spectres IR 89 x 106 est générée, ce qui nous permet de séparer la masse tumorale des tissus cérébraux sains en fonction de divers paramètres anatomiques,chimiques et métaboliques. Nous démontrons pour la première fois que des paramètres métaboliques quantitatifs (glucose, glycogène et lactate) peuvent être extraits et reconstruits en 3D à partir des spectres IR pour la caractérisation du métabolisme cérébral / tumoral (évaluation de l'effet de Warburg dans les tumeurs). Notre méthode peut être davantage exploitée en recherchant l'ensemble du profil spectral, en distinguant différents points de repère anatomiques dans le cerveau.Nous le démontrons par la reconstruction du corps calleux et de la région des noyaux gris centraux du cerveau. / Three-dimensional (3D) histology is a new advanced tool for cancerology. The whole chemical profile and physiological characteristics of a tissue is essential to understand the rationale of pathology development. However, there is no analytical technique, in vivo or histological, that is able to discover such abnormal features and provide a 3D distribution at microscopic resolution.Here, we introduce a unique high- throughput infrared (IR) microscopy method that combines automated image correction and subsequent spectral data analysis for 3D-IR image reconstruction. I performed spectral analysis of a complete organ for a small animal model, a mouse brain with animplanted glioma tumor. The 3D-IR image is reconstructed from 370 consecutive tissue sectionsand corrected using the X-ray tomogram of the organ for an accurate quantitative analysis of thechemical content. A 3D matrix of 89 x 106 IR spectra is generated, allowing us to separate the tumor mass from healthy brain tissues based on various anatomical, chemical, and metabolic parameters. I demonstrate for the first time that quantitative metabolic parameters (glucose, glycogen and lactate) can be extracted and reconstructed in 3D from the IR spectra for the characterization of the brain vs. tumor metabolism (assessing the Warburg effect in tumors). Our method can be further exploited by searching for the whole spectral profile, discriminating different anatomical landmarks in the brain. I demonstrate this by the reconstruction of the corpus callosum and basal ganglia region of the brain.
229

Comparaison théorique et expérimentale des performances après traitement de l'imagerie active et de l'IR2 dans des conditions dégradées / Theorical and experimental comparison after post-processing of active and thermal imaging perfomance under adverse conditions

Bernard, Erwan 23 November 2015 (has links)
L’imagerie thermique est largement utilisée dans le domaine militaire pour ses capacités de vision diurne etnocturne et sa longue portée d’observation. Cette technologie est basée sur la détection passive dans l’infrarouge.En conditions météorologiques dégradées ou quand la cible est partiellement dissimulée par du feuillage ou desfilets de camouflages militaires, elle devrait être à court terme de plus en plus complémentée par un systèmed’imagerie active. Cette technologie est essentielle pour l’imagerie à longue portée. La technique d’imagerie diteflash 2D est basée sur une source laser impulsionnel qui illumine la scène et sur une caméra rapide synchroniséequi constitue le système d’imagerie. Ces deux technologies sont bien éprouvées en présence de conditionsmétéorologiques claires. Les modèles TRM4 (imagerie thermique) et PERFIMA (imagerie active) sont capablesde prédire correctement les performances de tels systèmes par beau temps. En revanche, en conditions dégradéestelle que la pluie, le brouillard ou la neige, ces modèles deviennent non pertinents. Cette étude introduit denouveaux modèles pour compléter les codes TRM4 et PERFIMA, et les rendre aptes à prévoir les performancesdans ces conditions dégradées. Nous analysons ici plus particulièrement le temps de pluie pour l’imagerie activeet l’imagerie thermique. Dans un premier temps, nous répertorions l’impact possible de la pluie sur des paramètresphysiques connus (extinction, transmission, résolution spatiale, luminance de trajet, turbulence). Nous étudionsensuite les phénomènes physiques et les lois régissant les caractéristiques de la pluie. Nous avons développé desmodèles physiques permettant de calculer l’impact de la pluie sur le système global d’imagerie. Enfin, nous avonssimplifié et allégé ces modèles pour obtenir des modèles faciles à utiliser et à interfacer avec les codes TRM4 etPERFIMA qui sont couramment utilisés pour des applications industrielles. Ces modèles de prédiction del’imagerie active et de l’imagerie thermique ont été confrontés à la réalité (expérience avec l’imageur MILPATpar exemple) pour être validé sur des données réelles, comme la portée des systèmes. / Thermal imaging cameras are widely used in military contexts for their day and night vision capabilities andtheir observation range; there are based on passive infrared sensors (e.g. MWIR or LWIR range). Under badweather conditions or when the target is partially hidden (e.g. foliage, military camouflage) they will be more andmore complemented by active imaging systems, a key technology to perform target identification at long ranges.The 2D flash imaging technique is based on a high powered pulsed laser source that illuminates the entire sceneand a fast gated camera as the imaging system. Both technologies are well experienced under clear meteorologicalconditions; current models such as TRM4 (themal imaging) and PERFIMA (active imaging) codes are able topredict accurately the systems performances. However, under bad weather conditions such as rain, haze or snow,these models are not relevant. This study introduces new models to complete TRM4 and PERFIMA codesperformances predictions under bad weather conditions for both active and infrared imaging systems. We pointout rain effects on controlled physical parameters (extinction, transmission, spatial resolution, thermalbackground, turbulence). Then we develop physical models to describe their intrinsic characteristics and theirimpact on the imaging system performances. Finally, we approximate these models to have a “first order” modeleasy to deploy into TRM4 and PERFIMA already use for industrial applications. This theoretical work is validatedon real active and infrared data, as systems range.
230

Caractérisation des exoplanètes par imagerie depuis le sol et l'espace : Application à la mission SPICES et à l'instrument VLT/NaCo

Maire, Anne-Lise 16 October 2012 (has links) (PDF)
L'imagerie directe est actuellement la seule méthode disponible pour caractériser l'atmosphère des exoplanètes à longue période orbitale (≥1 UA). Cette méthode est difficile à mettre en œuvre parce qu'elle requiert de hauts contrastes à des séparations angulaires très proches (10^6-10^10 à ~0,2''). Pendant ma thèse, je me suis intéressée à deux instruments : la mission SPICES et l'instrument VLT/NaCo. SPICES (Spectro-Polarimetric Imaging and Characterization of Exoplanetary Systems) est un projet de coronographe spatial qui a pour objectif la caractérisation spectro-polarimétrique d'exoplanètes froides et de disques circumstellaires faibles (≥1 zodi). J'ai déterminé à l'aide de simulations numériques les performances scientifiques de cette mission. Pour une étoile solaire, SPICES pourrait caractériser des Jupiters à des séparations ≤5 UA et des distances ≤10 pc, des super-Terres à 1-2 UA pour quelques étoiles à moins de 4-5 pc et des Terres autour de α Centauri A. En considérant tous les types stellaires, j'ai estimé un nombre d'étoiles cibles potentielles de ~300. Dans la deuxième partie de ma thèse, j'ai analysé des données d'imagerie coronographique et différentielle angulaire et spectrale de l'instrument NaCo. L'objectif de ce programme d'observation était de chercher des planètes géantes gazeuses aussi froides que 500-1300 K à des séparations de 5-10 UA autour d'un échantillon sélectionné d'étoiles jeunes et proches (<200 Ma, <25 pc). Les limites de détection médiane atteignent des contrastes de ~10^−5 à 1'', correspondant à des températures effectives et masses de 1100 K et 10 MJ. Ces observations permettent de contraindre les propriétés des planètes géantes à longue période orbitale (>5 UA) et complètent les études statistiques basées sur les vitesses radiales.

Page generated in 0.0376 seconds