• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 162
  • 82
  • 17
  • Tagged with
  • 261
  • 108
  • 83
  • 74
  • 67
  • 64
  • 57
  • 55
  • 53
  • 47
  • 43
  • 41
  • 39
  • 32
  • 29
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
71

Méthodes d'analyse de volumes d'images multimodales pour le suivi longitudinal en oncologie / Multimodal imaging analysis methods for longitudinal monitoring of patients in oncology

Tacchella, Jean-Marc 02 April 2015 (has links)
Le suivi longitudinal en oncologie consiste à évaluer régulièrement l'évolution tumorale afin de définir un protocole de traitement adapté à chaque patient. Il est alors nécessaire d'identifier des biomarqueurs pertinents, qui permettent de quantifier précocement l'évolution tumorale. Les examens d'imagerie permettent d’assurer un suivi non invasif et de proposer des biomarqueurs complémentaires de ceux préexistants. Cette recherche de nouveaux biomarqueurs nécessite de s’appuyer sur des études cliniques et d’effectuer une étude comparative des examens réalisés à différents temps, dans différentes modalités, et ce tant au niveau global que local. Dans cette thèse, nous nous sommes attachés à développer une approche intégrée de traitement d’images pour analyser la pertinence d'indices pour le suivi tumoral. Cette stratégie se décompose en trois étapes: le recalage des données acquises à différents temps et provenant de modalités différentes, la segmentation des lésions tumorales sur les examens de chaque modalité, et le calcul d'indices globaux et locaux traduisant l'évolution spatio-temporelle de la tumeur.L'aspect le plus innovant réside dans l'étape de recalage pour laquelle, au vu des difficultés rencontrées avec les approches classiques, nous avons proposé une nouvelle approche consistant en l'utilisation de plusieurs méthodes de recalage et la sélection de la meilleure pour chaque jeu de données, grâce à un critère quantitatif défini en fonction des applications considérées. L'apport de cette approche a été démontré dans le cadre de deux études cliniques : 1) le suivi de patients atteints de gliomes de haut grade traités par un médicament antiangiogénique nécessitant la mise en correspondance de données de tomographie d’émission monophotonique (TEMP) obtenues après injection de Sestamibi marqué au Technétium-99m avec des images de résonnance magnétique (IRM) pondérées en T1 et acquises après l'injection d'un produit de contraste; 2) le suivi de patients atteints de lésions hépatiques et traités par différents médicaments anticancéreux, nécessitant le recalage de données de perfusion en tomodensitométrie (TDM).La stratégie complète d'analyse a été appliquée à la première étude. Les zones tumorales ont été segmentées sur les IRM en utilisant une méthode classique de Level Set 2D et sur les données TEMP à l'aide de cinq méthodes de seuillage qui diffèrent par les options de choix du seuil. Malgré une forte corrélation en terme de volumes globaux, les indices locaux ont permis de montrer qu'une partie des volumes tumoraux détectés sur les examens TEMP précoces (réalisés 15 minutes après injection) et tardifs (réalisés 3 heures après injection) pouvaient être localisés en-dehors des volumes détectés sur les IRM après injection de Gadolinium. La corrélation élevée constatée entre, d’une part, les variations d'intensité au sein des volumes tumoraux au cours du traitement sur les examens TEMP tardifs et, d’autre part, l'indice de survie globale, suggère que cette variation relative d'intensité pourrait être prédictive de la durée de survie globale des patients, ce qui n’est pas le cas des indices utilisant les données IRM sur notre série limitée de patients. Ainsi ces résultats montrent que l’imagerie TEMP, avec un examen réalisé 3 heures après l’injection de Sestamibi marqué au Technétium-99m, peut être complémentaire de l’IRM, pour évaluer l'évolution tumorale des glioblastomes.Les perspectives de ce travail de thèse sont d'appliquer la stratégie d'analyse à d'autres études cliniques. Néanmoins chaque étape doit être adaptée aux spécificités de l'application concernée, notamment aux modalités d'imagerie impliquées et à la zone anatomique considérée. La principale difficulté à résoudre réside dans l'automatisation et la robustesse des différentes étapes de traitement d’images envisagées. / Longitudinal follow-up in oncology consists in assessing tumor progression in order to define a treatment strategy for each patient. It is thus necessary to identify relevant biomarkers that allow an early evaluation of the tumor’s response to the treatment. Biomedical imaging exams help to ensure a non-invasive monitoring of patients and to propose complementary biomarkers to existing ones. This search for new biomarkers requires relying on clinical studies to compare globally and locally exams acquired at different times and in different modalities.In this PhD dissertation, we focused on developing an integrated image processing framework to analyze the relevance of indices for evaluating the tumor evolution. The strategy includes three steps: registration data acquired at different times and in different modalities, the segmentation of tumor lesions on exams in each modality, and the computation of global and local indices reflecting the spatiotemporal evolution of the tumor.The most innovative aspect lies in the registration step: due to the difficulties faced with conventional methods, we proposed a new approach consisting in using several registration methods and selecting the best one for each dataset, thanks to a quantitative criterion based on the specific features of the application. The contribution of this approach was proven in two clinical studies: 1) monitoring of patients with high-grade gliomas treated with an antiangiogenic drug, where Single Photon Emission Tomography data (SPECT) obtained after injection of Technetium-99m Sestamibi have to be matched with T1-weighted Magnetic Resonance Images (MRI) acquired after the injection of a contrast agent; 2) monitoring of patients with liver damage treated with various anticancer drugs, requiring the alignment of Computed Tomography (CT) data.The complete image processing framework was applied to the first study. Tumor areas were segmented on MR images using a conventional 2D Level Set method, as well as on the TEMP data using five thresholding methods that differ in the choice of the threshold options. Despite a strong correlation in terms of overall volumes, local indices have shown that some of the detected tumor volumes on early SPECT exams (performed 15 minutes after injection) and late SPECT exams (performed 3 hours after injection) could be located out of the tumor volumes detected on MRI. The high correlation found between the intensity variations in tumor volume during treatment on late SPECT exams and the index of Overall Survival (OS) suggests that this relative change of intensity could be predictive of the patient overall survival, which is not the case with the indices derived from the MRI data on our limited series of patients. Thus, these results show that SPECT imaging, with an exam performed 3 hours after injection of Technetium-99m Sestamibi, can be complementary to MRI in the assessment of tumor progression in glioblastomas.The main perspective for this PhD work would consist in applying the analysis strategy to other clinical studies. However, each step must be adapted to suit the specific nature of the targeted application, including the imaging modalities involved and the considered anatomical area. The expected sticking points are the automation and the robustness of the different steps of the processing chain.
72

Acquisition et modélisation de données articulatoires dans un contexte multimodal

Aron, Michael 12 November 2009 (has links) (PDF)
La connaissance des positions et des mouvements des articulateurs (lèvres, palais, langue...) du conduit vocal lors de la phonation est un enjeu crucial pour l'étude de la parole. Puisqu'il n'existe pas encore de système permettant l'acquisition de ces positions et de ces mouvements, ce travail de thèse s'intéresse à la fusion de plusieurs modalités d'imagerie et de capteurs de localisation pour l'acquisition des positions des articulateurs dans l'espace et dans le temps. Nous décrivons un ensemble de protocoles et de méthodes pour obtenir et fusionner automatiquement un important volume de données échographiques (imageant en 2D la dynamique de la langue), stéréoscopiques (imageant en 3D la dynamique des lèvres), de capteurs électromagnétiques (capturant des points 3D de la langue et du visage), et d'Imagerie par Résonance Magnétique (IRM) pour acquérir en 3D l'ensemble des articulateurs en position statique. Nos contributions concernent plus particulièrement la synchronisation temporelle, le recalage spatial des données et l'extraction automatique des formes à partir des données (suivi de la langue dans les images échographiques). Nous évaluons la précision sur chaque donnée extraite, ainsi que sur l'ensemble des données fusionnées. Nous les validons enfin sur un modèle articulatoire existant. Ces travaux permettent l'obtention de données bien fondées pour la mise en place et l'étude de modèles articulatoires pour des applications en parole.
73

SYSTEME DE SUIVI BASE SUR L'ECHOGRAPHIE 3D POUR L'ASSURANCE DE LA QUALITE DE LA DISTRIBUTION DES BIOPSIES DE LA PROSTATE ET LE GUIDAGE DU GESTE.

Baumann, Michael 26 May 2008 (has links) (PDF)
A l'heure actuelle, la procédure clinique standard de prélèvement de biopsies de la prostate est effectuée sous contrôle échographique 2D en utilisant un protocole systématique. Il est difficile pour le clinicien de localiser les cibles de biopsie avec précision, et il est impossible de connaître la position exacte des tissus échantillonnés après l'intervention. Dans ce mémoire, nous proposons une méthode permettant de localiser la position des tissus prélevés avec une précision millimétrique par rapport à une image 3D de la prostate de référence. Elle combine des techniques de recalage rigide et élastique basées sur les intensités (recalage iconique) avec des modèles a priori des contraintes biomécaniques. Ce travail permet la mise en œuvre d'applications telles que la validation postopératoire de la distribution des biopsies et l'établissement de cartographies précises des tissus cancéreux, ce qui permettrait éventuellement un traitement localisé du cancer de la prostate. L'approche proposée permet également de guider le clinicien vers des cibles définies sur l'image de référence, provenant par exemple d'une autre modalité d'imagerie telle que l'IRM ou le SpectroIRM.
74

Développement de méthodes pour la détection de changement

Blanc, Philippe 03 December 1999 (has links) (PDF)
La détection des changements d'un paysage est la mise en œuvre de techniques ayant pour but de repérer, de mettre en évidence et enfin, de comprendre son évolution temporelle. Ses domaines d'application sont riches et variés en télédétection. Cependant, la plupart des applications de détection de changement ne s'appuient pas sur une démarche générale permettant de justifier ou de généraliser les solutions techniques proposées. La thèse a pour premier objectif d'apporter une nouvelle contribution à la mise en place d'un cadre et d'une méthodologie générale propre à la détection de changement. Après l'établissement d'un certain nombre de définitions sur les changements d'un paysage en termes d'échelles caractéristiques et d'observabilité, nous proposons une méthodologie, basée sur un analyse bibliographique, se décomposant en cinq étapes : l'identification et la caractérisation des différentes sources de changements effectifs et exogènes ; l'alignement géométrique et radiométrique des données ; l'extraction d'informations pertinentes vis-à-vis des changements à détecter ; la création des écarts à un modèle d'évolution temporelle ; la prise de décision et la synthèse des résultats. Cette analyse fait apparaître des problèmes fondamentaux relatifs au lien entre les changements effectifs et ceux observés en fonction des caractéristiques des moyens d'observation. L'étude de ce lien est le deuxième objectif de la thèse. Enfin, la thèse a mis en évidence le rôle crucial de l'alignement des données et, notamment, de l'alignement géométrique. A partir d'un algorithme existant, nous avons élaboré une méthode de recalage automatique itérative s'appuyant sur une décomposition multirésolution des images et utilisant des techniques d'appariement sub-pixellaire et de déformation géométrique locales. Un protocole innovant de validation à partir d'images simulées a été établi et a permis d'évaluer la qualité de la méthode et son apport comparé à des méthodes de recalage standards.
75

Recalage et mosaïques d'images pour la microscopie confocale fibrée dynamique in vivo

Vercauteren, Tom 25 January 2008 (has links) (PDF)
La microscopie confocale classique permet d'obtenir des images à haute résolution de cellules en culture ou dans un tissu biologique excisé. Cette technologie peut être adaptée aux applications in vivo grâce à l'utilisation de fibres optiques et d'optiques miniaturisées. A terme, la microscopie confocale fibrée devrait permettre aux médecins et biologistes de réaliser des biopsies optiques; c'est à dire un examen histologique, en temps réel, des tissus biologiques à l'intérieur d'un organisme vivant et directement au contact de la zone d'intérêt.<br /><br />Le but premier de cette thèse est de dépasser les limites matérielles de ces instruments d'imagerie en développant des outils de recalage d'images spécifiques et innovants. En particulier, le propos de ce manuscrit est cadré par l'objectif de proposer, au travers d'outils de création de mosaïques d'images, des biopsies optiques à grand champ aux médecins. Cette application est considérée, dans cette thèse, comme un système, ou un circuit, qui prendrait en entrée un flot de données brutes et délivrerait en sortie des mosaïques d'images à grand champ. Nous détaillons les éléments critiques de ce système, en particulier la reconstruction d'images en temps réel, le recalage linéaire d'images et le recalage non linéaire, avant de présenter la structure du système complet.<br /><br />Les données brutes produites par la microscopie confocale fibrée sont difficiles à interpréter parce qu'elle sont modulées par la structure en nid d'abeille du réseau de fibres optiques et parce qu'elle sont entachées d'artefacts géométriques. Dans ce contexte, nous montrons qu'une reconstruction en temps réel des images peut être utilisée en pré-traitement afin de produire des séquences vidéos directement interprétables. Comme la microscopie confocale fibrée est une imagerie qui se fait au contact des tissus, le mouvement relatif du tissu par rapport à la sonde optique implique qu'il est parfois difficile d'obtenir de manière robuste certaines mesures quantitatives d'intérêt. Nous avons donc attaqué le problème du recalage linéaire, efficace et robuste de paires d'images. Nous montrons que des outils récents provenant du domaine du contrôle robotique par la vision peuvent surpasser les solutions standards utilisées en analyse d'images biomédicales. L'adéquation de ces outils au problème du recalage linéaire d'images nous a amenés à revisiter le problème du recalage non-linéaire. En interprétant le recalage non-linéaire comme un problème d'optimisation sur un groupe de Lie, nous développons un algorithme rapide de recalage difféomorphe non-paramétrique d'images. En plus d'être difféomorphe, notre algorithme produit des résultats qui sont similaires à ceux de l'algorithme des démons de Thirion mais qui sont plus lisses et plus proche de la vérité.<br /><br />Finalement, nous obtenons une boîte à outils de reconstruction et de recalage d'images que nous utilisons pour proposer un algorithme robuste de création de mosaïques d'images qui permette de calculer un alignement globalement cohérent à partir de résultats locaux, de compenser les distorsions liées au mouvement et de retrouver les déformations non-rigides. Par ailleurs, notre algorithme de mosaïques d'images a récemment été incorporé dans un essai clinique multicentrique. Cet essai illustre l'intérêt clinique de nos outils dans le cadre spécifique de la surveillance de l'œsophage de Barrett.
76

Cryptographie visuelle pour l’authentification de documents / Visual cryptography for documents authentification

Machizaud, Jacques 27 September 2012 (has links)
La cryptographie visuelle consiste à partager entre plusieurs « Shadow Images » (SIs) un secret qui ne se révèlera à l'oeil de l'observateur qu'à leur superposition. Depuis les travaux de Naor et Shamir, ce procédé cryptographique a été étendu à Des schémas numériques variés, adaptés à diverses problématiques. En revanche, les travaux concernant son implémentation physique sont peu nombreux à ce jour. Cette thèse est consacrée à l'implémentation de la cryptographie visuelle sur des SIs imprimés en demi-tons en vue de l'authentification de documents. Le SI associé au document peut être imprimé sur support opaque ou transparent, les autres SIs étant imprimés sur films transparents. Nous avons résolu la difficulté de leur superposition par une méthode de Fourier permettant le recalage de la structure quasi-périodique d'un SI. La précision de cette méthode nous a permis de développer un système optique de superposition par projection. On verra que les phénomènes physiques responsables du rendu visuel de SIs superposés sont propices à une protection contre la copie illicite du SI associé à un document. La complexité de ces phénomènes et leur dépendance au type d'impression imposent une modélisation physique pour obtenir un rendu précis. Cette approche nous a conduit à considérer la problématique de la reproduction des couleurs et à développer des modèles spectraux adaptés à la superposition de supports imprimés non diffusants et/ou diffusants, en réflexion et en transmission. La précision de ces modèles prédictifs est tout à fait satisfaisante au regard de celle habituellement obtenue dans le domaine de la reproduction des couleurs. Cela nous a permis d'introduire une approche originale de la cryptographie visuelle par ajustement de couleur (color matching) : une même couleur, à une tolérance près basée sur la vision humaine, est générée par différents demi-tons imprimés sur les supports à superposer. La couleur du message peut ainsi constituer un secret partagé entre les SIs de la même façon que l'est le contenu du message. Chaque SI pris individuellement ne laisse fuir aucune information sur la couleur du message, qui ne sera révélée qu'à leur superposition. Cela peut permettre de prévenir une attaque par falsification du SI associé au document (cheating attack ). De plus, le rendu des couleurs étant très dépendant du système d'impression utilisé, une reproduction fidèle à partir d'un système d'impression différent est difficile. La difficulté peut être encore accrue par l'utilisation de caractéristiques d'impression non standard / In this thesis, we will focus on the physical implementation of visual cryptography, which consists in sharing a secret message between several unmeaning images, so-called shadow images, at least one of them being printed. By the principle of the method, no information leaks about the message until the images are properly stacked together. As the alignment of the shadow images hampers the deployment of the visual cryptography in practice, we develop a dedicated image registration method. In contrast with existing methods, ours is not intrusive. We make use of the particular shape of the elementary constituents of the shadow images, the shares, to extract in the Fourier domain the main parameters of the geometrical transformations occurring between the superposed images. We prove that this method allows subpixel accuracy in shadow images registration. We benefit from such ability by implementing visual cryptography in an image projection configuration : the digital shadow image is projected onto the printed one. In this way, the registration is performed automatically by using a digital camera (the resulting superposition being observable by the eye). For the purpose of authentication, one has to deal with specific attacks: the shadow image attached to a given document could be tampered with or copied. In order to prevent such attacks, we have increased the di_culty to reproduce the shadow image by considering color. This approach requires a complete management of colors. Thanks to recent advances in color reproduction, we are able to predict the reflectance and transmittance spectra of supports printed in color. In this thesis, we develop new spectral prediction models namely for piles of printed transparencies as well as for transparencies stacked onto papers, all printed in color. Thus, we are able to predict the color of each share in a shadow image to be printed and to achieve color matching i.e. we are able to reach a color by various combinations of superposed colors. Such a prediction allowed us to introduce a new approach in visual cryptography: color matching when revealing the secret message to be shared into two (or more) shadow images, in order to authenticate the shadow images provider. As the prediction models are sensitive to the calibration of the printing system (printer, inks, supports, halftoning and geometry measurement conditions), the use of special materials will increase the di_culty to generate visually acceptable fake pairs of shadow images
77

Conception de métaheuristiques pour l'optimisation dynamique : application à l'analyse de séquences d'images IRM / Design of metaheuristics for dynamic optimization : application to the analysis of MRI image sequences

Lepagnot, Julien 01 December 2011 (has links)
Dans la pratique, beaucoup de problèmes d'optimisation sont dynamiques : leur fonction objectif (ou fonction de coût) évolue au cours du temps. L'approche principalement adoptée dans la littérature consiste à adapter des algorithmes d'optimisation statique à l'optimisation dynamique, en compensant leurs défauts intrinsèques. Plutôt que d'emprunter cette voie, déjà largement explorée, l'objectif principal de cette thèse est d'élaborer un algorithme entièrement pensé pour l'optimisation dynamique. La première partie de cette thèse est ainsi consacrée à la mise au point d'un algorithme, qui doit non seulement se démarquer des algorithmes concurrents par son originalité, mais également être plus performant. Dans ce contexte, il s'agit de développer une métaheuristique d'optimisation dynamique. Deux algorithmes à base d'agents, MADO (MultiAgent algorithm for Dynamic Optimization) et MLSDO (Multiple Local Search algorithm for Dynamic Optimization), sont proposés et validés sur les deux principaux jeux de tests existant dans la littérature en optimisation dynamique : MPB (Moving Peaks Benchmark) et GDBG (Generalized Dynamic Benchmark Generator). Les résultats obtenus sur ces jeux de tests montrent l'efficacité des stratégies mises en oeuvre par ces algorithmes, en particulier : MLSDO est classé premier sur sept algorithmes évalués sur GDBG, et deuxième sur seize algorithmes évalués sur MPB. Ensuite, ces algorithmes sont appliqués à des problèmes pratiques en traitement de séquences d'images médicales (segmentation et recalage de séquences ciné-IRM cérébrales). A notre connaissance, ce travail est innovant, en ce sens que l'approche de l'optimisation dynamique n'avait jamais été explorée pour ces problèmes. Les gains de performance obtenus montrent l'intérêt d'utiliser les algorithmes d'optimisation dynamique proposés pour ce type d'applications / Many real-world problems are dynamic, i.e. their objective function (or cost function) changes over time. The main approach used in the literature is to adapt static optimization algorithms to dynamic optimization, compensating for their intrinsic defects. Rather than adopting this approach, already widely investigated, the main goal of this thesis is to develop an algorithm completely designed for dynamic optimization. The first part of this thesis is then devoted to the design of an algorithm, that should not only stand out from competing algorithms for its originality, but also perform better. In this context, our goal is to develop a dynamic optimization metaheuristic. Two agent-based algorithms, MADO (MultiAgent algorithm for Dynamic Optimization) and MLSDO (Multiple Local Search algorithm for Dynamic Optimization), are proposed and validated using the two main benchmarks available in dynamic environments : MPB (Moving Peaks Benchmark) and GDBG (Generalized Dynamic Benchmark Generator). The benchmark results obtained show the efficiency of the proposed algorithms, particularly : MLSDO is ranked at the first place among seven algorithms tested using GDBG, and at the second place among sixteen algorithms tested using MPB. Then, these algorithms are applied to real-world problems in medical image sequence processing (segmentation and registration of brain cine-MRI sequences). To our knowledge, this work is innovative in that the dynamic optimization approach had never been investigated for these problems. The performance gains obtained show the relevance of using the proposed dynamic optimization algorithms for this kind of applications
78

Multi-modal registration of T1 brain image and geometric descriptors of white matter tracts / Recalage Multi-modal des image du cerveau T1 et les descripteurs de trajectoires de la matière blanche

Siless, Viviana 08 July 2014 (has links)
Le recalage des images du cerveau vise à réduire la variabilité anatomique entre les differentes sujets, et à créer un espace commun pour l'analyse de groupe. Les approches multi-modales essaient de minimiser les variations de forme du cortex et des structures internes telles que des faisceaux de fibres nerveuses. Ces approches nécessitent une identification préalable de ces structures, ce qui s'avère une tâche difficile en l'absence d'un atlas complet de référence. Nous proposons une extension de l'algorithme de recalage difféomorphe des Démons pour recaler conjointement des images et des faisceaux de fibres. Dans cette thèse, nous analysons différentes représentations des faisceaux de fibres comme une séquence de points, un nuage de points, les courants et les mesures. Différentes distances sont analysées et étudiées dans l'algorithme de recalage. Pour simplifier la représentation de la matière blanche nous utilisons et étendons les algorithmes de classification existants. En étendant le recalage d'images afin d'ajouter des descripteurs de la géométrie des fibres nerveuses, nous espérons améliorer les futures analyses concernant les matières grise et blanche. Nous avons démontré l'efficacité de notre algorithme en recalant conjointement des images anatomiques pondérées en T1 et des faisceaux de fibres. Nous avons comparé nos résultats à des approches concurrentes, l'une multimodale s'appuyant sur l'anisotropie fractionnaire et la pondération T1, l'autre sur les tenseurs de diffusion, et obtenu de meilleures performances à l'aide de notre algorithme. Enfin, nous mettons en évidence sur des études de groupe en IRMf que notre méthodologie et notre implémentation apportent un gain en sensibilité de détection des activations cérébrales. / Brain image registration aims at reducing anatomical variability across subjects to create a common space for group analysis. Multi-modal approaches intend to minimize cortex shape variations along with internal structures, such as fiber bundles. These approaches require prior identification of the structures, which remains a challenging task in the absence of a complete reference atlas. We propose an extension of the Diffeomorphic Demons image registration to jointly register images and fiber bundles. In this thesis we analyze differents representations of the fiber bundles such as ordered points, clouds of points, Currents and Measures. Different distances are analyzed and implemented into the registration algorithm. To simplify white matter representation we also analyze, use and extend existing clustering algorithms. By extending the image registration to include geometric fiber bundles descriptors we hope to improve future analyses regarding both, grey and white matter. We demonstrate the efficacy of our algorithm by registering simultaneously T1 images and fiber bundles and compare results with a multi-modal T1+Fractional Anisotropy (FA) and a tensor-based registration algorithms and obtain superior performance with our approach. We provide preliminary evidence that our implementation improves the sensitivity of activation detection in fMRI group studies.
79

Quantification des anomalies neurologiques métaboliques et imagerie de sources électriques / Quantification of neurological metabolic abnormalities and electrical source imaging

Person, Christophe 19 June 2012 (has links)
Un traitement possible de l'épilepsie partielle pharmaco-résistante consiste en l'exérèse de la région cérébrale responsable des crises. La difficulté est de localiser cette zone et d'en définir l'étendue. L'objectif de cette thèse est d'apporter des données permettant de préciser la localisation et le volume des régions pathologiques, en exploitant deux modalités : l'imagerie TEP (Tomographie par Emission de Positons) et l'EEGHR (EEG Haute Résolution : signaux cérébraux recueillis sur le scalp avec un nombre important d'électrodes et une fréquence d'échantillonnage élevée). En imagerie TEP, il s'agit de segmenter les zones d'hypométabolisme qui sont liées aux régions responsables des crises. Des méthodes de comparaisons statistiques à l'aide d'outils de type SPM (Statistical Parametric Mapping) entre les images TEP de sujets pathologiques et de sujets sains ont été appliquées, en effectuant des tests d'hypothèse voxel à voxel entre les différentes images. Pour pouvoir être comparées à une population de référence, les différentes images ont subi des transformations non linéaires afin que chaque voxel corresponde à la même région anatomique chez tous les sujets. Deux algorithmes ont été appliqués : une méthode SPM classique et une méthode Block-Matching. Les résultats sont comparés par analyse subjective clinique et également sur des données simulées. En ce qui concerne l'EEG-HR, la localisation spatiale et temporelle de sources d'événements intercritiques (pointes et ondes lentes) a été réalisée par résolution du problème inverse. Ceci a permis de localiser les sources électriques intracérébrales d'intérêt qui sont à l'origine des signaux acquis sur le scalp. Enfin, une représentation des données multimodales (images TEP et signaux EEG-HR) dans un même référentiel a permis d'accroître les connaissances sur les relations existant entre les activités électriques et métaboliques et ainsi de mieux définir les régions épileptogènes / A possible treatment for drug-resistant partial epilepsy involves the resection of the brain region which generates crisis. The difficulty is to locate this area and to determine its extent. The objective of this thesis is to provide data to specify the location and the volume of pathological regions, using two modalities: PET (Positron Emission Tomography) imaging and HR-EEG (High-Resolution EEG: brain signals collected on the scalp with a large number of electrodes and a high sampling rate). In PET imaging, hypometabolic areas associated with regions generating seizures have to be segmented. Statistical comparisons methods using tools such as SPM (Statistical Parametric Mapping) between images of pathological and healthy subjects have been applied. Voxelwise statistical analyses between the different images were thus used to highlight the hypometabolic areas. For comparison with a reference population, nonlinear transformations were applied to the images so that each voxel corresponds to the same anatomical region in every subject. Two algorithms were applied: a conventional SPM method and a Block-Matching method. The results were compared by subjective clinical analysis and also on simulated data. Regarding the HR-EEG, the spatial and temporal source localizations of interictal events (spikes and slow waveforms) were done by solving the inverse problem. This allowed to localize intracerebral electrical sources generating the signals acquired on the scalp. Finally, a representation in the same space of multimodal data (PET images and HR-EEG) allowed to increase the knowledge on the relationship between electrical and metabolic activities and to better define the epileptogenic regions
80

Fusion multimodale pour la cartographie sous-marine / Multimodal fusion for underwater mapping

Méline, Arnaud 31 January 2013 (has links)
Le but de ce travail est d'analyser des scènes sous-marines naturelles et en particulier cartographier des environnements sous-marins en 3D. Il existe aujourd'hui de nombreuses techniques pour résoudre ce problème. L'originalité de ce travail se trouve dans la fusion de deux cartes obtenues avec des capteurs de différentes résolutions. Dans un premier temps, un engin autonome (ou un bateau) analyse les fonds marins avec un sonar multifaisceaux et crée une première carte globale de la zone. Cette carte est ensuite décomposée en petites cellules représentant une mosaïque du fond marin. Une deuxième analyse est ensuite réalisée sur certaines cellules particulières à l'aide d'un second capteur avec une résolution plus élevée. Cela permettra d'obtenir une carte détaillée 3D de la cellule. Un véhicule autonome sous-marin ou un plongeur muni d'un système de vision stéréoscopique effectuera cette acquisition.Ce projet se décompose en deux parties, la première s'intéressera à la reconstruction 3D de scènes sous-marines en milieu contraint à l'aide d'une paire stéréoscopique. La deuxième partie de l'étude portera sur l'aspect multimodal. Dans notre cas, nous utilisons cette méthode pour obtenir des reconstructions précises d'objets d'intérêts archéologiques (statues, amphores, etc.) détectés sur la carte globale.La première partie du travail concerne la reconstruction 3D de la scène sous-marine. Même si aujourd'hui le monde de la vision a permis de mieux appréhender ce type d'image, l'étude de scène sous-marine naturelle pose encore de nombreux problèmes. Nous avons pris en compte les bruits sous-marins lors de la création du modèle 3D vidéo ainsi que lors de la calibration des appareils photos. Une étude de robustesse à ces bruits a été réalisée sur deux méthodes de détections et d'appariements de points d'intérêt. Cela a permis d'obtenir des points caractéristiques précis et robustes pour le modèle 3D. La géométrie épipolaire nous a permis de projeter ces points en 3D. La texture a été ajoutée sur les surfaces obtenues par triangulation de Delaunay.La deuxième partie consiste à fusionner le modèle 3D obtenu précédemment et la carte acoustique. Dans un premier temps, afin d'aligner les deux modèles 3D (le modèle vidéo et le modèle acoustique), nous appliquons un recalage approximatif en sélectionnant manuellement quelques paires de points équivalents sur les deux nuages de points. Pour augmenter la précision de ce dernier, nous utilisons un algorithme ICP (Iterative Closest Points).Dans ce travail nous avons créé une carte 3D sous-marine multimodale réalisée à l'aide de modèles 3D « vidéo » et d'une carte acoustique globale. / This work aims to analyze natural underwater scenes and it focuses on mapping underwater environment in 3D. Today, many methods exist to solve this problem. The originality of this work lies in the fusion of two maps obtained from sensors of different resolutions. Initially, an autonomous vehicle (or boat) analyzes the seabed with multibeam sonar and creates a first global map of the area. This map is then divided into small cells representing a mosaic of the seabed. A second analysis is then performed on some particular cells using a second sensor with a higher resolution. This will provide a detailed map of the 3D cell. An autonomous underwater vehicle (AUV) or a diver with a stereoscopic vision system will make this acquisition. This project is divided into two parts; the first one focuses on the 3D reconstruction of underwater scenes in constrained environment using a stereoscopic pair. The second part investigates the multimodal aspect. In our study, we want to use this method to obtain accurate reconstructions of archaeological objects (statues, amphorae, etc.) detected on the global map. The first part of the work relates the 3D reconstruction of the underwater scene. Even if today the vision community has led to a better understanding of this type of images, the study of natural underwater scenes still poses many problems. We have taken into account the underwater noise during the creation of the 3D video model and during the calibration of cameras. A study of the noise robustness was performed on two methods of detection and matching of features points. This resulted into obtaining accurate and robust feature points for the 3D model. Epipolar geometry allowed us to project these points in 3D. The texture was added to the surfaces obtained by Delaunay triangulation.The second part consists of fusing the 3D model obtained previously with the acoustic map. To align the two 3D models (video and acoustic model), we use a first approximated registration by selecting manually few points on each cloud. To increase the accuracy of this registration, we use an algorithm ICP (Iterative Closest Point).In this work we created a 3D underwater multimodal map performed using 3D video model and an acoustic global map.

Page generated in 0.0263 seconds