81 |
Étude du potentiel clinique d'une sonde échographique transadominale 3D pour son utilisation au moment des traitements de curiethérapie du cancer du col utérinSt-Amant, Patricia 24 April 2018 (has links)
Dans le présent mémoire, le potentiel d’un prototype de la sonde Clariry AutoScan modifiée pour la curiethérapie gynécologique est évalué. Au terme du projet, le but est de déterminer si la sonde peut être intégrée au processus clinique et si la planification de traitement faite sur image par tomodensitométrie (TDM) peut être améliorée par l’ajout d’une échographie transabdominale tridimensionnelle (3DTAUS). Pour ce faire, un total de 19 patientes ont été analysées au cours des différentes étapes du projet. La première partie, l’analyse des contours, comprenant une analyse de faisabilité a été réalisée. Dans cette section, différents éléments devaient être jugés visibles ou non sur les trois modalités d’imagerie (imagerie par résonnance magnétique (IRM), TDM et 3DTAUS) sur les images de 6 patientes. Par la suite, le volume cible clinique à hauts risque (High Risk Clinical Target Volume, HR-CTV) de 8 patientes a été délimité et une analyse comparative de volume et de dimensions a été réalisée. La dernière étape a été d’évaluer les plans de traitements optimisés sur IRM, TDM et TDM-3DTAUS réalisés pour 5 patientes. Pour fin de comparaison, les plans faits sur IRM ont été également évalués sur TDM et TDM-3DTAUS et les plans TDM et TDM-3DTAUS, sur l’IRM. L’analyse de faisabilité a montré que la sonde permet de voir le HR-CTV. Cependant, le rectum, le sigmoïde de même que les ovoïdes ne peuvent être visualisés sur le 3DTAUS. Pour les analyses de contours, en moyenne, les contours se rapprochant davantage du standard à atteindre, l’IRM, sont faits sur le 3DTAUS, mais avec une plus grande variation des contours que le TDM. Pour la planification de traitement, l’ajout du 3DTAUS au TDM permet d’obtenir une dosimétrie plus près de celle obtenue sur l’IRM comparativement au TDM seul. L’utilisation clinique du 3DTAUS est plausible. L’ajout du 3DTAUS permet d’obtenir une dosimétrie plus près de celle sur IRM que le TDM seul, et dans le cas de l’Hôtel-Dieu, avec une charge clinique moindre que l’IRM. / The present work explores the clinical potential of the adapted prototype of the Clarity AutoScan probe for gynecological brachytherapy use. The goal of this project is to determine whether a 3D transabdominal ultrasound (3DTAUS) can improve treatment planning when combine to computed tomography (CT) compared to CT-based treatment planning. For the purpose of this work, 19 patients were analyzed along the various steps of the study. The two main parts are the contour analysis and the treatment planning analysis. In the first part, images set (magnetic resonance images (MRI), CT and 3DTAUS) of 6 patients were analyzed to determine the visibility of various structures. The comparative high-risk clinical target volume (HR-CTV) contour analysis included 5 patients was performed with 4 images sets (MRI, CT, 3DTAUS and CT-3DTAUS). The HR-CTV volume and lateral dimensions were compared to the reference set, the MRI. Treatment plans optimized on MRI, CT and CT-3DTAUS were elaborated for 5 patients. MRI treatment plans were evaluated on CT and CT-3DTAUS, and CT and CT-3DTAUS were evaluated on MRI. HR-CTV and tandem can be seen on 3DTAUS counter to rectum, sigmoid and ovoids. HRCTV contour analysis shows that 3DTAUS contours, on average, are the ones closer to MRI but with the higher variability. For treatment planning, the treatment plans optimized on CT-3DTAUS are the one closer to MRI, showing improvement to CT plans while combining it to 3DTAUS. For complete 3D treatment planning, 3DTAUS can be used alone. However, the CT-3DTAUS fusion allows treatment plans closer to MRI than CT alone. For the reason, 3DTAUS should be added to the current clinical workflow when MRI is not available.
|
82 |
Segmentation d'un patron de lumière structurée : vision 3D active et codée utilisant la lumière blancheParadis, Nicolas 17 April 2018 (has links)
Les capteurs basés sur la lumière structurée codée prennent une ampleur grandissante dans le domaine de la numérisation 3D. Ce type de capteur permet une numérisation plus rapide de la surface d'un objet comparativement aux capteurs laser ou aux systèmes de palpage (i.e. numérisation avec contact). De plus, les capteurs fonctionnant par la projection d'une seule trame offrent la possibilité de numériser des scènes en mouvement, ce qui est un avantage indéniable sur la majorité des capteurs commercialisés depuis quelques années. Le projet de recherche traité dans ce mémoire a été réalisé dans le cadre du développement d'un capteur basé sur la lumière blanche structurée, conçu par l'équipe de vision 3D du Laboratoire de Vision et Systèmes Numériques de l'Université Laval. Un tel capteur utilise un projecteur afin de projeter un patron de lumière codée sur la scène. Ce patron se déforme au contact de la surface et sa réflexion est captée par une caméra. Cette déformation permet de déduire la profondeur de la surface et ainsi calculer la position de points 3D représentant la surface de l'objet. Le rôle de ce mémoire est de développer et implanter un algorithme de segmentation d'images qui a comme objectif d'extraire le patron de la scène. Les images acquises par le capteur sont traitées en utilisant une approche basée sur les arêtes pour détecter les primitives contenue dans le patron. Chacune de ces primitives encode un symbole formant un mot codé. Le but de l'algorithme est donc de déterminer la position et l'étiquette (i.e. la valeur du symbole) associées à ces primitives. L'apparence de la scène complique cette tâche, car les propriétés de la surface (e.g. texture, déformations géométriques, type de matériaux) peuvent interférer avec la réflexion du patron. Par exemple, un objet de couleur foncée réfléchira très peu la lumière projetée, tandis qu'une surface géométriquement complexe déformera le patron, pouvant rendre les symboles flous et difficiles à détecter. La robustesse de l'algorithme face à ces défis est analysée et nous soulevons les limitations d'une telle approche de segmentation.
|
83 |
La 3D interactive en temps réel comme aide à l'acquisition des connaissances spatiales: étude de l'influence du mode d'explorationMohamed-Ahmed, Ashraf 11 April 2018 (has links)
Cette recherche s’inscrit dans le cadre général de la 3D interactive en temps réel comme outil de représentation, d’aide à la conception et à la communication des idées et hypothèses de design. Un facteur, l’interaction et plus précisément la navigation dans les Environnements Virtuels (EV) 3D non immersifs est l’objet de cette recherche. Par le biais d’une approche expérimentale, l’influence de la 3D interactive en temps réel sur l’acquisition des connaissances spatiales est illustrée par l'étude du mode d’exploration dans un espace virtuel complexe. En effet, les résultats de la recherche montrent une influence positive de la 3D interactive sur la formation d’une compréhension spatiale des environnements en mode d’exploration actif. Alors qu’en mode d’exploration passif, il s’est avéré que les esquisses comportaient plus d’erreurs dans la représentation des espaces. / This research is part of the general framework of real time 3D interaction as a tool for representation, aided design and communication of design ideas. A factor, interaction and more precisely, navigation in a non immersive 3D Virtual Environment (VE), is the research subject. Using an experimental approach, the influence of real time 3D interaction on the acquisition of spatial knowledge is demonstrated, through observation of exploration modes in a complex virtual space. The research results stress a positive influence on spatial understanding through 3D interaction of visited environments during an active exploration. However, during passive exploration mode, the results revealed sketches with more spatial representations errors.
|
84 |
Estimation des paramètres atmosphériques par GPS: analyse de la variabilité spatio-temporelle de la vapeur d'eauReverdy, Mathieu 17 December 2008 (has links) (PDF)
La vapeur d'eau atmosphérique joue un rôle important dans les processus météorologiques. Toutefois, sa variabilité spatio-temporelle a été un frein à son étude jusque dans les années 90. A partir de cette date, des chercheurs ont pu mettre en évidence le potentiel du GPS (Global Positioning System) comme instrument pouvant étudier l'humidité. Les résultats obtenus peuvent être de deux types. Une distribution 2D de l'humidité grâce aux valeurs intégrées au-dessus d'un réseau de station GPS ou une distribution 3D de la densité de vapeur d'eau au moyen de logiciel tomographique. Dans un premier temps, ce travail de thèse présente le développement, les tests et la validation d'un logiciel de tomographie troposphérique GPS développé au sein du Laboratoire de météorologie physique pour la communauté scientifique GPS. Ce logiciel fonctionne grâce au seul apport des données GPS brutes (type rinex) ainsi que des fichiers météorologiques au sol. Aucune contrainte externe n'est nécessaire afin de retrouver la distribution 3D de la densité de vapeur d'eau. Ce travail présente dans un second temps l'application opérationnelle de ce logiciel à travers trois campagnes de mesures. Les premiers résultats tomographiques concernent la campagne OHMCV (Observatoire Hydrométéorologique des Cévènnes-Vivarais) qui a eu lieu à l'automne 2002 dans le sud de la France. Les seconds résultats tomographiques concernent le réseau GPS permanent de l'IRMB (Institut Royal Météorologique de Belgique) à travers différents cas de l'année 2005. Enfin, les troisièmes résultats tomographiques concernent la campagne COPS (Convective and Orographically-induced Precipitation Study) qui a eu lieu pendant l'été 2007 en Europe. Les différents résultats tomographiques ont fait l'objet d'une comparaison avec des données provenant de plusieurs radars météorologiques afin de mieux appréhender le rôle de la vapeur d'eau comme précurseur de l'initiation convective.
|
85 |
Three dimensional object analysis and tracking by digital holography microscopySchockaert, Cédric 26 February 2007 (has links)
Digital Holography Microscopy (DHM) is a new 3D measurement technique that exists since Charge Coupled Devices (or CCD cameras) allow to record numerically high resolution images. That opens a new door to the theory of holography discovered in 1949 by Gabor: the door that masked the world of digital hologram processing. A hologram is a usual image but that contains the complex amplitude of the light coded into intensities recorded by the camera. The complex amplitude of the light can be seen as the combination of the energy information (squared amplitude modulus) with the information of the propagation angle of the light (phase of the amplitude) for each point of the image. When the hologram is digital, this dual information associated with a diffractive model of the light propagation permits to numerically investigate back and front planes to the recorded plane of the imaging system. We understand that 3D information can be recorded by a CCD camera and the acquisition rate of this volume information is only limited by the acquisition rate of the unique camera. For each digital hologram, the numerical investigation of front and back regions to the recorded plane is a tool to numerically refocus objects appearing unfocused in the original plane acquired by the CCD.<p>This thesis aims to develop general and robust algorithms that are devoted to automate the analysis process in the 3D space and in time of objects present in a volume studied by a specific imaging system that permits to record holograms. Indeed, the manual processing of a huge amount of holograms is not realistic and has to be automated by software implementing precise algorithms. In this thesis, the imaging system that records holograms is a Mach-Zehnder interferometer working in transmission and studied objects are either of biological nature (crystals, vesicles, cancer cells) or latex particles. We propose and test focus criteria, based on an identical focus metric, for both amplitude and phase objects. These criteria allow the determination of the best focus plane of an object when the numerical investigation is performed. The precision of the best focus plane is lower than the depth of field of the microscope. From this refocus theory, we develop object detection algorithms that build a synthetic image where objects are bright on a dark background. This detection map of objects is the first step to a fully automatic analysis of objects present in one hologram. The combination of the detection algorithm and the focus criteria allow the precise measurement of the 3D position of the objects, and of other relevant characteristics like the object surface in its focus plane, or its convexity or whatever. These extra relevant measures are carried out with a segmentation algorithm adapted to the studied objects of this thesis (opaque objects, and transparent objects in a uniform refractive index environment). The last algorithm investigated in this research work is the data association in time of objects from hologram to hologram in order to extract 3D trajectories by using the predictive Kalman filtering theory. <p>These algorithms are the abstract bricks of two software: DHM Object Detection and Analysis software, and Kalman Tracking software. The first software is designed for both opaque and transparent objects. The term object is not defined by one other characteristic in this work, and as a consequence, the developed algorithms are very general and can be applied on various objects studied in transmission by DHM. The tracking software is adapted to the dynamic applications of the thesis, which are flows of objects. Performance and results are exposed in a specific chapter. <p> / Doctorat en sciences appliquées / info:eu-repo/semantics/nonPublished
|
86 |
Imagerie TEM/TDM quantitative du 99mTc- et du 177LuGaudin, Émilie Odette 23 April 2018 (has links)
Grâce à l’implémentation d’algorithmes de reconstruction 3D dans les systèmes d’imagerie TEM/TDM, une étude quantitative à partir des images reconstruites est possible. La quantification d’images TEM/TDM est nécessaire afin de permettre une étude dosimétrique 3D des patients atteints de tumeurs neuroendocrines traités au 177Lu-octréotate. Cependant, afin de permettre une quantification précise des images obtenues, plusieurs paramètres du système doivent être déterminés afin d’appliquer les corrections nécessaires. Dans le cadre de cette étude, l’appareil TEM/TDM utilisé est tout d’abord calibré. Pour ce faire, la stabilité temporelle, la sensibilité, le temps mort et l’effet de volume partiel de l’appareil sont déterminés pour différents radioisotopes. Par la suite, une étude comparative de deux plateformes de reconstruction est effectuée afin de trouver la technique offrant la plus haute précision quantitative d’images TEM/TDM. La calibration et l’étude des reconstructions de l’appareil TEM/TDM a permis de déterminer la procédure optimale pour l’imagerie quantitative du 177Lu et de 99mTc avec une erreur maximale de 3%. Ces résultats pourraient être validés à l’aide de données cliniques.
|
87 |
Appariement automatique de modèles 3D à des images omnidirectionnelles pour des applications en réalité augmentée urbaineLefebvre, Michael 19 April 2018 (has links)
L'un des plus grands défis de la réalité augmentée consiste à aligner parfaitement les informations réelles et virtuelles pour donner l'illusion que ces informations virtuelles font partie intégrante du monde réel. Pour ce faire, il faut estimer avec précision la position et l'orientation de l'utilisateur, et ce, en temps réel. L'augmentation de scènes extérieures est particulièrement problématique, car il n'existe pas de technologie suffisamment précise pour permettre d'assurer un suivi de la position de l'utilisateur au niveau de qualité requis pour des applications en ingénierie. Pour éviter ce problème, nous nous sommes attardés à l'augmentation de panoramas omnidirectionnels pris à une position fixe. L'objectif de ce projet est de proposer une méthode robuste et automatique d'initialisation permettant de calculer la pose de panoramas omnidirectionnels urbains pour ainsi obtenir un alignement parfait des panoramas et des informations virtuelles. / One of the greatest challenges of augmented reality is to perfectly synchronize real and virtual information to give the illusion that virtual information are an integral part of real world. To do so, we have to precisely estimate the user position and orientation and, even more dificult, it has to be done in real time. Augmentation of outdoor scenes is particularly problematic because there are no technologies accurate enough to get user position with the level of accuracy required for application in engineering. To avoid this problem, we focused on augmenting panoramic images taken at a fixed position. The goal of this project is to propose a robust and automatic initialization method to calculate the pose of urban omnidirectional panoramas to get a perfect alignment between panoramas and virtual information.
|
88 |
Leveraging unlabeled data for semantic segmentation of 3D mobile LiDAR point cloud using a label-efficient learning approachMahmoudi Kouhi, Reza 05 August 2024 (has links)
La segmentation sémantique des vastes nuages de points en cartographie mobile est cruciale pour l'urbanisme, la conception d'infrastructures et la navigation autonome. Cependant, leur nature irrégulière et massive présente des défis majeurs pour une segmentation précise. Cette thèse aborde ces défis en proposant de nouvelles méthodologies concernant la préparation des données, l'apprentissage contrastif auto-supervisé et les approches de pseudo-étiquetage. Les objectifs de recherche de cette thèse sont doubles : (1) concevoir une approche de préparation des données qui puisse alimenter de manière optimale des réseaux neuronaux avec des sous-ensembles de points, tout en préservant les informations spatiales et représentatives des caractéristiques du nuage de points, et (2) concevoir et mettre en œuvre des méthodes d'apprentissage efficaces en termes d'étiquetage qui exploitent les ensembles massifs de données non étiquetées afin de réaliser la segmentation sémantique précise des nuages de points dans le contexte de la cartographie mobile à grande échelle. L'atteinte du premier objectif est adressé dans le chapitre 2 qui présente de nouvelles méthodes de préparation des données adaptées aux nuages de points LiDAR 3D à grande échelle en extérieur. Après avoir mené des expérimentations et évaluations approfondies, incluant des comparaisons avec les méthodes de l'état de l'art, les méthodes proposées démontrent de meilleures performances en termes de précision et robustesse du réseau. Le chapitre 3 se concentre sur la réalisation du deuxième objectif en introduisant CLOUDSPAM, une approche d'apprentissage contrastif spécifiquement adaptée aux ensembles de données de cartographie mobile. En exploitant des techniques d'augmentation des données, un pré-entraînement auto-supervisé et des ensembles fusionnés de données hétérogènes, CLOUDSPAM surmonte les défis liés au manque de paires positives et négatives et aux contraintes de gestion de la mémoire. Les expérimentations réalisées mettent en évidence l'efficacité de CLOUDSPAM pour la segmentation sémantique de divers jeux de données, même lorsque les données étiquetées sont limitées. Bien que CLOUDSPAM soit efficace et comparable à l'état de l'art, il présente certaines limites liées à l'apprentissage contrastif auto-supervisé. Le chapitre 4 présente une solution complète pour aborder ces limitations. Celle-ci exploite des pseudo-étiquettes générées par un réseau pré-entraîné, ainsi que des banques de mémoire par classe et un module de purification de segments. Dans son ensemble, cette thèse apporte une contribution significative à l'avancement de SOTA en matière de segmentation sémantique des nuages de points en cartographie mobile à grande échelle. / Semantic segmentation of large-scale mobile mapping point clouds is essential for various applications in urban planning, infrastructure design, and autonomous navigation. However, the irregular and unstructured nature of point clouds along with the massiveness of mobile mapping point clouds poses significant challenges for accurate segmentation. This thesis addresses these challenges by proposing novel methodologies in data preparation, self-supervised contrastive learning, and pseudo-labeling approaches. The research objectives of this thesis are twofold: (1) to develop a comprehensive approach for data preparation that optimally feeds subsets of point clouds into deep neural networks, preserving spatial information and representative of the point cloud's characteristics, and (2) to design and implement label-efficient learning methods that leverage massive unlabeled data to achieve accurate semantic segmentation of large-scale mobile mapping point clouds. In pursuit of the first objective, Chapter 2 presents novel data preparation methods tailored for large-scale outdoor 3D LiDAR point clouds. Through comprehensive experimentation and evaluation, including comparisons with existing approaches, the proposed methods demonstrate improved performance in deep neural network-based semantic segmentation tasks. Chapter 3 focuses on achieving the second objective by introducing CLOUDSPAM, a contrastive learning approach specifically adapted for mobile mapping datasets. Leveraging data augmentation techniques, self-supervised pretraining, and merged heterogeneous datasets, CLOUDSPAM addresses challenges related to limited positive and negative pairs and memory constraints. Rigorous experimentation showcases the effectiveness of CLOUDSPAM in enhancing semantic segmentation performance across various datasets, even in scenarios with limited labeled data. While CLOUDSPAM is effective and is comparable with the state-of-the-art, it still has some limitations due to uncertainties related to self-supervised contrastive learning. Chapter 4 presents a comprehensive solution to address these limitations. A teacher-student pseudo-labeling approach for semantic segmentation is proposed. This approach leverages pseudo-labels generated by a pre-trained teacher network, along with class-wise memory banks and a segment purification module, to improve segmentation accuracy and robustness. Overall, this thesis makes significant contributions to advancing the state-of-the-art in semantic segmentation of large-scale mobile mapping point clouds.
|
89 |
A new WebGIS approach to support ground penetrating radar deploymentTabarro, Paulo 08 February 2019 (has links)
En raison de l’agglomération complexe des infrastructures souterraines dans les grandes zones urbaines et des préoccupations accrues des municipalités ou des gouvernements qui déploient des systèmes d’information foncière ou des industries qui souhaitent construire ou creuser, il devient de plus en plus impératif de localiser et de cartographier avec précision les pipelines, les câbles d’énergie hydroélectrique, les réseaux de communication ou les conduites d’eau potable et d’égout. Le géoradar (Ground Penetrating Radar ou GPR) est un outil en géophysique qui permet de produire des images en coupe du sous-sol desquelles de l’information utile sur les infrastructures souterraines peut être tirée. Des expériences antérieures et une analyse documentaire approfondie ont révélé que les logiciels disponibles pour réaliser des levés GPR qui sont utilisés directement sur le terrain et hors site ne reposent pas ou très peu sur des fonctionnalités géospatiales. En outre, l’intégration de données telles que la visualisation de données GPR dans des espaces géoréférencés avec des orthophotos, des cartes, des points d’intérêt, des plans CAO, etc., est impossible. Lorsque disponible, l’ajout d’annotations ou l’interrogation d’objets géospatiaux susceptibles d’améliorer ou d’accélérer les investigations ne proposent pas des interfaces conviviales. Dans ce projet de recherche, une nouvelle approche est proposée pour déployer le GPR et elle est basée sur quatre fonctionnalités issues du Web et des systèmes d’information géographique (WebGIS) jugées essentielles pour faciliter la réalisation de levés GPR sur le terrain. Pour démontrer la faisabilité de cette nouvelle approche, une extension de la plate-forme logicielle existante GVX (conçue et vendue par Geovoxel) appelée GVX-GPR a été développée. GVX-GPR propose aux utilisateurs d’instruments GPR quatre fonctionnalités soit 1) intégration de cartes, 2) géo-annotations et points d’intérêt, 3) géoréférencement et visualisation de radargrammes et 4) visualisation de sections GPR géoréférencées. Afin de tester l’approche WebGIS et GPXGPR, deux sites d’étude ont été relevés par deux professionnels différents, un expert et un non-expert en géophysique, ont été sélectionnés. Une première expérimentation réalisée sur le campus de l’Université Laval à Québec prévoyait l’identification de trois objets enterrés soit un câble électrique, une fibre optique et un tunnel dont leur position XYZ était connue. Le deuxième essai s’est passé à l’Universidade Federal do Rio de Janeiro (Rio de Janeiro, Brésil), avec un professionnel expert en géophysique. Ce 2e site cherchait à reproduire un environnent plus réaliste avec une quantité inconnue d’objets enterrés. Les quatre fonctionnalités proposées par GVX-GPR ont donc été testées et leur intérêt discuté par les deux utilisateurs GPR. Les deux utilisateurs GPR se sont dits très intéressés par l’outil GVX-GPR et ses nouvelles fonctionnalités et ils aimeraient pouvoir l’intégrer à leur travail quotidien car ils y voient des avantages. En particulier, l’approche et GVX-GPR les a aidés à découvrir de nouvelles cibles, à délimiter le territoire à couvrir, à interpréter les données GPR brutes en permettant l’interaction entre les données géospatiales (en ligne) et les profils de données GPR, et finalement pour la cartographie à produire tout en respectant la norme CityGML (donc utile au partage éventuel des données). De même, une fois le système maitrisé, GVX-GPR a permis d’optimiser la durée du levé. Ce projet de maitrise a donc permis d’élaborer une nouvelle approche pour effectuer des levés GPR et proposer un outil logiciel pour tester la faisabilité de celle-ci. Une première étape de validation de la faisabilité et de l’utilité a été réalisée grâce aux deux tests effectués. Évidemment, ces deux tests sont des premiers pas dans une phase plus large de validation qui pourrait s’effectuer, et ils ont ouvert la porte à des ajustements ou l’ajout d’autres fonctionnalités, comme la manipulation des outils de visualisation 3D et l’ajout de filtres et traitement de signal. Nous estimons néanmoins ces premiers tests concluant pour ce projet de maîtrise, et surtout ils démontrent que les instruments GPR gagneraient à davantage intégrer les données et fonctionnalités géospatiales. Nous pensons également que nos travaux vont permettre à des communautés de non spécialistes en géophysique de s’intéresser aux instruments de type GPR pour les levés d’objets enfouis. Notre approche pourra les aider à préparer les données géospatiales utiles à la planification, à effectuer le levé terrain et à produire les cartes associées / Due to the complex agglomeration of underground infrastructures in large urban areas and accordingly increased concerns by municipalities or government who deploy land information systems or industries who want to construct or excavate, it is imperative to accurately locate and suitability map existing underground utility networks (UUN) such as pipelines, hydroelectric power cables, communication networks, or drinking water and sewage conduits. One emerging category of instrument in geophysics for collecting and extracting data from the underground is the ground penetrating radar (GPR). Previous experiments and a thorough literature review revealed that GPR software used in and off the field do not take advantage of geospatial features and data integration such as visualization of GPR data in a georeferenced space with orthophotographies, map, point of interest, CAD plans, etc. Also missing is the capability to add annotation or querying geospatial objects that may improve or expedite the investigations. These functions are long-lived in the geospatial domain, such as in geographic information system (GIS). In this research project, a new approach is proposed to deploy GPR based on four core WebGIS-enabled features, used to support field investigations with GPR. This WebGIS is based on an existing platform called GVX, designed and sold by Geovoxel as a risk management tool for civil engineering projects. In this proposed approach, a generic guideline based on GVX-GPR was developed which users can follow when deploying GPR. This approach is based on four core features which are missing on most GPR software, (1) map integration, (2) geo-annotations and points of interest, (3) radargram georeferencing and visualization, and (4) georeferenced slice visualization. In order to test the designed WebGIS-based approach, two different professionals, an expert in geophysics and a person without any background in geophysics, used the proposed approach in their day-to-day professional practice. The first experiment was conducted at Université Laval (Québec – Canada) when the subject undertook an area to a survey in order to identify 3 possible targets premapped. The second, with a Geophysics-specialist, took place in Rio de Janeiro, at Universidade Federal do Rio de Janeiro’s campus. This study covered an area counting on an unknown number of buried objects, aiming at reproducing a realistic survey scenario. Four new feature were added and discussed with GPR practitioners. Both GPR user declared to be very interested by the proposed by the tool GVX-GPR and its features, being willing to apply this software on their daily basis due to the added advantages. Particularly, this approach has aided these professionals to find new buried objects, delimit the survey area, interpret raw GPR data by allowing geospatial data interaction and GPR profiles, and, finally, to produce new maps compliant with standards such as CityGML. Also, once mastered, the technology allowed the optimization of survey time. This project enabled the development of a new approach to leverage GPR surveys and proposed a new tool in order to test the approach’s feasibility. A first step into the validation of this proposal has been taken towards a feasibility and utility evaluation with two tests accomplished. Unmistakably, these are the first steps of a likely larger validation process, opening up new possibilities for the continuity of the project such as the addition of signal processing techniques and 3D data handling. We nevertheless consider these conclusive for this master’s project, above all demonstrating the value add by geospatial data integration and functions to GPR instruments. This work is also intended to the community of newcomers, or interested in GPR, to further explore this technology, since this approach shall facilitate the preparation, execution, and post-processing phases of a GPR survey.
|
90 |
Réorganisation spatio-temporelle de l'architecture nucléaire de fibroblastes normaux et cellules de mélanome : effet du peptide (VGVAPG)3 / Spatiotemporel nucleus reorganization of fibroblasts and melanoma cells : effects of elastin peptide (VGVAPG)3Chatron-Colliet, Aurore 29 September 2011 (has links)
Le mélanome est un cancer agressif dont la progression est facilitée par la dégradation de la matrice extracellulaire, à la fois par les fibroblastes et les cellules tumorales. Cette dégradation génère des peptides d’élastine, notamment responsables de la prolifération des cellules saines et cancéreuses. Le peptide d’élastine (VGVAPG)3 accélère la reprise et le déroulement du cycle cellulaire de fibroblastes normaux et de cellules de mélanomes préalablement synchronisés (expression de pKi-67, détection de la phase S et quantification d’ADN). L’architecture nucléaire associée à la reprise de la synthèse des ARNm concerne les compartiments nucléaires PML-NBs et domaines SC35, partenaires indissociables de la transcription et de l’épissage, qui sont étudiés, après immunomarquages, en microscopie confocale suivie d’une reconstruction 3D. Les compartiment PML-NBs et domaines SC35 se réorganisent en fonction d’une part des phases du cycle cellulaire et d’autre part de l’activité transcriptionnelle, passant d’une séquestration du SC35 dans les PML-NBs à une interpénétration des deux compartiments. L’analyse quantitative de ces compartiments complète les résultats architecturaux en 3D. Le peptide se fixe sur le complexe récepteur de l’élastine, et induit de l’activation de la voie MEK ½ ERK ½. Un antagoniste de cette fixation (lactose) ainsi que l’inhibition de la voie ERK ½ (UO126) conduisent à l’abolition des effets dus au peptide tant pour le cycle cellulaire que pour l’organisation des PML-NBs et domaines SC35, confirmant ainsi l’implication de ces voies. / Melanoma is an aggressive cancer for which invasion is facilitated by degradation of the extracellular matrix, both by normal fibroplasts and tumor cells. This degradation generates elastin peptides, in particular responsible for the proliferation of normal and tumor cells. The elastin peptide (VGVAPG)3. accelerates recovery and progression in cell cycle of normal fibroblasts and melanoma cells previously synchronized (expression of pKi-67, S-phase detection and quantification of DNA). The nuclear architecture associated with the recovery of the synthesis of mRNA on the PML-NBs nuclear compartments and SC35 domains, inseparable partners of transcription and splicing, which are studied after immunostaining by confocal microscopy followed by 3D reconstruction. Compartments PML-NBs and SC35domains are reorganized according of the phases of the cell cycle and also the transcriptional activity, from SC35 sequestration in PML-NBs to an interpenetration of the two compartments. The quantitative analysis of these compartments consolidates the 3D architectural results. The peptide binds to the elastin receptor complex and induceds the activation of the MEK 1/2 ERK 1/2. An antagonist of the fixation (lactose) and inhibition of ERK 1/2 (UO126) lead to the abolition of effects due to the peptide for both the cell cycle and the organized of PML-NBs and SC35 domains, confirming the involvement of these pathways.
|
Page generated in 0.1134 seconds