81 |
Quantification en thérapie radionucléique par radiopeptides au 177 LuFrezza, Andrea 27 January 2024 (has links)
Le présent travail de thèse concerne la quantification en imagerie moléculaire en trois dimensions (3D), en particulier, dans le cadre de la thérapie radionucléique par radiopeptides (TRRP) au ¹⁷⁷Lu pour les tumeurs neuroendocrines (TNE). Le ¹⁷⁷Lu est un radioisotope émetteur beta, à courte portée dans les tissus (2 mm), et gamma, avec des énergies utilisables pour l'imagerie de tomographie par émission mono-photonique (TEM). Ces caractéristiques font de celui-ci un bon radioisotope pour la TRRP des TNE : de petite taille et répandues dans le corps. De plus, avec plusieurs images de TEM prises lors d'un traitement, il est possible de quantifier la distribution du radioisotope dans le corps du patient et même d'évaluer la progression du traitement. L'objectif principal du projet est le développement et la validation des outils, expérimentaux et informatiques, pour la quantification de la dose absorbée lors d'une TRRP au ¹⁷⁷Lu, avec la possibilité d'étendre les méthodes à d'autres radioisotopes. Deux étapes principales ont été nécessaires. La première était la calibration et la caractérisation de l'appareil d'imagerie de TEM. Dans ce contexte, plusieurs techniques d'acquisitions et d'analyse ont été testées et un protocole de calibration simplifié a été proposé. Un accent particulier est mis sur la détermination du facteur de calibration (CF) et du temps mort (τ ) de l'appareil de TEM pour la correction et la quantification des images acquises. D'une évaluation de l'équation qui gouverne le comportement de détection de l'appareil de TEM, une nouvelle formulation plus concise et analysable mathématiquement a été proposée. Celle-ci permet l'extraction des deux facteurs de façon approximative, mais simple ainsi que la proposition d'un nouveau protocole de calibration. Avec des images bien quantifiées en activité (biodistribution du radiopeptide dans le corps), il est possible, par simulations Monte Carlo (MC), de calculer le dépôt de dose. Une deuxième étape a été la validation du code irtGPUMCD. Il s'agit d'un code MC, fonctionnant sur processeur graphique (GPU), pour le calcul de la dose absorbée lors d'une TRRP et précédemment développé au sein du Groupe de recherche en physique médicale du CHU de Québec - Université Laval. Le code irtGPUMCD a été adapté pour l'utilisation dans des conditions standard et validé sur les modèles informatiques de la International Commission on Radiological Protection (ICRP110), non seulement pour le ¹⁷⁷Lu, mais aussi pour le ¹³¹I et ⁹⁹ᵐTc. Avec les simulations exécutées sur une géométrie de référence et une comparaison avec d'autres résultats présents en littérature, le code a été validé. Dans le cadre de l'optimisation en termes de temps et exactitude des résultats fournis par irtGPUMCD, un algorithme de traçage de rayons (raytracing) ainsi qu'une technique de réduction de variance ont été implémentés, testés et validés. Ces changements de code ont permis une réduction d'un facteur dix du temps de calcul pour une simulation. Les images/cartes de dose absorbée tridimensionnelle bien quantifiées donnent la possibilité de calculer les histogrammes dose-volume (DVH) et d'extraire toutes les informations dosimétriques intéressantes tel que fait dans d'autres branches de la radiothérapie. Une petite section de cette thèse est consacrée à la proposition de techniques statistiques, qui permettent, en associant les données dosimétriques avec celles du patient, de construire des modèles de probabilité de complication des tissus normaux (NTCP). Le principal impact de cette étude est l'introduction de toute une chaîne, bien validée, pour la quantification dans les TRRP. Avec une calibration adéquate de l'appareil d'imagerie de TEM et l'utilisation du code MC irtGPUMCD, il sera possible d'effectuer des études dosimétriques et statistiques plus avancées, par rapport à l'état de l'art en médicine nucléaire, et se diriger vers une personnalisation plus poussée des traitements. / The present thesis work concerns quantification in three-dimensional molecular imaging (3D), in particular, in the context of peptide receptor radionuclide therapy (PRRT) with ¹⁷⁷Lu for neuroendocrine tumors (NET). The ¹⁷⁷Lu is a beta emitting radioisotope, with short-range in tissue (2 mm), and gamma, with energies usable for single-photon emission computed tomography (SPECT) imaging. These characteristics make ¹⁷⁷Lu a good radioisotope for the PRRT of NETs: small and widespread in the body. In addition, with several SPECT images taken during a treatment, it is possible to quantify the distribution of the radioisotope in the patient body and assess the progress of the treatment itself. The main objective of the project is the development and validation of tools, experimental and computational, for the absorbed dose quantification during a ¹⁷⁷Lu PRRT, with the possibility to extend the methods to other radioisotopes. Two main steps were necessary. The first step was the calibration and characterization of the SPECT imaging device. In this context, several acquisition and analysis techniques were tested and a simple calibration protocol was proposed. Particular emphasis is given to the determination of the calibration factor (CF) and dead time (τ ) constant of the SPECT device for the correction and quantification of the acquired images. From an evaluation of the equation describing the behavior of the SPECT system, a new, more concise and mathematically tractable formulation has been proposed. This formulation allows the extraction of the two factors in an approximate but simple way as well as the proposal of a new calibration protocol. With well-quantified images in activity (bio-distribution of the radio-peptide in the body) it is possible to calculate the dose deposition by Monte Carlo simulations (MC). A second step was the validation of the irtGPUMCD code. It is a MC code, operating on a graphics processing unit (GPU), previously developed within the Research Group in Medical Physics of the CHU de Québec, which allows the calculation of the absorbed dose received during a PRRT. The irtGPUMCD code has been used and validated under standard conditions with International Commission on Radiological Protection (ICRP110) phantoms, not only for the ¹⁷⁷Lu, but also for the ¹³¹I and ⁹⁹ᵐT c. With the simulations performed on a referenced geometry and with a comparison to other results present in literature, the code was validated. In the context of the optimization in time and accuracy of the results provided by irtGPUMCD, a new raytracing algorithm and a variance reduction technique were introduced, tested and validated. These code changes have led to a reduction in execution time of a factor ten for a simulations. The well quantified three-dimensional absorbed dose images/maps give the possibility of calculating dose-volume histograms (DVH) and extracting all the dosimetric information of interest as done in other branches of radiotherapy. A small part of this thesis is dedicated to the proposal of statistical techniques, which allow, by linking the dosimetric data with patient outcomes, to build models of normal tissues complication probability (NTCP). The main impact of this study is the introduction of a whole chain, well validated, for the quantification in PRRT. With an accurate calibration of the SPECT imaging system and the use of the irtGPUMCD MC code, it will be possible to carry out more advanced dosimetric and statistical studies, compared to the state of the art in nuclear medicine, and to head towards a more personalized treatment.
|
82 |
Placement interactif de capteurs mobiles dans des environnements tridimensionnels non convexesDe Rainville, François-Michel 23 April 2018 (has links)
La présente thèse propose un système complet de placement de capteurs mobiles dans un environnement pleinement tridimensionnel et préalablement inconnu. Les capteurs mobiles sont des capteurs placés sur des unités robotiques autonomes, soit des véhicules possédant une unité de calcul et pouvant se déplacer dans l’environnement. Le placement de capteur est fondé sur une vue désirée par un utilisateur du système nommé vue virtuelle. La vue virtuelle est contrôlée à distance en changeant les paramètres intrinsèques et extrinsèques du capteur virtuel, soit sa position, sa résolution, son champ de vue, etc. Le capteur virtuel n’est alors soumis à aucune contrainte physique, par exemple il peut être placé à n’importe quelle hauteur dans l’environnement et avoir un champ de vue et une résolution arbitrairement grande. Les capteurs mobiles (réels) ont pour tâche de récupérer toute l’information contenue dans le point de vue virtuel. Ce n’est qu’en combinant leur capacité sensorielle que les capteurs mobiles pourront capter l’information demandée par l’utilisateur. Tout d’abord, cette thèse s’attaque au problème de placement de capteurs en définissant une fonction de visibilité servant à évaluer le positionnement d’un groupe de capteurs dans l’environnement. La fonction de visibilité développée est applicable aux environnements tridimensionnels et se base sur le principe de ligne de vue directe entre un capteur et la cible. De plus, la fonction prend en compte la densité d’échantillonnage des capteurs afin de reproduire la densité désirée indiquée par le capteur virtuel. Ensuite, ce travail propose l’utilisation d’un modèle de l’environnement pleinement tridimensionnel et pouvant être construit de manière incrémentale, rendant son utilisation possible dans un environnement tridimensionnel non convexe préalablement inconnu. Puis, un algorithme d’optimisation coopératif est présenté afin de trouver simultanément le nombre de capteurs et leur positionnement respectif afin d’acquérir l’information contenue dans la vue virtuelle. Finalement, la thèse démontre expérimentalement dans diverses conditions que le système proposé est supérieur à l’état de l’art pour le placement de capteurs dans le but d’observer une scène bidimensionnelle. Il est aussi établi expérimentalement en simulation et en réalité que les performances se transposent à l’observation d’environnements tridimensionnels non convexes préalablement inconnus. / This Thesis proposes a novel mobile sensor placement system working in initially unknown three dimensional environment. The mobile sensors are fix sensors placed on autonomous robots, which are ground and aerial vehicles equipped with computing units. The sensor placement is based on a user-defined view, named the virtual view. This view is manipulated through a virtual sensor intrinsic and extrinsic parameters, such as its position, orientation, field of view, resolution, etc. The virtual sensor is not subject to any physical constraint, for example it can be place where no sensor could be or it possess an arbitrary large field of view and resolution. The mobile (real) sensors have to acquire the entire information contained in this virtual view. It is only by combining the sensory capacity of an unknown number of sensors that they can acquire the necessary information. First, this Thesis addresses the sensor placement problem by defining a visibility function to qualify a group of sensor configurations in the environment. This function is applicable to three dimensional environments and is based on direct line of sight principle, where we compute the sensor sampling density in its visibility region. Then, this Thesis proposes the use of an incrementally built model of the environment containing all the information needed by the objective function. Next, a cooperative optimization algorithm is put forward to simultaneously find the number of sensors and their respective position required to capture all the information in the virtual view. Finally, the proposed system is experimentally shown to use less sensor to acquire the scene of interest at a higher resolution than state of the art methods in initially known two dimensional environments. It is also shown in simulation and practice that the performance of the system can be transposed to initially unknown non-convex three dimensional environments.
|
83 |
Modélisation 3D pour la réalité augmentée : une première expérimentation avec un téléphone intelligentThomas, Vincent 17 April 2018 (has links)
Depuis leur introduction, les téléphones intelligents n’ont cessé d’évoluer. Ceux-ci intègrent généralement plusieurs composantes utiles (i.e. caméra numérique, récepteur GPS, accéléromètres, boussole numérique et plus récemment le gyroscope) pour des applications de Réalité Augmentée Mobile (RAM). Ce type d’application génère beaucoup d’intérêt auprès du grand public qui se voit offrir une nouvelle manière d’explorer son environnement. Afin d’obtenir une forte augmentation de la réalité en termes d’immersion de l’utilisateur et des interactions qui lui sont proposées, ces applications de RAM requièrent généralement un modèle 3D de l’environnement. Ce modèle 3D peut alors être exploité selon trois finalités différentes au sein de l’application de RAM qui sont : 1) gérer les occlusions; 2) aider au calcul de la pose (position/orientation) de la caméra de l’utilisateur; 3) supporter les interactions et l’augmentation de la réalité. Cependant, ces modèles 3D ne sont pas toujours disponibles à l’endroit où l’on souhaite augmenter la réalité ce qui nuit au déploiement des applications de RAM n’importe où et n’importe quand. Afin de surmonter cette contrainte, le présent projet de maîtrise a consisté à concevoir une chaîne de production de modèles 3D adaptée au contexte des applications de RAM dites fortement augmentées et facilement exploitable directement sur les lieux ciblés pour l’augmentation. La chaîne de production élaborée a été implantée sur la plateforme de l’iPhone 3G puis évaluée selon des critères d’exactitude, de rapidité, d’intuitivité et d’efficacité de l’augmentation résultante. Les résultats de cette évaluation ont permis de mettre en évidence la possibilité de modéliser en 3D un bâtiment simplement tout en atteignant une exactitude sous les 5 mètres en environ 3 minutes à l’aide d’un appareil de type téléphone intelligent. / Recently, a new genre of software applications has emerged allowing the general public to browse their immediate environment using their smartphone: Mobile Augmented Reality (MAR) applications. The growing popularity of this type of application is triggered by the fast evolution of smartphones. These ergonomic mobile platforms embed several pieces of equipment useful to deploy MAR (i.e. digital camera, GPS receiver, accelerometers, digital compass and now gyroscope). In order to achieve a strong augmentation of the reality in terms of user’s immersion and interactions, a 3D model of the real environment is generally required. The 3D model can be used for three different purposes in these MAR applications: 1) to manage the occlusions between real and virtual objects; 2) to provide accurate camera pose (position/orientation) calculation; 3) to support the augmentation and interactions. However, the availability of such 3D models is limited and therefore preventing MAR application to be used anywhere at anytime. In order to overcome such constraints, this proposed research thesis is aimed at devising a new approach adapted to the specific context of MAR applications and dedicated to the simple and fast production of 3D models. This approach was implemented on the iPhone 3G platform and evaluated according to precision, rapidity, simplicity and efficiency criteria. Results of the evaluation underlined the capacity of the proposed approach to provide, in about 3 minutes, a simple 3D model of a building using smartphone while achieving accuracy of 5 meters and higher.
|
84 |
Génération de vues nouvelles pour scènes dynamiques, évaluation des méthodes modernesPageau, Jean-Michel 14 November 2024 (has links)
Dans le domaine de la vision par ordinateur, la reconstruction de scènes et l'estimation des positions des caméras sont essentielles pour des applications telles que la réalité virtuelle, la numérisation d'objets et la réalité augmentée. Cette thèse aborde deux défis principaux : le positionnement précis des caméras et la reconstruction dynamique des scènes. Un placement précis des caméras est crucial pour garantir la fidélité des modèles 3D, notamment dans des applications comme la surveillance sous-marine, où les conditions environnementales peuvent affecter la qualité des images. La première partie de cette thèse se concentre sur l'évaluation des techniques de photogrammétrie utilisant des modèles d'intelligence artificielle dans des environnements difficiles. Ces techniques sont indispensables pour estimer les positions des caméras dans des conditions telles que la faible luminosité, les intempéries et les textures complexes. En intégrant des modèles avancés d'IA, nous visons à améliorer la précision et la fiabilité de la photogrammétrie. La deuxième partie propose une méthodologie pour évaluer différentes techniques de reconstruction de scènes dynamiques avec des configurations synthétiques. Les avancées récentes, comme les champs de radiances neuronaux et le Gaussien Splatting en 3D, montrent des améliorations pour gérer les variations spatiales et temporelles. Cependant, ces méthodes font face à des défis majeurs dans des contextes dynamiques, nécessitant des algorithmes robustes capables de s'adapter en temps réel. Nos contributions incluent un cadre d'évaluation complet pour comparer différentes méthodes de photogrammétrie et de reconstruction de scènes dynamiques. Ce cadre permet une évaluation systématique des forces et des faiblesses de chaque méthode, fournissant des informations précieuses pour des avancées futures. Cette thèse est structurée en trois chapitres : le premier introduit les concepts fondamentaux de la vision par ordinateur liés à la reconstruction de scènes, le deuxième évalue les techniques de photogrammétrie dans des environnements difficiles, et le troisième présente un pipeline pour évaluer les techniques de reconstruction de scènes dynamiques. Ces contributions visent à offrir un cadre d'évaluation pour mieux comprendre les limitations actuelles et les améliorations potentielles dans ces domaines critiques.
|
85 |
Estimation des paramètres atmosphériques par GPS: analyse de la variabilité spatio-temporelle de la vapeur d'eauReverdy, Mathieu 17 December 2008 (has links) (PDF)
La vapeur d'eau atmosphérique joue un rôle important dans les processus météorologiques. Toutefois, sa variabilité spatio-temporelle a été un frein à son étude jusque dans les années 90. A partir de cette date, des chercheurs ont pu mettre en évidence le potentiel du GPS (Global Positioning System) comme instrument pouvant étudier l'humidité. Les résultats obtenus peuvent être de deux types. Une distribution 2D de l'humidité grâce aux valeurs intégrées au-dessus d'un réseau de station GPS ou une distribution 3D de la densité de vapeur d'eau au moyen de logiciel tomographique. Dans un premier temps, ce travail de thèse présente le développement, les tests et la validation d'un logiciel de tomographie troposphérique GPS développé au sein du Laboratoire de météorologie physique pour la communauté scientifique GPS. Ce logiciel fonctionne grâce au seul apport des données GPS brutes (type rinex) ainsi que des fichiers météorologiques au sol. Aucune contrainte externe n'est nécessaire afin de retrouver la distribution 3D de la densité de vapeur d'eau. Ce travail présente dans un second temps l'application opérationnelle de ce logiciel à travers trois campagnes de mesures. Les premiers résultats tomographiques concernent la campagne OHMCV (Observatoire Hydrométéorologique des Cévènnes-Vivarais) qui a eu lieu à l'automne 2002 dans le sud de la France. Les seconds résultats tomographiques concernent le réseau GPS permanent de l'IRMB (Institut Royal Météorologique de Belgique) à travers différents cas de l'année 2005. Enfin, les troisièmes résultats tomographiques concernent la campagne COPS (Convective and Orographically-induced Precipitation Study) qui a eu lieu pendant l'été 2007 en Europe. Les différents résultats tomographiques ont fait l'objet d'une comparaison avec des données provenant de plusieurs radars météorologiques afin de mieux appréhender le rôle de la vapeur d'eau comme précurseur de l'initiation convective.
|
86 |
Three dimensional object analysis and tracking by digital holography microscopySchockaert, Cédric 26 February 2007 (has links)
Digital Holography Microscopy (DHM) is a new 3D measurement technique that exists since Charge Coupled Devices (or CCD cameras) allow to record numerically high resolution images. That opens a new door to the theory of holography discovered in 1949 by Gabor: the door that masked the world of digital hologram processing. A hologram is a usual image but that contains the complex amplitude of the light coded into intensities recorded by the camera. The complex amplitude of the light can be seen as the combination of the energy information (squared amplitude modulus) with the information of the propagation angle of the light (phase of the amplitude) for each point of the image. When the hologram is digital, this dual information associated with a diffractive model of the light propagation permits to numerically investigate back and front planes to the recorded plane of the imaging system. We understand that 3D information can be recorded by a CCD camera and the acquisition rate of this volume information is only limited by the acquisition rate of the unique camera. For each digital hologram, the numerical investigation of front and back regions to the recorded plane is a tool to numerically refocus objects appearing unfocused in the original plane acquired by the CCD.<p>This thesis aims to develop general and robust algorithms that are devoted to automate the analysis process in the 3D space and in time of objects present in a volume studied by a specific imaging system that permits to record holograms. Indeed, the manual processing of a huge amount of holograms is not realistic and has to be automated by software implementing precise algorithms. In this thesis, the imaging system that records holograms is a Mach-Zehnder interferometer working in transmission and studied objects are either of biological nature (crystals, vesicles, cancer cells) or latex particles. We propose and test focus criteria, based on an identical focus metric, for both amplitude and phase objects. These criteria allow the determination of the best focus plane of an object when the numerical investigation is performed. The precision of the best focus plane is lower than the depth of field of the microscope. From this refocus theory, we develop object detection algorithms that build a synthetic image where objects are bright on a dark background. This detection map of objects is the first step to a fully automatic analysis of objects present in one hologram. The combination of the detection algorithm and the focus criteria allow the precise measurement of the 3D position of the objects, and of other relevant characteristics like the object surface in its focus plane, or its convexity or whatever. These extra relevant measures are carried out with a segmentation algorithm adapted to the studied objects of this thesis (opaque objects, and transparent objects in a uniform refractive index environment). The last algorithm investigated in this research work is the data association in time of objects from hologram to hologram in order to extract 3D trajectories by using the predictive Kalman filtering theory. <p>These algorithms are the abstract bricks of two software: DHM Object Detection and Analysis software, and Kalman Tracking software. The first software is designed for both opaque and transparent objects. The term object is not defined by one other characteristic in this work, and as a consequence, the developed algorithms are very general and can be applied on various objects studied in transmission by DHM. The tracking software is adapted to the dynamic applications of the thesis, which are flows of objects. Performance and results are exposed in a specific chapter. <p> / Doctorat en sciences appliquées / info:eu-repo/semantics/nonPublished
|
87 |
Imagerie TEM/TDM quantitative du 99mTc- et du 177LuGaudin, Émilie Odette 23 April 2018 (has links)
Grâce à l’implémentation d’algorithmes de reconstruction 3D dans les systèmes d’imagerie TEM/TDM, une étude quantitative à partir des images reconstruites est possible. La quantification d’images TEM/TDM est nécessaire afin de permettre une étude dosimétrique 3D des patients atteints de tumeurs neuroendocrines traités au 177Lu-octréotate. Cependant, afin de permettre une quantification précise des images obtenues, plusieurs paramètres du système doivent être déterminés afin d’appliquer les corrections nécessaires. Dans le cadre de cette étude, l’appareil TEM/TDM utilisé est tout d’abord calibré. Pour ce faire, la stabilité temporelle, la sensibilité, le temps mort et l’effet de volume partiel de l’appareil sont déterminés pour différents radioisotopes. Par la suite, une étude comparative de deux plateformes de reconstruction est effectuée afin de trouver la technique offrant la plus haute précision quantitative d’images TEM/TDM. La calibration et l’étude des reconstructions de l’appareil TEM/TDM a permis de déterminer la procédure optimale pour l’imagerie quantitative du 177Lu et de 99mTc avec une erreur maximale de 3%. Ces résultats pourraient être validés à l’aide de données cliniques.
|
88 |
Appariement automatique de modèles 3D à des images omnidirectionnelles pour des applications en réalité augmentée urbaineLefebvre, Michael 19 April 2018 (has links)
L'un des plus grands défis de la réalité augmentée consiste à aligner parfaitement les informations réelles et virtuelles pour donner l'illusion que ces informations virtuelles font partie intégrante du monde réel. Pour ce faire, il faut estimer avec précision la position et l'orientation de l'utilisateur, et ce, en temps réel. L'augmentation de scènes extérieures est particulièrement problématique, car il n'existe pas de technologie suffisamment précise pour permettre d'assurer un suivi de la position de l'utilisateur au niveau de qualité requis pour des applications en ingénierie. Pour éviter ce problème, nous nous sommes attardés à l'augmentation de panoramas omnidirectionnels pris à une position fixe. L'objectif de ce projet est de proposer une méthode robuste et automatique d'initialisation permettant de calculer la pose de panoramas omnidirectionnels urbains pour ainsi obtenir un alignement parfait des panoramas et des informations virtuelles. / One of the greatest challenges of augmented reality is to perfectly synchronize real and virtual information to give the illusion that virtual information are an integral part of real world. To do so, we have to precisely estimate the user position and orientation and, even more dificult, it has to be done in real time. Augmentation of outdoor scenes is particularly problematic because there are no technologies accurate enough to get user position with the level of accuracy required for application in engineering. To avoid this problem, we focused on augmenting panoramic images taken at a fixed position. The goal of this project is to propose a robust and automatic initialization method to calculate the pose of urban omnidirectional panoramas to get a perfect alignment between panoramas and virtual information.
|
89 |
Leveraging unlabeled data for semantic segmentation of 3D mobile LiDAR point cloud using a label-efficient learning approachMahmoudi Kouhi, Reza 05 August 2024 (has links)
La segmentation sémantique des vastes nuages de points en cartographie mobile est cruciale pour l'urbanisme, la conception d'infrastructures et la navigation autonome. Cependant, leur nature irrégulière et massive présente des défis majeurs pour une segmentation précise. Cette thèse aborde ces défis en proposant de nouvelles méthodologies concernant la préparation des données, l'apprentissage contrastif auto-supervisé et les approches de pseudo-étiquetage. Les objectifs de recherche de cette thèse sont doubles : (1) concevoir une approche de préparation des données qui puisse alimenter de manière optimale des réseaux neuronaux avec des sous-ensembles de points, tout en préservant les informations spatiales et représentatives des caractéristiques du nuage de points, et (2) concevoir et mettre en œuvre des méthodes d'apprentissage efficaces en termes d'étiquetage qui exploitent les ensembles massifs de données non étiquetées afin de réaliser la segmentation sémantique précise des nuages de points dans le contexte de la cartographie mobile à grande échelle. L'atteinte du premier objectif est adressé dans le chapitre 2 qui présente de nouvelles méthodes de préparation des données adaptées aux nuages de points LiDAR 3D à grande échelle en extérieur. Après avoir mené des expérimentations et évaluations approfondies, incluant des comparaisons avec les méthodes de l'état de l'art, les méthodes proposées démontrent de meilleures performances en termes de précision et robustesse du réseau. Le chapitre 3 se concentre sur la réalisation du deuxième objectif en introduisant CLOUDSPAM, une approche d'apprentissage contrastif spécifiquement adaptée aux ensembles de données de cartographie mobile. En exploitant des techniques d'augmentation des données, un pré-entraînement auto-supervisé et des ensembles fusionnés de données hétérogènes, CLOUDSPAM surmonte les défis liés au manque de paires positives et négatives et aux contraintes de gestion de la mémoire. Les expérimentations réalisées mettent en évidence l'efficacité de CLOUDSPAM pour la segmentation sémantique de divers jeux de données, même lorsque les données étiquetées sont limitées. Bien que CLOUDSPAM soit efficace et comparable à l'état de l'art, il présente certaines limites liées à l'apprentissage contrastif auto-supervisé. Le chapitre 4 présente une solution complète pour aborder ces limitations. Celle-ci exploite des pseudo-étiquettes générées par un réseau pré-entraîné, ainsi que des banques de mémoire par classe et un module de purification de segments. Dans son ensemble, cette thèse apporte une contribution significative à l'avancement de SOTA en matière de segmentation sémantique des nuages de points en cartographie mobile à grande échelle. / Semantic segmentation of large-scale mobile mapping point clouds is essential for various applications in urban planning, infrastructure design, and autonomous navigation. However, the irregular and unstructured nature of point clouds along with the massiveness of mobile mapping point clouds poses significant challenges for accurate segmentation. This thesis addresses these challenges by proposing novel methodologies in data preparation, self-supervised contrastive learning, and pseudo-labeling approaches. The research objectives of this thesis are twofold: (1) to develop a comprehensive approach for data preparation that optimally feeds subsets of point clouds into deep neural networks, preserving spatial information and representative of the point cloud's characteristics, and (2) to design and implement label-efficient learning methods that leverage massive unlabeled data to achieve accurate semantic segmentation of large-scale mobile mapping point clouds. In pursuit of the first objective, Chapter 2 presents novel data preparation methods tailored for large-scale outdoor 3D LiDAR point clouds. Through comprehensive experimentation and evaluation, including comparisons with existing approaches, the proposed methods demonstrate improved performance in deep neural network-based semantic segmentation tasks. Chapter 3 focuses on achieving the second objective by introducing CLOUDSPAM, a contrastive learning approach specifically adapted for mobile mapping datasets. Leveraging data augmentation techniques, self-supervised pretraining, and merged heterogeneous datasets, CLOUDSPAM addresses challenges related to limited positive and negative pairs and memory constraints. Rigorous experimentation showcases the effectiveness of CLOUDSPAM in enhancing semantic segmentation performance across various datasets, even in scenarios with limited labeled data. While CLOUDSPAM is effective and is comparable with the state-of-the-art, it still has some limitations due to uncertainties related to self-supervised contrastive learning. Chapter 4 presents a comprehensive solution to address these limitations. A teacher-student pseudo-labeling approach for semantic segmentation is proposed. This approach leverages pseudo-labels generated by a pre-trained teacher network, along with class-wise memory banks and a segment purification module, to improve segmentation accuracy and robustness. Overall, this thesis makes significant contributions to advancing the state-of-the-art in semantic segmentation of large-scale mobile mapping point clouds.
|
90 |
A new WebGIS approach to support ground penetrating radar deploymentTabarro, Paulo 12 June 2024 (has links)
En raison de l’agglomération complexe des infrastructures souterraines dans les grandes zones urbaines et des préoccupations accrues des municipalités ou des gouvernements qui déploient des systèmes d’information foncière ou des industries qui souhaitent construire ou creuser, il devient de plus en plus impératif de localiser et de cartographier avec précision les pipelines, les câbles d’énergie hydroélectrique, les réseaux de communication ou les conduites d’eau potable et d’égout. Le géoradar (Ground Penetrating Radar ou GPR) est un outil en géophysique qui permet de produire des images en coupe du sous-sol desquelles de l’information utile sur les infrastructures souterraines peut être tirée. Des expériences antérieures et une analyse documentaire approfondie ont révélé que les logiciels disponibles pour réaliser des levés GPR qui sont utilisés directement sur le terrain et hors site ne reposent pas ou très peu sur des fonctionnalités géospatiales. En outre, l’intégration de données telles que la visualisation de données GPR dans des espaces géoréférencés avec des orthophotos, des cartes, des points d’intérêt, des plans CAO, etc., est impossible. Lorsque disponible, l’ajout d’annotations ou l’interrogation d’objets géospatiaux susceptibles d’améliorer ou d’accélérer les investigations ne proposent pas des interfaces conviviales. Dans ce projet de recherche, une nouvelle approche est proposée pour déployer le GPR et elle est basée sur quatre fonctionnalités issues du Web et des systèmes d’information géographique (WebGIS) jugées essentielles pour faciliter la réalisation de levés GPR sur le terrain. Pour démontrer la faisabilité de cette nouvelle approche, une extension de la plate-forme logicielle existante GVX (conçue et vendue par Geovoxel) appelée GVX-GPR a été développée. GVX-GPR propose aux utilisateurs d’instruments GPR quatre fonctionnalités soit 1) intégration de cartes, 2) géo-annotations et points d’intérêt, 3) géoréférencement et visualisation de radargrammes et 4) visualisation de sections GPR géoréférencées. Afin de tester l’approche WebGIS et GPXGPR, deux sites d’étude ont été relevés par deux professionnels différents, un expert et un non-expert en géophysique, ont été sélectionnés. Une première expérimentation réalisée sur le campus de l’Université Laval à Québec prévoyait l’identification de trois objets enterrés soit un câble électrique, une fibre optique et un tunnel dont leur position XYZ était connue. Le deuxième essai s’est passé à l’Universidade Federal do Rio de Janeiro (Rio de Janeiro, Brésil), avec un professionnel expert en géophysique. Ce 2e site cherchait à reproduire un environnent plus réaliste avec une quantité inconnue d’objets enterrés. Les quatre fonctionnalités proposées par GVX-GPR ont donc été testées et leur intérêt discuté par les deux utilisateurs GPR. Les deux utilisateurs GPR se sont dits très intéressés par l’outil GVX-GPR et ses nouvelles fonctionnalités et ils aimeraient pouvoir l’intégrer à leur travail quotidien car ils y voient des avantages. En particulier, l’approche et GVX-GPR les a aidés à découvrir de nouvelles cibles, à délimiter le territoire à couvrir, à interpréter les données GPR brutes en permettant l’interaction entre les données géospatiales (en ligne) et les profils de données GPR, et finalement pour la cartographie à produire tout en respectant la norme CityGML (donc utile au partage éventuel des données). De même, une fois le système maitrisé, GVX-GPR a permis d’optimiser la durée du levé. Ce projet de maitrise a donc permis d’élaborer une nouvelle approche pour effectuer des levés GPR et proposer un outil logiciel pour tester la faisabilité de celle-ci. Une première étape de validation de la faisabilité et de l’utilité a été réalisée grâce aux deux tests effectués. Évidemment, ces deux tests sont des premiers pas dans une phase plus large de validation qui pourrait s’effectuer, et ils ont ouvert la porte à des ajustements ou l’ajout d’autres fonctionnalités, comme la manipulation des outils de visualisation 3D et l’ajout de filtres et traitement de signal. Nous estimons néanmoins ces premiers tests concluant pour ce projet de maîtrise, et surtout ils démontrent que les instruments GPR gagneraient à davantage intégrer les données et fonctionnalités géospatiales. Nous pensons également que nos travaux vont permettre à des communautés de non spécialistes en géophysique de s’intéresser aux instruments de type GPR pour les levés d’objets enfouis. Notre approche pourra les aider à préparer les données géospatiales utiles à la planification, à effectuer le levé terrain et à produire les cartes associées / Due to the complex agglomeration of underground infrastructures in large urban areas and accordingly increased concerns by municipalities or government who deploy land information systems or industries who want to construct or excavate, it is imperative to accurately locate and suitability map existing underground utility networks (UUN) such as pipelines, hydroelectric power cables, communication networks, or drinking water and sewage conduits. One emerging category of instrument in geophysics for collecting and extracting data from the underground is the ground penetrating radar (GPR). Previous experiments and a thorough literature review revealed that GPR software used in and off the field do not take advantage of geospatial features and data integration such as visualization of GPR data in a georeferenced space with orthophotographies, map, point of interest, CAD plans, etc. Also missing is the capability to add annotation or querying geospatial objects that may improve or expedite the investigations. These functions are long-lived in the geospatial domain, such as in geographic information system (GIS). In this research project, a new approach is proposed to deploy GPR based on four core WebGIS-enabled features, used to support field investigations with GPR. This WebGIS is based on an existing platform called GVX, designed and sold by Geovoxel as a risk management tool for civil engineering projects. In this proposed approach, a generic guideline based on GVX-GPR was developed which users can follow when deploying GPR. This approach is based on four core features which are missing on most GPR software, (1) map integration, (2) geo-annotations and points of interest, (3) radargram georeferencing and visualization, and (4) georeferenced slice visualization. In order to test the designed WebGIS-based approach, two different professionals, an expert in geophysics and a person without any background in geophysics, used the proposed approach in their day-to-day professional practice. The first experiment was conducted at Université Laval (Québec – Canada) when the subject undertook an area to a survey in order to identify 3 possible targets premapped. The second, with a Geophysics-specialist, took place in Rio de Janeiro, at Universidade Federal do Rio de Janeiro’s campus. This study covered an area counting on an unknown number of buried objects, aiming at reproducing a realistic survey scenario. Four new feature were added and discussed with GPR practitioners. Both GPR user declared to be very interested by the proposed by the tool GVX-GPR and its features, being willing to apply this software on their daily basis due to the added advantages. Particularly, this approach has aided these professionals to find new buried objects, delimit the survey area, interpret raw GPR data by allowing geospatial data interaction and GPR profiles, and, finally, to produce new maps compliant with standards such as CityGML. Also, once mastered, the technology allowed the optimization of survey time. This project enabled the development of a new approach to leverage GPR surveys and proposed a new tool in order to test the approach’s feasibility. A first step into the validation of this proposal has been taken towards a feasibility and utility evaluation with two tests accomplished. Unmistakably, these are the first steps of a likely larger validation process, opening up new possibilities for the continuity of the project such as the addition of signal processing techniques and 3D data handling. We nevertheless consider these conclusive for this master’s project, above all demonstrating the value add by geospatial data integration and functions to GPR instruments. This work is also intended to the community of newcomers, or interested in GPR, to further explore this technology, since this approach shall facilitate the preparation, execution, and post-processing phases of a GPR survey.
|
Page generated in 0.1388 seconds