• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 234
  • 61
  • 7
  • Tagged with
  • 307
  • 123
  • 60
  • 52
  • 47
  • 45
  • 44
  • 44
  • 44
  • 33
  • 29
  • 27
  • 25
  • 25
  • 24
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
181

Extraction robuste de primitives géométriques 3D dans un nuage de points et alignement basé sur les primitives

Tran, Trung Thien 24 April 2018 (has links)
Dans ce projet, nous étudions les problèmes de rétro-ingénierie et de contrôle de la qualité qui jouent un rôle important dans la fabrication industrielle. La rétro-ingénierie tente de reconstruire un modèle 3D à partir de nuages de points, qui s’apparente au problème de la reconstruction de la surface 3D. Le contrôle de la qualité est un processus dans lequel la qualité de tous les facteurs impliqués dans la production est abordée. En fait, les systèmes ci-dessus nécessitent beaucoup d’intervention de la part d’un utilisateur expérimenté, résultat souhaité est encore loin soit une automatisation complète du processus. Par conséquent, de nombreux défis doivent encore être abordés pour atteindre ce résultat hautement souhaitable en production automatisée. La première question abordée dans la thèse consiste à extraire les primitives géométriques 3D à partir de nuages de points. Un cadre complet pour extraire plusieurs types de primitives à partir de données 3D est proposé. En particulier, une nouvelle méthode de validation est proposée pour évaluer la qualité des primitives extraites. À la fin, toutes les primitives présentes dans le nuage de points sont extraites avec les points de données associés et leurs paramètres descriptifs. Ces résultats pourraient être utilisés dans diverses applications telles que la reconstruction de scènes on d’édifices, la géométrie constructive et etc. La seconde question traiée dans ce travail porte sur l’alignement de deux ensembles de données 3D à l’aide de primitives géométriques, qui sont considérées comme un nouveau descripteur robuste. L’idée d’utiliser les primitives pour l’alignement arrive à surmonter plusieurs défis rencontrés par les méthodes d’alignement existantes. Ce problème d’alignement est une étape essentielle dans la modélisation 3D, la mise en registre, la récupération de modèles. Enfin, nous proposons également une méthode automatique pour extraire les discontinutés à partir de données 3D d’objets manufacturés. En intégrant ces discontinutés au problème d’alignement, il est possible d’établir automatiquement les correspondances entre primitives en utilisant l’appariement de graphes relationnels avec attributs. Nous avons expérimenté tous les algorithmes proposés sur différents jeux de données synthétiques et réelles. Ces algorithmes ont non seulement réussi à accomplir leur tâches avec succès mais se sont aussi avérés supérieus aux méthodes proposées dans la literature. Les résultats présentés dans le thèse pourraient s’avérér utilises à plusieurs applications. / In this research project, we address reverse engineering and quality control problems that play significant roles in industrial manufacturing. Reverse engineering attempts to rebuild a 3D model from the scanned data captured from a object, which is the problem similar to 3D surface reconstruction. Quality control is a process in which the quality of all factors involved in production is monitored and revised. In fact, the above systems currently require significant intervention from experienced users, and are thus still far from being fully automated. Therefore, many challenges still need to be addressed to achieve the desired performance for automated production. The first proposition of this thesis is to extract 3D geometric primitives from point clouds for reverse engineering and surface reconstruction. A complete framework to extract multiple types of primitives from 3D data is proposed. In particular, a novel validation method is also proposed to assess the quality of the extracted primitives. At the end, all primitives present in the point cloud are extracted with their associated data points and descriptive parameters. These results could be used in various applications such as scene and building reconstruction, constructive solid geometry, etc. The second proposition of the thesis is to align two 3D datasets using the extracted geometric primitives, which is introduced as a novel and robust descriptor. The idea of using primitives for alignment is addressed several challenges faced by existing registration methods. This alignment problem is an essential step in 3D modeling, registration and model retrieval. Finally, an automatic method to extract sharp features from 3D data of man-made objects is also proposed. By integrating the extracted sharp features into the alignment framework, it is possible implement automatic assignment of primitive correspondences using attribute relational graph matching. Each primitive is considered as a node of the graph and an attribute relational graph is created to provide a structural and relational description between primitives. We have experimented all the proposed algorithms on different synthetic and real scanned datasets. Our algorithms not only are successful in completing their tasks with good results but also outperform other methods. We believe that the contribution of them could be useful in many applications.
182

Data-driven covariance estimation for the iterative closest point algorithm

Landry, David 06 May 2019 (has links)
Les nuages de points en trois dimensions sont un format de données très commun en robotique mobile. Ils sont souvent produits par des capteurs spécialisés de type lidar. Les nuages de points générés par ces capteurs sont utilisés dans des tâches impliquant de l’estimation d’état, telles que la cartographie ou la localisation. Les algorithmes de recalage de nuages de points, notamment l’algorithme ICP (Iterative Closest Point), nous permettent de prendre des mesures d’égo-motion nécessaires à ces tâches. La fusion des recalages dans des chaînes existantes d’estimation d’état dépend d’une évaluation précise de leur incertitude. Cependant, les méthodes existantes d’estimation de l’incertitude se prêtent mal aux données en trois dimensions. Ce mémoire vise à estimer l’incertitude de recalages 3D issus d’Iterative Closest Point (ICP). Premièrement, il pose des fondations théoriques desquelles nous pouvons articuler une estimation de la covariance. Notamment, il révise l’algorithme ICP, avec une attention spéciale sur les parties qui sont importantes pour l’estimation de la covariance. Ensuite, un article scientifique inséré présente CELLO-3D, notre algorithme d’estimation de la covariance d’ICP. L’article inséré contient une validation expérimentale complète du nouvel algorithme. Il montre que notre algorithme performe mieux que les méthodes existantes dans une grande variété d’environnements. Finalement, ce mémoire est conclu par des expérimentations supplémentaires, qui sont complémentaires à l’article. / Three-dimensional point clouds are an ubiquitous data format in robotics. They are produced by specialized sensors such as lidars or depth cameras. The point clouds generated by those sensors are used for state estimation tasks like mapping and localization. Point cloud registration algorithms, such as Iterative Closest Point (ICP), allow us to make ego-motion measurements necessary to those tasks. The fusion of ICP registrations in existing state estimation frameworks relies on an accurate estimation of their uncertainty. Unfortunately, existing covariance estimation methods often scale poorly to the 3D case. This thesis aims to estimate the uncertainty of ICP registrations for 3D point clouds. First, it poses theoretical foundations from which we can articulate a covariance estimation method. It reviews the ICP algorithm, with a special focus on the parts of it that are pertinent to covariance estimation. Then, an inserted article introduces CELLO-3D, our data-driven covariance estimation method for ICP. The article contains a thorough experimental validation of the new algorithm. The latter is shown to perform better than existing covariance estimation techniques in a wide variety of environments. Finally, this thesis comprises supplementary experiments, which complement the article.
183

A cancer cell scaffold-based on advanced functional hydrogels for the chick chorioallantoic membrane (CAM) tumour model

Liu, Zongyi 17 May 2024 (has links)
INTRODUCTION : Le test de la membrane chorio-allantoïque (CAM) joue un rôle clé dans la recherche contre le cancer, permettant d'évaluer l'efficacité de nouveaux médicaments sur des cellules cancéreuses humaines greffées sur la CAM afin d'en observer les impacts sur la croissance tumorale. Malgré son importance, ce test présente cependant des limites, comme une prolifération cellulaire rapide et une compatibilité restreinte avec certaines lignées cellulaires. Notre recherche a exploré l'utilisation d'hydrogels pour le moulage ou l'impression 3D d'implants cellulaires, en combinaison avec l'essai CAM, visant à délivrer des facteurs de croissance endothéliale vasculaire (VEGF) et à favoriser la croissance de masses de cellules cancéreuses importantes. MÉTHODOLOGIE : Un hydrogel enrichi d'alginate de sodium, d'acide hyaluronique, pré-réticulé avec des ions Ca$^{2+}$, Matrigel®, VEGF, et du collagène de type I a été développé. Ses propriétés rhéologiques, physico-chimiques, et de biocompatibilité ont été évaluées, puis il a été mélangé avec des cellules cancéreuses HT1080 ou HT29, appliqué sur le CAM, et incubé à 37 ºC pour 7 jours. Les tumeurs vascularisées formées ont été analysées, quantifiant la vascularisation par VEGF via la microscopie optique et l'examen histologique. RÉSULTATS ET DISCUSSION : les résultats ont montré une viabilité cellulaire supérieure à 95% après deux jours d'incubation. Les hydrogels contenant VEGF ont induit une angiogenèse significative. Cependant, le poids des masses tumorales vascularisées a de manière inattendues diminué, suggérant une intégration limitée des hydrogels dans la CAM. Cette observation pourrait expliquer la taille réduite des tumeurs, malgré une réponse angiogénique confirmée par des colorations H&E. CONCLUSION : l'hydrogel développé a maintenu une haute viabilité cellulaire et a stimulé l'angiogenèse sur la CAM. Néanmoins, le développement de grandes masses tumorales a été entravé par une intégration hydrogel-tissu limitée, soulignant le besoin d'améliorations pour optimiser l'utilisation de l'hydrogel dans les essais CAM. / INTRODUCTION: The chorioallantoic membrane (CAM) assay is important in cancer research for assessing new drug efficacy by grafting human cancer cells onto the CAM to evaluate tumor growth impact. Despite its utility, limitations include rapid cell proliferation and restricted cell line compatibility. This research project aimed at identifying if hydrogels for molding or 3D printing of cell-containing implants could be coupled to the CAM assay to a) deliver vascular endothelial growth factors (VEGF) and b) to promote the growth of larger cancer cell masses at the CAM. METHODOLOGY: A sodium alginate and hyaluronic acid-based hydrogel, pre-crosslinked with Ca$^{2+}$ ions, was combined with varying proportions of Matrigel®, VEGF, and collagen type I. Rheological, physicochemical, and biocompatibility tests characterized the hydrogel. It was then mixed with HT1080 or HT29 cancer cells, grafted onto the CAM, and incubated at 37 ºC for 7 days. Vascularized cancer cell masses were harvested, and VEGF-induced vascularization was quantified via optical microscopy. Histological examination assessed the cancer cell masses. RESULTS AND DISCUSSION: Cell viability remained above 95% after two days of incubation with the hydrogel. Hydrogels mixed with VEGF and cancer cells induced angiogenesis on the CAM. Unexpectedly, the average weight of vascularized cancer cell masses decreased. Further hematoxylin and eosin (H&E) staining confirmed angiogenic response to the hydrogel implantation, but the limited integration of hydrogels into the CAM, which could help explain the reduced weight of the cell masses harvested after 7 days of growth on the CAM, by comparison to results from the conventional experiments (cells only). CONCLUSION: The hydrogel formulation developed in this study preserved cell viability in vitro and stimulated angiogenesis on the CAM. However, the development of large cancer cell masses remained challenging due to the limited hydrogel-CAM tissue integration after several days of growth on the CAM.
184

Relevés lumineux tridimensionnels en architecture : $b la numérisation laser LiDAR pour modéliser et visualiser les ambiances lumineuses d'espaces réels

Rodrigue, Myriam 24 May 2019 (has links)
Ce mémoire de maîtrise propose la numérisation laser tridimensionnelle LiDARcomme nouvelle méthode d'étude et de visualisation de l'éclairage naturel dans des environnements réels pour architectes et designers. Elle constitue un complément aux méthodes d'éclairage actuelles car elle répond aux limites de la méthode de mesure de l'éclairement, de la simulation numérique et de l'imagerie à haute dynamique(HDR)en ce qui concerne le relevé et la représentation des patterns lumineux. Il présente une étude de cas pour déterminer les avantages et les limites de la numérisation laser 3D dans une vaste cafétéria à éclairage naturel et artificiel, vaste, géométriquement complexe et fragmentée. Les patterns lumineuxet la géométrie del'espace sont capturés par un appareil à balayage laser 3D à travers une série de quatre numérisations. Les numérisations sont alignées et fusionnées pour former un seul modèle 3D de l'espace entier. Les patterns lumineuxsont présentés en relation avec la matérialité, la géométrie et la position des fenêtres, des murs, des appareils d'éclairage et des sources d'éclairage et présentés sous forme d'images semblables à des dessins de présentation architecturaux. Plus précisément, les patterns lumineuxsont illustrés dans un plan d'étage, un plan de plafond réfléchi, une axonométrie et une coupe transversale. La méthode fournit des résultats de visualisation percutants. Elle facilite leur compréhension des patterns lumineux, car un nombre illimité d'images peut être généré à partir d'un nuage de points. L'exactitude de la méthode de relevé des espaces éclairés naturellement estégalementvérifié pour desespacesrelevésen une et plusieurs numérisations en comparant les patterns lumineux des imageries HDR et des nuages de points. De plus, le mémoire explore le potentiel de la numérisation laser tridimensionnelle comme méthode pour simuler de nouvelles ambiances lumineuses dans des espaces existants. / This master thesisproposesLiDARtridimensional laser scanning as a new daylighting enquiry and visualization method for real built environments for architects and designers. It constitutes a complement to actual lighting methods because it responds to the limitations of the illuminance measuring method, computer simulation and high dynamic rangeimagery concerning the survey and representation of lighting patterns. It presents a case study to determine the advantages and limitations of 3D laser scanning in a vast, geometrically complex and fragmented naturally and artificially lit cafeteria. Lighting patterns and the geometry of the space are captured with a 3D laser scanner through a series of four scans. The scans are aligned and fused to form a single 3D model of the entire space. The lighting distribution patterns are showcased in relation to the materiality, geometry and position of windows, walls, lighting fixtures and the lighting sources and presented through images similar to architectural presentation drawings. More precisely, the lighting distribution patterns are illustrated in a floor plan, a reflected ceiling plan, an axonometry and a cross-section. The method provides powerful visualization results and facilitates their understanding as an unlimited number of images can be generated from a point cloud.The precision of the method for surveying daylit environments surveyed through one and several scans is also verified by comparing lighting patterns between HDR and point cloud imageries. Moreover, it explores tridimensional laser scanning as a method for rendering new lighting ambiances in existing spaces.
185

Conception d'un outil cognitif d'assistance à la prise de vue pour la photogrammétrie terrestre

Bach, Matthieu 16 April 2018 (has links)
Les infrastructures canadiennes se faisant de plus en plus vieillissantes, il est primordial d'en effectuer une surveillance régulière afin de garantir la sécurité publique. L'inspection des infrastructures consiste à suivre les déformations tridimensionnelles d'une structure sur une période donnée. Les techniques de photogrammétrie à courte portée figurent parmi les solutions permettant d'élaborer des modélisations 3D précises de structure et d'en réaliser la surveillance. Malgré leurs nombreux avantages, elles impliquent un nombre important d'étapes dont la qualité de réalisation dépend de l'expertise de l'opérateur. Ce mémoire présente la solution ergonomique de photogrammétrie courte portée qui a été élaborée pour l'acquisition et la modélisation 3D d'objets complexes. Plus spécifiquement, les composants de cette solution visent à apporter une assistance à un utilisateur non expert en photogrammétrie lors de l'acquisition des prises de vue afin de lui permettre de respecter les tolérances relatives à la configuration d'acquisition qui garantiront que le modèle 3D élaboré répond aux spécifications de précision et de complétude attendues.
186

Analyse de la reconstruction 3D par stéréo multivue dans l'optique des défis de l'appariement

Dubé, Julie 16 April 2018 (has links)
Le sujet de la reconstruction 3D par stéréo multivue a été tant étudié, tellement de méthodes ont été développées qu'il n'est pas toujours facile de s'y retrouver. Qu'est-ce qui fait qu'un algorithme est plus efficace qu'un autre? Pour répondre à cette question, il faut être en mesure de reconnaître les caractéristiques fondamentalement intéressantes d'un algorithme. Dans le but d'acquérir ce savoir, nous allons décortiquer les différentes étapes de la reconstruction d'un objet, en partant par la base de la stéréo: l'appariement. Trouver des positions dans différentes images qui correspondent au même point de la surface comprend plusieurs défis: la visibilité (quel point est vu dans quelle image?), l'ambiguïté (quel ensemble de pixels correspond à un point de la surface?), la variation d'apparence angulaire (la couleur d'un point de la surface peut changer selon le point de vue) et la discrétisation de l'apparence (une image est un échantillonnage de l'apparence d'une partie de la surface). Apparier implique de pouvoir évaluer que la variation de couleur angulaire d'un point est cohérente avec le modèle de réflectance de l'objet. Pour évaluer la photo-cohérence, un critère de comparaison, des contraintes sur la surface et une façon d'emmagasiner les données sont nécessaires. Compte tenu des problèmes d'appariement, la photo-cohérence n'est pas suffisante pour trouver la surface. Pour trouver les meilleurs appariements, les algorithmes de reconstruction intègrent donc les façons d'évaluer la photo-cohérence aux autres hypothèses sur la surface (ex: lisse, cohérente aux silhouettes).
187

Modélisation interactive : amélioration du processus de reconstruction d'un modèle 3D par la compression temps réel

Deschênes, Jean-Daniel 13 April 2018 (has links)
Tableau d’honneur de la Faculté des études supérieures et postdoctorales, 2008-2009 / Ces travaux présentent un système interactif de modélisation 3D multirésolution permettant la compression en temps réel de la surface à reconstruire. Les principaux avantages de ce système par rapport à ceux présentés dans le passé sont de pouvoir localement reconstruire la surface à différents niveaux de résolution et de compresser la surface durant l'acquisition des données brutes. Cette utilisation judicieuse de la mémoire rend désormais possible la modélisation d'objets de plus grande taille ou à une résolution plus élevée. Le document est divisé en trois parties. Tout d'abord, nous ferons un retour sur la représentation de surface qui est à la base du système proposé : le champ vectoriel. Nous montrerons tous les avantages d'une telle représentation dans le contexte de la modélisation interactive. Par après, nous aborderons le développement de la représentation multirésolution s'inspirant du champ vectoriel et permettant la compression en temps réel. Nous verrons comment il est possible de faire cohabiter différents niveaux de résolution à l'intérieur d'une même structure de données tout en conservant une représentation cohérente de la surface. Ensuite, nous expliquerons tous les algorithmes nécessaires à la compression en temps réel. La dernière partie de ces travaux aborde la mise au point d'un module de visualisation permettant d'afficher l'état de la surface multirésolution durant l'acquisition des données brutes. L'approche utilisée repose sur une technique de lancer de rayons et offre une grande qualité de rendu tout en conservant l'interactivité du système.
188

Conception et évaluation d'un nouvel algorithme de reconstruction itérative en tomodensitométrie à faisceau conique implanté sur matériel graphique

Matenine, Dmitri 24 April 2018 (has links)
La présente thèse s’inscrit dans le domaine de la physique médicale et, plus précisément, de l’imagerie médicale tridimensionnelle (3D) et de la dosimétrie 3D pour la radiothérapie. L’objectif global du travail était de concevoir et évaluer un nouvel algorithme de reconstruction itératif rapide pour la tomodensitométrie (TDM) à faisceau conique, une modalité consistant à créer des images 3D des densités du sujet imagé à partir de mesures d’atténuation partielle d’un faisceau de radiation incidente. Cet algorithme a été implanté sur matériel graphique (GPU), une plate-forme de calcul hautement parallèle, menant à la conception de stratégies d’optimisation originales. En premier lieu, un nouvel algorithme itératif statistique régularisé, dénommé OSC-TV, a été conçu et implanté sur GPU. Il a été évalué sur des ensembles de projections synthétiques et cliniques de TDM à rayons X à faisceau conique. L’algorithme proposé a démontré une qualité d’image supérieure à celle de méthodes semblables pour des acquisitions basse-dose, ainsi que des temps de reconstruction compatibles avec les activités cliniques. L’impact principal de ce travail est la capacité d’offrir au patient une réduction de dose de radiation ionisante de deux à quatre fois par rapport aux protocoles d’acquisition usuels. En second lieu, cet algorithme a été testé sur des données expérimentales en tomographie optique à faisceau conique, donnant lieu à l’une des premières études de ce genre. La résolution spatiale des images 3D résultantes a été améliorée et le bruit a été réduit. L’on a aussi démontré l’importance de considérer le spectre de la source lumineuse afin d’assurer la justesse de l’estimation des densités. Le principal impact de l’étude est la démonstration de la supériorité de la reconstruction itérative pour des données affectées par les aberrations propres à la tomographie optique à faisceau conique, résultant potentiellement en l’amélioration de la dosimétrie 3D par gel radiochromique en radiothérapie. En troisième lieu, différentes approches de gestion de la matrice-système de type exact à rayons fins ont été évaluées pour la TDM à faisceau conique. Le pré-calcul et le stockage complet de la matrice-système dans la mémoire vive du GPU s’est montré comme l’approche la plus rapide, mais la moins flexible en termes de géométries représentables, en raison de la taille limitée de la mémoire vive. Le traçage de rayons à la volée est apparu très flexible, offrant aussi des temps de reconstruction raisonnables. En somme, les trois études ont permis de mettre en place et d’évaluer la méthode de reconstruction proposée pour deux modalités de tomographie, ainsi que de comparer différentes façons de gérer la matrice-système. / This thesis relates to the field of medical physics, in particular, three-dimensional (3D) imaging and 3D dosimetry for radiotherapy. The global purpose of the work was to design and evaluate a new fast iterative reconstruction algorithm for cone beam computed tomography (CT), an imaging technique used to create 3D maps of subject densities based on measurements of partial attenuation of a radiation beam. This algorithm was implemented for graphics processing units (GPU), a highly parallel computing platform, resulting in original optimization strategies. First, a new iterative regularized statistical method, dubbed OSC-TV, was designed and implemented for the GPU. It was evaluated on synthetic and clinical X ray cone beam CT data. The proposed algorithm yielded improved image quality in comparison with similar methods for low-dose acquisitions, as well as reconstruction times compatible with the clinical workflow. The main impact of this work is the capacity to reduce ionizing radiation dose to the patient by a factor of two to four, when compared to standard imaging protocols. Second, this algorithm was evaluated on experimental data from a cone beam optical tomography device, yielding one of the first studies of this kind. The spatial resolution of the resulting 3D images was improved, while the noise was reduced. The spectral properties of the light source were shown to be a key factor to take into consideration to ensure accurate density quantification. The main impact of the study was the demonstration of the superiority of iterative reconstruction for data affected by aberrations proper to cone beam optical tomography, resulting in a potential to improve 3D radiochromic gel dosimetry in radiotherapy. Third, different methods to handle an exact thin-ray system matrix were evaluated for the cone beam CT geometry. Using a GPU implementation, a fully pre-computed and stored system matrix yielded the fastest reconstructions, while being less flexible in terms of possible CT geometries, due to limited GPU memory capacity. On-the-fly ray-tracing was shown to be most flexible, while still yielding reasonable reconstruction times. Overall, the three studies resulted in the design and evaluation of the proposed reconstruction method for two tomographic modalities, as well as a comparison of the system matrix handling methods.
189

Quantification en thérapie radionucléique par radiopeptides au 177 Lu

Frezza, Andrea 22 April 2021 (has links)
Le présent travail de thèse concerne la quantification en imagerie moléculaire en trois dimensions (3D), en particulier, dans le cadre de la thérapie radionucléique par radiopeptides (TRRP) au ¹⁷⁷Lu pour les tumeurs neuroendocrines (TNE). Le ¹⁷⁷Lu est un radioisotope émetteur beta, à courte portée dans les tissus (2 mm), et gamma, avec des énergies utilisables pour l'imagerie de tomographie par émission mono-photonique (TEM). Ces caractéristiques font de celui-ci un bon radioisotope pour la TRRP des TNE : de petite taille et répandues dans le corps. De plus, avec plusieurs images de TEM prises lors d'un traitement, il est possible de quantifier la distribution du radioisotope dans le corps du patient et même d'évaluer la progression du traitement. L'objectif principal du projet est le développement et la validation des outils, expérimentaux et informatiques, pour la quantification de la dose absorbée lors d'une TRRP au ¹⁷⁷Lu, avec la possibilité d'étendre les méthodes à d'autres radioisotopes. Deux étapes principales ont été nécessaires. La première était la calibration et la caractérisation de l'appareil d'imagerie de TEM. Dans ce contexte, plusieurs techniques d'acquisitions et d'analyse ont été testées et un protocole de calibration simplifié a été proposé. Un accent particulier est mis sur la détermination du facteur de calibration (CF) et du temps mort (τ ) de l'appareil de TEM pour la correction et la quantification des images acquises. D'une évaluation de l'équation qui gouverne le comportement de détection de l'appareil de TEM, une nouvelle formulation plus concise et analysable mathématiquement a été proposée. Celle-ci permet l'extraction des deux facteurs de façon approximative, mais simple ainsi que la proposition d'un nouveau protocole de calibration. Avec des images bien quantifiées en activité (biodistribution du radiopeptide dans le corps), il est possible, par simulations Monte Carlo (MC), de calculer le dépôt de dose. Une deuxième étape a été la validation du code irtGPUMCD. Il s'agit d'un code MC, fonctionnant sur processeur graphique (GPU), pour le calcul de la dose absorbée lors d'une TRRP et précédemment développé au sein du Groupe de recherche en physique médicale du CHU de Québec - Université Laval. Le code irtGPUMCD a été adapté pour l'utilisation dans des conditions standard et validé sur les modèles informatiques de la International Commission on Radiological Protection (ICRP110), non seulement pour le ¹⁷⁷Lu, mais aussi pour le ¹³¹I et ⁹⁹ᵐTc. Avec les simulations exécutées sur une géométrie de référence et une comparaison avec d'autres résultats présents en littérature, le code a été validé. Dans le cadre de l'optimisation en termes de temps et exactitude des résultats fournis par irtGPUMCD, un algorithme de traçage de rayons (raytracing) ainsi qu'une technique de réduction de variance ont été implémentés, testés et validés. Ces changements de code ont permis une réduction d'un facteur dix du temps de calcul pour une simulation. Les images/cartes de dose absorbée tridimensionnelle bien quantifiées donnent la possibilité de calculer les histogrammes dose-volume (DVH) et d'extraire toutes les informations dosimétriques intéressantes tel que fait dans d'autres branches de la radiothérapie. Une petite section de cette thèse est consacrée à la proposition de techniques statistiques, qui permettent, en associant les données dosimétriques avec celles du patient, de construire des modèles de probabilité de complication des tissus normaux (NTCP). Le principal impact de cette étude est l'introduction de toute une chaîne, bien validée, pour la quantification dans les TRRP. Avec une calibration adéquate de l'appareil d'imagerie de TEM et l'utilisation du code MC irtGPUMCD, il sera possible d'effectuer des études dosimétriques et statistiques plus avancées, par rapport à l'état de l'art en médicine nucléaire, et se diriger vers une personnalisation plus poussée des traitements. / The present thesis work concerns quantification in three-dimensional molecular imaging (3D), in particular, in the context of peptide receptor radionuclide therapy (PRRT) with ¹⁷⁷Lu for neuroendocrine tumors (NET). The ¹⁷⁷Lu is a beta emitting radioisotope, with short-range in tissue (2 mm), and gamma, with energies usable for single-photon emission computed tomography (SPECT) imaging. These characteristics make ¹⁷⁷Lu a good radioisotope for the PRRT of NETs: small and widespread in the body. In addition, with several SPECT images taken during a treatment, it is possible to quantify the distribution of the radioisotope in the patient body and assess the progress of the treatment itself. The main objective of the project is the development and validation of tools, experimental and computational, for the absorbed dose quantification during a ¹⁷⁷Lu PRRT, with the possibility to extend the methods to other radioisotopes. Two main steps were necessary. The first step was the calibration and characterization of the SPECT imaging device. In this context, several acquisition and analysis techniques were tested and a simple calibration protocol was proposed. Particular emphasis is given to the determination of the calibration factor (CF) and dead time (τ ) constant of the SPECT device for the correction and quantification of the acquired images. From an evaluation of the equation describing the behavior of the SPECT system, a new, more concise and mathematically tractable formulation has been proposed. This formulation allows the extraction of the two factors in an approximate but simple way as well as the proposal of a new calibration protocol. With well-quantified images in activity (bio-distribution of the radio-peptide in the body) it is possible to calculate the dose deposition by Monte Carlo simulations (MC). A second step was the validation of the irtGPUMCD code. It is a MC code, operating on a graphics processing unit (GPU), previously developed within the Research Group in Medical Physics of the CHU de Québec, which allows the calculation of the absorbed dose received during a PRRT. The irtGPUMCD code has been used and validated under standard conditions with International Commission on Radiological Protection (ICRP110) phantoms, not only for the ¹⁷⁷Lu, but also for the ¹³¹I and ⁹⁹ᵐT c. With the simulations performed on a referenced geometry and with a comparison to other results present in literature, the code was validated. In the context of the optimization in time and accuracy of the results provided by irtGPUMCD, a new raytracing algorithm and a variance reduction technique were introduced, tested and validated. These code changes have led to a reduction in execution time of a factor ten for a simulations. The well quantified three-dimensional absorbed dose images/maps give the possibility of calculating dose-volume histograms (DVH) and extracting all the dosimetric information of interest as done in other branches of radiotherapy. A small part of this thesis is dedicated to the proposal of statistical techniques, which allow, by linking the dosimetric data with patient outcomes, to build models of normal tissues complication probability (NTCP). The main impact of this study is the introduction of a whole chain, well validated, for the quantification in PRRT. With an accurate calibration of the SPECT imaging system and the use of the irtGPUMCD MC code, it will be possible to carry out more advanced dosimetric and statistical studies, compared to the state of the art in nuclear medicine, and to head towards a more personalized treatment.
190

Placement interactif de capteurs mobiles dans des environnements tridimensionnels non convexes

De Rainville, François-Michel 23 April 2018 (has links)
La présente thèse propose un système complet de placement de capteurs mobiles dans un environnement pleinement tridimensionnel et préalablement inconnu. Les capteurs mobiles sont des capteurs placés sur des unités robotiques autonomes, soit des véhicules possédant une unité de calcul et pouvant se déplacer dans l’environnement. Le placement de capteur est fondé sur une vue désirée par un utilisateur du système nommé vue virtuelle. La vue virtuelle est contrôlée à distance en changeant les paramètres intrinsèques et extrinsèques du capteur virtuel, soit sa position, sa résolution, son champ de vue, etc. Le capteur virtuel n’est alors soumis à aucune contrainte physique, par exemple il peut être placé à n’importe quelle hauteur dans l’environnement et avoir un champ de vue et une résolution arbitrairement grande. Les capteurs mobiles (réels) ont pour tâche de récupérer toute l’information contenue dans le point de vue virtuel. Ce n’est qu’en combinant leur capacité sensorielle que les capteurs mobiles pourront capter l’information demandée par l’utilisateur. Tout d’abord, cette thèse s’attaque au problème de placement de capteurs en définissant une fonction de visibilité servant à évaluer le positionnement d’un groupe de capteurs dans l’environnement. La fonction de visibilité développée est applicable aux environnements tridimensionnels et se base sur le principe de ligne de vue directe entre un capteur et la cible. De plus, la fonction prend en compte la densité d’échantillonnage des capteurs afin de reproduire la densité désirée indiquée par le capteur virtuel. Ensuite, ce travail propose l’utilisation d’un modèle de l’environnement pleinement tridimensionnel et pouvant être construit de manière incrémentale, rendant son utilisation possible dans un environnement tridimensionnel non convexe préalablement inconnu. Puis, un algorithme d’optimisation coopératif est présenté afin de trouver simultanément le nombre de capteurs et leur positionnement respectif afin d’acquérir l’information contenue dans la vue virtuelle. Finalement, la thèse démontre expérimentalement dans diverses conditions que le système proposé est supérieur à l’état de l’art pour le placement de capteurs dans le but d’observer une scène bidimensionnelle. Il est aussi établi expérimentalement en simulation et en réalité que les performances se transposent à l’observation d’environnements tridimensionnels non convexes préalablement inconnus. / This Thesis proposes a novel mobile sensor placement system working in initially unknown three dimensional environment. The mobile sensors are fix sensors placed on autonomous robots, which are ground and aerial vehicles equipped with computing units. The sensor placement is based on a user-defined view, named the virtual view. This view is manipulated through a virtual sensor intrinsic and extrinsic parameters, such as its position, orientation, field of view, resolution, etc. The virtual sensor is not subject to any physical constraint, for example it can be place where no sensor could be or it possess an arbitrary large field of view and resolution. The mobile (real) sensors have to acquire the entire information contained in this virtual view. It is only by combining the sensory capacity of an unknown number of sensors that they can acquire the necessary information. First, this Thesis addresses the sensor placement problem by defining a visibility function to qualify a group of sensor configurations in the environment. This function is applicable to three dimensional environments and is based on direct line of sight principle, where we compute the sensor sampling density in its visibility region. Then, this Thesis proposes the use of an incrementally built model of the environment containing all the information needed by the objective function. Next, a cooperative optimization algorithm is put forward to simultaneously find the number of sensors and their respective position required to capture all the information in the virtual view. Finally, the proposed system is experimentally shown to use less sensor to acquire the scene of interest at a higher resolution than state of the art methods in initially known two dimensional environments. It is also shown in simulation and practice that the performance of the system can be transposed to initially unknown non-convex three dimensional environments.

Page generated in 0.0837 seconds