• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 235
  • 63
  • 8
  • Tagged with
  • 311
  • 125
  • 60
  • 53
  • 48
  • 45
  • 44
  • 44
  • 44
  • 34
  • 30
  • 28
  • 25
  • 25
  • 24
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Toward knowledge-based automatic 3D spatial topological modeling from LiDAR point clouds for urban areas

Xing, Xufeng 13 December 2023 (has links)
Le traitement d'un très grand nombre de données LiDAR demeure très coûteux et nécessite des approches de modélisation 3D automatisée. De plus, les nuages de points incomplets causés par l'occlusion et la densité ainsi que les incertitudes liées au traitement des données LiDAR compliquent la création automatique de modèles 3D enrichis sémantiquement. Ce travail de recherche vise à développer de nouvelles solutions pour la création automatique de modèles géométriques 3D complets avec des étiquettes sémantiques à partir de nuages de points incomplets. Un cadre intégrant la connaissance des objets à la modélisation 3D est proposé pour améliorer la complétude des modèles géométriques 3D en utilisant un raisonnement qualitatif basé sur les informations sémantiques des objets et de leurs composants, leurs relations géométriques et spatiales. De plus, nous visons à tirer parti de la connaissance qualitative des objets en reconnaissance automatique des objets et à la création de modèles géométriques 3D complets à partir de nuages de points incomplets. Pour atteindre cet objectif, plusieurs solutions sont proposées pour la segmentation automatique, l'identification des relations topologiques entre les composants de l'objet, la reconnaissance des caractéristiques et la création de modèles géométriques 3D complets. (1) Des solutions d'apprentissage automatique ont été proposées pour la segmentation sémantique automatique et la segmentation de type CAO afin de segmenter des objets aux structures complexes. (2) Nous avons proposé un algorithme pour identifier efficacement les relations topologiques entre les composants d'objet extraits des nuages de points afin d'assembler un modèle de Représentation Frontière. (3) L'intégration des connaissances sur les objets et la reconnaissance des caractéristiques a été développée pour inférer automatiquement les étiquettes sémantiques des objets et de leurs composants. Afin de traiter les informations incertitudes, une solution de raisonnement automatique incertain, basée sur des règles représentant la connaissance, a été développée pour reconnaître les composants du bâtiment à partir d'informations incertaines extraites des nuages de points. (4) Une méthode heuristique pour la création de modèles géométriques 3D complets a été conçue en utilisant les connaissances relatives aux bâtiments, les informations géométriques et topologiques des composants du bâtiment et les informations sémantiques obtenues à partir de la reconnaissance des caractéristiques. Enfin, le cadre proposé pour améliorer la modélisation 3D automatique à partir de nuages de points de zones urbaines a été validé par une étude de cas visant à créer un modèle de bâtiment 3D complet. L'expérimentation démontre que l'intégration des connaissances dans les étapes de la modélisation 3D est efficace pour créer un modèle de construction complet à partir de nuages de points incomplets. / The processing of a very large set of LiDAR data is very costly and necessitates automatic 3D modeling approaches. In addition, incomplete point clouds caused by occlusion and uneven density and the uncertainties in the processing of LiDAR data make it difficult to automatic creation of semantically enriched 3D models. This research work aims at developing new solutions for the automatic creation of complete 3D geometric models with semantic labels from incomplete point clouds. A framework integrating knowledge about objects in urban scenes into 3D modeling is proposed for improving the completeness of 3D geometric models using qualitative reasoning based on semantic information of objects and their components, their geometric and spatial relations. Moreover, we aim at taking advantage of the qualitative knowledge of objects in automatic feature recognition and further in the creation of complete 3D geometric models from incomplete point clouds. To achieve this goal, several algorithms are proposed for automatic segmentation, the identification of the topological relations between object components, feature recognition and the creation of complete 3D geometric models. (1) Machine learning solutions have been proposed for automatic semantic segmentation and CAD-like segmentation to segment objects with complex structures. (2) We proposed an algorithm to efficiently identify topological relationships between object components extracted from point clouds to assemble a Boundary Representation model. (3) The integration of object knowledge and feature recognition has been developed to automatically obtain semantic labels of objects and their components. In order to deal with uncertain information, a rule-based automatic uncertain reasoning solution was developed to recognize building components from uncertain information extracted from point clouds. (4) A heuristic method for creating complete 3D geometric models was designed using building knowledge, geometric and topological relations of building components, and semantic information obtained from feature recognition. Finally, the proposed framework for improving automatic 3D modeling from point clouds of urban areas has been validated by a case study aimed at creating a complete 3D building model. Experiments demonstrate that the integration of knowledge into the steps of 3D modeling is effective in creating a complete building model from incomplete point clouds.
62

Étude du comportement dynamique en 3D des barrages en enrochement situés dans l'Est du Canada

Verret, Daniel 13 December 2023 (has links)
La présente thèse vise à améliorer l'état des connaissances à l'égard des paramètres influençant les effets de site des barrages en enrochement. Une revue exhaustive des publications liées au comportement et à la modélisation dynamique de ce type de barrage a mis en évidence que le nombre de cas de référence est très limité dans la littérature spécifiquement orientée vers l'étude des effets de site avec des analyses en 3D de barrages en enrochement pour lesquels des données instrumentales sont disponibles. Les travaux réalisés sont très orientés vers les praticiens, car ils établissent des lignes directrices pouvant les aider à évaluer les formulations et algorithmes les mieux adaptés à la réalisation d'analyses en 1D, 2D ou 3D. Ils portent sur l'étude des effets de site du barrage Denis-Perron, un grand barrage en enrochement construit dans une vallée escarpée. L'emplacement exceptionnel de cet ouvrage et le fait qu'il a été muni d'accéléromètres pendant sa construction en font un sujet d'étude particulièrement intéressant. Le premier volet des travaux a consisté à analyser les signaux détectés par les accéléromètres pendant trois petits séismes. Les résultats de cette analyse mettent en évidence qu'il est possible de déduire les caractéristiques dynamiques d'un grand barrage, et ce, même avec des signaux faibles. Les fonctions de transfert et les rapports spectraux obtenus à partir de ces séismes fournissent en fait de nouvelles connaissances sur la directionnalité des fréquences de résonance, les modes de vibration et les effets de site. Puisqu'à travers le monde, il existe très peu de barrages instrumentés dont les données sont disponibles et que les séismes de moyenne et de forte amplitude se produisant dans des zones de faible sismicité sont rares, ces données sismologiques se sont avérées très précieuses pour valider les résultats obtenus au cours des travaux subséquents. Le deuxième volet des travaux a servi à évaluer le potentiel de la technique du bruit ambiant pour déterminer les caractéristiques dynamiques du barrage Denis-Perron. Des mesures de bruit ambiant ont été prises à l'aide de vélocimètres à trois composantes adaptées aux conditions d'un grand barrage. Ces données expérimentales ont permis d'établir la fréquence des modes de vibration de ce grand barrage. Les résultats obtenus d'analyses simples effectuées pour traiter les signaux individuels sont aussi concluants que ceux provenant d'une analyse modale réalisée à partir d'un ensemble de signaux synchronisés entre eux tout en étant cohérents avec les résultats issus de l'analyse des données sismologiques. À partir de la fréquence des modes de vibration fondamentaux calculée avec les données sismologiques et expérimentales, une analyse modale numérique effectuée avec un modèle tridimensionnel a permis d'ajuster le profil de rigidité moyen par rétro-calculs représentatifs du milieu 3D. Dans le cadre du troisième volet, des analyses paramétriques ont été réalisées avec des modèles simplifiés, conçus pour étudier des aspects spécifiques en lien avec les effets de site du barrage Denis-Perron. Les résultats obtenus de ces analyses indiquent que la forme de la vallée, le contraste d'impédance ainsi que le contenu fréquentiel et l'orientation de la sollicitation sont les paramètres qui influent le plus sur les effets de site. Bien que ces résultats illustrent l'importance des effets de site du système vallée barrage étudié, ils font également ressortir certaines limitations entourant la réalisation d'analyses dynamiques en 2D et 3D pour un tel système. De plus, conformément à la littérature, ils indiquent que la forme de la vallée et le rapport entre la hauteur maximale d'un barrage et sa longueur en crête agissent fortement sur sa réponse dynamique. Après que les modèles aient été améliorés pour mieux refléter les conditions du barrage, ils ont été validés à l'aide des données sismologiques disponibles. Les signaux du séisme le plus fort de 1999 ont permis de vérifier et valider ces modèles avancés à l'aide des résultats de simulations obtenus tant dans le domaine temporel que fréquentiel, de même que de conclure qu'il n'est pas requis de recourir à une dé convolution pour ajuster des signaux à la base des modèles. Des analyses dynamiques faites à partir d'un séisme de plus forte intensité (0,3 g), représentatif de la sismicité de l'Est du Canada, a aussi permis d'extrapoler ainsi que de prévoir les phénomènes dynamiques et leurs impacts sur la stabilité et les déplacements permanents du barrage Denis-Perron. / This thesis aims at improving the state of knowledge regarding the parameters that influence the site effects of rockfill dams. A comprehensive literature review related to the behavior and dynamic modeling of this type of dam has highlighted that the number of reference cases specifically oriented towards the study of site effects with 3D analyses of rockfill dams for which seismological data are available is very limited in the literature. The research effort is very practitioner-oriented, as it establishes guidelines that can help engineers evaluate the most appropriate formulations and algorithms when performing 1D, 2D or 3D analyses. It focuses on the study of the site effects of the Denis Perron Dam, a large rockfill dam built in a steep valley. The exceptional location of this structure and the fact that it was equipped with accelerometers during its construction make it a particularly interesting case study. The first phase of the project consisted in analyzing the signals detected by the accelerometers during three small earthquakes. The results of this analysis show that it is possible to deduce the dynamic characteristics of a large dam, even with weak signals. The transfer functions and spectral ratios obtained from these earthquakes provide new insights into resonant frequency directionality, vibration modes, and site effects. Since there are very few instrumented dams worldwide for which seismological data are available and as medium and large magnitude earthquakes occurring in areas of low seismicity are rare, the available seismological data have proven to be very valuable invalidating the results obtained in the subsequent work. The second phase of the project was meant to evaluate the potential of the ambient noise technique to determine the dynamic characteristics of the Denis Perron Dam. Ambient noise measurements were recorded using three-component velocimeters adapted to the conditions of a large dam. These experimental data were used to establish the frequency of the vibration modes of this large dam. The results obtained from simple analyses conducted to process individual signals are as conclusive as those from a modal analysis based on a set of signals synchronized with each other while being consistent with the results from the analysis of the seismological data. From the frequency of the fundamental vibration modes calculated with the seismological and experimental data, a numerical modal analysis was conducted using a three-dimensional model to fit the average stiffness profile by retrofit calculations representative of the 3D medium. In the third and last phase, parametric analyses were conducted using simplified models designed to study specific aspects related to the site effects of the Denis-Perron dam. The results obtained indicate that the valley shape, impedance contrast, frequency content, and solicitation orientation are the parameters that have the most influence on the site effects. These results illustrate the importance of site effects for the studied valley-dam system, but they also emphasise some limitations surrounding the performance of 2D and 3D dynamic analyses for such a system. Further, in accordance with literature, they show that the ratio of the maximum height of a dam to its crest length and the valley shape strongly affect its dynamic response. After the models were refined to better reflect dam conditions, they were validated based on seismological data. Signals from the strongest 1999 earthquake were used to verify and validate these advanced models from simulation results in both time and frequency domains and conclude that deconvolution is not required to fit the signals at the base of the models. Dynamic analyses based on an earthquake of higher intensity (0.3 g), representative of the seismicity of eastern Canada, were conducted, from which the dynamic phenomena and their impacts on the stability and permanent displacements of the Denis Perron dam were extrapolated and predicted.
63

Quantification 3D de la morphologie des grains d'or dans les sédiments meubles

Masson, François-Xavier 02 February 2024 (has links)
No description available.
64

A versatile and efficient data fusion methodology for heterogeneous airborne LiDAR and optical imagery data acquired under unconstrained conditions

Nguyen, Thanh Huy 02 February 2024 (has links)
Thèse en cotutelle : Université Laval Québec, Canada et École nationale supérieure des télécommunications de Bretagne Brest, France / La nécessité et l’importance de représenter une scène en 3-D ont été illustrées par de nombreuses applications en télédétection, telles que la planification urbaine, la gestion des catastrophes, etc. Dans ces applications, les données issues du LiDAR et de l’imagerie optique aérienne et satellitaire ont été largement utilisées. Il existe une complémentarité entre les données issues du LiDAR aéroporté et de l’imagerie optique aérienne/satellite, qui motive la fusion de ces données permettant de représenter des scènes observées en 3-D avec une meilleure précision et complétude. Ces dernières années, l’extraction automatique de l’empreinte des bâtiments dans les scènes urbaines et résidentielles est devenue un sujet d’intérêt croissant dans le domaine de la représentation et de la reconstruction de scènes en 3-D. Avec l’augmentation de la disponibilité d’une quantité massive de données capturées par différents capteurs LiDAR et d’imagerie installés sur des plateformes aériennes et spatiales, de nouvelles opportunités se présentent pour effectuer cette tâche à grande échelle. Cependant, les méthodes de fusion existantes considèrent généralement soit des systèmes d’acquisition hybrides composés de LiDAR et de caméras optiques fixés rigidement, soit des jeux de données acquis à partir de la même plateforme à des dates identiques ou très proches, et ayant la même résolution spatiale. Elles n’ont pas été conçues pour traiter des jeux de données acquis avec des plateformes différentes, dans différentes configurations, à des moments différents, ayant des résolutions spatiales et des niveaux de détail différents. Un tel contexte est appelé contexte d’acquisition non-contraint. D’autre part, l’extraction automatique de l’empreinte des bâtiments à grande échelle est une tâche complexe. Des méthodes existantes ont obtenu des résultats relativement significatifs mais en définissant des formes a priori pour les bâtiments, en imposant des contraintes géométriques, ou en se limitant à des zones spécifiques. De telles hypothèses ne sont plus envisageables pour des jeux de données à grande échelle. Ce travail de recherche est consacré au développement d’une méthode versatile de recalage grossier puis fin de jeux de données collectés selon un contexte d’acquisition non-contraint. Il vise à surmonter les défis associés à ce contexte tels que le décalage spatial entre les jeux de données, la différence de résolution spatiale et de niveau de détail, etc. De plus, ce travail de recherche propose une méthode d’extraction efficace des empreintes des bâtiments, offrant un niveau de précision élevé tout en étant une méthode non-supervisée dédiée aux applications à grande échelle. La méthode proposée, appelée “Super-Resolution-based Snake Model” (SRSM), consiste en une adaptation des modèles de snakes—une technique classique de segmentation d’images—pour exploiter des images d’élévation LiDAR à haute résolution générées par un processus de super-résolution. Il se rapporte au contexte d’acquisition de données non-contraint, servant d’exemple d’application de premier ordre. Des résultats pertinents ont été obtenus lors des évaluations rigoureuses des méthodes proposées, à savoir un niveau de précision hautement souhaitable par rapport aux méthodes existantes. Mots-clés : LiDAR aéroporté, imagerie optique satellitaire et aérienne, recalage de données, information mutuelle, super-résolution, scènes urbaines, extraction de bâtiments, grande échelle.
65

Microscope 3D à très large champ de vue et à haute résolution isotrope

Akitegetse, Cléophace 27 January 2024 (has links)
La connectomique est un des plus grands défis dans la compréhension et le diagnostic des maladies du cerveau. En effet, les mauvaises connexions et le mauvais fonctionnement des circuits du cerveau sont à l'origine de nombreuses maladies neurologiques. Ceci peut être causé par des défauts génétiques, un dérèglement en cours de développement ou à une dégénérescence à un stade ultérieur de la vie. Pour étudier les changements morphologiques à la base des maladies mentales et neurologiques, les technologies d'imagerie actuelles sont limitées. Du fait de la difficulté à acheminer la lumière à l'intérieur de grands volumes de tissus, les études se font bien souvent à partir d'images bidimensionnelles de coupes histologiques et résultent, dans de nombreux cas, à des informations spatiales incomplètes. Dans ce projet, nous avons adopté une stratégie qui permet d'obtenir des images 3D de grands volumes à haute résolution, et ce, sans coupe histologique. D'une part, des techniques de transparisation ont été utilisées afin de minimiser la diffusion de la lumière dans les échantillons de tissus. D'autre part, pour une imagerie plus rapide, nous avons conçu un microscope de fluorescence à feuillet lumineux, à large champ de vue et à haute résolution. Les rayons d'un faisceau laser afocal sont déviés par un axicon pour interagir entre eux et former, dans l'échantillon, une fine aiguille lumineuse qui forme un feuillet lumineux une fois balayée à très grande vitesse dans un plan. Le signal de fluorescence émanant de la section illuminée par le feuillet est collecté selon un axe perpendiculaire par une caméra scientifique CMOS. Cette stratégie a permis de surpasser les systèmes déjà existants en fournissant des images grand volume avec une résolution isotrope de l'ordre du micron. Enfin, ce nouvel outil nous a permis de faire des études précédemment impossibles et aura certainement un impact direct sur l'évaluation post-mortem et l'optimisation de traitements, la découverte de médicaments et l'identification des régions cibles pour les maladies neurodégénératives. / Connectomics is one of the biggest challenges in understanding and diagnosing brain diseases. Indeed, many neurological diseases have their origins in a bad connection or a malfunction of brain circuits. This can be caused by genetic defects, developmental dysfunction or degeneration at a later stage of life. To study the morphological changes underlying mental and neurological diseases, current imaging technologies are limited. In fact, studies are often based on two-dimensional images of histological sections and result, in many cases, in incomplete spatial information. In this project, we adopted a strategy that allows us to obtain 3D images of large volumes at high resolution, without any histological section. On the one hand, optical clearing techniques were used to minimize light scattering in tissue samples. On the other hand, for faster imaging, we have designed a fluorescence light sheet microscope with a large field of view and high resolution. The rays of an afocal laser beam are deflected by an axicon (conical prism) to interact with each other and form, in the sample, a thin needle-shaped beam which, when swept at a very high speed along an axis, forms a light sheet. The fluorescence signal from the section illuminated by the light sheet is collected along a perpendicular axis by a scientific CMOS camera. This strategy has surpassed existing systems by providing large volume images with an isotropic micronic resolution. Finally, this new tool has allowed us to make previously impossible studies and will certainly have a direct impact on postmortem evaluation and treatment optimization, drug discovery and identification of target areas for neurodegenerative diseases.
66

Formulation et impression d'une nouvelle génération de matériaux inspirée du PEDOT pour applications en photonique imprimée

Lapointe, Rosalie 13 December 2023 (has links)
Les capteurs électroniques sont utilisés dans une grande variété de domaines afin de répondre à différents besoins dans notre société. La médecine, la robotique et les téléphones intelligents en sont seulement quelques exemples qui marquent notre quotidien. Dans le cadre du Réseau canadien du CRSNG sur l'électronique imprimée verte (GreEN) le développement de capteurs (temps, température, humidité) imprimés à base de matériaux verts pour application dans les emballages intelligents figurent parmi les principaux objectifs de ce réseau pancanadien qui regroupe des chercheurs académiques de renom et des industriels du domaine de l'impression, de l'emballage et de l'alimentation. Le développement d'une étiquette « intelligente » permettrait la trace efficace, en temps réel, de produits alimentaires sensibles en assurant l'intégrité de la chaîne de froid afin de préserver la salubrité et les qualités gustatives des aliments. Plusieurs projets sont actuellement consacrés au développement de cet emballage fonctionnel dont le miens. En effet, mon projet de maîtrise vise principalement le développement d'un capteur de température imprimé en collaboration avec l'Institut National d'Optique (INO). Le principal objectif est de remplacer la thermistance à base de poly(3,4-ethylenedioxythiophene) polystyrène sulfonate (PEDOT:PSS) actuellement utilisé dans les capteurs de température développés à l'INO par un matériau dont les propriétés seraient indépendantes de l'humidité. Pour ce faire, des nouveaux matériaux, inspirés du PEDOT, ont été synthétisés et étudiés comme thermistance. Ces matériaux sont, contrairement au PEDOT:PSS qui est une suspension, 100% soluble dans l'eau ce qui facilite grandement l'impression. Dans le cadre de ce mémoire, la formulation, l'impression et la fabrication d'un capteur de température utilisant cette nouvelle génération de PEDOT seront présentés. / Electronic sensors are used in a wide variety of fields to meet different needs in our society. Medicine, robotics and telephones are just a few examples that mark our daily lives. As part of the "NSERC-Green Electronics Network", the development of sensors (time, temperature, humidity) printed on the basis of green materials for application in smart packaging are among the main objectives of this pan-Canadian network which brings together renowned academic researchers and manufacturers in the field of printing packaging and food. The development of the "smart" label would allow the efficient, real-time trace of sensitive food products while ensuring the integrity of the cold chain in order to preserve the safety and taste qualities of food. Therefore, several projects are currently devoted to the development of this functional packaging, including mine. Indeed, my master's project mainly aims at the development of a printed temperature sensor in collaboration with the National Optics Institute (INO). The main objective is to replace the thermistor based on poly(3,4-ethylenedioxythiophene) polystyrene sulfonate (PEDOT:PSS) currently used in temperature sensors developed at INO with a material whose properties are independent of humidity. To do this, new materials, inspired by PEDOT, have been synthesized and studied as thermistors. These materials are, unlike PEDOT:PSS which is a suspension, 100% soluble in water which greatly facilitates printing. As part of this thesis, the formulation, printing and fabrication of a temperature sensor using this new generation of PEDOT will be presented.
67

Habillage de modèles mécaniques facettisation temps réel de surfaces implicites /

Triquet, Frédéric. Chaillou, Christophe. Meseure, Philippe. January 2001 (has links) (PDF)
Thèse de doctorat : Informatique : Lille 1 : 2001. / Résumé en français et en anglais. Bibliogr. p 141-148.
68

Développement d'un nouveau modèle in vitro du cancer épithélial de l'ovaire

Zietarska, Magdalena January 2004 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
69

Le gisement aurifère péri-granitique de Canadian Malartic (Québec) : apport de la modélisation 3D à l'interprétation métallogénique

Beaulieu, Christian January 2010 (has links) (PDF)
La mine Canadian Malartic, a été exploitée de 1935 à 1965 principalement pour ses zones à haute teneur aurifère, soit dans des lentilles de grauwackes altérées du Pontiac et dans des veines de quartz dans un porphyre non silicifié. À la suite des travaux de forage effectués par la Corporation Minière Osisko, il existe un grand nombre de données qui permet d'obtenir une meilleure compréhension du gisement aurifère Archéen, tant au niveau de la répartition tridimensionnelle de l'or et des altérations associées, que des structures majeures contrôlant les zones aurifères. La modélisation 3D du gisement a permis d'établir la géométrie du contact entre le porphyre et les grauwackes du Pontiac, conjointement avec les teneurs en or et les principales altérations du camp minier de Malartic, soit la calcite, la silice et la pyrite. La distribution de ces altérations hydrothermales montre une très forte association spatiale avec le porphyre-ouest et les structures qui y sont rattachées. Plus à l'est du gisement, l'or et les altérations sont corrélés au contact du porphyre et se propagent dans les sédiments suivant les plans de faiblesse présents, litage et failles. Bien qu'elles ne soient pas développées de façon uniforme au travers du gisement, les brèches constituent un contrôle important des minéralisations. Trois types majeurs de brèches sont répertoriés, traduisant différentes étapes dans la genèse de Canadian Malartic. Le premier type est une brèche chimique à matrice de biotite-calcite-pyrite±silice, à fragments silicifiés, biotitiques et fortement corrodés et montre un enrichissement en Au-Ag-Bi-W. Le deuxième type est une brèche à matrice siliceuse, dans lequel deux sous-types se recoupent. La brèche la plus précoce, à quartz grisâtre cryptocristallin, possède les caractéristiques d'une fracturation hydraulique: fragments anguleux, jointifs, peu corrodés, et une faible distribution granulométrique. Celle-ci est recoupée par une brèche hydrothermale plus tardive, à quartz laiteux plus grossier et à fragments souvent corrodés. Ce deuxième sous-type est le seul type de brèche rencontré dans les unités porphyriques; aucune brèche hydraulique n'y a été observée. Le dernier type de brèche est caractérisé par un stockwerk à carbonates-séricite-chlorite±feldspath-k ne présentant aucune corrélation avec les teneurs en or. Elles enregistreraient une chute brutale de pression. Le gisement de Canadian Malartic présente des caractéristiques atypiques d'un gite de type porphyrique. Il y a cependant plusieurs facteurs favorisant une minéralisation syn-magmatique et à faible profondeur (<5km): altération potassique bien développée, forte association spatiale de l'or et des altérations avec un porphyre syn-tectonique, et plusieurs générations de processus de bréchifications. Les caractéristiques générales du gisement ont des affinités principales avec les gisements d'or liés aux intrusions et aux skarns aurifères, mais plus particulière Canadian Malartic possède plusieurs éléments de ressemblance avec le gisement de Boddington, en Australie. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Gisement d'or, Modélisation 3D, Brèche, Pontiac, Porphyre.
70

Design of CT pictures from 2D to 3D

Lin, Lin 09 1900 (has links) (PDF)
Volume visualization is one important part of scientific visualization. It has developed basing on absorbing the relative knowledge of computer delineation, computer visualization and computer image disposal. The knowledge of this branch is of much importance in computer application. Since it deals with contents with deeper meaning and it is more theoretic, having more arithmetic means, it generally stands for the level of computer application. The study and application of volume visualization is like a raging fire. My country started comparatively later in this field. This thesis gives systematic representation and discuss in the field of tomography image 3D reconstruction. It mainly discusses after rotation, translation, filtering, interpolation and sharpening a series of 2D CT scanning images, get the boundary data of different object to form 3D volume data and actualize the 3D reconstruction of the object, and at the same time implement the function of display, translation, rotation, scaling and projection the volume data. Basing on the implementation of these functions according to software programming, this thesis gives a sum up to each algorithm of 3D volume visualization processing. The method to actualize the 3D reconstruction of the tomography image is mainly about the image processing, image transformation, the way to actualize 3D reconstruction and image compression, etc. In image processing, it talks about getting the anchor points in the tomography image, the geometrie transformation of the image, getting the boundary of the target, cross section display and the smoothing and sharpening of the image. In the transformation of the image, this thesis deals with the algorithm and implementation principle of the geometric transformation (transition, rotation, and scaling) of the 2D image, the three-dimensionalization of the planar data, construction of the stereo mode, geometric transformation of the 3D graph, curve-fitting, the processing of hidden line and hidden surface, color processing. It also introduces the thoughts of using OpenGL to develop and actualize tomography image 3D reconstruction system, including using OpenGL to transform the coordinate, solid model building, to actualize 3D rotation and projection. Recently, the methods of applying chemotherapy to deal with cancer in hospitals of our country are different. Hospital with great fund takes import software to design while most of the hospitals take domestic software. These kinds of software are designed by DAHENG Company in BeiJing, WEIDA Company in ShenZhen. The programs in the software these two hospitals' doctors use to treat are images fielding in the plane not making radiation design under the mode of omnibearing cubic display. Under this circumstance the judgment of the key part can not remain precise, and this part is the most important part that the doctors need. The above problem is the aim of this project. This thesis mainly deals with the subject that after calibrating and sharpening the series of 2D CT images, extract the boundary data of different bodies to form a 3D volume data and actualize 3D reconstruction and at the same time actualize the function of display, translation, rotation, scaling and projection. Mostly basing on the application of medical area, this thesis aims at making further research on computer graphies, computer vision and computer image processing through the study and application of volume visualization in this field. By the study and development of the volume visualization technology in this project, it can provide simulation and display functions to the observer before the operation and the radiotherapy as well as providing the chance to simulate the real teaching and practicing link to the medical school in the teaching process, and increase the clinic level and teaching level of medical area. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : volume visualization, volume data, tomography image, 3D reconstruction, anchor point, boundary data, periphery boundary, OpenGL.

Page generated in 0.0738 seconds