• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 10
  • 10
  • Tagged with
  • 20
  • 20
  • 10
  • 8
  • 7
  • 6
  • 6
  • 6
  • 6
  • 5
  • 5
  • 5
  • 4
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Reconstruction robuste de formes à partir de données imparfaites / Robust shape reconstruction from defect-laden data

Giraudot, Simon 22 May 2015 (has links)
Au cours des vingt dernières années, de nombreux algorithmes de reconstruction de surface ont été développés. Néanmoins, des données additionnelles telles que les normales orientées sont souvent requises et la robustesse aux données imparfaites est encore un vrai défi. Dans cette thèse, nous traitons de nuages de points non-orientés et imparfaits, et proposons deux nouvelles méthodes gérant deux différents types de surfaces. La première méthode, adaptée au bruit, s'applique aux surfaces lisses et fermées. Elle prend en entrée un nuage de points avec du bruit variable et des données aberrantes, et comporte trois grandes étapes. Premièrement, en supposant que la surface est lisse et de dimension connue, nous calculons une fonction distance adaptée au bruit. Puis nous estimons le signe et l'incertitude de la fonction sur un ensemble de points-sources, en minimisant une énergie quadratique exprimée sur les arêtes d'un graphe uniforme aléatoire. Enfin, nous calculons une fonction implicite signée par une approche dite « random walker » avec des contraintes molles choisies aux points-sources de faible incertitude. La seconde méthode génère des surfaces planaires par morceaux, potentiellement non-variétés, représentées par des maillages triangulaires simples. En faisant croitre des primitives planaires convexes sous une erreur de Hausdorff bornée, nous déduisons à la fois la surface et sa connectivité et générons un complexe simplicial qui représente efficacement les grandes régions planaires, les petits éléments et les bords. La convexité des primitives est essentielle pour la robustesse et l'efficacité de notre approche. / Over the last two decades, a high number of reliable algorithms for surface reconstruction from point clouds has been developed. However, they often require additional attributes such as normals or visibility, and robustness to defect-laden data is often achieved through strong assumptions and remains a scientific challenge. In this thesis we focus on defect-laden, unoriented point clouds and contribute two new reconstruction methods designed for two specific classes of output surfaces. The first method is noise-adaptive and specialized to smooth, closed shapes. It takes as input a point cloud with variable noise and outliers, and comprises three main steps. First, we compute a novel noise-adaptive distance function to the inferred shape, which relies on the assumption that this shape is a smooth submanifold of known dimension. Second, we estimate the sign and confidence of the function at a set of seed points, through minimizing a quadratic energy expressed on the edges of a uniform random graph. Third, we compute a signed implicit function through a random walker approach with soft constraints chosen as the most confident seed points. The second method generates piecewise-planar surfaces, possibly non-manifold, represented by low complexity triangle surface meshes. Through multiscale region growing of Hausdorff-error-bounded convex planar primitives, we infer both shape and connectivity of the input and generate a simplicial complex that efficiently captures large flat regions as well as small features and boundaries. Imposing convexity of primitives is shown to be crucial to both the robustness and efficacy of our approach.
2

Modélisation 3D et suivi visuel pour caractériser le phénotype de variétés de tournesol / 3D modeling and tracking to characterize the phenotype of sunflower varieties

Gélard, William 04 December 2018 (has links)
L'augmentation constante de la demande alimentaire et énergétique dans le monde associée au réchauffement et changements climatiques ont poussé les recherches en agronomie vers le développement d'une agriculture plus durable et l'amélioration de la performance des cultures. Pour répondre à ces demandes, les chercheurs ont concentré leurs efforts sur le développement de méthodes de génotypage à haut débit (l'étude de la séquence génomique des plantes) et ont permis aux biologistes d'identifier les génotypes d'une grande quantité de plantes. De plus, comprendre les relations qui lient les génotypes (ADN) aux phénotypes (caractéristiques visuelles) qui évoluent en fonction des conditions d'irrigation, d'illumination ou de température est devenu un enjeu majeur dans la recherche agricole. Alors que les méthodes de génotypage ont été rapidement améliorées et automatisées au cours de la dernière décennie, les méthodes de phénotypage restent manuelles et parfois destructrices. Ces méthodes consistent à mesurer certains paramètres visuels d'une plante telle que : la hauteur de la tige principale, le nombre de feuilles, les angles d'initiation des feuilles ou la surface foliaire et plus important encore, à suivre ces paramètres tout au long de la croissance des plantes. Par conséquent, le nombre de plantes à cultiver est très important et les mesures prennent beaucoup de temps. Avec l'émergence des nouvelles technologies en vision par ordinateur et en robotique, les chercheurs en agronomie y ont vu un intérêt certain en vue d'automatiser la collecte et les mesures des données visuelles sur les plantes. La thèse porte sur la conception, le développement et la validation de traitements haut débit à exécuter automatiquement sur des images acquises sur des plantes de tournesol, en vue d'amplifier les capacités de phénotypage par les chercheurs en agronomie (et ultérieurement les évaluateurs de variétés et les semenciers). L'objectif est la mise au point d'un protocole d'acquisition d'images (en plante isolée) depuis un robot mobile (ou un système d'acquisition autonome) permettant d'améliorer, de moderniser et d'automatiser les méthodes de phénotypage actuelles afin d'aider les chercheurs en agronomie à collecter une grande quantité de données. Motivés par le souhait d'effectuer un phénotypage à haut débit, nous proposons une approche 3D pour extraire automatiquement les caractéristiques visuelles des plantes de tournesol cultivées en pot. Tout d'abord, un nuage de points 3D d'une plante est acquis avec des techniques classiques de Structure-from-Motion. Une étape de segmentation est ensuite effectuée pour extraire la tige principale et les feuilles. Dans le but de suivre les caractéristiques visuelles pendant la croissance des plantes, en particulier, suivre l'expansion foliaire de chaque feuille, une étape de labellisation basée sur le modèle botanique d'une plante est appliquée pour leur affecter une étiquette unique qui ne changera pas avec le temps. Enfin, les caractéristiques visuelles sont extraites et les résultats obtenus sur les plantes de tournesol démontrent l'efficacité de notre méthode et en font une étape encourageante vers le phénotypage haut débit. / The constant increasing food and energy demand in the world associated to global warming and climate change issues, pushed the researchs in plant breeding to move towards the improvement of crops performance and development of a more sustainable agriculture. To meet these demands, the effort made by the researchers were focused on the development of high-throughput genotyping methods (i.e., the study of genome sequence of plants) and allowed the biologists to indentified the genotypes of a large amount of plants. Moreover, understanding the relationships that link the genotypes (DNA) to the phenotypes (visual characteristics) that evolve according environmental conditions like: light, water, drought, heat, etc. has become a main issue in agricultural research. While the genotyping methods were rapidly improved and automatized during the last decade, the phenotyping methods remain manual, sometimes destructive and non-replicable. The usual phenotyping methods consist to measure certain visual parameters of a plant such as: main stem heigh, number of leaves, leaf initiation angle or leaf area, but more importantly, be able to follow these parameters along the plant growth. Consequently, the number of plants to harvest is very important and the measurements are extremely time-consuming. The emergence and reliability of new technologies in computer vision and robotic have led the researchers to take an interest in them and to seek how they can be used in plant science. The thesis is focused on the design, development and validation of a high-throughput phenotyping method design for sunflower plant with an eye to amplify phenotyping capacities by Agronomists and Geneticists (and later varieties evaluators and seed producers). The aim is to improve, modernize and automatize the current phenotyping methods as a way to help the plant scientists to collect a large amount of data. Motivated by the wish to perform high-throughput plant phenotyping, we propose a 3D approach to automatically extract visual characteristics of sunflower plants grown in pot. First, a 3D point cloud of a plant is acquired with classical Structure-from-Motion techniques. A segmentation step is then proceeded to retrieve the main stem and the leaves. With the intention of following the visual characteristics during the plant growth, especially, the leaf area expansion rate of each leaf, a labelling step relying on the botanical model of a plant is performed to affect them a unique label that will not change over time. Finally, the visual characteristics are extracted and results obtained on sunflower plants demonstrate the efficiency of our method and make it an encouraging step toward high-throughput plant phenotyping.
3

Détection de changement sur des données géométriques tridimensionnelles

Girardeau-Montaut, Daniel 05 1900 (has links) (PDF)
Ce travail de thèse aborde le problème de la détection de changement à partir de données géométriques tridimensionnelles. Ces données peuvent représenter n'importe quel objet ou environnement mais le travail s'est focalisé sur des environnements complexes et de grande envergure (centrales nucléaires, plateformes pétrolières, etc.). L'idée principale est d'exploiter directement les nuages de points acquis par des scanner laser, sans passer par des reconstructions intermédiaires plus "haut niveau" (maillages triangulaires, etc.) mais qui sont souvent impossibles à calculer automatiquement et proprement sur de tels environnements. Les scanners laser sont des appareils compacts et portables capables de mesurer rapidement un très grand nombre de points 3D sur la surface des objets. Les nuages de points résultants sont des données précises et très détaillées, mais aussi très volumineuses et non structurées. Il est donc nécessaire de développer des traitements particuliers et performants. Le manuscrit présente l'étude et la mise en place concrète d'un processus complet de détection de changements géométriques, se basant principalement sur des nuages de points 3D et des maillages surfaciques 3D. On propose en particulier une méthode robuste de calcul d'écarts directement entre nuages de points 3D, ainsi que deux algorithmes de segmentation géométrique de nuages associés à des valeurs d'écarts (dans le but d'isoler les zones de changement). Le premier algorithme met en œuvre une méthode de classification des points du nuage par analyse statistique locale des valeurs d'écarts. Le second se base sur la propagation d'un contour, contrainte par la norme du gradient géométrique des valeurs d'écarts. On propose aussi un codage particulier d'une structure octree, qui, sous cette forme, peut être calculée très rapidement et sur mesure, ce qui permet d'accélérer fortement les calculs. Plusieurs applications, principalement industrielles, sont finalement proposées. Une ouverture est faite vers des applications d'aide à la gestion de catastrophes naturelles ou industrielles, qui pourraient profiter de la rapidité et de la fiabilité des méthodes d'analyse et de suivi géométrique proposées.
4

Corrections géométriques et colorimétriques automatisées de modèles 3D de grande taille

Schenkel, Arnaud 12 January 2017 (has links)
L’utilisation de scanners 3D permet d’obtenir, en fin de chaîne de traitement, des modèles tridimensionnels de haute résolution d’objets ou de sites. Ces modèles combinent une représentation formée d’un très grand nombre de points, couplée avec des textures photographiques pour simuler au mieux la réalité. Ils peuvent servir de base à de futures recherches, au calcul de diverses informations, à des propositions de restitutions, comme illustration, ou encore à l’archivage.Pour pouvoir être manipulées et exploitées, il est nécessaire de corriger ces données. Différents traitements doivent ainsi être appliqués :la suppression des défauts dus au processus de digitalisation ou à l’environnement de numérisation, la mise en correspondance de balayages partiels, l’élimination des objets parasites ou encore l’homogénéisation de l’aspect des surfaces. Les méthodes actuelles ne permettent pas d’effectuer aisément ces traitements de manière rapide et performante. Elles requièrent de nombreuses interventions manuelles, souvent lourdes et fastidieuses.Cette thèse vise à définir une méthodologie et à fournir les algorithmes et les outils nécessaires au post-traitement de ces acquisitions tridimensionnelles de grande taille, de manière automatisée tout en tenant compte des volumes de données à manipuler. Une structure de données adaptée au problème est proposée ainsi qu’une base d’outils destinée au traitement de volumes importants de points, en considérant la mémoire nécessaire et le temps de calcul requis. Nous proposons sur cette base une chaîne de traitement pour gérer les erreurs géométriques, liées au processus de numérisation, ainsi que les problèmes de colorisation, liés à l’acquisition de photographies dans des conditions variables (éclairage non contrôlé). Nous pouvons identifier quatre types d’erreurs géométriques qui vont ainsi être traitées :le bruit de mesure, la présence de valeurs aberrantes, les trainées de points et les inconsistances dans le modèle. La colorisation se base sur l’utilisation de l’ensemble des photographies effectuées sur le terrain en tenant compte de la variabilité des conditions d’acquisition (éclairage naturel, présence d’ombres, risque de surexposition, ). La solution proposée est compatible avec un calcul en temps réel comparativement à la durée d’acquisition sur le terrain, permettant d’obtenir des informations pertinentes pour guider le travail de terrain. / Doctorat en Sciences de l'ingénieur et technologie / info:eu-repo/semantics/nonPublished
5

Traitement des objets 3D et images par les méthodes numériques sur graphes / 3D object processing and Image processing by numerical methods

El Sayed, Abdul Rahman 24 October 2018 (has links)
La détection de peau consiste à détecter les pixels correspondant à une peau humaine dans une image couleur. Les visages constituent une catégorie de stimulus importante par la richesse des informations qu’ils véhiculent car avant de reconnaître n’importe quelle personne il est indispensable de localiser et reconnaître son visage. La plupart des applications liées à la sécurité et à la biométrie reposent sur la détection de régions de peau telles que la détection de visages, le filtrage d'objets 3D pour adultes et la reconnaissance de gestes. En outre, la détection de la saillance des mailles 3D est une phase de prétraitement importante pour de nombreuses applications de vision par ordinateur. La segmentation d'objets 3D basée sur des régions saillantes a été largement utilisée dans de nombreuses applications de vision par ordinateur telles que la correspondance de formes 3D, les alignements d'objets, le lissage de nuages de points 3D, la recherche des images sur le web, l’indexation des images par le contenu, la segmentation de la vidéo et la détection et la reconnaissance de visages. La détection de peau est une tâche très difficile pour différentes raisons liées en général à la variabilité de la forme et la couleur à détecter (teintes différentes d’une personne à une autre, orientation et tailles quelconques, conditions d’éclairage) et surtout pour les images issues du web capturées sous différentes conditions de lumière. Il existe plusieurs approches connues pour la détection de peau : les approches basées sur la géométrie et l’extraction de traits caractéristiques, les approches basées sur le mouvement (la soustraction de l’arrière-plan (SAP), différence entre deux images consécutives, calcul du flot optique) et les approches basées sur la couleur. Dans cette thèse, nous proposons des méthodes d'optimisation numérique pour la détection de régions de couleurs de peaux et de régions saillantes sur des maillages 3D et des nuages de points 3D en utilisant un graphe pondéré. En se basant sur ces méthodes, nous proposons des approches de détection de visage 3D à l'aide de la programmation linéaire et de fouille de données (Data Mining). En outre, nous avons adapté nos méthodes proposées pour résoudre le problème de la simplification des nuages de points 3D et de la correspondance des objets 3D. En plus, nous montrons la robustesse et l’efficacité de nos méthodes proposées à travers de différents résultats expérimentaux réalisés. Enfin, nous montrons la stabilité et la robustesse de nos méthodes par rapport au bruit. / Skin detection involves detecting pixels corresponding to human skin in a color image. The faces constitute a category of stimulus important by the wealth of information that they convey because before recognizing any person it is essential to locate and recognize his face. Most security and biometrics applications rely on the detection of skin regions such as face detection, 3D adult object filtering, and gesture recognition. In addition, saliency detection of 3D mesh is an important pretreatment phase for many computer vision applications. 3D segmentation based on salient regions has been widely used in many computer vision applications such as 3D shape matching, object alignments, 3D point-point smoothing, searching images on the web, image indexing by content, video segmentation and face detection and recognition. The detection of skin is a very difficult task for various reasons generally related to the variability of the shape and the color to be detected (different hues from one person to another, orientation and different sizes, lighting conditions) and especially for images from the web captured under different light conditions. There are several known approaches to skin detection: approaches based on geometry and feature extraction, motion-based approaches (background subtraction (SAP), difference between two consecutive images, optical flow calculation) and color-based approaches. In this thesis, we propose numerical optimization methods for the detection of skins color and salient regions on 3D meshes and 3D point clouds using a weighted graph. Based on these methods, we provide 3D face detection approaches using Linear Programming and Data Mining. In addition, we adapted our proposed methods to solve the problem of simplifying 3D point clouds and matching 3D objects. In addition, we show the robustness and efficiency of our proposed methods through different experimental results. Finally, we show the stability and robustness of our methods with respect to noise.
6

3 D Modeling of elevation surfaces from voxel structured point clouds extracted from seismic cubes / 3D Modeling of elevation surfaces from voxel structured point clouds extracted from seismic cubes

Nguyen, Van sinh 25 October 2013 (has links)
Dans cette thèse, nous présentons des méthodes pour construire une surface géologique optimal à partir d’une quantité énorme de points 3D extraits de cubes sismiques. Appliquer le processus à l’ensemble des points induit un risque important de contraction de la surface de sorte que l’extraction de la frontière initiale est une étape importante permettant une simplification à l’intérieur de la surface. La forme globale de la surface sera alors mieux respectée pour la reconstruction de la surface triangulaire finale. Nos propositions sont basées sur la régularité des données qui permet, même si des données sont manquantes, d’obtenir facilement les informations de voisinage. Tout d’abord, nous présentons une nouvelle méthode pour extraire et simplifier la frontière d’une surface d’élévation définie par un ensemble de voxels dans un grand volume 3D où des données sont manquantes. Deuxièmement, une méthode pour simplifier la surface à l’intérieur de sa frontière est présentée. Elle comprend une étape de simplification grossière optionnelle suivie par une étape plus fine basée sur l’étude des courbures. Nous tenons également compte du fait que la densité de données doit changer graduellement afin de recevoir à la dernière étape d’une surface triangulée avec de meilleurs triangles. Troisièmement, nous avons proposé une nouvelle méthode rapide pour trianguler la surface après simplification. / Reconstructing surfaces with data coming from an automatic acquisition technique always entails the problem of mass of data. This implies that the usual processes cannot be applied directly. Therefore, it leads to a mandatory data reduction process. An effective algorithm for a rapid processing while keeping the original model is a valuable tool for constructing an optimal surface and managing the complex data.In this dissertation, we present methods for building an optimal geological surface from a huge amount of 3D points extracted from seismic cubes. Applying the process to the whole set of points induces an important risk of surface shrinking so that the initial boundary extraction is an important step permitting a simplification inside the surface. The global surface shape will then be better kept for the reconstruction of the final triangular surface. Our proposals are based on the regularity of data which permits, even if data are missing, to easily obtain the neighboring information. Firstly, we present a new method to extract and simplify the boundary of an elevation surface given as voxels in a large 3D volume having the characteristics to be sparse. Secondly, a method for simplifying the surface inside its boundary is presented with a rough optional simplification step followed by a finer one based on curvatures. We also keep into consideration that the density of data must gradually change in order to receive in the last step a triangulated surface with better triangles. Thirdly, we have proposed a new and fast method for triangulating the surface after simplification.
7

Détection de changements à partir de nuages de points de cartographie mobile / Change detection from mobile laser scanning point clouds

Xiao, Wen 12 November 2015 (has links)
Les systèmes de cartographie mobile sont de plus en plus utilisés pour la cartographie des scènes urbaines. La technologie de scan laser mobile (où le scanner est embarqué sur un véhicule) en particulier permet une cartographie précise de la voirie, la compréhension de la scène, la modélisation de façade, etc. Dans cette thèse, nous nous concentrons sur la détection de changement entre des nuages de points laser de cartographie mobile. Tout d'abord, nous étudions la détection des changements a partir de données RIEGL (scanner laser plan) pour la mise à jour de bases de données géographiques et l'identification d'objet temporaire. Nous présentons une méthode basée sur l'occupation de l'espace qui permet de surmonter les difficultés rencontrées par les méthodes classiques fondées sur la distance et qui ne sont pas robustes aux occultations et à l'échantillonnage anisotrope. Les zones occultées sont identifiées par la modélisation de l'état d'occupation de l'espace balayé par des faisceaux laser. Les écarts entre les points et les lignes de balayage sont interpolées en exploitant la géométrie du capteur dans laquelle la densité d'échantillonnage est isotrope. Malgré quelques limites dans le cas d'objets pénétrables comme des arbres ou des grilles, la méthode basée sur l'occupation est en mesure d'améliorer la méthode basée sur la distance point à triangle de façon significative. La méthode de détection de changement est ensuite appliquée à des données acquises par différents scanners laser et à différentes échelles temporelles afin de démontrer son large champs d'application. La géométrie d'acquisition est adaptée pour un scanner dynamique de type Velodyne. La méthode basée sur l'occupation permet alors la détection des objets en mouvement. Puisque la méthode détecte le changement en chaque point, les objets en mouvement sont détectés au niveau des points. Comme le scanner Velodyne scanne l'environnement de façon continue, les trajectoires des objets en mouvement peut être extraite. Un algorithme de détection et le suivi simultané est proposé afin de retrouver les trajectoires de piétons. Cela permet d'estimer avec précision la circulation des piétons des circulations douces dans les lieux publics. Les changements peuvent non seulement être détectés au niveau du point, mais aussi au niveau de l'objet. Ainsi nous avons pu étudier les changements entre des voitures stationnées dans les rues à différents moments de la journée afin d'en tirer des statistiques utiles aux gestionnaires du stationnement urbain. Dans ce cas, les voitures sont détectés en premier lieu, puis les voitures correspondantes sont comparées entre des passages à différents moments de la journée. Outre les changements de voitures, l'offre de stationnement et les types de voitures l'utilisant sont également des informations importantes pour la gestion du stationnement. Toutes ces informations sont extraites dans le cadre d'un apprentissage supervisé. En outre, une méthode de reconstruction de voiture sur la base d'un modèle déformable générique ajusté aux données est proposée afin de localiser précisément les voitures. Les paramètres du modèle sont également considérés comme caractéristiques de la voiture pour prendre de meilleures décisions. De plus, ces modèles géométriquement précis peuvent être utilisées à des fins de visualisation. Dans cette thèse, certains sujets liés à la détection des changements comme par exemple, suivi, la classification, et la modélisation sont étudiés et illustrés par des applications pratiques. Plus important encore, les méthodes de détection des changements sont appliquées à différentes géométries d'acquisition de données et à de multiples échelles temporelles et au travers de deux stratégies: “bottom-up” (en partant des points) et “top-down” (en partant des objets) / Mobile mapping systems are increasingly used for street environment mapping, especially mobile laser scanning technology enables precise street mapping, scene understanding, facade modelling, etc. In this research, the change detection from laser scanning point clouds is investigated. First of all, street environment change detection using RIEGL data is studied for the purpose of database updating and temporary object identification. An occupancy-based method is presented to overcome the challenges encountered by the conventional distance-based method, such as occlusion, anisotropic sampling. Occluded areas are identified by modelling the occupancy states within the laser scanning range. The gaps between points and scan lines are interpolated under the sensor reference framework, where the sampling density is isotropic. Even there are some conflicts on penetrable objects, e.g. trees, fences, the occupancy-based method is able to enhance the point-to-triangle distance-based method. The change detection method is also applied to data acquired by different laser scanners at different temporal-scales with the intention to have wider range of applications. The local sensor reference framework is adapted to Velodyne laser scanning geometry. The occupancy-based method is implemented to detection moving objects. Since the method detects the change of each point, moving objects are detect at point level. As the Velodyne scanner constantly scans the surroundings, the trajectories of moving objects can be detected. A simultaneous detection and tracking algorithm is proposed to recover the pedestrian trajectories in order to accurately estimate the traffic flow of pedestrian in public places. Changes can be detected not only at point level, but also at object level. The changes of cars parking on street sides at different times are detected to help regulate on-street car parking since the parking duration is limited. In this case, cars are detected in the first place, then they are compared with corresponding ones. Apart from car changes, parking positions and car types are also important information for parking management. All the processes are solved in a supervised learning framework. Furthermore, a model-based car reconstruction method is proposed to precisely locate cars. The model parameters are also treated as car features for better decision making. Moreover, the geometrically accurate models can be used for visualization purposes. Under the theme of change detection, related topics, e.g. tracking, classification, modelling, are also studied for the reason of practical applications. More importantly, the change detection methods are applied to different data acquisition geometries at multiple temporal-scales. Both bottom-up (point-based) and top-down (object-based) change detection strategies are investigated
8

Co-recalage de données hétérogènes 3D géo-référencées : contributions à la correction des relevés laser mobiles

Ridene, Taha 09 July 2010 (has links) (PDF)
Un développement considérable des bases de données cartographiques 3D à différentes échelles s'est produit ces dernières années. Il a été stimulé par de nombreux besoins et soutenu par de véritables progrès technologiques, et par une diversité d'approches en numérisation 3D. Nous considérons dans cette thèse un contexte de production de cartographie numérique basée sur la fusion de données hétérogènes 3D. Nous intégrons trois types de données : relevés avec laser fixe, relevés avec laser mobile issus d'un Système de Cartographie Mobile (MMS) et un Modèle Numérique de Surface (MNS). Les caractéristiques différentes de ces données muti-sources se traduisent par des incohérences et des déformations. Nous nous focalisons essentiellement sur les erreurs affectant les données du MMS. Nous décrivons une démarche innovante de correction de relevés laser terrestres en nous basant sur des données externes au système d'acquisition (MNS, BD ORTHO®...). Notre démarche est basée sur un recalage hétérogène de données 3D. Nous proposons trois variantes de recalage rigide de la famille des ICP. Nous proposons également une nouvelle méthode d'évaluation qualitative du recalage, ayant deux variantes. Celle-ci est basée sur l'extraction et la comparaison de primitives géométriques. Elle a été utilisée pour la comparaison des précisions des algorithmes de recalage développés. Les résultats expérimentaux issus de nos implémentations montrent des temps raisonnables pour une exploitation sur de grandes bases de données.
9

L'interpolation de formes

Da, Tran Kai Frank 21 January 2002 (has links) (PDF)
Pour de nombreuses applications informatiques, il est nécessaire d'interpréter des données échantillonnées et de fournir une représentation aussi correcte que possible des objets dont elles proviennent. Entre autres, on peut penser à l'imagerie médicale, au reverse engineering, à des applications de réalité virtuelle ou encore aux effets spéciaux pour le cinéma. Le problème étudié dans le cadre de cette thèse peut être formulé ainsi : à partir d'un ensemble S de points 3D échantillonnés sur un objet O, il s'agit de fournir un modèle géométrique de la surface délimitant O. Dans un premier temps, on détaille l'implantation d'une solution classique en Géométrie algorithmique dans le cadre du progiciel CGAL (http://www.cgal.org/). Les modules développés, Alpha-formes en dimensions 2 et 3, sont dorénavant partie intégrante de la libraire et distribués avec la version 2.3. Ensuite, on présente une nouvelle approche pour la reconstruction 3D à partir de nuages de points, dont le principe est de déployer une surface orientable sur les données. Cette méthode se révèle être très efficace, et surtout capable de fournir des réponses dans des cas difficiles. Elle offre, en outre, d'excellentes performances et permet de traiter de gros jeux de données. Enfin, on décrit une nouvelle méthode de reconstruction 3D pour des points organisés en sections. Il s'agit d'une méthode d'interpolation reposant sur les voisins naturels, un système de coordonnées barycentriques locales. Elle réunit deux grandes tendances: elle propose une définition fonctionnelle, C^1 presque partout, de l'objet reconstruit tout en ne considérant que des structures géométriques discrètes de type triangulation de Delaunay. L'interpolation de coupes parallèles permet, de surcroît, une solution efficace, grâce à des calculs uniquement réalisés en dimension 2.
10

Algorithmes de références 'robustes' pour la métrologie dimensionnelle des surfaces asphériques et des surfaces complexes en optique / Robust Reference Algorithms for form metrology : Application to aspherical and freeform optics

Arezki, Yassir 05 December 2019 (has links)
Les formes asphériques et les surfaces complexes sont une classe très avancée d'éléments optiques. Leur application a considérablement augmenté au cours des dernières années dans les systèmes d'imagerie, l'astronomie, la lithographie, etc. La métrologie de ces pièces est très difficile, en raison de la grande gamme dynamique d'information acquise et la traçabilité à l'unité SI mètre. Elle devrait faire usage de la norme infinie; (Méthode de zone minimum ou la méthode Min-Max) pour calculer l'enveloppe entourant les points dans le jeu de données en réduisant au minimum la différence entre l'écart maximum et l'écart minimal entre la surface et l'ensemble de données. Cette méthode a une grande complexité en fonction du nombre de points, enplus, les algorithmes impliqués sont non-déterministes. Bien que cette méthode fonctionne pour des géométries simples (lignes, plans, cercles, cylindres, cônes et sphères), elle est encore un défi majeur lorsqu' utilisée pour des géométries complexes (asphérique et surfaces complexes). Par conséquent, l'objectif de la thèse est le développement des algorithmes d'ajustement Min-Max pour les deux surfaces asphériques et complexes, afin de fournir des algorithmes de référence robustes pour la grande communauté impliquée dans ce domaine. Les algorithmes de référence à développer devraient être évalués et validés sur plusieurs données de référence (Softgauges) qui seront générées par la suite. / Aspheres and freeform surfaces are a very challenging class of optical elements. Their application has grown considerably in the last few years in imaging systems, astronomy, lithography, etc. The metrology for aspheres is very challenging, because of the high dynamic range of the acquired information and the traceability to the SI unit meter. Metrology should make use of the infinite norm; (Minimum Zone Method or Min-Max method) to calculate the envelope enclosing the points in the dataset by minimizing the difference between the maximum deviation and the minimum deviation between the surface and the dataset. This method grows in complexity as the number of points in the dataset increases, and the involved algorithms are non-deterministic. Despite the fact that this method works for simple geometries (lines, planes, circles, cylinders, cones and spheres) it is still a major challenge when used on complex geometries (asphere and freeform surfaces). Therefore, the main objective is to address this key challenge about the development of Min-Max fitting algorithms for both aspherical and freeform surfaces as well as least squares fitting algorithms, in order to provide robust reference algorithms for the large community involved in this domain. The reference algorithms to be developed should be evaluated and validated on several reference data (softgauges) that will be generated using reference data generators.

Page generated in 0.4478 seconds