• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 78
  • 59
  • 12
  • Tagged with
  • 154
  • 82
  • 38
  • 38
  • 33
  • 28
  • 24
  • 22
  • 20
  • 20
  • 16
  • 14
  • 13
  • 13
  • 13
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
71

Plates-formes d'exécution dynamiques sur des fédérations de nuages informatiques

Riteau, Pierre 02 December 2011 (has links) (PDF)
Les besoins croissants en ressources de calcul ont mené au parallélisme et au calcul distribué, qui exploitent des infrastructures de calcul large échelle de manière concurrente. Récemment, les technologies de virtualisation sont devenues plus populaires, grâce à l'amélioration des hyperviseurs, le passage vers des architectures multi-cœur, et la diffusion des services Internet. Cela a donné lieu à l'émergence de l'informatique en nuage, un paradigme qui offre des ressources de calcul de façon élastique et à la demande, en facturant uniquement les ressources consommées. Dans ce contexte, cette thèse propose quatre contributions pour tirer parti des capacités de multiples nuages informatiques. Elles suivent deux directions : la création de plates-formes d'exécution élastiques au-dessus de nuages fédérés, et la migration à chaud entre nuages pour les utiliser de façon dynamique. Nous proposons des mécanismes pour construire de façon efficace des plates-formes d'exécution élastiques au-dessus de plusieurs nuages utilisant l'approche de fédération sky computing. Resilin est un système pour créer et gérer des plates-formes d'exécution MapReduce au-dessus de nuages fédérés, permettant de facilement exécuter des calculs MapReduce sans interagir avec les interfaces bas niveau des nuages. Nous proposons des mécanismes pour reconfigurer des infrastructures réseau virtuelles lors de migrations à chaud entre nuages, mis en œuvre dans le réseau virtuel ViNe de l'Université de Floride. Enfin, Shrinker est un protocole de migration à chaud améliorant la migration de grappes de calcul virtuelles dans les réseaux étendus en éliminant les données dupliquées entre machines virtuelles.
72

Contribution à l'étude de la structure du milieu interstellaire

Lazareff, Bernard 24 June 1975 (has links) (PDF)
Cette thése comporte deux parties : - l'observation des spectres d'absorption de la raie 1420 mhz de l'hydrogène interstellaire dans la direction de radiosources extragalactiques, et interprétation de ces mesures. Les résultats permettent de discuter la température et la structure des nuages d'hydrogène neutre, et de confirmer l'existence d'un milieu internuage de faible densité et de température élevée. - dans la deuxième partie : on met en évidence une instabilité thermique du milieu interstellaire. Pour cela, on effectue une analyse linéaire de stabilité, puis on présente les résultats de calculs hydrodynamiques numériques. L'existence de cette instabilité pourrait permettre d'interpréter certains résultats observationnels.
73

Formation d'aérosols organiques secondaires au cours de la photooxydation multiphasique de l'isoprène

Bregonzio, Lola, Bregonzio, Lola 19 December 2013 (has links) (PDF)
L'isoprène est le composé organique volatil biogénique le plus émis à l'échelle de la planète. Il a été montré récemment que, malgré ses faibles rendements de production d'aérosols organiques secondaires (AOS), il pouvait contribuer de manière significative à la matière organique particulaire totale atmosphérique du fait de sa forte émission à l'échelle globale. L'AOS est reconnu pour présenter plusieurs impacts sur l'environnement, et notamment, sur le climat. Cependant, ses processus de formation, et notamment ceux ayant lieu via les gouttelettes nuageuses (voie potentiellement importante) restent encore mal connus. L'objectif de ce travail a été d'étudier la formation d'AOS issus de la photooxydation de l'isoprène (ou de la méthacroléine, un de ses produits d'oxydation majeurs) en conditions sèches ainsi qu'en présence de nuage. La chimie se produisant dans les phases gazeuse, particulaire et aqueuse ; et les échanges ayant lieu entre ces phases ont ainsi été investigués via une approche multiphasique originale dans la chambre de simulation atmosphérique CESAM. Une caractérisation des phases gazeuse et particulaire durant la photooxydation de l'isoprène en absence d'hydrométéores a, dans un premier temps, été effectuée. Les rendements de production d'AOS présents dans la littérature montrent une dispersion générale, les rendements obtenus lors des expériences sont cependant en bon accord avec les valeurs basses présentées dans la littérature. Cette caractérisation en conditions sèches a été complétée par la modélisation 0D des résultats. Les désaccords entre les données mesurées et les simulations issues des modèles explicite et détaillé sont importants et une inadéquation des codes chimiques à la chimie de l'isoprène ne peut être écartée. Pour la première fois en chambre de simulation, des protocoles destinés à étudier la photochimie en phase nuageuse ont été développés. Une méthodologie spécifique permettant de générer des nuages de durée de vie suffisante pour permettre l'établissement de réactions en phase aqueuse a ainsi été mise en place. L'influence de cycles d'évapo-condensation nuageux sur la photooxydation de l'isoprène, ou de ses produits d'oxydation, a ensuite été investiguée. Cette étude a permis de mettre en évidence l'existence d'un impact de la génération de nuage sur les phases gazeuse et particulaire, suggérant fortement l'existence d'une production très significative d'AOS issus de la photooxydation de l'isoprène via les gouttelettes nuageuses
74

A la racine du jihad : une analyse linguistique

Bafdal, Mohamed Amine 08 1900 (has links)
Le présent travail se veut être une tentative pour dé-couvrir un canal de dialogue interculturel et interreligieux, en prenant comme plate-forme et terrain de discussion le jihad et une perspective inspirée de la psychanalyse freudienne et lacanienne qui discute du rapport entre le sujet-chercheur et l’objet de recherche. Pour cela, la présente recherche tente de désengager une compréhension du jihad qui serait subvertie par un héritage colonial dénoncé par Edward Said sous l’appellation d’ « orientalisme », et dont l’empreinte académique circonscrirait le jihad à « ce qu’on lui permet d’être ». Ceci amène donc la recherche à questionner le statut ontologique de l’objet jihad, statut que l’articulation linguistique du présent travail fait glisser de celui de concept vers celui de signifiant. Ce signifiant est alors conceptualisé par une opération de « retour à la lettre », qui fait réapparaitre « un signifiant arabe » longuement oublié se structurant à partir de la racine trilitère JHD ainsi que l’élaboration d’un nouvel outil conceptuel dit de « nuage sémantique ». Ce signifiant est ainsi réinséré dans son environnement naturel qu’est le Qur’ān en langue arabe et dont l’analyse est utilisée pour tester l’hypothèse : Il existe dans le Qur’ān un signifiant arabe se structurant à partir de la racine JHD, déterminé par l’article al- et qui prend la forme/structuration « al-jihād ». / This research is an attempt to unveil a channel for interreligious and intercultural dialogue by using the jihad as common ground for discussion using a perspective inspired by Freudian and Lacanian psychoanalysis which discusses the relation between the subject-researcher and the object of research. Thus, this scientific endeavour tries to disengage an understanding of jihad that would be subverted by a colonial legacy identified by Edward Said as “orientalism”, legacy that circumscribes the object jihad in “whatever is allowed it to be”. This leads the research to question the ontological status of the object jihad, and shifts this status from concept to signifier due to the linguistic nature of this work. Signifier which is conceptualised by a “retour à la lettre” from which emerges a long forgotten “Arabic signifier” constructed from the trilateral root JHD and the development of a new conceptual tool: the “semantic cloud”. This signifier is hence inserted in its natural environment which is defined as the Qur’an in the Arabic language and is analysed to test the hypothesis: There is in the Arabic Qur’an a signifier constructed from the root JHD determined by the definite article al- which takes the form “al-jihād”.
75

Inverse geometry : from the raw point cloud to the 3d surface : theory and algorithms / Géométrie inverse : du nuage de points brut à la surface 3D : théorie et algorithmes

Digne, Julie 23 November 2010 (has links)
De nombreux scanners laser permettent d'obtenir la surface 3D a partir d'un objet. Néanmoins, la surface reconstruite est souvent lisse, ce qui est du au débruitage interne du scanner et aux décalages entre les scans. Cette these utilise des scans haute precision et choisit de ne pas perdre ni alterer les echantillons initiaux au cours du traitement afin de les visualiser. C'est en effet la seule façon de decouvrir les imperfections (trous, decalages de scans). De plus, comme les donnees haute precision capturent meme le plus leger detail, tout debruitage ou sous-echantillonnage peut amener a perdre ces details.La these s'attache a prouver que l'on peut trianguler le nuage de point initial en ne perdant presque aucun echantillon. Le probleme de la visualisation exacte sur des donnees de plus de 35 millions de points et de 300 scans differents est ainsi resolu. Deux problemes majeurs sont traites: le premier est l'orientation du nuage de point brut complet et la creation d'un maillage. Le second est la correction des petits decalages entre les scans qui peuvent creer un tres fort aliasing et compromettre la visualisation de la surface. Le second developpement de la these est une decomposition des nuages de points en hautes/basses frequences. Ainsi, des methodes classiques pour l'analyse d'image, l'arbre des ensembles de niveau et la representation MSER, sont etendues aux maillages, ce qui donne une methode intrinseque de segmentation de maillages. Une analyse mathematiques d'operateurs differentiels discrets, proposes dans la litterature et operant sur des nuages de points est realisee. En considerant les developpements asymptotiques de ces operateurs sur une surface reguliere, ces operateurs peuvent etre classifies. Cette analyse amene au developpement d'un operateur discret consistant avec Ie mouvement par courbure moyenne (l'equation de la chaleur intrinseque) definissant ainsi un espace-echelle numerique simple et remarquablement robuste. Cet espace-echelle permet de resoudre de maniere unifiee tous les problemes mentionnes auparavant (orientation et triangulation du nuage de points, fusion de scans, segmentation de maillages) qui sont ordinairement traites avec des techniques distinctes. / Many laser devices acquire directly 3D objects and reconstruct their surface. Nevertheless, the final reconstructed surface is usually smoothed out as a result of the scanner internal de-noising process and the offsets between different scans. This thesis, working on results from high precision scans, adopts the somewhat extreme conservative position, not to loose or alter any raw sample throughout the whole processing pipeline, and to attempt to visualize them. Indeed, it is the only way to discover all surface imperfections (holes, offsets). Furthermore, since high precision data can capture the slightest surface variation, any smoothing and any sub-sampling can incur in the loss of textural detail.The thesis attempts to prove that one can triangulate the raw point cloud with almost no sample loss. It solves the exact visualization problem on large data sets of up to 35 million points made of 300 different scan sweeps and more. Two major problems are addressed. The first one is the orientation of the complete raw point set, an the building of a high precision mesh. The second one is the correction of the tiny scan misalignments which can cause strong high frequency aliasing and hamper completely a direct visualization.The second development of the thesis is a general low-high frequency decomposition algorithm for any point cloud. Thus classic image analysis tools, the level set tree and the MSER representations, are extended to meshes, yielding an intrinsic mesh segmentation method.The underlying mathematical development focuses on an analysis of a half dozen discrete differential operators acting on raw point clouds which have been proposed in the literature. By considering the asymptotic behavior of these operators on a smooth surface, a classification by their underlying curvature operators is obtained.This analysis leads to the development of a discrete operator consistent with the mean curvature motion (the intrinsic heat equation) defining a remarkably simple and robust numerical scale space. By this scale space all of the above mentioned problems (point set orientation, raw point set triangulation, scan merging, segmentation), usually addressed by separated techniques, are solved in a unified framework.
76

Caractérisation physico-chimique des premières phases de formation des disques protoplanétaires / Chemical and physical characterization of the first stages of protoplanetary disk formation

Hincelin, Ugo 24 October 2012 (has links)
Les étoiles de type solaire se forment par l'effondrement d'un nuage moléculaire, durant lequel la matière s'organise autour de l'étoile en formation sous la forme d'un disque, appelé disque protoplanétaire. Dans ce disque se forment les planètes, comètes et autres objets du système stellaire. La nature de ces objets peut donc avoir un lien avec l'histoire de la matière du disque.J'ai étudié l'évolution chimique et physique de cette matière, du nuage au disque, à l'aide du code de chimie gaz-grain Nautilus.Une étude de sensibilité à divers paramètres du modèle (comme les abondances élémentaires et les paramètres de chimie de surface) a été réalisée. Notamment, la mise à jour des constantes de vitesse et des rapports de branchement des réactions de notre réseau chimique s'est avérée influente sur de nombreux points, comme les abondances de certaines espèces chimiques, et la sensibilité du modèle à ses autres paramètres.Plusieurs modèles physiques d'effondrement ont également été considérés. L'approche la plus complexe et la plus consistante a été d'interfacer notre code de chimie avec le code radiatif magnétohydrodynamique de formation stellaire RAMSES, pour modéliser en trois dimensions l'évolution physique et chimique de la formation d'un jeune disque. Notre étude a démontré que le disque garde une trace de l'histoire passée de la matière, et sa composition chimique est donc sensible aux conditions initiales. / Low mass stars, like our Sun, are born from the collapse of a molecular cloud. The matter falls in the center of the cloud, creating a protoplanetary disk surrounding a protostar. Planets and other solar system bodies will be formed in the disk.The chemical composition of the interstellar matter and its evolution during the formation of the disk are important to better understand the formation process of these objects.I studied the chemical and physical evolution of this matter, from the cloud to the disk, using the chemical gas-grain code Nautilus.A sensitivity study to some parameters of the code (such as elemental abundances and parameters of grain surface chemistry) has been done. More particularly, the updates of rate coefficients and branching ratios of the reactions of our chemical network showed their importance, such as on the abundances of some chemical species, and on the code sensitivity to others parameters.Several physical models of collapsing dense core have also been considered. The more complex and solid approach has been to interface our chemical code with the radiation-magneto-hydrodynamic model of stellar formation RAMSES, in order to model in three dimensions the physical and chemical evolution of a young disk formation. Our study showed that the disk keeps imprints of the past history of the matter, and so its chemical composition is sensitive to the initial conditions.
77

Etude expérimentale de l'atténuation d'une onde de choc par un nuage de gouttes et validation numérique

Chauvin, Alice 07 December 2012 (has links)
L'interaction entre une onde de choc plane et un nuage de gouttes d'eau homogène, monodisperse est étudiée dans un tube à choc. Les influences de la fraction volumique d'eau, αd(1 %, 0.3 % et 0.1%), rapport du volume d'eau sur le volume du nuage, de la hauteur du nuage Hd (70 cm, 40 cm et 15 cm), du diamètre des gouttes φd (250 µm et 500 µm ) et du nombre de Mach M (1.3 et 1.5) sont étudiées pour des fractions volumiques inférieures au pour cent. Lors de cette interaction, la pression en paroi du tube à choc est mesurée et la visualisation du nuage est obtenue par une méthode ombroscopique directe. Une évolution temporelle caractéristique de la pression induite par la propagation d'une onde de choc dans un tel milieu, est mise en évidence. Cette allure, diffère significativement de celle obtenue avec un nuage constitué de particules solides: la fragmentation des gouttes en est responsable. Une zone où la pression diminue directement après le pic de pression est alors observée aux stations de mesure localisées dans le nuage. L'atténuation de la surpression est mise en évidence: elle peut atteindre 80% du pic de pression mesuré sans nuage. Dans la partie numérique de ce travail, deux modèles de fragmentation sont implémentés, comparés et validés dans un code de calcul monodimensionel, instationnaire, Eulérien appliqué aux écoulements dilués (αd<1 %). On montre que la formulation du taux de production des gouttes selon le taux d'accroissement soit de leur nombre, soit de leur diamètre doit être utilisée respectivement soit avec, soit sans la prise en compte l'étape de déformation de la fragmentation. / The interaction between a planar shock wave and an both homogeneous and monodispersed droplet water cloud is studied in a shock tube. The effects of the water volume fraction αd (1% %, 0.3 % et 0.1%), ratio between the volume of water and the volume of the cloud, the height of the two-phase medium Hd (70 cm, 40 cm et 15 cm), the droplets diameters φd (250 µm et 500 µm ) and the Mach number M (1.3 et 1.5) are studied for a volume fraction smaller than one per cent. During this interaction, the pressure is measured and the visualization of the cloud is obtained by direct shadowgraphy. A characteristic temporal evolution of the pressure induced by the propagation of the shock wave in such a mixture is highlighted. This behavior differs significatively from the one obtained with a solid particles cloud : the droplet atomization is responsible of this change. A zone where the pressure decreases directly after the pressure peak is observed at different stations located into the water cloud. The mitiagtion of the overpressure is shown: it can reach 80%of the pressure peak measured without cloud. In the numerical part, two fragmentation models are added, compared and validated in a comptutational, one dimensional, instationnary, Eulerien code in the case of dilute flows (αd<1 %). We show that the formulation of the production rate of droplets defined by the number of droplets growth, or the diameter droplet growth, must be used, respectively, with and without taking into account the deformation stage of the droplet breakup. Thus, the numerical results are in good agrement with those obtained experimentally.
78

Amélioration de la localisation 3D de données laser terrestre à l'aide de cartes 2D ou modèles 3D / Improved 3D localization of mobile mapping vehicles using 2D maps or 3D models

Monnier, Fabrice 19 December 2014 (has links)
Les avancées technologiques dans le domaine informatique (logiciel et matériel) et, en particulier, de la géolocalisation ont permis la démocratisation des modèles numériques. L'arrivée depuis quelques années de véhicules de cartographie mobile a ouvert l'accès à la numérisation 3D mobile terrestre. L'un des avantages de ces nouvelles méthodes d'imagerie de l'environnement urbain est la capacité potentielle de ces systèmes à améliorer les bases de données existantes 2D comme 3D, en particulier leur niveau de détail et la diversité des objets représentés. Les bases de données géographiques sont constituées d'un ensemble de primitives géométriques (généralement des lignes en 2D et des plans ou des triangles en 3D) d'un niveau de détail grossier mais ont l'avantage d'être disponibles sur de vastes zones géographiques. Elles sont issues de la fusion d'informations diverses (anciennes campagnes réalisées manuellement, conception automatisée ou encore hybride) et peuvent donc présenter des erreurs de fabrication. Les systèmes de numérisation mobiles, eux, peuvent acquérir, entre autres, des nuages de points laser. Ces nuages laser garantissent des données d'un niveau de détail très fin pouvant aller jusqu'à plusieurs points au centimètre carré. Acquérir des nuages de points laser présente toutefois des inconvénients :- une quantité de données importante sur de faibles étendues géographiques posant des problèmes de stockage et de traitements pouvant aller jusqu'à plusieurs Téraoctet lors de campagnes d'acquisition importantes- des difficultés d'acquisition inhérentes au fait d'imager l'environnement depuis le sol. Les systèmes de numérisation mobiles présentent eux aussi des limites : en milieu urbain, le signal GPS nécessaire au bon géoréférencement des données peut être perturbé par les multi-trajets voire même stoppé lors de phénomènes de masquage GPS liés à la réduction de la portion de ciel visible pour capter assez de satellites pour en déduire une position spatiale. Améliorer les bases de données existantes grâce aux données acquises par un véhicule de numérisation mobile nécessite une mise en cohérence des deux ensembles. L'objectif principal de ce manuscrit est donc de mettre en place une chaîne de traitements automatique permettant de recaler bases de données géographiques et nuages de points laser terrestre (provenant de véhicules de cartographies mobiles) de la manière la plus fiable possible. Le recalage peut se réaliser de manière différentes. Dans ce manuscrit, nous avons développé une méthode permettant de recaler des nuages laser sur des bases de données, notamment, par la définition d'un modèle de dérive particulièrement adapté aux dérives non-linéaires de ces données mobiles. Nous avons également développé une méthode capable d'utiliser de l'information sémantique pour recaler des bases de données sur des nuages laser mobiles. Les différentes optimisations effectuées sur notre approche nous permettent de recaler des données rapidement pour une approche post-traitements, ce qui permet d'ouvrir l'approche à la gestion de grands volumes de données (milliards de points laser et milliers de primitives géométriques).Le problème du recalage conjoint a été abordé. Notre chaîne de traitements a été testée sur des données simulées et des données réelles provenant de différentes missions effectuées par l'IGN / Technological advances in computer science (software and hardware) and particularly, GPS localization made digital models accessible to all people. In recent years, mobile mapping systems has enabled large scale mobile 3D scanning. One advantage of this technology for the urban environment is the potential ability to improve existing 2D or 3D database, especially their level of detail and variety of represented objects. Geographic database consist of a set of geometric primitives (generally 2D lines and plans or triangles in 3D) with a coarse level of detail but with the advantage of being available over wide geographical areas. They come from the fusion of various information (old campaigns performed manually, automated or hybrid design) wich may lead to manufacturing errors. The mobile mapping systems can acquire laser point clouds. These point clouds guarantee a fine level of detail up to more than one points per square centimeter. But there are some disavantages :- a large amount of data on small geographic areas that may cause problems for storage and treatment of up to several Terabyte during major acquisition,- the inherent acquisition difficulties to image the environment from the ground. In urban areas, the GPS signal required for proper georeferencing data can be disturbed by multipath or even stopped when GPS masking phenomena related to the reduction of the portion of the visible sky to capture enough satellites to find a good localization. Improve existing databases through these dataset acquired by a mobile mapping system requires alignment of these two sets. The main objective of this manuscript is to establish a pipeline of automatic processes to register these datasets together in the most reliable manner. Co-registration this data can be done in different ways. In this manuscript we have focused our work on the registration of mobile laser point cloud on geographical database by using a drift model suitable for the non rigid drift of these kind of mobile data. We have also developped a method to register geographical database containing semantics on mobile point cloud. The different optimization step performed on our methods allows to register the data fast enough for post-processing pipeline, which allows the management of large volumes of data (billions of laser points and thousands geometric primitives). We have also discussed on the problem of joint deformation. Our methods have been tested on simulated data and real data from different mission performed by IGN
79

Deep learning on attributed graphs / L'apprentissage profond sur graphes attribués

Simonovsky, Martin 14 December 2018 (has links)
Le graphe est un concept puissant pour la représentation des relations entre des paires d'entités. Les données ayant une structure de graphes sous-jacente peuvent être trouvées dans de nombreuses disciplines, décrivant des composés chimiques, des surfaces des modèles tridimensionnels, des interactions sociales ou des bases de connaissance, pour n'en nommer que quelques-unes. L'apprentissage profond (DL) a accompli des avancées significatives dans une variété de tâches d'apprentissage automatique au cours des dernières années, particulièrement lorsque les données sont structurées sur une grille, comme dans la compréhension du texte, de la parole ou des images. Cependant, étonnamment peu de choses ont été faites pour explorer l'applicabilité de DL directement sur des données structurées sous forme des graphes. L'objectif de cette thèse est d'étudier des architectures de DL sur des graphes et de rechercher comment transférer, adapter ou généraliser à ce domaine des concepts qui fonctionnent bien sur des données séquentielles et des images. Nous nous concentrons sur deux primitives importantes : le plongement de graphes ou leurs nœuds dans une représentation de l'espace vectorielle continue (codage) et, inversement, la génération des graphes à partir de ces vecteurs (décodage). Nous faisons les contributions suivantes. Tout d'abord, nous introduisons Edge-Conditioned Convolutions (ECC), une opération de type convolution sur les graphes réalisés dans le domaine spatial où les filtres sont générés dynamiquement en fonction des attributs des arêtes. La méthode est utilisée pour coder des graphes avec une structure arbitraire et variable. Deuxièmement, nous proposons SuperPoint Graph, une représentation intermédiaire de nuages de points avec de riches attributs des arêtes codant la relation contextuelle entre des parties des objets. Sur la base de cette représentation, l'ECC est utilisé pour segmenter les nuages de points à grande échelle sans sacrifier les détails les plus fins. Troisièmement, nous présentons GraphVAE, un générateur de graphes permettant de décoder des graphes avec un nombre de nœuds variable mais limité en haut, en utilisant la correspondance approximative des graphes pour aligner les prédictions d'un auto-encodeur avec ses entrées. La méthode est appliquée à génération de molécules / Graph is a powerful concept for representation of relations between pairs of entities. Data with underlying graph structure can be found across many disciplines, describing chemical compounds, surfaces of three-dimensional models, social interactions, or knowledge bases, to name only a few. There is a natural desire for understanding such data better. Deep learning (DL) has achieved significant breakthroughs in a variety of machine learning tasks in recent years, especially where data is structured on a grid, such as in text, speech, or image understanding. However, surprisingly little has been done to explore the applicability of DL on graph-structured data directly.The goal of this thesis is to investigate architectures for DL on graphs and study how to transfer, adapt or generalize concepts working well on sequential and image data to this domain. We concentrate on two important primitives: embedding graphs or their nodes into a continuous vector space representation (encoding) and, conversely, generating graphs from such vectors back (decoding). To that end, we make the following contributions.First, we introduce Edge-Conditioned Convolutions (ECC), a convolution-like operation on graphs performed in the spatial domain where filters are dynamically generated based on edge attributes. The method is used to encode graphs with arbitrary and varying structure.Second, we propose SuperPoint Graph, an intermediate point cloud representation with rich edge attributes encoding the contextual relationship between object parts. Based on this representation, ECC is employed to segment large-scale point clouds without major sacrifice in fine details.Third, we present GraphVAE, a graph generator allowing to decode graphs with variable but upper-bounded number of nodes making use of approximate graph matching for aligning the predictions of an autoencoder with its inputs. The method is applied to the task of molecule generation
80

Traitement joint de nuage de points et d'images pour l'analyse et la visualisation des formes 3D / Joint point clouds and images processing for the analysis and visualization of 3D models

Guislain, Maximilien 19 October 2017 (has links)
Au cours de la dernière décennie, les technologies permettant la numérisation d'espaces urbains ont connu un développement rapide. Des campagnes d'acquisition de données couvrant des villes entières ont été menées en utilisant des scanners LiDAR (Light Detection And Ranging) installés sur des véhicules mobiles. Les résultats de ces campagnes d'acquisition laser, représentants les bâtiments numérisés, sont des nuages de millions de points pouvant également contenir un ensemble de photographies. On s'intéresse ici à l'amélioration du nuage de points à l'aide des données présentes dans ces photographies. Cette thèse apporte plusieurs contributions notables à cette amélioration. La position et l'orientation des images acquises sont généralement connues à l'aide de dispositifs embarqués avec le scanner LiDAR, même si ces informations de positionnement sont parfois imprécises. Pour obtenir un recalage précis d'une image sur un nuage de points, nous proposons un algorithme en deux étapes, faisant appel à l'information mutuelle normalisée et aux histogrammes de gradients orientés. Cette méthode permet d'obtenir une pose précise même lorsque les estimations initiales sont très éloignées de la position et de l'orientation réelles. Une fois ces images recalées, il est possible de les utiliser pour inférer la couleur de chaque point du nuage en prenant en compte la variabilité des points de vue. Pour cela, nous nous appuyons sur la minimisation d'une énergie prenant en compte les différentes couleurs associables à un point et les couleurs présentes dans le voisinage spatial du point. Bien entendu, les différences d'illumination lors de l'acquisition des données peuvent altérer la couleur à attribuer à un point. Notamment, cette couleur peut dépendre de la présence d'ombres portées amenées à changer avec la position du soleil. Il est donc nécessaire de détecter et de corriger ces dernières. Nous proposons une nouvelle méthode qui s'appuie sur l'analyse conjointe des variations de la réflectance mesurée par le LiDAR et de la colorimétrie des points du nuage. En détectant suffisamment d'interfaces ombre/lumière nous pouvons caractériser la luminosité de la scène et la corriger pour obtenir des scènes sans ombre portée. Le dernier problème abordé par cette thèse est celui de la densification du nuage de points. En effet la densité locale du nuage de points est variable et parfois insuffisante dans certaines zones. Nous proposons une approche applicable directement par la mise en oeuvre d'un filtre bilatéral joint permettant de densifier le nuage de points en utilisant les données des images / Recent years saw a rapid development of city digitization technologies. Acquisition campaigns covering entire cities are now performed using LiDAR (Light Detection And Ranging) scanners embedded aboard mobile vehicles. These acquisition campaigns yield point clouds, composed of millions of points, representing the buildings and the streets, and may also contain a set of images of the scene. The subject developed here is the improvement of the point cloud using the information contained in the camera images. This thesis introduces several contributions to this joint improvement. The position and orientation of acquired images are usually estimated using devices embedded with the LiDAR scanner, even if this information is inaccurate. To obtain the precise registration of an image on a point cloud, we propose a two-step algorithm which uses both Mutual Information and Histograms of Oriented Gradients. The proposed method yields an accurate camera pose, even when the initial estimations are far from the real position and orientation. Once the images have been correctly registered, it is possible to use them to color each point of the cloud while using the variability of the point of view. This is done by minimizing an energy considering the different colors associated with a point and the potential colors of its neighbors. Illumination changes can also change the color assigned to a point. Notably, this color can be affected by cast shadows. These cast shadows are changing with the sun position, it is therefore necessary to detect and correct them. We propose a new method that analyzes the joint variation of the reflectance value obtained by the LiDAR and the color of the points. By detecting enough interfaces between shadow and light, we can characterize the luminance of the scene and to remove the cast shadows. The last point developed in this thesis is the densification of a point cloud. Indeed, the local density of a point cloud varies and is sometimes insufficient in certain areas. We propose a directly applicable approach to increase the density of a point cloud using multiple images

Page generated in 0.0349 seconds