• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 78
  • 59
  • 12
  • Tagged with
  • 154
  • 82
  • 38
  • 38
  • 33
  • 28
  • 24
  • 22
  • 20
  • 20
  • 16
  • 14
  • 13
  • 13
  • 13
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
81

Etude du rôle de la végétation dans la création de microclimats urbains : approche combinée de mesures et de modélisations à différentes échelles / Study of vegetation purpose in urban microclimates creation : combined approaches of measures and modellings at different scales

Bournez, Elena 19 November 2018 (has links)
Le phénomène d'îlot de chaleur urbain engendre de l'inconfort thermique auprès des habitants. Améliorer le microclimat en zone urbaine est donc l'une des préoccupations des aménageurs. La végétalisation des villes s'avère une solution prometteuse, car l'évapotranspiration des plantes etles ombres portées des arbres ont un impact significatif sur le bilan thermique de l'atmosphère alentour. Un défi majeur aujourd'hui est le développement d'un modèle de simulation microclimatique capable de reproduire les conditions climatiques d'une rue, voire d'un quartier urbain végétalisé, dans l'objectif de proposer un outil d'aide à la décision pour l'aménagement des villes durables. L'objectif de cette thèse est d'étudier comment prendre en compte la végétation et plus particulièrement les arbres, dans un modèle microclimatique 30 afin de simuler le microclimat d'un quartier. Deux modèles, LASER/F et RATP sont appliqués à l'échelle d'un arbre et d'un parc urbain pour mener à bien cette étude. / The urban heat island phenomenon causes thermal discomfort to residents. lmproving the microclimate in urban areas is therefore one of the concerns of urban plan ners. The greening of cities (with lawns, trees, green roofs, etc.) is a promising solution, as the transpiration of plants and the shadows of trees have a significant impact on the thermal balance of the surrounding atmosphere. This act must be planned to optimize the benefits of vegetation. A key challenge today is thus the development of a microclimatic simulation model capable of reproducing the climatic conditions of a street, or even a vegetated urban neighborhood, with the aim of proposinga decision support tool for the development of sustainable cities. The aim of this thesis is to study how to consider vegetation and especially trees, in a 30 microclimatic model to simulate the microclimate of a neighborhood. Two models, LASER/F and RATP were applied at the scale of a tree and an urban park to carry out this study.
82

Méthodologie d'évaluation pour les types de données répliqués / Evaluation methodology for replicated data types

Ahmed-Nacer, Mehdi 05 May 2015 (has links)
Pour fournir une disponibilité permanente des données et réduire la latence réseau, les systèmes de partage de données se basent sur la réplication optimiste. Dans ce paradigme, il existe plusieurs copies de l'objet partagé dite répliques stockées sur des sites. Ces répliques peuvent être modifiées librement et à tout moment. Les modifications sont exécutées en local puis propagées aux autres sites pour y être appliquées. Les algorithmes de réplication optimiste sont chargés de gérer les modifications parallèles. L'objectif de cette thèse est de proposer une méthodologie d'évaluation pour les algorithmes de réplication optimiste. Le contexte de notre étude est l'édition collaborative. Nous allons concevoir pour cela un outil d'évaluation qui intègre un mécanisme de génération de corpus et un simulateur d'édition collaborative. À travers cet outil, nous allons dérouler plusieurs expériences sur deux types de corpus: synchrone et asynchrone. Dans le cas d'une édition collaborative synchrone, nous évaluerons les performances des différents algorithmes de réplication sur différents critères tels que le temps d'exécution, l'occupation mémoire, la taille des messages, etc. Nous proposerons ensuite quelques améliorations. En plus, dans le cas d'une édition collaborative asynchrone, lorsque deux répliques se synchronisent, les conflits sont plus nombreux à apparaître. Le système peut bloquer la fusion des modifications jusqu'à ce que l'utilisateur résolut les conflits. Pour réduire le nombre de ces conflits et l'effort des utilisateurs, nous proposerons une métrique d'évaluation et nous évaluerons les différents algorithmes sur cette métrique. Nous analyserons le résultat pour comprendre le comportement des utilisateurs et nous proposerons ensuite des algorithmes pour résoudre les conflits les plus important et réduire ainsi l'effort des développeurs. Enfin, nous proposerons une nouvelle architecture hybride basée sur deux types d'algorithmes de réplication. Contrairement aux architectures actuelles, l'architecture proposéeest simple, limite les ressources sur les dispositifs clients et ne nécessite pas de consensus entre les centres de données / To provide a high availability from any where, at any time, with low latency, data is optimistically replicated. This model allows any replica to apply updates locally, while the operations are later sent to all the others. In this way, all replicas eventually apply all updates, possibly even in different order. Optimistic replication algorithms are responsible for managing the concurrent modifications and ensure the consistency of the shared object. In this thesis, we present an evaluation methodology for optimistic replication algorithms. The context of our study is collaborative editing. We designed a tool that implements our methodology. This tool integrates a mechanism to generate a corpus and a simulator to simulate sessions of collaborative editing. Through this tool, we made several experiments on two different corpus: synchronous and asynchronous. In synchronous collaboration, we evaluate the performance of optimistic replication algorithms following several criteria such as execution time, memory occupation, message's size, etc. After analysis, some improvements were proposed. In addition, in asynchronous collaboration, when replicas synchronize their modifications, more conflicts can appear in the document. In this case, the system cannot merge the modifications until a user resolves them. In order to reduce the conflicts and the user's effort, we propose an evaluation metric and we evaluate the different algorithms on this metric. Afterward, we analyze the quality of the merge to understand the behavior of the users and the collaboration cases that create conflicts. Then, we propose algorithms for resolving the most important conflicts, therefore reducing the user's effort. Finally, we propose a new architecture for supporting cloud-based collaborative editing system. This architecture is based on two optimistic replication algorithms. Unlike current architectures, the proposed one removes the problems of the centralization and consensus between data centers, is simple and accessible for any developers
83

Multi-View Oriented 3D Data Processing / Multi-View Orientée 3D Traitement des Données

Liu, Kun 14 December 2015 (has links)
Le raffinement de nuage de points et la reconstruction de surface sont deux problèmes fondamentaux dans le traitement de la géométrie. La plupart des méthodes existantes ont été ciblées sur les données de capteur de distance et se sont avérées être mal adaptées aux données multi-vues. Dans cette thèse, deux nouvelles méthodes sont proposées respectivement pour les deux problèmes avec une attention particulière aux données multi-vues. La première méthode permet de lisser les nuages de points provenant de la reconstruction multi-vue sans endommager les données. Le problème est formulé comme une optimisation non-linéaire sous contrainte et ensuite résolu par une série de problèmes d’optimisation sans contrainte au moyen d’une méthode de barrière. La seconde méthode effectue une triangulation du nuage de points d’entrée pour générer un maillage en utilisant une stratégie de l’avancement du front pilotée par un critère de l’empilement compact de sphères. L’algorithme est simple et permet de produire efficacement des maillages de haute qualité. Les expérimentations sur des données synthétiques et du monde réel démontrent la robustesse et l’efficacité des méthodes proposées. Notre méthodes sont adaptées aux applications qui nécessitent des informations de position précises et cohérentes telles que la photogrammétrie et le suivi des objets en vision par ordinateur / Point cloud refinement and surface reconstruction are two fundamental problems in geometry processing. Most of the existing methods have been targeted at range sensor data and turned out be ill-adapted to multi-view data. In this thesis, two novel methods are proposed respectively for the two problems with special attention to multi-view data. The first method smooths point clouds originating from multi-view reconstruction without impairing the data. The problem is formulated as a nonlinear constrained optimization and addressed as a series of unconstrained optimization problems by means of a barrier method. The second method triangulates point clouds into meshes using an advancing front strategy directed by a sphere packing criterion. The method is algorithmically simple and can produce high-quality meshes efficiently. The experiments on synthetic and real-world data have been conducted as well, which demonstrates the robustness and the efficiency of the methods. The developed methods are suitable for applications which require accurate and consistent position information such photogrammetry and tracking in computer vision
84

Description of physical processes driving the life cycle of radiation fog and fog–stratus transitions based on conceptual models / Description des processus physiques pilotant le cycle de vie de brouillards radiatifs et des transitions brouillard–stratus basé de modèles conceptuels

Wærsted, Eivind 12 October 2018 (has links)
Le brouillard cause des dangers pour le trafic par la réduction de visibilité. L’amélioration des prévisions du brouillard est donc un objectif scientifique. Cette thèse analyse le cycle de vie des brouillards continentaux autour de Paris, observés par télédétection au sol à l’observatoire atmosphérique SIRTA. La thèse se focalise sur la compréhension des processus en jeu dans la dissipation après le lever du soleil, sous l’hypothèse d’une couche de brouillard adiabatique. Pendant 4 ans, plus de 100 événement de brouillard sont documentés par l’observation de la base du nuage (par télémètre), son sommet et la présence de nuages au-dessus (radar nuage), et le contenu intégré d’eau liquide (LWP) (radiomètre micro-onde (MWR)). La plupart des brouillards se dissipe suite à un soulèvement de la base, sans que tout le nuage s’évapore, et souvent sans une réduction du LWP. Donc, non seulement est la réduction du LWP importante pour la dissipation du brouillard, mais aussi l’évolution de son sommet, qui avec le LWP détermine l’altitude de la base. Des simulations par le modèle LES DALES montrent une sensibilité importante à la stratification au-dessus : en augmentant l’entrainement, une stratification faible au sommet peut accélérer la dissipation par (1) plus de perte d’eau liquide par l’entrainement de l’air non-saturé, et (2) par un développement vertical menant au lever de la base. La variabilité de cette stratification peut être raisonnablement bien observée par le profil de température du MWR. Avant la dissipation du brouillard par lever de la base, le radar observe souvent un max de réflectivité près du sommet, ce qui peut être lié à l’absence de grandes gouttelettes dans les basses couches. Donc, par leur observation du développement du sommet, le LWP, la stratification, et le profil de réflectivité, le radar et le MWR donnent des informations qui peuvent potentiellement anticiper la dissipation du brouillard.Les processus radiatifs sont étudiés avec le code de transfert radiatif ARTDECO. Le refroidissement radiatif au sommet du brouillard peut produire 40–70 g m-2 h-1 d’LWP quand le brouillard est opaque (LWP >= 30 g m-2) (c’est moins pour les brouillards minces) et il n’y a pas de nuage au-dessus. C’est la source principale d’LWP et il peut renouveler le LWP du brouillard en 0.5–2 h. Sa variabilité s’explique principalement par la température du brouillard et le profil d’humidité au-dessus. Les nuages au-dessus du brouillard réduisent fortement la production, en particulier les nuages bas. La perte d’LWP par absorption de rayonnement solaire par le brouillard est 5–15 g m-2 h-1 autour de midi en hiver, dépendant de l’épaisseur du brouillard, mais ça peut augmenter par 100 % quand une quantité importante d’aérosols absorbants est présente (AOD=0.15, SSA=0.82).Nos résultats par simulation LES indiquent que le réchauffement par absorption de rayonnement solaire à la surface est le premier processus de perte d’LWP après le lever du soleil, mais sa magnitude est sensible au rapport de Bowen. Vu son importance, une amélioration de l’observation du rapport de Bowen dans le brouillard devrait être une priorité, car les observations actuelles des flux turbulents ne sont pas suffisamment précises pour quantifier le rapport de Bowen.Un modèle conceptuel pour calculer le bilan du LWP directement à partir des observations est développé. En utilisant 12 paramètres observés et 2 qui viennent d’une réanalyse, il calcule les impacts au LWP par rayonnement, flux de chaleur à la surface, entrainement, subsidence et dépôt. Ce modèle est appliqué à 45 brouillards observés qui se dissipent après le lever du soleil. Une variabilité importante dans le rayonnement, l’entrainement et la subsidence entre les cas est trouvée, qui peut en partie expliquer les différences en heure de dissipation. Tandis que les termes de rayonnement sont plutôt précis, des autres ont des incertitudes importantes et pourront être améliorés dans le futur. / Fog causes hazards to human activity due to the reduction of visibility, especially through the risk of traffic accidents. Improving the forecasts of fog formation and dissipation is therefore an objective for research. This thesis analyses the life cycle of continental fog events occurring in the Paris area, using several ground-based remote sensing instruments deployed at the SIRTA atmospheric observatory. We focus on understanding the dissipation after sunrise and the local processes involved, assuming the fog layer is adiabatic (well-mixed). Over a 4-year period, more than 100 fog events are documented by observing cloud base (ceilometer), cloud top and clouds appearing above the fog (cloud radar), and the liquid water path (LWP) (microwave radiometer (MWR)). Most fog events dissipate by lifting of the base without a complete evaporation of the cloud, and often even without a reduction in LWP. This indicates that not only a reduction in LWP is important for fog dissipation, but also the evolution of the fog top, which together with the LWP determines whether the cloud extends down to the ground. Using the LES model DALES, we find a strong sensitivity of the vertical development of the fog top to the stratification above. By enhancing entrainment, a weak stratification at fog top can lead to earlier fog dissipation by (1) more depletion of LWP by entraining unsaturated air, especially if the air is dry, and (2) vertical development of the fog top leading to lifting of the fog base. The variability of this stratification can be observed reasonably well with the MWR temperature profile. In several cases of dissipation by lifting, the vertical profile of radar reflectivity in the fog has a max value near fog top prior to dissipation, which suggests a lack of bigger droplets in the lower levels of the fog. By observing the cloud top development, the stratification, the LWP and the profile of reflectivity, the radar and MWR provide information that has potential for anticipating fog dissipation by lifting.Radiative processes are studied using the comprehensive radiative transfer code ARTDECO. The radiative cooling at fog top can produce 40–70 g m-2 h-1 of LWP when the fog is opaque (LWP >= 30 g m-2) (production is lower for thin fog) and there are no clouds above. This cooling thus is the main process of LWP production and can renew the fog LWP in 0.5–2 h. Its variability is mainly explained by the fog temperature and the humidity profile above. Clouds above the fog will strongly reduce this production, especially low clouds: a cloud with optical depth 4 can reduce it by 30 (100) % at 10 (2) km. Loss of LWP by absorption of solar radiation by the fog is 5–15 g m-2 h-1 around midday in winter, depending on cloud thickness, but it can be enhanced by 100 % in case of important amounts of absorbing aerosols (dry AOD=0.15, SSA=0.82).Heating due to solar radiation absorbed at the surface is found to be the dominating process of LWP loss after sunrise (according to LES model simulations), but its magnitude is sensitive to the Bowen ratio. However, observations of the turbulent heat fluxes during fog are not precise enough to quantify the Bowen ratio. The importance of the Bowen ratio means that improvements of its measurement during fog should be a priority.A conceptual model which calculates the LWP budget of fog directly from observations is developed. Using 12 observed parameters and 2 from reanalysis data, it calculates the impact on LWP of terrestrial and solar radiation, surface heat fluxes, entrainment, subsidence and deposition. It is applied to 45 observed fog events dissipating after sunrise. An important variability in radiation, entrainment and subsidence between the cases is found, which can partly explain the different dissipation times. While the terms of radiation are rather robust, several other terms suffer from significant uncertainties, leaving room for improvements in the future.
85

Approche dirigée par les contrats de niveaux de service pour la gestion de l'élasticité du "nuage" / SLA-driven cloud elasticity anagement approach

Kouki, Yousri 09 December 2013 (has links)
L’informatique en nuage révolutionne complètement la façon de gérer les ressources. Grâce à l’élasticité, les ressources peuvent être provisionnées en quelques minutes pour satisfaire un niveau de qualité de service (QdS) formalisé par un accord de niveau de service (SLA) entre les différents acteurs du nuage. Le principal défi des fournisseurs de services est de maintenir la satisfaction de leurs consommateurs tout en minimisant le coût de ces services. Du point de vue SaaS, ce défi peut être résolu d’une manière ad-hoc par l’allocation/-libération des ressources selon un ensemble de règles prédéfinies avec Amazon Auto Scaling par exemple. Cependant, implémenter finement ces règles d’élasticité n’est pas une tâche triviale. D’une part, la difficulté de profiler la performance d’un service compromet la précision de la planification des ressources. D’autre part, plusieurs paramètres doivent être pris en compte, tels que la multiplication des types de ressources, le temps non-négligeable d’initialisation de ressource et le modèle de facturation IaaS. Cette thèse propose une solution complète pour la gestion des contrats de service du nuage. Nous introduisons CSLA (Cloud ServiceLevel Agreement), un langage dédié à la définition de contrat de service en nuage. Il adresse finement les violations SLA via la dégradation fonctionnelle/QdS et des modèles de pénalité avancés. Nous proposons, ensuite, HybridScale un framework de dimensionnement automatique dirigé par les SLA. Il implémente l’élasticité de façon hybride : gestion réactive-proactive, dimensionnement vertical horizontal et multi-couches (application-infrastructure). Notre solution est validée expérimentalement sur Amazon EC2. / Cloud computing promises to completely revolutionize the way to manage resources. Thanks to elasticity, resources can be provisioning within minutes to satisfy a required level of Quality of Service(QoS) formalized by Service Level Agreements (SLAs) between different Cloud actors. The main challenge of service providers is to maintain its consumer’s satisfaction while minimizing the service costs due to resources fees. For example, from the SaaS point of view, this challenge can be achieved in ad-hoc manner by allocating/releasing resources based on a set of predefined rules as Amazon Auto Scaling implements it. However, doing it right –in a way that maintains end-users satisfaction while optimizing service cost– is not a trivial task. First, because of the difficulty to profile service performance,the accuracy of capacity planning may be compromised. Second, several parameters should be taken into account such as multiple resource types, non-ignorable resource initiation time and IaaS billing model. For that purpose, we propose a complete solution for Cloud Service Level Management. We first introduce CSLA (Cloud Service LevelAgreement), a specific language to describe SLA for Cloud services. It finely expresses SLA violations via functionality/QoS degradationand an advanced penalty model. Then, we propose HybridScale, an auto-scaling framework driven by SLA. It implements the Cloud elasticity in a triple hybrid way : reactive-proactive management, vertical horizontal scaling at cross-layer (application-infrastructure). Our solution is experimentally validated on Amazon EC2.
86

Un langage de composition des techniques de sécurité pour préserver la vie privée dans le nuage / A Compositional Language of Security Techniques for Information Privacy in the Cloud

Cherrueau, Ronan-Alexandre 18 November 2016 (has links)
Un service du nuage peut employer des techniques de sécurités pour assurer la sécurité de l’information. Ces techniques protègent une donnée personnelle en la rendant inintelligible pour toutes personnes autres que l’utilisateur du service. En contrepartie, certaines fonctionnalités ne peuvent plus être implémentées. Par exemple, la technique du chiffrement symétrique rend les données inintelligibles, mais empêche le calcul sur ces données.Cette thèse avance qu’un service du nuage doit composer les techniques pour assurer la sécurité de l’information sans perdre de fonctionnalités. Elle se base sur l’étude de la composition de trois techniques qui sont le chiffrement, la fragmentation verticale et les calculs côté client. Cette étude montre que la composition sécurise sans perdre de fonctionnalités, mais complexifie l’écriture du service. La thèse propose alors un nouveau langage pour l’écriture de services du nuage qui assurent la sécurité des données personnelles par compositions des techniques de sécurité.Ce langage est muni de lois algébriques pour dériver,systématiquement, un service local sans protection vers son équivalent sécurisé du nuage. Le langage est implémenté en Idris et profite de son système de type expressif pour vérifier la composition correcte des techniques de cryptographie. Dans le même temps, un encodage traduit le langage en ProVerif, un vérificateur de modèle pour l’analyse automatique des propriétés de sécurité sur les protocoles cryptographiques. Cette traduction vérifie alors la sécurité des données personnelles dans le service. / A cloud service can use security techniques to ensure information privacy. These techniques protect privacy by converting the client’s personal data into unintelligible text. But they can also cause the loss of some functionalities of the service. For instance, a symmetric-key cipher protects privacy by converting readable personal data into unreadable one. However, this causes the loss of computational functionalities on this data.This thesis claims that a cloud service has to compose security techniques to ensure information privacy without the loss of functionalities. This claim is based on the study of the composition of three techniques: symmetric cipher, vertical data fragmentation and client-side computation. This study shows that the composition makes the service privacy preserving, but makes its formulation overwhelming. In response, the thesis offers a new language for the writing of cloud services that enforces information privacy using the composition of security techniques. This language comes with a set of algebraic laws to systematically transform a local service without protection into its cloud equivalent protected by composition. An Idris implementation harnesses the Idris expressive type system to ensure the correct composition of security techniques. Furthermore, an encoding translates the language intoProVerif, a model checker for automated reasoning about the security properties found in cryptographic protocols. This translation checks that the service preserves the privacy of its client.
87

Run-time scalable NoC for virtualized FPGA based accelerators as cloud services / NoC évolutif à l'exécution pour les accélérateurs basés sur FPGA virtualisés en tant que services cloud

Kidane, Hiliwi Leake 05 November 2018 (has links)
Ces dernières années, les fournisseurs de cloud et les centres de données ont intégrés les FPGA dans leur environnement à des fins d'accélération. Cela est dû au fait que les accélérateurs à base de FPGA sont connus pour leur faible puissance et leurs bonnes performances par watt. En outre, l'introduction de la capacité de reconfiguration partielle dynamique (DPR) de certains FPGA incite les chercheurs de l'industrie et des universitaires à proposer des services de cloud FPGA virtualisés baser sur DPR. Dans la plupart des travaux existants, l'interconnexion entre les vFPGA repose soit sur les réseaux BUS ou OpenFlow. Cependant le bus et OpenFlow ne sont pas des solutions optimales pour la virtualisation.Dans cette thèse, nous avons proposé un NoC évolutif à l'exécution pour les accélérateurs basés sur FPGA virtualisés dans un cloud computing. Les composants NoC s'adapteront dynamiquement aux nombres d'accélérateurs virtualisés actifs en ajoutant et en supprimant des sous-noC. Pour minimiser la complexité de la conception de l'architecture NoC à un niveau inférieur (implémentation HDL), nous avons proposé un langage de modélisation unifié de haut niveau (UML) basé sur une ingénierie dirigée par les modèles. Une approche basée sur UML / MARTE et IP-XACT est utilisée pour définir les composants de la topologie NoC de haut niveau et générer les fichiers HDL requis. Les résultats des expériences montrent que le NoC évolutif à l'exécution peut réduire la consommation d'énergie de 17%. La caractérisation NoC sur la modélisation de haut niveau basée sur MDE réduit également le temps de conception de 25%. / In the last few years, cloud providers and data centers have been integrating FPGAs in their environment for acceleration purpose. This is due to the fact that FPGA based accelerator are known for their lower power and good performance per watt. Moreover, the introduction of the ability for dynamic partial reconfiguration (DPR) of some FPGAs trigger researchers in both industry and academics to propose DPR based virtualized FPGA (vFPGA) cloud services. In most of the existing works, the interconnection between the vFPGAs relies either on BUS or OpenFlow networks. However, both the bus and OpenFlow are not virtualization-aware and optimal solutions. In this thesis, we have proposed a virtualization-aware dynamically scalable NoC for virtualized FPGA accelerators in cloud computing. The NoC components will adapt to the number of active virtualized accelerator dynamically by adding and removing sub-NoCs. To minimize the complexity of NoC architecture design at a low level (HDL implementation), we have proposed a Model-Driven Engineering (MDE) based high-level unified modeling language (UML). A UML/MARTE and IP-XACT based approach are used to define the NoC Topology components at a high-level and generate the required HDL files. Experiment results show that the dynamically scalable NoC can reduce the power consumption by 17%. The MDE based high-level modeling based NoC characterization also reduce the design time by 25%.
88

3D modeling of built heritage : from geometric models to HBIM / Modélisation 3D du patrimoine bâti ancien : intégration de modèles géométriques dans un BIM patrimonial

Yang, Xiucheng 17 December 2018 (has links)
La maquette numérique de bâtiments historiques (Heritage-BIM) est devenue un enjeu majeur dans la modélisation. Le modèle HBIM ainsi obtenu comprend une description paramétrique et sémantique des éléments constitutifs du patrimoine. La thèse présente des méthodes de constructions HBIM à partir de la documentation historique, de nuages de points, de maillage de surfaces et de géométrie solide. Un concept de mesh-to-HBIM est proposé à l'aide de la programmation visuelle, qui permet de transformer les « familles » paramétriques et les structures géométriques en modèles paramétriques et sémantiques HBIM. La modélisation paramétrique HBIM consiste à créer manuellement des Familles Revit paramétriques et une reconstruction de bâtiment semi-automatisée par l'application de scripts Dynamo. Le processus de modélisation sémantique HBIM transforme directement des géométries segmentées de maillages ou de solides vers l'environnement BIM. Les éléments segmentés et individualisés peuvent être stockés et gérés dans cet environnement avec des compléments d'informations d'association entre éléments. / Heritage Building Information Modelling (HBIM) is a major issue in heritage documentation and conservation. The obtained HBIM model provides a parametric and semantic description of the heritage elements. This thesis presents methods for the generation of HBIM models from point clouds (obtained by photogrammetry or laser scanning), surface mesh and solid geometry. A concept of solid/mesh-to-HBIM is proposed using Autodesk Dynamo visual programming, which transfers the parametric “Family” and geometric structures to parametric and semantic HBIM models. The parametric HBIM modelling process involves conventional manual parametric “Family” creation and semi-automated building reconstruction by Dynamo. The semantic HBIM modelling process directly transfers the segmented solid geometry and closed mesh-to-BIM environment. The segmented elements can be stored and managed in the BIM environment with attached attributes information and relationships established among the elements.
89

Construction de modèles 3D à partir de données vidéo fisheye : application à la localisation en milieu urbain / Construction of 3D models from fisheye video data—Application to the localisation in urban area

Moreau, Julien 07 June 2016 (has links)
Cette recherche vise à la modélisation 3D depuis un système de vision fisheye embarqué, utilisée pour une application GNSS dans le cadre du projet Predit CAPLOC. La propagation des signaux satellitaires en milieu urbain est soumise à des réflexions sur les structures, altérant la précision et la disponibilité de la localisation. L’ambition du projet est (1) de définir un système de vision omnidirectionnelle capable de fournir des informations sur la structure 3D urbaine et (2) de montrer qu’elles permettent d’améliorer la localisation.Le mémoire expose les choix en (1) calibrage automatique, (2) mise en correspondance entre images, (3) reconstruction 3D ; chaque algorithme est évalué sur images de synthèse et réelles. De plus, il décrit une manière de corriger les réflexions des signaux GNSS depuis un nuage de points 3D pour améliorer le positionnement. En adaptant le meilleur de l’état de l’art du domaine, deux systèmes sont proposés et expérimentés. Le premier est un système stéréoscopique à deux caméras fisheye orientées vers le ciel. Le second en est l’adaptation à une unique caméra.Le calibrage est assuré à travers deux étapes : l’algorithme des 9 points adapté au modèle « équisolide » couplé à un RANSAC, suivi d’un affinement par optimisation Levenberg-Marquardt. L’effort a été porté sur la manière d’appliquer la méthode pour des performances optimales et reproductibles. C’est un point crucial pour un système à une seule caméra car la pose doit être estimée à chaque nouvelle image.Les correspondances stéréo sont obtenues pour tout pixel par programmation dynamique utilisant un graphe 3D. Elles sont assurées le long des courbes épipolaires conjuguées projetées de manière adaptée sur chaque image. Une particularité est que les distorsions ne sont pas rectifiées afin de ne pas altérer le contenu visuel ni diminuer la précision. Dans le cas binoculaire il est possible d’estimer les coordonnées à l’échelle. En monoculaire, l’ajout d’un odomètre permet d’y arriver. Les nuages successifs peuvent être calés pour former un nuage global en SfM.L’application finale consiste dans l’utilisation du nuage 3D pour améliorer la localisation GNSS. Il est possible d’estimer l’erreur de pseudodistance d’un signal après multiples réflexions et d’en tenir compte pour une position plus précise. Les surfaces réfléchissantes sont modélisées grâce à une extraction de plans et de l’empreinte des bâtiments. La méthode est évaluée sur des paires d’images fixes géo-référencées par un récepteur bas-coût et un récepteur GPS RTK (vérité terrain). Les résultats montrent une amélioration de la localisation en milieu urbain. / This research deals with 3D modelling from an embedded fisheye vision system, used for a GNSS application as part of CAPLOC project. Satellite signal propagation in urban area implies reflections on structures, impairing localisation’s accuracy and availability. The project purpose is (1) to define an omnidirectional vision system able to provide information on urban 3D structure and (2) to demonstrate that it allows to improve localisation.This thesis addresses problems of (1) self-calibration, (2) matching between images, (3) 3D reconstruction ; each algorithm is assessed on computer-generated and real images. Moreover, it describes a way to correct GNSS signals reflections from a 3D point cloud to improve positioning. We propose and evaluate two systems based on state-of-the-art methods. First one is a stereoscopic system made of two sky facing fisheye cameras. Second one is the adaptation of the former to a single camera.Calibration is handled by a two-steps process: the 9-point algorithm fitted to “equisolid” model coupled with a RANSAC, followed by a Levenberg-Marquardt optimisation refinement. We focused on the way to apply the method for optimal and repeatable performances. It is a crucial point for a system composed of only one camera because the pose must be estimated for every new image.Stereo matches are obtained for every pixel by dynamic programming using a 3D graph. Matching is done along conjugated epipolar curves projected in a suitable manner on each image. A distinctive feature is that distortions are not rectified in order to neither degrade visual content nor to decrease accuracy. In the binocular case it is possible to estimate full-scale coordinates.In the monocular case, we do it by adding odometer information. Local clouds can be wedged in SfM to form a global cloud.The end application is the usage of the 3D cloud to improve GNSS localisation. It is possible to estimate and consider a signal pseudodistance error after multiple reflections in order to increase positioning accuracy. Reflecting surfaces are modelled thanks to plane and buildings trace fitting. The method is evaluated on fixed image pairs, georeferenced by a low-cost receiver and a GPS RTK receiver (ground truth). Study results show the localisation improvement ability in urban environment.
90

Atomes froids et fluctuations quantiques

Lambrecht, Astrid 15 May 1995 (has links) (PDF)
Nous avons observé une réduction des fluctuations quantiques d'un faisceau lumineux interagissant avec un milieu non linéaire constitué d'atomes refroidis par laser. Le nuage atomique, produit par un piège magnéto-optique, est placé dans une cavité optique où il interagit avec le faisceau sonde. Quand le piège est coupé, les atomes quittent la zone d'interaction en suivant un mouvement balistique. Cet effet est utilisé pour balayer la cavité sur la résonance. Des mesures du bruit quantique peuvent être effectuées sur ce système bistable pendant un temps de l'ordre de 20-30ms. Une réduction du bruit de 40 ± 10% pour une des quadratures a été mesurée dans ces conditions. Sur le plan théorique, nous avons développé un traitement de la variation du nombre moyen d'atomes dans le faisceau sonde ainsi que des fluctuations de cette variable. De plus, nous avons effectué un traitement complet des fluctuations du faisceau sonde en tenant compte de sa structure spatiale. Une synthèse de ces développements a été utilisée pour modéliser les spectres du bruit expérimentaux. Nous avons trouvé un accord satisfaisant entre les spectres théoriques et les observations expérimentales. Une réduction du bruit a été aussi observée en présence du piège magnéto-optique avec des atomes très faiblement piégés. La meilleure réduction du bruit mesurée dans de telles conditions est de 20 ± 10%.

Page generated in 0.0363 seconds