• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 467
  • 51
  • 49
  • 21
  • 15
  • 15
  • 15
  • 15
  • 15
  • 15
  • 11
  • 8
  • 6
  • 4
  • 3
  • Tagged with
  • 732
  • 118
  • 89
  • 87
  • 86
  • 83
  • 75
  • 75
  • 73
  • 67
  • 65
  • 65
  • 65
  • 57
  • 57
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
651

Fuzzy systémy s netradičními antecedenty fuzzy pravidel / Fuzzy systems with non-traditional antecedents of fuzzy rules

Klapil, Ondřej January 2016 (has links)
The aim of this work is to introduce a new type of fuzzy system AnYa. This system, unlike the classical fuzzy systems Takagi-Sugeno and Mamdani, uses a type of antecendent based on real data distribution. As part of the work there will be mentioned system programmed and its functionality will be verified on testing data.
652

Investigation of Warm Convective Cloud Fields with Meteosat Observations and High Resolution Models

Bley, Sebastian 07 November 2017 (has links)
Die hohe raumzeitliche Variabilität von konvektiven Wolken hat erhebliche Auswirkungen auf die Quantifizierung des Wolkenstrahlungseffektes. Da konvektive Wolken in atmosphärischen Modellen üblicherweise parametrisiert werden müssen, sind Beobachtungsdaten notwendig, um deren Variabilität sowie Modellunsicherheiten zu quantifizieren. Das Ziel der vorliegenden Dissertation ist die Charakterisierung der raumzeitlichen Variabilität von warmen konvektiven Wolkenfeldern mithilfe von Meteosat Beobachtungen sowie deren Anwendbarkeit für die Modellevaluierung. Verschiedene Metriken wurden untersucht, um Unsicherheiten in Modell- und Satellitendaten sowie ihre Limitierungen zu quantifizieren. Mithilfe des hochaufgelösten sichtbaren (HRV) Kanals von Meteosat wurde eine Wolkenmaske entwickelt, welche mit 1×2 km² die Auflösung der operationellen Wolkenmaske von 3×6 km² deutlich übertrifft. Diese ermöglicht eine verbesserte Charakterisierung von kleinskaligen Wolken und bietet eine wichtige Grundlage für die Weiterentwicklung von satellitengestützten Wolkenalgorithmen. Für die Untersuchung der Lebenszyklen konvektiver Wolkenfelder wurde ein Tracking-Algorithmus entwickelt. Die raumzeitliche Entwicklung des Flüssigwasserpfads (LWP) wurde sowohl in einer Eulerschen Betrachtungsweise als auch entlang Lagrange’scher Trajektorien analysiert. Für die Wolkenfelder ergab sich eine charakteristische Längenskala von 7 km. Als Maß für die Wolkenlebenszeit ergab sich eine Lagrange’sche Dekorrelationszeit von 31 min. Unter Berücksichtigung des HRV Kanals verringern sich die Dekorrelationsskalen signifikant, was auf eine Sensitivität gegenüber der räumlichen Auflösung hindeutet. Für eine Quantifizierung dieser Sensitivität wurden Simulationen des ICON-LEM Modells mit einer Auflösung von bis zu 156 m berücksichtigt. Verbunden mit einem zwei- bis vierfach geringeren konvektiven Bedeckungsgrad besitzen die simulierten Wolken bei dieser hohen Auflösung deutlich größere LWP Werte. Diese Unterschiede verschwinden im Wesentlichen, wenn die simulierten Wolkenfelder auf die optische Auflösung von Meteosat gemittelt werden. Die Verteilungen der Wolkengrößen zeigen einen deutlichen Abfall für Größen unterhalb der 8- bis 10-fachen Modellauflösung, was der effektive Auflösung des Modells entspricht. Dies impliziert, dass eine noch höhere Auflösung wünschenswert wäre, damit mit ICON-LEM Wolkenprozesse unterhalb der 1 km-Skala realistisch simuliert werden können. Diese Skala wird zukünftig erfreulicherweise vom Meteosat der dritten Generation abgedeckt. Dies wird ein entscheidender Schritt für ein verbessertes Verständnis von kleinskaligen Wolkeneffekten sowie für die Parametrisierung von Konvektion in NWP und Klimamodellen sein.
653

Automatic Retrieval of Skeletal Structures of Trees from Terrestrial Laser Scanner Data

Schilling, Anita 10 October 2014 (has links)
Research on forest ecosystems receives high attention, especially nowadays with regard to sustainable management of renewable resources and the climate change. In particular, accurate information on the 3D structure of a tree is important for forest science and bioclimatology, but also in the scope of commercial applications. Conventional methods to measure geometric plant features are labor- and time-intensive. For detailed analysis, trees have to be cut down, which is often undesirable. Here, Terrestrial Laser Scanning (TLS) provides a particularly attractive tool because of its contactless measurement technique. The object geometry is reproduced as a 3D point cloud. The objective of this thesis is the automatic retrieval of the spatial structure of trees from TLS data. We focus on forest scenes with comparably high stand density and with many occlusions resulting from it. The varying level of detail of TLS data poses a big challenge. We present two fully automatic methods to obtain skeletal structures from scanned trees that have complementary properties. First, we explain a method that retrieves the entire tree skeleton from 3D data of co-registered scans. The branching structure is obtained from a voxel space representation by searching paths from branch tips to the trunk. The trunk is determined in advance from the 3D points. The skeleton of a tree is generated as a 3D line graph. Besides 3D coordinates and range, a scan provides 2D indices from the intensity image for each measurement. This is exploited in the second method that processes individual scans. Furthermore, we introduce a novel concept to manage TLS data that facilitated the researchwork. Initially, the range image is segmented into connected components. We describe a procedure to retrieve the boundary of a component that is capable of tracing inner depth discontinuities. A 2D skeleton is generated from the boundary information and used to decompose the component into sub components. A Principal Curve is computed from the 3D point set that is associated with a sub component. The skeletal structure of a connected component is summarized as a set of polylines. Objective evaluation of the results remains an open problem because the task itself is ill-defined: There exists no clear definition of what the true skeleton should be w.r.t. a given point set. Consequently, we are not able to assess the correctness of the methods quantitatively, but have to rely on visual assessment of results and provide a thorough discussion of the particularities of both methods. We present experiment results of both methods. The first method efficiently retrieves full skeletons of trees, which approximate the branching structure. The level of detail is mainly governed by the voxel space and therefore, smaller branches are reproduced inadequately. The second method retrieves partial skeletons of a tree with high reproduction accuracy. The method is sensitive to noise in the boundary, but the results are very promising. There are plenty of possibilities to enhance the method’s robustness. The combination of the strengths of both presented methods needs to be investigated further and may lead to a robust way to obtain complete tree skeletons from TLS data automatically. / Die Erforschung des ÖkosystemsWald spielt gerade heutzutage im Hinblick auf den nachhaltigen Umgang mit nachwachsenden Rohstoffen und den Klimawandel eine große Rolle. Insbesondere die exakte Beschreibung der dreidimensionalen Struktur eines Baumes ist wichtig für die Forstwissenschaften und Bioklimatologie, aber auch im Rahmen kommerzieller Anwendungen. Die konventionellen Methoden um geometrische Pflanzenmerkmale zu messen sind arbeitsintensiv und zeitaufwändig. Für eine genaue Analyse müssen Bäume gefällt werden, was oft unerwünscht ist. Hierbei bietet sich das Terrestrische Laserscanning (TLS) als besonders attraktives Werkzeug aufgrund seines kontaktlosen Messprinzips an. Die Objektgeometrie wird als 3D-Punktwolke wiedergegeben. Basierend darauf ist das Ziel der Arbeit die automatische Bestimmung der räumlichen Baumstruktur aus TLS-Daten. Der Fokus liegt dabei auf Waldszenen mit vergleichsweise hoher Bestandesdichte und mit zahlreichen daraus resultierenden Verdeckungen. Die Auswertung dieser TLS-Daten, die einen unterschiedlichen Grad an Detailreichtum aufweisen, stellt eine große Herausforderung dar. Zwei vollautomatische Methoden zur Generierung von Skelettstrukturen von gescannten Bäumen, welche komplementäre Eigenschaften besitzen, werden vorgestellt. Bei der ersten Methode wird das Gesamtskelett eines Baumes aus 3D-Daten von registrierten Scans bestimmt. Die Aststruktur wird von einer Voxelraum-Repräsentation abgeleitet indem Pfade von Astspitzen zum Stamm gesucht werden. Der Stamm wird im Voraus aus den 3D-Punkten rekonstruiert. Das Baumskelett wird als 3D-Liniengraph erzeugt. Für jeden gemessenen Punkt stellt ein Scan neben 3D-Koordinaten und Distanzwerten auch 2D-Indizes zur Verfügung, die sich aus dem Intensitätsbild ergeben. Bei der zweiten Methode, die auf Einzelscans arbeitet, wird dies ausgenutzt. Außerdem wird ein neuartiges Konzept zum Management von TLS-Daten beschrieben, welches die Forschungsarbeit erleichtert hat. Zunächst wird das Tiefenbild in Komponenten aufgeteilt. Es wird eine Prozedur zur Bestimmung von Komponentenkonturen vorgestellt, die in der Lage ist innere Tiefendiskontinuitäten zu verfolgen. Von der Konturinformation wird ein 2D-Skelett generiert, welches benutzt wird um die Komponente in Teilkomponenten zu zerlegen. Von der 3D-Punktmenge, die mit einer Teilkomponente assoziiert ist, wird eine Principal Curve berechnet. Die Skelettstruktur einer Komponente im Tiefenbild wird als Menge von Polylinien zusammengefasst. Die objektive Evaluation der Resultate stellt weiterhin ein ungelöstes Problem dar, weil die Aufgabe selbst nicht klar erfassbar ist: Es existiert keine eindeutige Definition davon was das wahre Skelett in Bezug auf eine gegebene Punktmenge sein sollte. Die Korrektheit der Methoden kann daher nicht quantitativ beschrieben werden. Aus diesem Grund, können die Ergebnisse nur visuell beurteiltwerden. Weiterhinwerden die Charakteristiken beider Methoden eingehend diskutiert. Es werden Experimentresultate beider Methoden vorgestellt. Die erste Methode bestimmt effizient das Skelett eines Baumes, welches die Aststruktur approximiert. Der Detaillierungsgrad wird hauptsächlich durch den Voxelraum bestimmt, weshalb kleinere Äste nicht angemessen reproduziert werden. Die zweite Methode rekonstruiert Teilskelette eines Baums mit hoher Detailtreue. Die Methode reagiert sensibel auf Rauschen in der Kontur, dennoch sind die Ergebnisse vielversprechend. Es gibt eine Vielzahl von Möglichkeiten die Robustheit der Methode zu verbessern. Die Kombination der Stärken von beiden präsentierten Methoden sollte weiter untersucht werden und kann zu einem robusteren Ansatz führen um vollständige Baumskelette automatisch aus TLS-Daten zu generieren.
654

Alternative Approaches for the Registration of Terrestrial Laser Scanners Data using Linear/Planar Features

Dewen Shi (9731966) 15 December 2020 (has links)
<p>Static terrestrial laser scanners have been increasingly used in three-dimensional data acquisition since it can rapidly provide accurate measurements with high resolution. Several scans from multiple viewpoints are necessary to achieve complete coverage of the surveyed objects due to occlusion and large object size. Therefore, in order to reconstruct three-dimensional models of the objects, the task of registration is required to transform several individual scans into a common reference frame. This thesis introduces three alternative approaches for the coarse registration of two adjacent scans, namely, feature-based approach, pseudo-conjugate point-based method, and closed-form solution. In the feature-based approach, linear and planar features in the overlapping area of adjacent scans are selected as registration primitives. The pseudo-conjugate point-based method utilizes non-corresponding points along common linear and planar features to estimate transformation parameters. The pseudo-conjugate point-based method is simpler than the feature-based approach since the partial derivatives are easier to compute. In the closed-form solution, a rotation matrix is first estimated by using a unit quaternion, which is a concise description of the rotation. Afterward, the translation parameters are estimated with non-corresponding points along the linear or planar features by using the pseudo-conjugate point-based method. Alternative approaches for fitting a line or plane to data with errors in three-dimensional space are investigated.</p><p><br></p><p>Experiments are conducted using simulated and real datasets to verify the effectiveness of the introduced registration procedures and feature fitting approaches. The proposed two approaches of line fitting are tested with simulated datasets. The results suggest that these two approaches can produce identical line parameters and variance-covariance matrix. The three registration approaches are tested with both simulated and real datasets. In the simulated datasets, all three registration approaches produced equivalent transformation parameters using linear or planar features. The comparison between the simulated linear and planar features shows that both features can produce equivalent registration results. In the real datasets, the three registration approaches using the linear or planar features also produced equivalent results. In addition, the results using real data indicates that the registration approaches using planar features produced better results than the approaches using linear features. The experiments show that the pseudo-conjugate point-based approach is easier to implement than the feature-based approach. The pseudo-conjugate point-based method and feature-based approach are nonlinear, so an initial guess of transformation parameters is required in these two approaches. Compared to the nonlinear approaches, the closed-form solution is linear and hence it can achieve the registration of two adjacent scans without the requirement of any initial guess for transformation parameters. Therefore, the pseudo-conjugate point-based method and closed-form solution are the preferred approaches for coarse registration using linear or planar features. In real practice, the planar features would have a better preference when compared to linear features since the linear features are derived indirectly by the intersection of neighboring planar features. To get enough lines with different orientations, planes that are far apart from each other have to be extrapolated to derive lines.</p><div><br></div>
655

Image Based Indoor Navigation

Noreikis, Marius January 2014 (has links)
Over the last years researchers proposed numerous indoor localisation and navigation systems. However, solutions that use WiFi or Radio Frequency Identification require infrastructure to be deployed in the navigation area and infrastructureless techniques, e.g. the ones based on mobile cell ID or dead reckoning suffer from large accuracy errors. In this Thesis, we present a novel approach of infrastructure-less indoor navigation system based on computer vision Structure from Motion techniques. We implemented a prototype localisation and navigation system which can build a navigation map using area photos as input and accurately locate a user in the map. In our client-server architecture based system, a client is a mobile application, which allows a user to locate her or his position by simply taking a photo. The server handles map creation, localisation queries and pathnding. After the implementation, we evaluated the localisation accuracy and latency of the system by benchmarking navigation queries and the model creation algorithm. The system is capable of successfully navigating in Aalto University computer science department library. We were able to achieve an average error of 0.26 metres for successfully localised photos. In the Thesis, we also present challenges that we solved to adapt computer vision techniques for localisation purposes. Finally we observe the possible future work topics to adapt the system to a wide use. / Forskare har de senaste åren framfört olika inomhusnavigations- och lokaliseringssystem. Dock kräver lösningar som använder WiFi eller radiofrekvens identifikation en utbyggdnad av stödjande infrastruktur i navigationsområdena. Även teknikerna som används lider av precisionsfel. I det här examensarbetet redovisar vi en ny taktik för inomhusnavigation som använder sig av datorvisualiserings Structure from Motion-tekniker. Vi implementerade en navigationssystemsprototyp som använder bilder för att bygga en navigationskarta och kartlägga användarens position. I vårt klient-server baserat system är en klient en mobilapplikation som tillåter användaren att hitta sin position genom att ta en bild. På server-sidan hanteras kartor, lokaliseringsförfrågor och mättningar av förfrågorna och algoritmerna som används. Systemet har lyckats navigera genom Aalto Universitets datorvetenskapsbiblioteket. Vi lyckades uppnå en felmarginal pa 0.26 meter för lyckade lokaliseringsbilder. I arbetet redovisar vi utmaningar som vi har löst för att anpassa datorvisualiseringstekniker for lokalisering. Vi har även diskuterat potentialla framtida implementationer for att utvidga systemet.
656

Audit Clouds Engineering – Gestaltung cloudbasierter Plattformen zur Unterstützung digitaler Wirtschaftsprüfungsdienstleistungen

Langhein, Johannes 26 August 2020 (has links)
Der zentrale Auftrag der Wirtschaftsprüfung ist die Überprüfung und Testierung der Finanzberichterstattung von Unternehmen. Damit trägt der Berufsstand der Wirtschaftsprüfer maßgeblich zum Vertrauen der Gesellschaft in das Wirtschafts- und Finanzwesen bei, die Grundvoraussetzung für die Funktionsfähigkeit von Märkten und wirtschaftlicher Handlungsfähigkeit. Der wachsende Einsatz von KI-Systemen, die Verwendung von Cloud-Services und die Verarbeitung von Massendaten bei der Erstellung von Rechnungslegung und Publizität hat verstärkt zur Folge, dass sich Prüfungssituationen und -szenarien verändern oder gar vollständig neu entwickeln. Dies erfordert enorme Investitionen in IT-Ressourcen und -Kompetenzen, damit sich auch in Zukunft hochwertige Prüfungsergebnisse erzielen lassen. Vor allem für kleinere und mittelständische Prüfungsgesellschaften ist diese Herausforderung jedoch kaum eigenständig zu bewältigen. Nachdem im Jahr 2017 eine gesetzliche Grundlage für die cloudbasierte Bündelung von IT-Ressourcen und -Kompetenzen bei einem spezialisierten Dienstleister geschaffen wurde, wird daher der Einsatz von sogenannten „Audit Clouds“ als eine Alternative zur klassischen Kanzleiorganisation diskutiert. Dabei ist noch nicht abschließend geklärt, wie unter Berücksichtigung unterschiedlicher kanzlei- und mandatsbezogener Perspektiven und unter Einhaltung prüfungsnormbezogener Voraussetzungen die Geschäftsmodelle und das Dienstleistungsspektrum von sogenannten "Audit Clouds" gestaltet sein sollen. Gleichzeitig bedingt die erfolgreiche Entwicklung und Diffusion digitaler Innovationen hinreichende Erkenntnisse über die Akzeptanz künftiger Anwender. Dieser Untersuchungsbedarf wird in der vorliegenden Dissertation in einem dreistufigen Vorgehen adressiert: Im ersten Schritt werden in Abhängigkeit von kanzlei- und mandatsbezogenen Anforderungen sowie unter Berücksichtigung von berufsständischen Normen verschiedene Audit-Cloud-Ansätze hergeleitet. Bei den anknüpfenden Akzeptanzuntersuchungen bilden diese Ansätze das Untersuchungsobjekt. Der zweite Schritt umfasst die Entwicklung eines Forschungsmodells, auf dessen Basis die Akzeptanz von Wirtschaftsprüfern gegenüber Audit Clouds untersucht wird. Im dritten Schritt wird unter Verwendung des Mixed-Methods-Ansatzes die indirekten und direkten Effekte und Determinanten ermittelt, die die Akzeptanz des Berufsstands gegenüber Audit Clouds begünstigen und vorhersagen.
657

Transparent Object Reconstruction and Registration Confidence Measures for 3D Point Clouds based on Data Inconsistency and Viewpoint Analysis

Albrecht, Sven 28 February 2018 (has links)
A large number of current mobile robots use 3D sensors as part of their sensor setup. Common 3D sensors, i.e., laser scanners or RGB-D cameras, emit a signal (laser light or infrared light for instance), and its reflection is recorded in order to estimate depth to a surface. The resulting set of measurement points is commonly referred to as 'point clouds'. In the first part of this dissertation an inherent problem of sensors that emit some light signal is addressed, namely that these signals can be reflected and/or refracted by transparent of highly specular surfaces, causing erroneous or missing measurements. A novel heuristic approach is introduced how such objects may nevertheless be identified and their size and shape reconstructed by fusing information from several viewpoints of the scene. In contrast to other existing approaches no prior knowledge about the objects is required nor is the shape of the reconstructed objects restricted to a limited set of geometric primitives. The thesis proceeds to illustrate problems caused by sensor noise and registration errors and introduces mechanisms to address these problems. Finally a quantitative comparison between equivalent directly measured objects, the reconstructions and "ground truth" is provided. The second part of the thesis addresses the problem of automatically determining the quality of the registration for a pair of point clouds. Although a different topic, these two problems are closely related, if modeled in the fashion of this thesis. After illustrating why the output parameters of a popular registration algorithm (ICP) are not suitable to deduce registration quality, several heuristic measures are developed that provide better insight. Experiments performed on different datasets were performed to showcase the applicability of the proposed measures in different scenarios.
658

Resource allocation in cloud and Content Delivery Network (CDN) / Allocation des ressources dans le cloud et les réseaux de diffusion de contenu

Ahvar, Shohreh 10 July 2018 (has links)
L’objectif de cette thèse est de présenter de nouveaux algorithmes de répartition des ressources sous la forme de machines virtuelles (VMs) et fonction de réseau virtuel (VNFs) dans les Clouds et réseaux de diffusion de contenu (CDNs). La thèse comprend deux principales parties: la première se concentre sur la rentabilité des Clouds distribués, et développe ensuite les raisons d’optimiser les coûts ainsi que les émissions de carbone. Cette partie comprend quatre contributions. La première contribution est une étude de l’état de l’art sur la répartition des coûts et des émissions de carbone dans les environnements de clouds distribués. La deuxième contribution propose une méthode d’allocation des ressources, appelée NACER, pour les clouds distribués. La troisième contribution présente une méthode de placement VM efficace en termes de coûts et de carbone (appelée CACEV) pour les clouds distribués verts. Pour obtenir une meilleure performance, la quatrième contribution propose une méthode dynamique de placement VM (D-CACEV) pour les clouds distribués. La deuxième partie propose des algorithmes de placement de VNFs dans les Clouds et réseaux de CDNs pour optimiser les coûts. Cette partie comprend cinq contributions. Une étude de l’état de l’art sur les solutions proposées est le but de la première contribition. La deuxième contribution propose une méthode d’allocation des ressources, appelée CCVP, pour le provisionnement de service réseau dans les clouds et réseaux de ISP. La troisième contribution implémente le résultat de l’algorithme CCVP dans une plateforme réelle. La quatrième contribution considère l’effet de la permutation de VNFs dans les chaîne de services et la cinquième contribution explique le placement de VNFs pour les services à valeur ajoutée dans les CDNs / High energy costs and carbon emissions are two significant problems in distributed computing domain, such as distributed clouds and Content Delivery Networks (CDNs). Resource allocation methods (e.g., in form of Virtual Machine (VM) or Virtual Network Function (VNF) placement algorithms) have a direct effect on cost, carbon emission and Quality of Service (QoS). This thesis includes three related parts. First, it targets the problem of resource allocation (i.e., in the form of network aware VM placement algorithms) for distributed clouds and proposes cost and carbon emission efficient resource allocation algorithms for green distributed clouds. Due to the similarity of the network-aware VM placement problem in distributed clouds with a VNF placement problem, the second part of the thesis, getting experience from the first part, proposes a new cost efficient resource allocation algorithm (i.e., VNF placement) for network service provision in data centers and Internet Service Provider (ISP) network. Finally, the last part of the thesis presents new cost efficient resource allocation algorithms (i.e., VNF placement) for value-added service provisioning in NFV-based CDNs
659

Development and evaluation of multisensor methods for EarthCare mission based on A-Train and airborne measurements / Développement et évaluation de méthodes multicapteurs pour la mission EarthCare, à partir des mesures de l’A-Train et des missions aéroportées

Cazenave, Quitterie 14 January 2019 (has links)
L'impact des nuages de glace sur le cycle de l'eau et le bilan radiatif est encore incertain en raison de la complexité des processus nuageux qui rend difficile l'acquisition d'observations adéquates sur les propriétés des nuages de glace et leur représentation dans les modèles de circulation générale. Les instruments de télédétection actifs et passifs, tels que les radiomètres, les radars et les lidars, sont couramment utilisés pour les étudier. La restitution des propriétés microphysiques des nuages (extinction, contenu en glace, rayon effectif, ...) peut être effectuée à partir d'un seul instrument ou de la combinaison de plusieurs instruments. L’intérêt de l’utilisation de synergies instrumentales pour restituer les propriétés nuageuses réside dans le fait que cela permet de réduire les incertitudes dues aux lacunes des différents instruments pris séparément. La constellation de satellites A-Train a considérablement amélioré notre connaissance des nuages. Depuis 2006, le lidar à rétrodiffusion visible CALIOP embarqué à bord du satellite CALIPSO et le radar nuage à 94GHz CPR embarqué à bord du satellite CloudSat ont permis l’acquisition de profils nuageux sur l’ensemble du globe et de nombreuses méthodes synergiques de restitution ont été adaptées à ces instruments. En 2021 sera lancé un nouveau satellite, EarthCARE, embarquant des instruments de télédétection de pointe, notamment ATLID, un lidar à haute résolution spectrale (HSRL) à 355 nm et un radar nuage Doppler à 94 GHz. La mission principale de ce satellite est de quantifier les interactions entre les nuages, les aérosols et le bilan radiatif de la Terre afin d'améliorer les prévisions météorologiques et des modèles climatiques. Grâce à son instrumentation avancée installée sur une plate-forme unique, cette nouvelle mission devrait fournir des observations sans précédent des nuages depuis l'espace. Cependant, pour ce faire, les algorithmes synergiques développés pour les mesures de l'A-Train doivent être adaptés à cette nouvelle configuration instrumentale. Au cours de ma thèse, je me suis concentrée sur l'algorithme Varcloud développé en 2007 par Delanoë et Hogan et basé sur une technique variationnelle. La première partie du travail a consisté à adapter certains paramètres du modèle microphysique de l’algorithme aux études récentes d’une large base de données in situ. En particulier, les questions de la paramétrisation du rapport lidar et du choix de la relation masse-diamètre pour les cristaux de glace ont été abordées. La deuxième partie de mon travail a consisté à adapter l'algorithme de restitution Varcloud aux plates-formes aéroportées. Les plates-formes aéroportées sont idéales pour préparer et valider les missions spatiales, permettant de réaliser des mesures sous-trace, colocalisées avec les instruments spatiaux. En particulier, le HALO allemand et le Falcon 20 français ont des charges utiles très complémentaires et sont parfaitement conçus pour la préparation et la validation de la mission EarthCare. Les deux avions embarquent notamment un lidar à haute résolution spectrale (355 nm sur le Falcon et 532 nm sur le HALO) et un radar Doppler à 36 GHz (HALO) et 95 GHz (Falcon). À l'automne 2016, une campagne aéroportée dans laquelle les deux avions étaient impliqués s'est déroulée en Islande, à Keflavik, dans le cadre du projet NAWDEX. Les mesures recueillies au cours de cette campagne fournissent un ensemble de données intéressant pour caractériser la microphysique et la dynamique des nuages dans l'Atlantique Nord, région qui présent un grand intérêt pour les missions Cloudsat-CALIPSO et EarthCARE. En outre, une série de vols communs avec observation de la même scène nuageuse par les deux plates-formes ont été réalisées, fournissant des données permettant d'étudier l'influence de la configuration instrumentale sur les propriétés des nuages de glace restituées. / The impact of ice clouds on the water cycle and radiative budget is still uncertain due to the complexity of cloud processes that makes it difficult to acquire adequate observations of ice cloud properties and parameterize them into General Circulation Models. Passive and active remote sensing instruments, radiometers, radars and lidars, are commonly used to study ice clouds. Inferring cloud microphysical properties (extinction, ice water content, effective radius, ...) can be done from one instrument only, or from the synergy of several. The interest of using instrumental synergies to retrieve cloud properties is that it can reduce the uncertainties due to the shortcomings of the different instruments taken separately. The A-Train constellation of satellites has considerably improved our knowledge of clouds. Since 2006, the 532nm backscattering lidar CALIOP on board the satellite CALIPSO and the 94GHz cloud radar CPR on board the satellite CloudSat have acquired cloud vertical profiles globally and many lidar-radar synergetic methods have been adapted to CloudSat and CALIPSO data. In 2021 will be launched a new satellite, EarthCARE, boarding state of the art remote sensing instrumentation, in particular ATLID, a High Spectral Resolution Lidar (HSRL) at 355nm and a Doppler cloud radar at 94 GHz. The main mission of this satellite is to quantify interactions between clouds, aerosols and the Earth's radiation budget in order to improve weather prediction and climate models. Thanks to its advanced instrumentation mounted on a single platform, this new mission is expected to provide unprecedented observations of clouds from space. However, to do so, the synergistic algorithms that were developed for A-Train measurements have to be adapted to this new instrumental configuration. During my PhD, I focused on the Varcloud algorithm that was developed in 2007 by Delanoë and Hogan, based on a variational technique. The first part of the work consisted in adapting some parameters of the microphysical model of the algorithm to recent studies of a large dataset of in-situ measurements. In particular, the questions of a parameterization of the lidar extinction-to-backscatter ratio and the choice of the mass-size relationship for ice crystals were addressed. The second part of my work consisted in adapting the Varcloud retrieval algorithm to airborne platforms. Airborne platforms are ideal to prepare and validate space missions, allowing for direct underpasses of spaceborne instruments. Moreover, German and French aircraft, respectively HALO and French Falcon 20 have very complementary payloads and are perfectly designed for the preparation, the calibration and the validation of EarthCare. Both aircraft board a high spectral resolution lidar (355 nm on the French Falcon and 532 nm on the HALO) and a Doppler radar at 36 GHz (HALO) and 95 GHz (Falcon). In fall 2016 a field campaign related to the NAWDEX project took place in Iceland, Keflavik with both aircraft involved. The measurements collected during this campaign provide an interesting dataset to characterize cloud microphysics and dynamics in the North Atlantic, which are of high interest regarding the Cloudsat-CALIPSO and EarthCARE missions. In addition, a series of common legs with the same cloud scene observed by both platforms were performed, providing data to study the influence of the instrumental configuration on the retrieved ice cloud properties.
660

control theory for computing systems : application to big-data cloud services & location privacy protection / Contrôle des systèmes informatiques : application aux services clouds et à la protection de vie privée

Cerf, Sophie 16 May 2019 (has links)
Cette thèse présente une application de la théorie du contrôle pour les systèmes informatiques. Un algorithme de contrôle peut gérer des systèmes plus grands et plus complexes, même lorsqu'ils sont particulièrement sensibles aux variations de leur environnement. Cependant, l'application du contrôle aux systèmes informatiques soulève plusieurs défis, par exemple dû au fait qu'aucune physique ne les régisse. D'une part, le cadre mathématique fourni par la théorie du contrôle peut être utilisé pour améliorer l'automatisation, la robustesse et la fiabilité des systèmes informatiques. D'autre part, les défis spécifiques de ces cas d'étude permettent d'élargir la théorie du contrôle elle-même. L'approche adoptée dans ce travail consiste à utiliser deux systèmes informatiques d'application: la protection de vie privée liée à la mobilité et les performances des services clouds. Ces deux cas d'utilisation sont complémentaires par la nature de leurs technologies, par leur échelle et par leurs utilisateurs finaux.La popularité des appareils mobiles a favorisé la diffusion et la collecte des données de localisation, que ce soit pour que l'utilisateur bénéficie d'un service personnalisé (e.g. une planification d'itinéraire) ou pour que le prestataire de services tire des informations utiles des bases de données de mobilité (e.g. la popularité de lieux). En effet, de nombreuses informations peuvent être extraites de données de localisation, y compris des données personnelles très sensibles. Pour remédier à cette atteinte à la vie privée, des mécanismes de protection spécifiques aux données de mobilité (LPPM) ont été élaborés. Ce sont des algorithmes qui modifient les données de localisation de l'utilisateur, dans le but de cacher des informations sensibles. Cependant, ces outils ne sont pas facilement configurables par des non experts et sont des processus statiques qui ne s'adaptent pas à la mobilité de l'utilisateur. Dans cette thèse, nous développons deux outils, l'un pour les bases de données déjà collectées et l'autre pour l'utilisation en ligne, qui garantissent aux utilisateurs des niveaux de protection de la vie privée et de préservation de la qualité des services en configurant les LPPMs. Nous présentons la première formulation du problème en termes de théorie du contrôle (système et contrôleur, signaux d’entrée et de sortie), et un contrôleur PI pour servir de démonstration d’applicabilité. Dans les deux cas, la conception, la mise en œuvre et la validation ont été effectuées par le biais d'expériences utilisant des données d'utilisateurs réels recueillies sur le terrain.L'essor récent des bigdata a conduit au développement de programmes capables de les analyser, tel que MapReduce. Les progrès des pratiques informatiques ont également permis d'établir le modèle du cloud (où il est possible de louer des ressources de bas niveau pour permettre le développement d'applications de niveau supérieur sans se préoccuper d'investissement ou de maintenance) comme une solution incontournable pour tous types d'utilisateurs. Garantir les performances des tâches MapReduce exécutées sur les clouds est donc une préoccupation majeure pour les grandes entreprises informatiques et leurs clients. Dans ce travail, nous développons des techniques avancées de contrôle du temps d'exécution des tâches et de la disponibilité de la plate-forme en ajustant la taille du cluster de ressources et en réalisant un contrôle d'admission, fonctionnant quelle que soit la charge des clients. Afin de traiter les non linéarités de MapReduce, un contrôleur adaptatif a été conçu. Pour réduire l'utilisation du cluster (qui entraîne des coûts financiers et énergétiques considérables), nous présentons une nouvelle formulation du mécanisme de déclenchement du contrôle événementiel, combiné à un contrôleur prédictif optimal. L'évaluation est effectuée sur un benchmark s'exécutant en temps réel sur un cluster, et en utilisant des charges de travail industrielles. / This thesis presents an application of Control Theory for Computing Systems. It aims at investigating techniques to build and control efficient, dependable and privacy-preserving computing systems. Ad-hoc service configuration require a high level of expertise which could benefit from automation in many ways. A control algorithm can handle bigger and more complex systems, even when they are extremely sensitive to variations in their environment. However, applying control to computing systems raises several challenges, e.g. no physics governs the applications. On one hand, the mathematical framework provided by control theory can be used to improve automation and robustness of computing systems. Moreover, the control theory provides by definition mathematical guarantees that its objectives will be fulfilled. On the other hand, the specific challenges of such use cases enable to expand the control theory itself. The approach taken in this work is to use two application computing systems: location privacy and cloud control. Those two use-cases are complementary in the nature of their technologies and softwares, their scale and in their end-users.The widespread of mobile devices has fostered the broadcasting and collection of users’ location data. It could be for the user to benefit from a personalized service (e.g. weather forecast or route planning) or for the service provider or any other third party to derive useful information from the mobility databases (e.g. road usage frequency or popularity of places). Indeed, many information can be retrieved from location data, including highly sensitive personal data. To overcome this privacy breach, Location Privacy Protection Mechanisms (LPPMs) have been developed. They are algorithm that modify the user’s mobility data, hopefully to hide some sensitive information. However, those tools are not easily configurable by non experts and are static processes that do not adapt to the user’s mobility. We develop two tools, one for already collected databases and one for online usage, that, by tuning the LPPMs, guarantee to the users objective-driven levels of privacy protection and of service utility preservation. First, we present an automated tool able to choose and configure LPPMs to protect already collected databases while ensuring a trade-off between privacy protection and database processing quality. Second, we present the first formulation of the location privacy challenge in control theory terms (plant and control, disturbance and performance signals), and a feedback controller to serve as a proof of concept. In both cases, design, implementation and validation has been done through experiments using data of real users collected on the field.The surge in data generation of the last decades, the so-called bigdata, has lead to the development of frameworks able to analyze them, such as the well known MapReduce. Advances in computing practices has also settled the cloud paradigms (where low-level resources can be rented to allow the development of higher level application without dealing with consideration such as investment in hardware or maintenance) as premium solution for all kind of users. Ensuring the performances of MapReduce jobs running on clouds is thus a major concern for the big IT companies and their clients. In this work, we develop advanced monitoring techniques of the jobs execution time and the platform availability by tuning the resource cluster size and realizing admission control, in spite of the unpredictable client workload. In order to deal with the non linearities of the MapReduce system, a robust adaptive feedback controller has been designed. To reduce the cluster utilization (leading to massive financial and energetic costs), we present a new event-based triggering mechanism formulation combined with an optimal predictive controller. Evaluation is done on a MapReduce benchmark suite running on a large-scale cluster, and using real jobs workloads.

Page generated in 0.2025 seconds