111 |
Webbapplikation för felsökning på nätverksnoderFackel, Edvin, Kolmodin, Robin January 2020 (has links)
Hantering av larm från nätverksnoder är i dagsläget en process som kräver att nätverkstekniker besöker flera olika källor av information för att dra en slutsats över vad orsaken till larmet kan vara. Genom att besöka flera olika källor av information kan det vara komplicerat att få en överblick över problemet. Studien utförs på uppdrag av Trafikverket för att underlätta arbetet för Trafikverkets nätverkstekniker på avdelningen network operations center (NOC). En webbapplikation har utvecklats för att sammanställa de vanligaste källorna som nätverkstekniker besöker. Webbapplikationen amalgamerar och presenterar information på ett sätt som bör underlätta felsökningsprocessen för nätverkstekniker. Webbapplikationen indikerar de vanligaste felorsakerna, beroende på vilken typ av larm som hanteras. Valmöjligheter vid utveckling av en webbapplikation kan göra det svårt för utvecklare att välja mjukvara. Även om mjukvara delvis sorteras ut beroende på i vilket syfte som utvecklingen sker finns fortfarande en stor mängd alternativ. Denna studie har förtydligat och bevisat att mjukvaran NodeJS, PostgreSQL och PostGIS fungerar enhetligt och är att föredra för en webbapplikation med spatiala funktioner. För att utvärdera webbapplikationen genomfördes ett användartest där nio personer, 47% av personalen på Trafikverket NOC deltog. Användartestet visar positiva resultat gällande hur väl webbapplikationen fyllde sitt syfte med att indikera möjliga orsaker för nätverkslarm samt deltagarnas upplevelse med webbapplikationen. I användartestet anser 100% av deltagarna att webbapplikationen skulle spara dem tid och de tre populäraste funktionerna var polygoner för att visa elnätägare, realtids väderdata samt en sammanställning av interna data på samma ställe. / Handling of alarms on network nodes is a process that requires network technicians to visit several sources of information before they can draw a conclusion on the reason behind the alarm. By visiting several different sources of information, it may be difficult to establish a good overview of the problem. This study is made on request by the Swedish traffic authority Trafikverket to ease the workload of the co-workers at the department network operations center (NOC). A web application has been developed to amalgamate the most common sources a network technician visits. The web application presents the amalgamated information in a way that eases the troubleshooting process for the network technicians. The web application also indicates what the most common reasons are, depending on which kind of alarm that is being handled. Due to the large availability of different software it can be difficult for a developer to choose a suitable software. Even if some are excluded based on the purpose of the development there are still many choices. This study emphasizes that the software NodeJS, PostgreSQL and PostGIS works well together and is a suitable choice when creating a web application that needs to use spatial functions. To evaluate the web application a user test was conducted were nine participants, 47% of the personnel at Trafikverket NOC participated. The result shows positive results in both how well the web application filled its purpose by indicating possible reasons for a network alarm as well as the participants experiences with the web application. In the user test 100% of the participants claim that the web application would save them time and the three most popular features were polygons of electricity distributors, real time weather data and an amalgamation of internal data in one place.
|
112 |
Odhad pokrytí signálem mobilní sítě prostřednictvím regrese / Estimating mobile coverage by means of regressionWalach, Dominik January 2021 (has links)
This diploma thesis deals with the use of freely available data sets to estimate the signal strength in localities where measurements are missing. This work aimed to use interpolation and regression methods to estimate as accurately as possible the possible signal coverage in a given locality. First, data sets were analyzed, based on results, a test model for various methods has been created. The methods with the best results have been implemented on real data sets containing thousands of measurements. At the end of the work, accurate estimates are commented and circumstances to reduce the deviation of the measured and calculated values are specified.
|
113 |
Creating Linked Data morphological language resources with MMoOn: the Hebrew Morpheme InventoryKlimek, Bettina, Arndt, Natanael, Krause, Sebastian, Arndt, Timotheus 22 June 2017 (has links)
The development of standard models for describing general lexical resources has led to the emergence of numerous lexical datasets of various languages in the Semantic Web. However, there are no models that describe the domain of Morphology in a similar manner.
As a result, there are hardly any language resources of morphemic data available in RDF to date. This paper presents the creation of the Hebrew Morpheme Inventory from a manually compiled tabular dataset comprising around 52.000 entries. It is an ongoing effort of representing the lexemes, word-forms and morphologigal patterns together with their underlying relations based on the newly created Multilingual
Morpheme Ontology (MMoOn). It will be shown how segmented Hebrew language data can be granularly described in a Linked Data format, thus, serving as an exemplary case for creating morpheme inventories of any inflectional language with MMoOn. The resulting dataset is described a) according to the structure of the underlying data format, b) with respect to the Hebrew language characteristic of building word-forms directly from roots, c) by exemplifying how inflectional information is realized and d) with regard to its enrichment with external links to sense resources.
|
114 |
Question Answering on RDF Data CubesHöffner, Konrad 26 March 2021 (has links)
The Semantic Web, a Web of Data, is an extension of the World Wide Web (WWW), a Web of Documents. A large amount of such data is freely available as Linked Open Data (LOD) for many areas of knowledge, forming the LOD Cloud. While this data conforms to the Resource Description Framework (RDF) and can thus be processed by machines, users need to master a formal query language and learn a specific vocabulary. Semantic Question Answering (SQA) systems remove those access barriers by letting the user ask natural language questions that the systems translate into formal queries. Thus, the research area of SQA plays an important role for the acceptance and benefit of the Semantic Web.
The original contributions of this thesis to SQA are: First, we survey the current state of the art of SQA. We complement existing surveys by systematically identifying SQA publications in the chosen timeframe. 72 publications describing 62 different systems are systematically and manually selected using predefined inclusion and exclusion criteria out of 1960 candidates from the end of 2010 to July 2015. The survey identifies common challenges, structured solutions, and recommendations on research opportunities for future systems.
From that point on, we focus on multidimensional numerical data, which is immensely valuable as it influences decisions in health care, policy and finance, among others. With the growth of the open data movement, more and more of it is becoming freely available. A large amount of such data is included in the LOD cloud using the RDF Data Cube (RDC) vocabulary. However, consuming multidimensional numerical data requires experts and specialized tools.
Traditional SQA systems cannot process RDCs because their meta-structure is opaque to applications that expect facts to be encoded in single triples, This motivates our second contribution, the design and implementation of the first SQA algorithm on RDF Data Cubes. We kick-start this new research subfield by creating a user question corpus and a benchmark over multiple data sets. The evaluation of our system on the benchmark, which is included in the public Question Answering over Linked Data (QALD) challenge of 2016, shows the feasibility of the approach, but also highlights challenges, which we discuss in detail as a starting point for future work in the field.
The benchmark is based on our final contribution, the addition of 955 financial government spending data sets to the LOD cloud by transforming data sets of the OpenSpending project to RDF Data Cubes. Open spending data has the power to reduce corruption by increasing accountability and strengthens democracy because voters can make better informed decisions. An informed and trusting public also strengthens the government itself because it is more likely to commit to large projects. OpenSpending.org is an open platform that provides public finance data from governments around the world. The transformation result, called LinkedSpending, consists of more than five million planned and carried out financial transactions in 955 data sets from all over the world as Linked Open Data and is freely available and openly licensed.:1 Introduction
1.1 Motivation
1.2 Research Questions and Contributions
1.3 Thesis Structure
2 Preliminaries
2.1 Semantic Web
2.1.1 URIs and URLs
2.1.2 Linked Data
2.1.3 Resource Description Framework
2.1.4 Ontologies
2.2 Question Answering
2.2.1 History
2.2.2 Definitions
2.2.3 Evaluation
2.2.4 SPARQL
2.2.5 Controlled Vocabulary
2.2.6 Faceted Search
2.2.7 Keyword Search
2.3 Data Cubes
3 Related Work
3.1 Semantic Question Answering
3.1.1 Surveys
3.1.2 Evaluation Campaigns
3.1.3 System Frameworks
3.2 Question Answering on RDF Data Cubes
3.3 RDF Data Cube Data Sets
4 Systematic Survey of Semantic Question Answering
4.1 Methodology
4.1.1 Inclusion Criteria
4.1.2 Exclusion Criteria
4.1.3 Result
4.2 Systems
4.2.1 Implementation
4.2.2 Examples
4.2.3 Answer Presentation
4.3 Challenges
4.3.1 Lexical Gap
4.3.2 Ambiguity
4.3.3 Multilingualism
4.3.4 Complex Queries
4.3.5 Distributed Knowledge
4.3.6 Procedural, Temporal and Spatial Questions
4.3.7 Templates
5 Question Answering on RDF Data Cubes
5.1 Question Corpus
5.2 Corpus Analysis
5.3 Data Cube Operations
5.4 Algorithm
5.4.1 Preprocessing
5.4.2 Matching
5.4.3 Combining Matches to Constraints
5.4.4 Execution
6 LinkedSpending
6.1 Choice of Source Data
6.1.1 Government Spending
6.1.2 OpenSpending
6.2 OpenSpending Source Data
6.3 Conversion of OpenSpending to RDF
6.4 Publishing
6.5 Overview over the Data Sets
6.6 Data Set Quality Analysis
6.6.1 Intrinsic Dimensions
6.6.2 Representational Dimensions
6.7 Evaluation
6.7.1 Experimental Setup and Benchmark
6.7.2 Discussion
7 Conclusion
7.1 Research Question Summary
7.2 SQA Survey
7.2.1 Lexical Gap
7.2.2 Ambiguity
7.2.3 Multilingualism
7.2.4 Complex Operators
7.2.5 Distributed Knowledge
7.2.6 Procedural, Temporal and Spatial Data
7.2.7 Templates
7.2.8 Future Research
7.3 CubeQA
7.4 LinkedSpending
7.4.1 Shortcomings
7.4.2 Future Work
Bibliography
Appendix A The CubeQA Question Corpus
Appendix B The QALD-6 Task 3 Benchmark Questions
B.1 Training Data
B.2 Testing Data
|
115 |
Simple Indoor Tagging - An Indoor Mapping Approach for OSMGraichen, Thomas 14 August 2018 (has links)
Im vorliegenden Vortrag wurde im Rahmen der Konferenz 'State of the Map Poland 2018' der aktuelle Ansatz zum Kartographieren von Innenraumumgebungen für OpenStreetMap (OSM), wie Gebäuden, vorgestellt und erläutert. Der Fokus des Vortrags lag dabei auf den von den Autoren entwickelten Indoor-Tools und Methodiken für OSM.
|
116 |
Erstellung und Aktualisierung der Digitalen Landschaftsmodelle DLM250 und DLM1000Mau, Ronald 22 May 2018 (has links)
Im Bundesamt für Kartographie und Geodäsie (BKG) werden das Digitale Landschaftsmodell 1:250 000 (DLM250) und das Digitale Landschaftsmodell 1:1 000 000 (DLM1000) hergestellt und gepflegt. In diesem Beitrag wird auf die Erstherstellung der Daten, das heutige Modellschema der Datenbanken und die Softwareumgebung eingegangen. Einen besonderen Schwerpunkt bilden hierbei die Aktualisierungsgrundlagen sowie das Qualitätsmanagement vor den verschiedenen Produktableitungen. Als wichtigstes Produkt gelten die ATKIS-Daten, die gemäß des Geodatenzugangsgesetzes in den kleinen Maßstäben als Open Data jährlich zur Verfügung gestellt werden. Des Weiteren werden diverse nationale und internationale Produkte abgeleitet. Der Blick auf die heutigen Nutzeranforderungen in Bezug auf die Weiterentwicklung der Produkte ist eine weitere Aufgabe des Produktmanagements. Die zukünftigen Entwicklungen werden abschließend skizziert.
|
117 |
Mehr Raum für den Raum in der MobilitätsforschungSigismund, Markus 24 May 2018 (has links)
Das Bundesministerium für Verkehr und digitale Infrastruktur (BMVI) etabliert im Geschäftsbereich mit Bausteinen wie der Geoinformationsstrategie, der mCLOUD (Rechercheplattform) und dem mFUND (Modernitätsfond) eine neue, offene Datenkultur und leistet mit der Bereitstellung von Verwaltungsdaten und der Erschließung neuer Datenquellen einen wichtigen Beitrag zur Open-Data-Strategie der Bundesregierung. Die hier dargestellten „klassischen“ Mobilitätserhebungen, Forschungsprojekte und amtlichen Daten verlieren in diesem Umfeld jedoch nicht an Wert. Im Gegenteil: Sie sind die wichtigste empirische Grundlage für die Verkehrsplanung und Mobilitätsforschung. Sie sind auch Grundlage zur Eichung der neuen Datenwelten wie z. B. Big Data und Verwaltungsdaten und damit deren Wertschöpfungspotenzial. Zwischen diesen Datenwelten der Mobilitätsforschung und Verkehrsplanung nehmen
siedlungsstrukturelle Raumtypisierungen eine zentrale Scharnierfunktion ein. Um diese Scharnierfunktion zu verbessern, hat das BMVI einen Anforderungskatalog definiert und das Bundesinstitut für Bau-, Stadt- und Raumforschung (BBSR) mit einer Operationalisierung neuer Raumtypen beauftragt. Diese werden vor allem auch benötigt, um die Mobilität erklären zu können: die wichtigsten Veränderungen der Mobilität werden erst erkennbar, wenn unter der bundesweit ruhigen Oberfläche, d. h. mit nahezu unveränderten Mobilitätskennwerten auf Bundesebene, systematisch räumliche Unterschiede identifiziert werden können. Deshalb gibt das BMVI raumbezogenen Daten mehr Raum. Das BMVI wirbt dafür, dass auch die amtliche Statistik eine Raumtypisierung in das Standardveröffentlichungsprogramm übernimmt und empfiehlt die neue Raumtypisierung als Diskussionsgrundlage an.
|
118 |
Straßenlose Räume und ihre Bedeutung für die Funktionstüchtigkeit von ÖkosystemenHoffmann, Monika T., Ibisch, Pierre L. 24 May 2018 (has links)
Straßenlose Räume sind relativ frei von direkten oder indirekten Wirkungen auf Ökosysteme, die nicht allein aus der physischen Straßeninfrastruktur sowie dem Verkehr resultieren (z. B. verändertes Mikroklima, Tötung von Tieren), sondern auch aus anthropogenen Störungen, welche durch Zugang zu den entsprechenden Gebieten erst möglich werden (z. B. Ressourcenextraktion, Brände). Ausgehend von einer ersten globalen Analyse auf Grundlage von OpenStreetMap-Daten werden konzeptionelle Grundlagen und methodische Herausforderungen besprochen. Selbst in Deutschland reduzieren sich die mit dem Datensatz aus dem Jahr 2013 kartierten straßenlosen Räume durch den
Kartierungsfortschritt fortlaufend. In Deutschland sind echte straßenlose Räume (im Sinne von Räumen, die mindestens 1 km von der nächstgelegenen Straße entfernt sind) auf wenige Gebiete wie ehemalige Truppenübungsplätze, Seen oder Tagebaue beschränkt. Es bestünde die Möglichkeit, für die deutsche Naturschutzplanung die Kartierung straßenarmer Räume mit größerer räumlicher Auflösung zu betreiben oder auch die Puffergröße zu verringern. Straßenlosigkeit (oder geringe Straßendichte) in naturnahen Räumen sollte als eigenständiges Kriterium der Schutzwürdigkeit anerkannt werden und ist ein geeigneter Indikator für Biodiversitätserhaltung- und Nachhaltigkeitsstrategien.
Der Diskurs zu straßenloser Mobilität ist gerade angesichts der dynamischen Fortschritte von Elektromobilität und autonomem Fahren zu beleben.
|
119 |
Offene Daten in Lehre und Forschung – das Projekt OpenGeoEduLorenzen-Zabel, Axel, Bill, Ralf 25 October 2019 (has links)
Der vorliegende Beitrag stellt das Konzept sowie die ersten Ergebnisse in dem vom BMVI geförderten Projekt „OpenGeoEdu“ vor, in dem es um die Nutzbarmachung offener Geodaten in raumbezogenen Studiengängen geht. Lehrenden und Studierenden im deutschsprachigen Raum soll eine offene Lernumgebung mit einem OpenGeoEdu-Kursangebot geboten werden. Der offene Onlinekurs OpenGeoEdu ist als Betaversion verfügbar und wird kontinuierlich ausgebaut und weiterentwickelt. Zudem steht ein Portal der Datenportale für die Suche nach offenen Geodaten zur Verfügung, um schnell eine Übersicht über das Datenangebot in Deutschland, Österreich und der Schweiz zu erhalten. Am Projekt wirken vier Partner aus Universitäten, außeruniversitären Forschungseinrichtungen sowie Bundesforschungseinrichtungen bzw. Bundesbehörden mit FuE-Aufgaben mit, die unterschiedlichste raumbezogene Fallbeispiele anbieten.
|
120 |
Challenging the Link Between Early Childhood Television Exposure and Later Attention Problems: A Multiverse ApproachMcBee, Matthew T., Brand, Rebecca J., Dixon, Wallace E. 01 April 2021 (has links)
In 2004, Christakis and colleagues published findings that he and others used to argue for a link between early childhood television exposure and later attention problems, a claim that continues to be frequently promoted by the popular media. Using the same National Longitudinal Survey of Youth 1979 data set (N = 2,108), we conducted two multiverse analyses to examine whether the finding reported by Christakis and colleagues was robust to different analytic choices. We evaluated 848 models, including logistic regression models, linear regression models, and two forms of propensity-score analysis. If the claim were true, we would expect most of the justifiable analyses to produce significant results in the predicted direction. However, only 166 models (19.6%) yielded a statistically significant relationship, and most of these employed questionable analytic choices. We concluded that these data do not provide compelling evidence of a harmful effect of TV exposure on attention.
|
Page generated in 0.564 seconds