• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 46
  • 31
  • 7
  • 3
  • 2
  • 1
  • Tagged with
  • 89
  • 53
  • 50
  • 28
  • 27
  • 27
  • 21
  • 18
  • 14
  • 13
  • 11
  • 10
  • 10
  • 10
  • 9
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Spatio-temporal Analysis for Semantic Monitoring of Agricultural Logistics

Deeken, Henning 18 October 2022 (has links)
Managing agricultural processes with significant logistics sub-processes is a challenge because coordinating a distributed fleet in a dynamic environment is difficult without proper oversight in terms of qualitative and quantitative process information. Digital assistance systems are thought to aid agricultural practitioners by providing process-related information and thus support operational decision-making or even control the logistic flow (semi-)automatically. However, their development is currently stifled by a lack of monitoring capabilities during process execution. This thesis concerns the topic of online process monitoring for ongoing agricultural logistic processes. It discusses how to extract process knowledge from the telemetry of agricultural machines by applying spatio-semantic reasoning techniques. Our method combines spatial analysis for identifying spatial relationships between machines and their environment with semantic inference to derive formal process knowledge through ontological and rule-based reasoning. To test our concepts, we implemented a domain-agnostic semantic mapping framework and applied it in the context of forage maize harvesting. We present custom-made ontological models and rules to represent agricultural environments and to reason about machine actors and their process states. Based on our prototype, we demonstrate how to implement automated process and service tracking in near-real-time. Finally, we discuss the role of online process analytics systems in the context of other agricultural assistance systems for farm and fleet management.
42

Exploration maschineller Verfahren zur Entwicklung eines methodischen Frameworks zur Evaluierung wissenschaftlicher Texte im Forschungsmanagement

Baumgart, Matthias 26 February 2024 (has links)
Die Komplexität des Forschungsmanagements an Universitäten und Hochschulen für Angewandte Wissenschaften hat in den letzten Jahren zugenommen, sowohl auf Seiten der Wissenschaftler als auch auf administrativer Ebene. Insbesondere die Texterstellung und -verarbeitung für Forschungsanträge, Publikationen und andere wissenschaftliche Dokumente erfordern erheblichen Aufwand. Gleichzeitig existieren Methoden und Technologien in den Bereichen Information Retrieval, Maschinelles Lernen und Semantischer Technologien, die für die Analyse und Bewertung dieser Texte geeignet sind. Diese Arbeit zielt darauf ab, Aufwände im Lebenszyklus von öffentlich geförderten Forschungsprojekten zu optimieren. Sie identifiziert aktuelle Entwicklungen und Technologien, um Kriterien für eine Gesamtarchitektur abzuleiten, die wissenschaftliche Texte qualitativ annotiert, trainiert und evaluiert. Das resultierende Framework namens FELIX dient als prototypisches System für die computergestützte Assistenz zur Evaluation wissenschaftlicher Texte. Datenkorpora aus Forschungsanträgen und Publikationen wurden für explorative Experimente verwendet, die u. a. auf Methoden des Maschinellen Lernens basieren. FELIX ermöglicht die Analyse von Texten und Metadaten, die Klassifizierung nach definierten Kriterien und die Vorhersage der Bewilligung von Forschungsanträgen. Die Konzeption und Evaluierung von FELIX führte zu wissenschaftlichen und praktischen Implikationen zur Optimierung des Forschungsmanagements.:1. MOTIVATION 2. THEORETISCHE FUNDIERUNG DES DIGITALEN FORSCHUNGSMANAGEMENTS 3. TECHNOLOGISCHE METHODEN UND STRATEGIEN 4. KONZEPTION EINER SYSTEMARCHITEKTUR 5. EXPLORATIVE STUDIE ZUR COMPUTERGESTÜTZTEN ASSISTENZ ZUR EVALUATION WISSENSCHAFTLICHER TEXTE 6. ZUSAMMENFASSUNG UND AUSBLICK ANHANG
43

Semantic Relations in WordNet and the BNC

Ferschke, Oliver January 2009 (has links) (PDF)
From the introduction: It is not always easy to define what a word means. We can choose between a variety of possibilities, from simply pointing at the correct object as we say its name to lengthy definitions in encyclopaedias, which can sometimes fill multiple pages. Although the former approach is pretty straightforward and is also very important for first language acquisition, it is obviously not a practical solution for defining the semantics of the whole lexicon. The latter approach is more widely accepted in this context, but it turns out that defining dictionary and encyclopaedia entries is not an easy task. In order to simplify the challenge of defining the meaning of words, it is of great advantage to organize the lexicon in a way that the structure in which the words are integrated gives us information about the meaning of the words by showing their relation to other words. These semantic relations are the focal point of this paper. In the first chapter, different ways to describe meaning will be discussed. It will become obvious why semantic relations are a very good instrument to organizing the lexicon. The second chapter deals with WordNet, an electronic lexical database which follows precisely this approach. We will examine the semantic relations which are used in WordNet and we will study the distinct characteristics of each of them. Furthermore, we will see which contribution is made by which relation to the organization of the lexicon. Finally, we will look at the downside of the fact that WordNet is a manually engineered network by examining the shortcomings of WordNet. In the third chapter, an alternative approach to linguistics is introduced. We will discuss the principles of corpus linguistics and, using the example of the British National Corpus, we will consider possibilities to extract semantic relations from language corpora which could help to overcome the deficiencies of the knowledge based approach. In the fourth chapter, I will describe a project the goal of which is to extend WordNet by findings from cognitive linguistics. Therefore, I will discuss the development process of a piece of software that has been programmed in the course of this thesis. Furthermore, the results from a small‐scale study using this software will be analysed and evaluated in order to check for the success of the project. / Der Verfasser beschäftigt sich in seiner Magisterarbeit auf sehr detaillierte Weise mit semantischen Relationen von Wörtern. In einer Projektstudie versucht Herr Ferschke, auf der Basis eines bestehenden semantischen Netzes bestimmte kognitiv-relevante Objekte halb-automatisch herauszufiltern. Untermauert wird sein Projekt durch. eine Befragung Studierender zur konzeptuellen Einordnung dieser Objekte. Im ersten Kapitel legt Oliver Ferschke auf sehr fundierter linguistischer Basis verschiedene Möglichkeiten zur Beschreibung von Bedeutung dar. Er unterscheidet unterschiedliche Sichtweisen, was "Bedeutung" ausmacht und stellt diese klar gegenüber. Das zweite Kapitel widmet sich dem semantischen Netzwerk WordNet, welches sogenannte synsets für das Englische beschreibt. Aufbauend auf den in WordNet dargestellten semantischen Relationen stellt der Verfasser an ausgewählten Beispielen dar, wie englische Wörter in dieses Netzwerk eingebunden sind. Er bezieht sich dabei auf semantische Beziehungen wie Hyponymie, Meronymie, Gegenteile, Polysemie und belegt diese mit Beispielen. Darüber hinaus geht er auf einige Desiderata in WordNet ein. Das British National Corpus (BNC) wird im dritten Teil dieser Magisterarbeit eingehend vorgestellt. Für die Projektstudie werden aus diesem Korpus Informationen zur Häufigkeit herangezogen, um spätere Kategorisierungen auf eine möglichst quantitativ-valide Basis zu stellen. Herr Ferschke zeigt die wichtigsten Unterschiede zwischen korpuslinguistischen Herangehensweisen auf der einen Seite sowie strukturalistischen Untersuchungen und solchen, die der generativen Schule angehören, auf der anderen Seite auf. Er schließt seine Betrachtungen zu einer syntaktisch orientierten Angehensweise auf der Basis von patterns ab, die durch häufige syntaktische Muster auf bestimmte semantische Relationen schließen lassen (können). Der Verfasser stellt exemplarisch dar, wie diese patterns in einen CQLquery integriert werden können. Ebenso zeigt Herr Ferschke anhand von möglichen Konstituenten der Nominal- bzw. Präpositionalphrase, wie diese durch automatische Prozeduren im BNC identifiziert werden können. Das vierte Kapitel der vorliegenden Magisterarbeit widmet sich der Projektstudie. Es geht darum, dass Erkenntnisse der Prototypentheorie auf die Struktur von WordNet angewendet werden sollen. Mit Hilfe selbst entwickelter Software wird der Versuch unternommen, bestimmte kognitiv-relevante Ebenen der semantischen Beschreibungen zu identifizieren. Herr Ferschke verfolgt das Ziel, basic level objects innerhalb der Hierarchien von WordNet durch semi-automatische Prozeduren herauszufiltern. Seine Studie besteht aus zwei Teilen: In einem ersten voll automatischen Teil werden Wörter, die bestimmte semantische und quantitative Kriterien erfüllen, durch automatische Prozeduren identifiziert. Diese basic level objects werden im zweiten Teil des Projekts von Probanden in Bezug auf ihre Eigenschaften bewertet. Der Verfasser hat drei unterschiedliche semantische Bereiche ausgewählt, zu denen basic level objects bestimmt werden sollen: athletics, furniture, vehicle. In seinen Auswertungen stellt Herr Ferschke dar, welche potentiellen basic level objects von den Teilnehmern der Studie als solche ausgewählt wurden. Dabei werden sowohl Probleme angesprochen, die den Aufbau von WordNet betreffen und dadurch einen wesentlichen Einfluss auf die Auswahl der Wörter als basic level objects haben können. Ein zweites Problem, welches Herr Ferschke, diskutiert, ist die Sprachkompetenz der Probanden. Ein weiteres - vom Verfasser nicht genanntes Problem - besteht darin, inwiefern eine vorgegebene Wortdefinition die Bewertung der Studienteilnehmer beeinflusst hat. Ein nicht unwesentlicher Teil der Magisterarbeit besteht in der Konzeption und Umsetzung der Software für die Projektstudie. Dafür sind nicht nur detaillierte Kenntnisse aus dem Bereich der Informatik notwendig, sondern auch ein fundiertes Wissen im Bereich der Linguistik. Durch den Aufbau des Projekts macht Herr Ferschke sehr eindringlich klar, dass er beide Gebiete sehr gut beherrscht. Die vorliegende Arbeit ist aus linguistischer Sicht absolut fundiert und hervorragend dargestellt. Sie umfasst ein breites Spektrum linguistischer Theorien und Erklärungsmodelle und stellt die für dieses Thema wichtigen Aspekte umfassend dar. Die computerlinguistische Komponente ist ebenfalls als sehr gut zu beurteilen, zumal eine Verknüpfung zwischen der Prototypentheorie auf der einen Seite und WordNet auf der anderen Seite nicht ganz einfach ist. Das Problem liegt in erster Linie darin, die gegebene Struktur von WordNet für Aspekte der Prototypentheorie nutzbar zu machen. Dies ist Oliver Ferschke ohne Zweifel gelungen. Die vorliegende Magisterarbeit verdient die Note 'sehr gut' (1,0).
44

Neurocognitive Modulations of Lexical Access during Speech Production in Social and Semantic Context

Lin, Hsin-Pei 07 October 2022 (has links)
Der Sprechakt teilt sich in zwei Vorgänge: Zunächst muss das richtige Wort aus dem mentalen Lexikon abgerufen werden und anschließend wird es in der Kommunikation verwendet. Zur Erforschung des ersteren Vorgangs werden oft Ein-Personen-Studien verwendet, in denen durch Beobachten der Reaktion auf Stimuli (z. B. Bilder) die Mikrostruktur des lexikalisch- semantischen Systems beleuchtet wird. Für die Anwendung von Sprache in der Kommunikation hingegen nutzt man Partnerexperimente, um die Koordination zwischen den Gesprächspartnern zu beobachten und zu ergründen, wie sich gegenseitiges Verstehen und biografisches Wissen darauf auswirken. Wenig erforscht ist aber, wie ein von einem Gesprächspartner eingebrachter Bedeutungskontext die traditionell in Ein-Personen-Studien untersuchten lexikalisch-semantischen Effekte beeinflusst. Im Rahmen meiner Dissertation möchte ich die Lücke zwischen den beiden Forschungsansätzen schließen, indem ich einen kommunikativen Kontext in etablierte Paradigmen der Bildbenennung integriere. Hierzu betrachte ich zunächst klassische semantische Kontexteffekte, die durch nähere oder entferntere kategorische Relationen zwischen Begriffen hervorgerufen werden (Studie 1), um anschließend lose thematische Beziehungen zu untersuchen, die mit alltäglichen Ereignissen verbunden sind (Studie 2 & Studie 3). Um die hochgradig verflochtenen Ebenen der lexikalischen und semantischen Verarbeitung voneinander zu trennen, habe ich ereigniskorrelierte Hirnpotentiale (ERPs) eingesetzt, um die elektrophysiologischen Signaturen des konzeptuellen Primings und der lexikalischen Auswahl zu verfolgen. Die vorliegende Arbeit liefert sowohl theoretische als auch praktische Beiträge. Erstens stützen unsere Ergebnisse die theoretischen Annahmen, dass sich semantisches Priming und lexikalische Interferenz vorübergehend überschneiden und gemeinsam das Benennungsverhalten in einem Trade-off beeinflussen. Auch die Gegenwart eines Kommunikationspartners kann Auswirkungen auf dieses Zusammenspiel haben. Zweitens ergänzen diese Ergebnisse die aktuelle Literatur zu verschiedenen Arten von semantischen Beziehungen, wie z. B. Nulleffekte für entfernte Beziehungen und Kontexteffekte, die systematisch mit der Stärke der Verwandtschaft zunehmen. Und schließlich bietet unser neuartiges Design eines kommunikativen Kontextes ein praktisches Instrument, um die Lücke zwischen Ein-Personen-Studien und Kommunikationsstudien zu schließen. Alles in allem tragen diese Ergebnisse zu einem besseren Verständnis der neuronalen Mechanismen unseres Sprachproduktionssystems bei, das in der Lage ist, sich flexibel sowohl an sprachliche als auch an soziale Kontexte anzupassen. / Speaking could be divided into two processes: first, the correct word must be retrieved from the mental lexicon, and then it is used in communication. To study the former process, single-person studies are often used, in which the microstructure of the lexical-semantic system is illuminated by observing reaction times to name stimuli (e.g., pictures). For the language use in communication, on the other hand, partner experiments are used to observe coordination between interlocutors and to explore how mutual understanding and biographical knowledge affect it. However, how a meaningful context brought by an interlocutor influences the established lexical-semantic effects from single-person studies remains underexplored. Within the scope of my dissertation, I aim to bridge the gap between these two research approaches by integrating a communicative context into well-established picture naming paradigms. To this end, I first investigate classic semantic context effects induced by close or distant categorical relations (Study 1), and then examine loose thematic relations associated with everyday events (Study 2 & Study 3). To separate the highly intertwined strata of lexical and semantic processing, I used event-related brain potentials (ERPs) to track the electrophysiological signatures of conceptual priming and lexical selection. The present work makes both theoretical and practical contributions. First, our results support the theoretical assumptions that semantic priming and lexical interference temporarily overlap, and jointly modulate naming behavior in a trade-off. Such interplay may be greatly influenced by the presence of a communicating partner. Second, these findings add to the current literature on different types of semantic relations, such as null effects for distant relations and context effects that systematically increase with the strength of relatedness. Finally, our novel design of a communicative context provides a practical tool to bridge the gap between single-person studies and communication studies. All in all, these findings advance our understanding of the neural mechanisms of our speech production system, which is capable of flexibly adapting to both linguistic and social contexts.
45

Freie Prädikative in der Satzanalyse im Deutschen : Eine syntaktisch-semantische Analyse

Petersson, Tommy January 2009 (has links)
<p>This survey focuses on the omissible constituents of a sentence, which not only relate to the verb but also describe the subject or object. In a sentence analysis, they cannot be determined by the syntactic structure alone, but need an additional semantic approach. These units are commonly used, but so far have been insufficiently described in grammars and research literature, although the understanding of the function of these units is necessary in order to be able to make a complete sentence analysis. Further, there is no consensus regarding terminology and classification. The term depictive secondary predication is commonly used in English, and the terms <i>prädikatives Attribut, freies Prädikativ </i>and <i>Koprädikativ</i> are the most widely used terms in German. In this study, the term <i>freies Prädikativ</i> (FP) is used. The classification of these constituents in the literature varies between FP, adverbials and in some cases attributes.</p><p>Based on the information available in German grammars and mainly German research literature, a model was developed, which makes it possible to distinguish FP from adverbials and attributes. A corpus containing German novels and newspapers was analysed in the light of this model. The controlled sentences of grammar books and research literature almost always use adjectives as examples of FP. This study shows that FP can be found in all types of phrases like adjective phrases, participle constructions, als- phrases and prepositional phrases. In addition, it is shown that FP occur with all types of verbs.</p>
46

Spektrum Patholinguistik (Band 1) - Schwerpunktthema: der Erwerb von Lexikon und Semantik: Meilensteine, Störungen und Therapie ; Tagungsband zum 1. Herbsttreffen Patholinguistik, 24. November 2007

January 2008 (has links)
Der vorliegende Tagungsband enthält alle Beiträge des 1. Herbsttreffens Patholinguistik, das am 24.11.2007 an der Universität Potsdam stattgefunden hat. Sowohl die drei Hauptvorträge zum Thema „Der Erwerb von Lexikon und Semantik – Meilensteine, Störungen und Therapie“ als auch die Kurzvorträge promovierter Patholinguisten sind ausführlich dokumentiert. Außerdem enthält der Tagungsband die Abstracts der präsentierten Poster. / These proceedings contain the contributions presented at the “1st Herbsttreffen Patholinguistik” that took place on November 24, 2007 at the University of Potsdam. Three main lectures focused on "The acquisition of lexicon and semantics - milestones, impairments, and intervention". In addition, the proceedings contain short presentations on patholinguistic research and the abstracts of the presented posters.
47

The predictability problem

Ong, James Kwan Yau January 2007 (has links)
Wir versuchen herauszufinden, ob das subjektive Maß der Cloze-Vorhersagbarkeit mit der Kombination objektiver Maße (semantische und n-gram-Maße) geschätzt werden kann, die auf den statistischen Eigenschaften von Textkorpora beruhen. Die semantischen Maße werden entweder durch Abfragen von Internet-Suchmaschinen oder durch die Anwendung der Latent Semantic Analysis gebildet, während die n-gram-Wortmaße allein auf den Ergebnissen von Internet-Suchmaschinen basieren. Weiterhin untersuchen wir die Rolle der Cloze-Vorhersagbarkeit in SWIFT, einem Modell der Blickkontrolle, und wägen ab, ob andere Parameter den der Vorhersagbarkeit ersetzen können. Unsere Ergebnisse legen nahe, dass ein computationales Modell, welches Vorhersagbarkeitswerte berechnet, nicht nur Maße beachten muss, die die Relatiertheit eines Wortes zum Kontext darstellen; das Vorhandensein eines Maßes bezüglich der Nicht-Relatiertheit ist von ebenso großer Bedeutung. Obwohl hier jedoch nur Relatiertheits-Maße zur Verfügung stehen, sollte SWIFT ebensogute Ergebnisse liefern, wenn wir Cloze-Vorhersagbarkeit mit unseren Maßen ersetzen. / We try to determine whether it is possible to approximate the subjective Cloze predictability measure with two types of objective measures, semantic and word n-gram measures, based on the statistical properties of text corpora. The semantic measures are constructed either by querying Internet search engines or by applying Latent Semantic Analysis, while the word n-gram measures solely depend on the results of Internet search engines. We also analyse the role of Cloze predictability in the SWIFT eye movement model, and evaluate whether other parameters might be able to take the place of predictability. Our results suggest that a computational model that generates predictability values not only needs to use measures that can determine the relatedness of a word to its context; the presence of measures that assert unrelatedness is just as important. In spite of the fact, however, that we only have similarity measures, we predict that SWIFT should perform just as well when we replace Cloze predictability with our measures.
48

Generierung von natürlichsprachlichen Texten aus semantischen Strukturen im Prozeß der maschinellen Übersetzung - Allgemeine Strukturen und Abbildungen

Rosenpflanzer, Lutz, Karl, Hans-Ulrich 14 December 2012 (has links) (PDF)
0 VORWORT Bei der maschinellen Übersetzung natürlicher Sprache dominieren mehrere Probleme. Man hat es immer mit sehr großen Datenmengen zu tun. Auch wenn man nur einen kleinen Text übersetzen will, ist diese Aufgabe in umfänglichen Kontext eingebettet, d.h. alles Wissen über Quell- und Zielsprache muß - in möglichst formalisierter Form - zur Verfügung stehen. Handelt es sich um gesprochenes Wort treten Spracherkennungs- und Sprachausgabeaufgaben sowie harte Echtzeitforderungen hinzu. Die Komplexität des Problems ist - auch unter Benutzung moderner Softwareentwicklungskonzepte - für jeden, der eine Implementation versucht, eine nicht zu unterschätzende Herausforderung. Ansätze, die die Arbeitsprinzipien und Methoden der Informatik konsequent nutzen, stellen ihre Ergebnisse meist nur prototyisch für einen sehr kleinen Teil der Sprache -etwa eine Phrase, einen Satz bzw. mehrere Beispielsätze- heraus und folgern mehr oder weniger induktiv, daß die entwickelte Lösung auch auf die ganze Sprache erfolgreich angewendet werden kann, wenn man nur genügend „Lemminge“ hat, die nach allen Seiten ausschwärmend, die „noch notwendigen Routinearbeiten“ schnell und bienenfleißig ausführen könnten.
49

Nutzung semantischer Informationen aus OSM zur Beschreibung des Nichtwohnnutzungsanteils in Gebäudebeständen

Kunze, Carola 19 July 2013 (has links) (PDF)
Im Bereich der städtebasierten siedlungsstrukturellen Analysen spielen Gebäudedaten mit Informationen zur Gebäudenutzung und dem Gebäudetyp eine wichtige Rolle. Auf diesen Daten basiert die Modellierung von demografischen und sozioökonomischen Kenngrößen, welche bei Aufgaben der Siedlungsentwicklung oder in der Infrastrukturplanung zum Einsatz kommen. Vonseiten der amtlichen Vermessungsanstalten stehen kleinräumige und flächendeckende Daten zur Gebäudenutzung nur in begrenztem Umfang zur Verfügung. Eine darauf aufbauende Bevölkerungsabschätzung ist aus diesem Grund nur eingeschränkt möglich. Das Ziel dieser Arbeit war es, die Integration von nutzergenerierten Geodaten aus dem OpenStreetMap (OSM) Projekt für den Einsatz zur Abschätzung gebäudebasierter Bevölkerungs- und Wohnungszahlen zu untersuchen. Der Fokus liegt dabei besonders auf der Abgrenzung von Wohn- und Nichtwohnnutzung innerhalb von Gebäuden. Diese Informationen sind in den amtlichen Geobasisdaten nicht zu finden, können jedoch aus OSM Punkt- und Polygondaten extrahiert werden. Hauptgegenstand der Untersuchung ist die Entwicklung eines Modells zur Integration der Nichtwohnnutzungsinformationen aus OSM, welches Gewerbeinformationen anhand der OSM-Tags analysiert. Dazu war neben einer geeigneten Typologie, die Festlegung von Regeln zur Verarbeitung mehrerer Gewerbe in einem amtlichen Gebäude notwendig. Über räumliche Verschneidungen der Datensätze erfolgt die eigentliche Datenintegration. Zur Umsetzung des Modells wurden drei Python-Skripte erarbeitet, welche alle notwendigen Vorverarbeitungsschritte und anschließenden Modellberechnungen automatisiert durchführen. Zusätzlich zur Bestimmung des Nichtwohnnutzungsanteiles in den Gebäuden, fand eine Wohnung- und Bevölkerungsabschätzung mittels gebäudetypischer Kenngrößen auf Gebäudebasis statt. Mittels der Abschätzungsergebnisse ohne und mit OSM-Gewerbeinformationen, konnte eine Bewertung dieser Methode erfolgen. Eine Beurteilung der Qualität des Modells im Vergleich zur Realität benötigt geeignete Validierungsdaten. Diese wurden in Form von baublockbezogenen statistischen Einwohner- und Wohnungszahlen von der Stadt Dresden bereitgestellt und zur Ergebnisdiskussion herangezogen. Regionale Unterschiede konnten anhand von Übersichts- und Detailkarten sowie statistischen Analysen herausgearbeitet werden. / Building data with information of building uses and building types play an important role for city-based settlement structure analyses. The estimation of demographic and socio-economic parameters is based on this data. They were used in the field of settlement development or in infrastructure planning. The availability of area-wide and small-scale data of building uses from surveying authorities is limited. For this reason, the estimation of population based on this data cannot be realised sufficiently. Therefore, it was the aim of this research paper to analyse the integration of user-generated geodata from OpenStreetMap (OSM)-project for estimating building-based population and housing units. The research focuses on the separation of residential and non-residential usage within buildings. Not being detected in official geodatasets, the information can be retrieved from OSM-point and polygondata. The development of a model for the integration of non-residential information from OSM is the main subject of this research. It contains the analyses of commercial information out of the OSM Tags. Besides an appropriate typology specifications are necessary to process multiple businesses within one official building. The actual data integration occurs with the help of spatial intersections between the datasets. The implementation of the model is based on three Python-scripts, executing all pre-processing and following calculation steps automatically. In addition to the identification of non-residential building-parts, an estimation of population and housing units per building, based on typical building parameters took place. By means of the estimation results with and without OSM-information it was possible to valuate this method. Validation data is necessary to measure the quality of the model in comparison to reality. This datasets was provided by the City of Dresden, consisting of statistical population and building unit numbers based on building blocks, and used for the discussion of the results. To describe regional differences, maps with overview and detailed scales as well as statistical schemata where used.
50

An e-librarian service : supporting explorative learning by a description logics based semantic retrieval tool

Linckels, Serge January 2008 (has links)
Although educational content in electronic form is increasing dramatically, its usage in an educational environment is poor, mainly due to the fact that there is too much of (unreliable) redundant, and not relevant information. Finding appropriate answers is a rather difficult task being reliant on the user filtering of the pertinent information from the noise. Turning knowledge bases like the online tele-TASK archive into useful educational resources requires identifying correct, reliable, and "machine-understandable" information, as well as developing simple but efficient search tools with the ability to reason over this information. Our vision is to create an E-Librarian Service, which is able to retrieve multimedia resources from a knowledge base in a more efficient way than by browsing through an index, or by using a simple keyword search. In our E-Librarian Service, the user can enter his question in a very simple and human way; in natural language (NL). Our premise is that more pertinent results would be retrieved if the search engine understood the sense of the user's query. The returned results are then logical consequences of an inference rather than of keyword matchings. Our E-Librarian Service does not return the answer to the user's question, but it retrieves the most pertinent document(s), in which the user finds the answer to his/her question. Among all the documents that have some common information with the user query, our E-Librarian Service identifies the most pertinent match(es), keeping in mind that the user expects an exhaustive answer while preferring a concise answer with only little or no information overhead. Also, our E-Librarian Service always proposes a solution to the user, even if the system concludes that there is no exhaustive answer. Our E-Librarian Service was implemented prototypically in three different educational tools. A first prototype is CHESt (Computer History Expert System); it has a knowledge base with 300 multimedia clips that cover the main events in computer history. A second prototype is MatES (Mathematics Expert System); it has a knowledge base with 115 clips that cover the topic of fractions in mathematics for secondary school w.r.t. the official school programme. All clips were recorded mainly by pupils. The third and most advanced prototype is the "Lecture Butler's E-Librarain Service"; it has a Web service interface to respect a service oriented architecture (SOA), and was developed in the context of the Web-University project at the Hasso-Plattner-Institute (HPI). Two major experiments in an educational environment - at the Lycée Technique Esch/Alzette in Luxembourg - were made to test the pertinence and reliability of our E-Librarian Service as a complement to traditional courses. The first experiment (in 2005) was made with CHESt in different classes, and covered a single lesson. The second experiment (in 2006) covered a period of 6 weeks of intensive use of MatES in one class. There was no classical mathematics lesson where the teacher gave explanations, but the students had to learn in an autonomous and exploratory way. They had to ask questions to the E-Librarian Service just the way they would if there was a human teacher. / Obwohl sich die Verfügbarkeit von pädagogischen Inhalten in elektronischer Form stetig erhöht, ist deren Nutzen in einem schulischen Umfeld recht gering. Die Hauptursache dessen ist, dass es zu viele unzuverlässige, redundante und nicht relevante Informationen gibt. Das Finden von passenden Lernobjekten ist eine schwierige Aufgabe, die vom benutzerbasierten Filtern der passenden Informationen abhängig ist. Damit Wissensbanken wie das online Tele-TASK Archiv zu nützlichen, pädagogischen Ressourcen werden, müssen Lernobjekte korrekt, zuverlässig und in maschinenverständlicher Form identifiziert werden, sowie effiziente Suchwerkzeuge entwickelt werden. Unser Ziel ist es, einen E-Bibliothekar-Dienst zu schaffen, der multimediale Ressourcen in einer Wissensbank auf effizientere Art und Weise findet als mittels Navigieren durch ein Inhaltsverzeichnis oder mithilfe einer einfachen Stichwortsuche. Unsere Prämisse ist, dass passendere Ergebnisse gefunden werden könnten, wenn die semantische Suchmaschine den Sinn der Benutzeranfrage verstehen würde. In diesem Fall wären die gelieferten Antworten logische Konsequenzen einer Inferenz und nicht die einer Schlüsselwortsuche. Tests haben gezeigt, dass unser E-Bibliothekar-Dienst unter allen Dokumenten in einer gegebenen Wissensbank diejenigen findet, die semantisch am besten zur Anfrage des Benutzers passen. Dabei gilt, dass der Benutzer eine vollständige und präzise Antwort erwartet, die keine oder nur wenige Zusatzinformationen enthält. Außerdem ist unser System in der Lage, dem Benutzer die Qualität und Pertinenz der gelieferten Antworten zu quantifizieren und zu veranschaulichen. Schlussendlich liefert unser E-Bibliothekar-Dienst dem Benutzer immer eine Antwort, selbst wenn das System feststellt, dass es keine vollständige Antwort auf die Frage gibt. Unser E-Bibliothekar-Dienst ermöglicht es dem Benutzer, seine Fragen in einer sehr einfachen und menschlichen Art und Weise auszudrücken, nämlich in natürlicher Sprache. Linguistische Informationen und ein gegebener Kontext in Form einer Ontologie werden für die semantische Übersetzung der Benutzereingabe in eine logische Form benutzt. Unser E-Bibliothekar-Dienst wurde prototypisch in drei unterschiedliche pädagogische Werkzeuge umgesetzt. In zwei Experimenten wurde in einem pädagogischen Umfeld die Angemessenheit und die Zuverlässigkeit dieser Werkzeuge als Komplement zum klassischen Unterricht geprüft. Die Hauptergebnisse sind folgende: Erstens wurde festgestellt, dass Schüler generell akzeptieren, ganze Fragen einzugeben - anstelle von Stichwörtern - wenn dies ihnen hilft, bessere Suchresultate zu erhalten. Zweitens, das wichtigste Resultat aus den Experimenten ist die Erkenntnis, dass Schuleresultate verbessert werden können, wenn Schüler unseren E-Bibliothekar-Dienst verwenden. Wir haben eine generelle Verbesserung von 5% der Schulresultate gemessen. 50% der Schüler haben ihre Schulnoten verbessert, 41% von ihnen sogar maßgeblich. Einer der Hauptgründe für diese positiven Resultate ist, dass die Schüler motivierter waren und folglich bereit waren, mehr Einsatz und Fleiß in das Lernen und in das Erwerben von neuem Wissen zu investieren.

Page generated in 0.0964 seconds