31 |
Die Behandlung von Wortabrufstörungen bei Aphasie : eine methodenvergleichende Studie zum BildbenennenLorenz, Antje January 2004 (has links)
In einer multiplen Einzelfallstudie mit zehn aphasischen Patienten wurde die Wirksamkeit eines semantischen und eines phonologischen Therapieansatzes zur Behandlung von Wortabrufstörungen verglichen. Detaillierte Einzelfalluntersuchungen ermöglichten die Diagnose der zugrundeliegenden funktionalen Störungen bei jedem Patienten. Auf diese Weise konnten die erzielten Therapieeffekte auf die individuellen kognitiv-neurolinguistischen Störungsmuster bezogen werden.
Im Vordergrund der Therapie stand in beiden Ansätzen das mündliche Benennen von Objektabbildungen mit unterschiedlichen Arten von Hilfen. Während in der semantischen Therapie Teilaspekte des semantischen Zielkonzepts als Benennhilfen eingesetzt wurden, handelte es sich bei den phonologischen Hilfen um Teilinformationen der Zielwortform.
Bei der Erhebung von spezifischen Therapieeffekten wurde zwischen itemspezifischen und itemübergreifenden Verbesserungen sowie kurz- und langfristigen Effekten auf die mündlichen Benennleistungen unterschieden. Dabei wurden neben den quantitativen Verbesserungen (% korrekt) auch die qualitativen Effekte (Fehlertypen) der beiden Ansätze berücksichtigt, und es wurden Transfereffekte in die Spontansprache der Patienten untersucht. Zusätzlich wurden auch die Soforteffekte der verschiedenen Benennhilfen in den Therapiesitzungen erhoben.
Im Methodenvergleich zeigte sich, dass die phonologische Therapiephase kurzfristig bei der Mehrzahl der Patienten signifikante Verbesserungen beim Bildbenennen bewirkte, diese Effekte haben sich jedoch überwiegend als nicht stabil erwiesen. Im Gegensatz dazu erwies sich die semantische Therapiephase auch als langfristig effektiv. Im Unterschied dazu erwiesen sich die phonologischen Benennhilfen bei fast allen Patienten als unmittelbar effektiver als die semantischen Benennhilfen.
Somit waren die Soforteffekte der Hilfetypen in den Therapiesitzungen kein sicherer Indikator für die Dauer der Gesamteffekte einer Therapiephase.
Außerdem zeigte sich nicht bei allen Patienten ein direkter Zusammenhang zwischen der Art ihrer zugrundeliegenden funktionalen Störung und den erzielten Therapieeffekten. Einerseits profitierten Patienten mit erhaltenen semantischen Verarbeitungsleistungen von der semantischen Therapie, andererseits zeigten sich signifikante phonologische Therapieeffekte bei Patienten mit zentral-semantischen Störungen.
Die Wirkmechanismen der beiden Therapieansätze werden unter Berücksichtigung unterschiedlicher kognitiv-neurolinguistischer Theorien zum mündlichen Wortabrufprozess beim Bildbenennen interpretiert. / This study compared semantic and phonological treatments of word retrieval in ten aphasic patients using a multiple single case paradigm. The patients' single word processing was investigated before therapy, so that specific treatment effects could be interpreted with regard to underlying functional deficit(s) in each patient.
In both treatments, the main task was spoken picture naming with different types of cues. In the semantic treatment, different aspects of the semantic target concept were used as a cue in picture naming, in the phonological treatment, different types of word-form specific information were provided as a cue.
Treatment effects were assessed in terms of both short- and long-lasting effects on spoken picture naming accuracy in each patient. Both quantitative (proportion of correct responses) and qualitative (error types) improvements were evaluated. Furthermore, generalisation to untreated pictures (control items) and related tasks and transfer effects into spontaneous speech were examined. In addition, the immediate effects of the different types of prompts in the phonological and semantic treatment sessions were analysed.
Regarding the stability of effects, different outcomes were found for semantic versus phonological treatments. The phonological treatment phase produced only short-lasting effects in most of the patients. In contrast, the semantic treatment phase produced more stable effects in some participants.
With regard to the immediate effects of the different types of cues in the treatment sessions, it turned out that the phonological cues produced stronger effects than the semantic cues in most of the participants. Nevertheless, the effects of the semantic treatment phase were more stable than the phonological treatment effects.
Specific effects of the phonological and the semantic treatment were not directly linked to the underlying functional disorder in each patient. Patients with preserved and with impaired semantic processing of concrete nouns could profit from both methods.
The underlying mechanisms of effectiveness of the two treatment methods are interpreted in the framework of different cognitive-neuropsychological theories of spoken picture naming.
|
32 |
Konsistenzerhaltende Techniken für generierbare Wissensbasen zum Entwurf eingebetteter SystemeSporer, Mathias 18 February 2008 (has links) (PDF)
Der Entwurfsprozess informationsverarbeitender Systeme ist gekennzeichnet durch die Beschreibung von speichernden, verarbeitenden und übertragenden Komponenten auf unterschiedlichen Abstraktionsstufen. Sowohl für spezifische Anwendungsdomänen als auch für die jeweiligen Abstraktionsstufen wurden in der Vergangenheit Werkzeuge entwickelt, die den Systemdesigner von der Phase der Anforderungsspezifikation bis hin zu Implementierung und funktionaler Erprobung begleiten. Beim Entwurf komplexer Systeme im allgemeinen und eingebetteter Systeme im besonderen stellt sich zusätzlich das Problem der Wiederverwendung von Komponenten aus früheren Entwürfen, der Transformation des Entwurfswissens über die Grenzen der Abstraktionsstufen hinweg sowie die Integration einer variablen Anzahl domänenspezifischer Werkzeuge in den Entwurfsprozess. Voraussetzung eines korrekten Designs ist dabei die anwendungsinvariante Integritätserhaltung aller beteiligten Entwurfsdaten unabhängig von ihrer Repräsentation. Nach der Diskussion des Integritätsbegriffs für konventionelle Informationssysteme und den nötigen Erweiterungen für eingebettete Systeme werden Verfahren zur Modellierung des Entwurfsprozesses vorgestellt, mit deren Hilfe eine der spezifischen Entwicklungsaufgabe optimal entsprechende Wissensbasis generiert und fortwährend neuen Anforderungen von Fremdwerkzeugen und Entwurfsverfahren angepasst werden kann. Sie erfordert vom Anwender keine Detailkenntnisse des zugrunde liegenden Datenmodells. Die Generierbarkeit der Wissensbasis und ihrer Werkzeuge beruht auf einem Metamodell, das sich auf eine erweiterbare Objektalgebra zur Struktur- und Verhaltensbeschreibung informationsverarbeitender Systeme stützt und in domänenspezifische Zielsysteme transformierbar ist. / The design process of data processing systems is characterized by the description of storing, processing and transmitting components on different levels of abstraction. In the past tools have been developed for specific application domains as well as for the respective abstraction levels. They support the system designer from the stage of the requirements specification down to implementation and functional test. During the sketch of complex systems in general and embedded systems in particular, problems occur in the following areas: reusing the components from former drafts; transforming the design knowledge across the boundaries of abstraction levels; integrating a variable number of domain specific tools in the design process. The precondition for a correct design is the integrity preservation of all involved draft data no matter which sources such as databases, XML files or conventional HOST file systems provide them. After discussing the integrity term regarding conventional information systems and the extensions necessary for embedded systems, approaches for modelling the design process are presented. They help to generate a knowledge base which is optimally adjusted to a particular design task and can be continuously adapted to new requests coming from external tools and design processes. The user does not need detailed knowledge about the knowledge base's underlying data model. The capability of generating the knowledge base and its tools is based on a meta model. First, this model is based on an extensible object algebra applied when describing the structure and behaviour of data processing systems and second, the model is transformable into domain specific target systems.
|
33 |
Die Funktionen des Genitivs im Deutschen und Litauischen. Eine kontrastive Analyse / Kilmininko funkcijos vokiečių ir lietuvių kalbose. Lyginamoji analizė / Functions of the Genitive in German and Lithuanian. The comparative analysisChmieliauskaitė, Jurgita 16 August 2007 (has links)
Das Hauptgewicht der vorliegenden Arbeit liegt auf dem reinen Flexionskasus Genitiv und der Beschreibung der Satzgliedfunktionen und der semantischen Funktionen des Genitivs in deutscher und litauischer Sprache. / Pagrindinis dėmesys šiame darbe yra skiriamas kilmininko linsniui be prielinksnių ir jo sintaksinių ir semantinių funkcijų aprašymui vokiečių ir lietuvių kalbose. / The main significance of this paper is attached to the Genitive without the prepositions and the description of its syntactical and semantic functions in German and Lithuanian.
|
34 |
Building integrative enterprise knowledge portals with Semantic Web technologiesPriebe, Torsten. January 1900 (has links)
Thesis (doctoral)--Universität Regensburg, 2005. / Includes bibliographical references (p. 153-164).
|
35 |
Partizipien und semantische Struktur zu passivischen Konstruktionen mit dem 3. Status /Rapp, Irene. January 1900 (has links)
Revised version of the author's dissertation (Tübingen, 1995). / Includes bibliographical references (p. [251]-256) and index.
|
36 |
Semantic Enrichment of Ontology MappingsArnold, Patrick 04 January 2016 (has links) (PDF)
Schema and ontology matching play an important part in the field of data integration and semantic web. Given two heterogeneous data sources, meta data matching usually constitutes the first step in the data integration workflow, which refers to the analysis and comparison of two input resources like schemas or ontologies. The result is a list of correspondences between the two schemas or ontologies, which is often called mapping or alignment. Many tools and research approaches have been proposed to automatically determine those correspondences. However, most match tools do not provide any information about the relation type that holds between matching concepts, for the simple but important reason that most common match strategies are too simple and heuristic to allow any sophisticated relation type determination.
Knowing the specific type holding between two concepts, e.g., whether they are in an equality, subsumption (is-a) or part-of relation, is very important for advanced data integration tasks, such as ontology merging or ontology evolution. It is also very important for mappings in the biological or biomedical domain, where is-a and part-of relations may exceed the number of equality correspondences by far. Such more expressive mappings allow much better integration results and have scarcely been in the focus of research so far.
In this doctoral thesis, the determination of the correspondence types in a given mapping is the focus of interest, which is referred to as semantic mapping enrichment. We introduce and present the mapping enrichment tool STROMA, which obtains a pre-calculated schema or ontology mapping and for each correspondence determines a semantic relation type. In contrast to previous approaches, we will strongly focus on linguistic laws and linguistic insights. By and large, linguistics is the key for precise matching and for the determination of relation types. We will introduce various strategies that make use of these linguistic laws and are able to calculate the semantic type between two matching concepts. The observations and insights gained from this research go far beyond the field of mapping enrichment and can be also applied to schema and ontology matching in general.
Since generic strategies have certain limits and may not be able to determine the relation type between more complex concepts, like a laptop and a personal computer, background knowledge plays an important role in this research as well. For example, a thesaurus can help to recognize that these two concepts are in an is-a relation. We will show how background knowledge can be effectively used in this instance, how it is possible to draw conclusions even if a concept is not contained in it, how the relation types in complex paths can be resolved and how time complexity can be reduced by a so-called bidirectional search. The developed techniques go far beyond the background knowledge exploitation of previous approaches, and are now part of the semantic repository SemRep, a flexible and extendable system that combines different lexicographic resources.
Further on, we will show how additional lexicographic resources can be developed automatically by parsing Wikipedia articles. The proposed Wikipedia relation extraction approach yields some millions of additional relations, which constitute significant additional knowledge for mapping enrichment. The extracted relations were also added to SemRep, which thus became a comprehensive background knowledge resource. To augment the quality of the repository, different techniques were used to discover and delete irrelevant semantic relations.
We could show in several experiments that STROMA obtains very good results w.r.t. relation type detection. In a comparative evaluation, it was able to achieve considerably better results than related applications. This corroborates the overall usefulness and strengths of the implemented strategies, which were developed with particular emphasis on the principles and laws of linguistics.
|
37 |
Recovering the Semantics of Tabular Web DataBraunschweig, Katrin 26 October 2015 (has links) (PDF)
The Web provides a platform for people to share their data, leading to an abundance of accessible information. In recent years, significant research effort has been directed especially at tables on the Web, which form a rich resource for factual and relational data. Applications such as fact search and knowledge base construction benefit from this data, as it is often less ambiguous than unstructured text. However, many traditional information extraction and retrieval techniques are not well suited for Web tables, as they generally do not consider the role of the table structure in reflecting the semantics of the content. Tables provide a compact representation of similarly structured data. Yet, on the Web, tables are very heterogeneous, often with ambiguous semantics and inconsistencies in the quality of the data. Consequently, recognizing the structure and inferring the semantics of these tables is a challenging task that requires a designated table recovery and understanding process.
In the literature, many important contributions have been made to implement such a table understanding process that specifically targets Web tables, addressing tasks such as table detection or header recovery. However, the precision and coverage of the data extracted from Web tables is often still quite limited. Due to the complexity of Web table understanding, many techniques developed so far make simplifying assumptions about the table layout or content to limit the amount of contributing factors that must be considered. Thanks to these assumptions, many sub-tasks become manageable. However, the resulting algorithms and techniques often have a limited scope, leading to imprecise or inaccurate results when applied to tables that do not conform to these assumptions.
In this thesis, our objective is to extend the Web table understanding process with techniques that enable some of these assumptions to be relaxed, thus improving the scope and accuracy. We have conducted a comprehensive analysis of tables available on the Web to examine the characteristic features of these tables, but also identify unique challenges that arise from these characteristics in the table understanding process. To extend the scope of the table understanding process, we introduce extensions to the sub-tasks of table classification and conceptualization. First, we review various table layouts and evaluate alternative approaches to incorporate layout classification into the process. Instead of assuming a single, uniform layout across all tables, recognizing different table layouts enables a wide range of tables to be analyzed in a more accurate and systematic fashion.
In addition to the layout, we also consider the conceptual level. To relax the single concept assumption, which expects all attributes in a table to describe the same semantic concept, we propose a semantic normalization approach. By decomposing multi-concept tables into several single-concept tables, we further extend the range of Web tables that can be processed correctly, enabling existing techniques to be applied without significant changes.
Furthermore, we address the quality of data extracted from Web tables, by studying the role of context information. Supplementary information from the context is often required to correctly understand the table content, however, the verbosity of the surrounding text can also mislead any table relevance decisions. We first propose a selection algorithm to evaluate the relevance of context information with respect to the table content in order to reduce the noise. Then, we introduce a set of extraction techniques to recover attribute-specific information from the relevant context in order to provide a richer description of the table content.
With the extensions proposed in this thesis, we increase the scope and accuracy of Web table understanding, leading to a better utilization of the information contained in tables on the Web.
|
38 |
Recovering the Semantics of Tabular Web DataBraunschweig, Katrin 09 October 2015 (has links)
The Web provides a platform for people to share their data, leading to an abundance of accessible information. In recent years, significant research effort has been directed especially at tables on the Web, which form a rich resource for factual and relational data. Applications such as fact search and knowledge base construction benefit from this data, as it is often less ambiguous than unstructured text. However, many traditional information extraction and retrieval techniques are not well suited for Web tables, as they generally do not consider the role of the table structure in reflecting the semantics of the content. Tables provide a compact representation of similarly structured data. Yet, on the Web, tables are very heterogeneous, often with ambiguous semantics and inconsistencies in the quality of the data. Consequently, recognizing the structure and inferring the semantics of these tables is a challenging task that requires a designated table recovery and understanding process.
In the literature, many important contributions have been made to implement such a table understanding process that specifically targets Web tables, addressing tasks such as table detection or header recovery. However, the precision and coverage of the data extracted from Web tables is often still quite limited. Due to the complexity of Web table understanding, many techniques developed so far make simplifying assumptions about the table layout or content to limit the amount of contributing factors that must be considered. Thanks to these assumptions, many sub-tasks become manageable. However, the resulting algorithms and techniques often have a limited scope, leading to imprecise or inaccurate results when applied to tables that do not conform to these assumptions.
In this thesis, our objective is to extend the Web table understanding process with techniques that enable some of these assumptions to be relaxed, thus improving the scope and accuracy. We have conducted a comprehensive analysis of tables available on the Web to examine the characteristic features of these tables, but also identify unique challenges that arise from these characteristics in the table understanding process. To extend the scope of the table understanding process, we introduce extensions to the sub-tasks of table classification and conceptualization. First, we review various table layouts and evaluate alternative approaches to incorporate layout classification into the process. Instead of assuming a single, uniform layout across all tables, recognizing different table layouts enables a wide range of tables to be analyzed in a more accurate and systematic fashion.
In addition to the layout, we also consider the conceptual level. To relax the single concept assumption, which expects all attributes in a table to describe the same semantic concept, we propose a semantic normalization approach. By decomposing multi-concept tables into several single-concept tables, we further extend the range of Web tables that can be processed correctly, enabling existing techniques to be applied without significant changes.
Furthermore, we address the quality of data extracted from Web tables, by studying the role of context information. Supplementary information from the context is often required to correctly understand the table content, however, the verbosity of the surrounding text can also mislead any table relevance decisions. We first propose a selection algorithm to evaluate the relevance of context information with respect to the table content in order to reduce the noise. Then, we introduce a set of extraction techniques to recover attribute-specific information from the relevant context in order to provide a richer description of the table content.
With the extensions proposed in this thesis, we increase the scope and accuracy of Web table understanding, leading to a better utilization of the information contained in tables on the Web.
|
39 |
Untersuchungen zur semantischen Integration beim auditiven SprachverständnisWendt, Christin 12 December 2017 (has links)
Bisherige Bildgebungsstudien haben gezeigt, dass die Integration semantischer Information in den Satzkontext mit einer Aktivierung links-hemisphärischer frontotemporaler Hirnregionen assoziiert ist [1]. Die Aktivierungsmuster werden dabei in Abhängigkeit von der Schwierigkeit der semantischen Integration moduliert, wobei der Grad der Prädizierbarkeit des finalen Nomens eine große Rolle spielt. Um diesen zu variieren, wurden Sätze mit erwarteten, unerwarteten, semantisch inkorrekten und Pseudowort-Endungen experimentell im Rahmen einer lexikalischen Entscheidungsaufgabe verglichen. Bisherige Bildgebungsstudien haben dieses Paradigma vornehmlich visuell präsentiert [1]. Im Gegensatz dazu wurde in dieser Studie die semantische Integration beim auditiven Sprachverständnis untersucht. Die vorliegenden Ergebnisse deuten darauf hin, dass sowohl der Gyrus frontalis inferior als auch der Gyrus temporalis medius Kernreale für die semantische Integration beim auditiven Sprachverständnis darstellen. Die Konnektivitätsanalysen liefern zudem Hinweise darauf, dass diese Hirnregionen Teil eines fronto-temporalen Netzwerkes sind, das auf eine erhöhte Schwierigkeit beim Abruf und der Integration semantischer Information reagiert. Insgesamt zeigt sich ein Effekt der Integrationsschwierigkeit sowohl in den Verhaltenseffekten, als auch in den Hirnaktivierungen und der überregionalen Konnektivität. Das verwendetet Paradigma ist damit ein valides Instrument für die Untersuchung der semantischen Integration beim auditiven Sprachverständnis.
Referenzen:
[1] Baumgaertner, A., C. Weiller, and C. Buchel, Event-related fMRI reveals cortical sites involved in contextual sentence integration. Neuroimage, 2002. 16(3), S. 736-45.:1 Einführung und theoretischer Hintergrund 1
1.1 Modelle zur Sprachverarbeitung – vom 19. Jahrhundert bis zur Gegenwart 2
1.2 Aktuelle Befunde zur semantischen Sprachverarbeitung 6
1.2.1 Der Gyrus frontalis inferior 7
1.2.2 Der Gyrus temporalis medius 8
1.2.3 Temporofrontale Interaktionen beim Sprachverständnis 9
1.3 N400 und BOLD-Signal als funktionelle und anatomische Korrelate der Sprachverarbeitung 10
1.4 Einordnung der vorliegenden Studie 11
2 Aufgabenstellung 15
3 Material und Methoden 16
3.1 Versuchspersonen 16
3.2 Funktionelle Magnetresonanztomographie 16
3.3 Durchführung und Versuchsaufbau 17
3.3.1 Stimuli 17
3.3.2 Experimentelles Design 19
3.3.3 Messparameter 20
3.3.4 fMRT-Experiment 20
3.4 Datenauswertung 22
3.4.1 Verhaltensdaten 22
3.4.2 fMRT-Daten 23
4 Ergebnisse 29
4.1 Verhaltensdaten 29
4.1.1 Fehlerraten 29
4.1.2 Reaktionszeiten 31
4.2 fMRT-Daten 33
4.2.1 Haupteffekte 33
4.2.2 Differentielle Effekte 38
4.2.3 Psychophysiologische Interaktionen 48
5 Diskussion 53
5.1 Verhaltensdaten 53
5.1.1 Fehlerraten 53
5.1.2 Reaktionszeiten 54
5.2 fMRT-Daten 55
5.2.1 Diskussion der Haupteffekte und der differentiellen Effekte 55
5.2.2 Diskussion der PPI Ergebnisse 64
5.3 Fazit und Ausblick 68
6 Zusammenfassung 70
7 Literaturverzeichnis 75
8 Anhang 86
|
40 |
Nutzung semantischer Informationen aus OSM zur Beschreibung des Nichtwohnnutzungsanteils in GebäudebeständenKunze, Carola 26 June 2013 (has links)
Im Bereich der städtebasierten siedlungsstrukturellen Analysen spielen Gebäudedaten mit Informationen zur Gebäudenutzung und dem Gebäudetyp eine wichtige Rolle. Auf diesen Daten basiert die Modellierung von demografischen und sozioökonomischen Kenngrößen, welche bei Aufgaben der Siedlungsentwicklung oder in der Infrastrukturplanung zum Einsatz kommen. Vonseiten der amtlichen Vermessungsanstalten stehen kleinräumige und flächendeckende Daten zur Gebäudenutzung nur in begrenztem Umfang zur Verfügung. Eine darauf aufbauende Bevölkerungsabschätzung ist aus diesem Grund nur eingeschränkt möglich.
Das Ziel dieser Arbeit war es, die Integration von nutzergenerierten Geodaten aus dem OpenStreetMap (OSM) Projekt für den Einsatz zur Abschätzung gebäudebasierter Bevölkerungs- und Wohnungszahlen zu untersuchen. Der Fokus liegt dabei besonders auf der Abgrenzung von Wohn- und Nichtwohnnutzung innerhalb von Gebäuden. Diese Informationen sind in den amtlichen Geobasisdaten nicht zu finden, können jedoch aus OSM Punkt- und Polygondaten extrahiert werden.
Hauptgegenstand der Untersuchung ist die Entwicklung eines Modells zur Integration der Nichtwohnnutzungsinformationen aus OSM, welches Gewerbeinformationen anhand der OSM-Tags analysiert. Dazu war neben einer geeigneten Typologie, die Festlegung von Regeln zur Verarbeitung mehrerer Gewerbe in einem amtlichen Gebäude notwendig. Über räumliche Verschneidungen der Datensätze erfolgt die eigentliche Datenintegration.
Zur Umsetzung des Modells wurden drei Python-Skripte erarbeitet, welche alle notwendigen Vorverarbeitungsschritte und anschließenden Modellberechnungen automatisiert durchführen. Zusätzlich zur Bestimmung des Nichtwohnnutzungsanteiles in den Gebäuden, fand eine Wohnung- und Bevölkerungsabschätzung mittels gebäudetypischer Kenngrößen auf Gebäudebasis statt. Mittels der Abschätzungsergebnisse ohne und mit OSM-Gewerbeinformationen, konnte eine Bewertung dieser Methode erfolgen.
Eine Beurteilung der Qualität des Modells im Vergleich zur Realität benötigt geeignete Validierungsdaten. Diese wurden in Form von baublockbezogenen statistischen Einwohner- und Wohnungszahlen von der Stadt Dresden bereitgestellt und zur Ergebnisdiskussion herangezogen. Regionale Unterschiede konnten anhand von Übersichts- und Detailkarten sowie statistischen Analysen herausgearbeitet werden.:Inhaltsverzeichnis ............................................................................. I
Abkürzungsverzeichnis ..................................................................... V
Abbildungsverzeichnis ...................................................................... VII
Tabellenverzeichnis .......................................................................... IX
1 Einleitung ...................................................................................... 11
1.1 Motivation ................................................................................... 11
1.2 Zielstellung und Aufbau der Arbeit ............................................. 12
2 Theoretische und praktische Grundlagen ...................................... 15
2.1 Räumliche Modellierung der Siedlungsstruktur ........................... 15
2.1.1 Siedlungsstrukturelle Begriffe ................................................. 15
2.1.2 Räumliche Daten ..................................................................... 18
2.2 Semantische Integration ............................................................ 23
2.2.1 Interoperabilität ...................................................................... 24
2.2.2 Datenintegration ..................................................................... 25
2.3 Semantik in Geodaten ................................................................ 28
2.3.1 Attributierung in OpenStreetMap ............................................. 28
2.3.2 Nutzungsinformationen in amtlichen Geobasisdaten ............... 31
3 Modellierung sozioökonomischer Kenngrößen ............................... 33
3.1 Bedarf an kleinräumigen Nutzungsinformationen ....................... 33
3.2 Modellierungsansätze ................................................................. 35
3.2.1 Ableitung sozioökonomischer Daten aus der Fernerkundung .. 35
3.2.2 Modellierung mit Hilfe von Geobasisdaten ............................... 36
3.3 Vorteile und Mängel der vorgestellten Ansätze .......................... 40
3.4 Möglichkeiten von OSM zur Verbesserung der Modellierung ....... 42
4 Methodik ........................................................................................ 43
4.1 Herangehensweise ..................................................................... 43
4.2 Flächen- und Gebäudenutzungen in amtlichen und OSM-Daten .. 44
4.2.1 Typologie der Flächen- und Gebäudenutzung .......................... 44
4.2.2 Typologie der Flächenbeanspruchung von Gewerben .............. 47
4.3 Modell zur Abschätzung des Nichtwohnnutzungsanteils ............. 50
4.3.1 Gebäudetypische Kenngrößen ................................................. 51
4.3.2 Vorgehensweise ...................................................................... 52
5 Daten ............................................................................................. 55
5.1 Untersuchungsgebiet .................................................................. 55
5.2 OpenStreetMap ........................................................................... 56
5.3 Amtliche Geobasisdaten .............................................................. 57
6 Praktische Umsetzung .................................................................... 59
6.1 Datenmanagement ...................................................................... 59
6.1.1 Eingesetzte Software ............................................................... 59
6.1.2 OSM-Import .............................................................................. 60
6.1.3 Datenorganisation ................................................................... 64
6.2 Praktische Umsetzung des Modell zur Abschätzung des Nichtwohnnutzungsanteils ................................................................ 65
6.2.1 Vorverarbeitung ....................................................................... 65
6.2.2 Modellberechnungen und Bevölkerungsabschätzung .............. 74
6.3 Validierung des Modells .............................................................. 79
6.3.1 Validierungsdaten .................................................................... 79
6.3.2 Durchführung ........................................................................... 80
7 Ergebnisse ..................................................................................... 83
7.1 Untersuchung zur Vollständigkeit der semantischen Informationen anhand der Gewerbe POI .......................................................................................................... 83
7.1.1 Datengrundlagen ..................................................................... 84
7.1.2 Gewerbevergleich durch zufällige Straßenwahl ........................ 84
7.1.3 Gezielter Gewerbevergleich durch Ortsbegehung .................... 86
7.2 Charakterisierung des Ergebnisdatensatzes .............................. 88
7.3 Validierung .................................................................................. 91
7.4 Ergebnisvisualisierung ................................................................ 93
8 Ergebnisdiskussion ........................................................................ 97
8.1 Kleinräumige Betrachtung ........................................................... 97
8.2 Dateninkonsistenz ...................................................................... 101
8.3 Methodische Schwächen und Stärken ........................................ 103
8.4 Weitere Analysemöglichkeiten .................................................... 104
9 Zusammenfassung ........................................................................ 105
9.1 Fazit ........................................................................................... 105
9.2 Ausblick ...................................................................................... 106
Literaturverzeichnis .......................................................................... 109
A Anhang .......................................................................................... 115
Anhang 1: IÖR Flächenschema ......................................................... 115
Anhang 2: Flächen- und Gebäudenutzungstypologie........................ 116
Anhang 3: Klassifikationsschema nach (Burckhardt, 2012) .............. 118
Anhang 4: Skript-Auszug 1 - Datenverarbeitung in der OSM-Punktdatei ................................................................................ 120
Anhang 5: Skript-Auszug 2 - Die Funktion „calculateGWTotal“ .......... 121
Anhang 6: Karten - Untersuchungsgebiet Dresden in 1:100.000 ..... 122
Anhang 7: CD-Inhalt ......................................................................... 122 / Building data with information of building uses and building types play an important role for city-based settlement structure analyses. The estimation of demographic and socio-economic parameters is based on this data. They were used in the field of settlement development or in infrastructure planning. The availability of area-wide and small-scale data of building uses from surveying authorities is limited. For this reason, the estimation of population based on this data cannot be realised sufficiently.
Therefore, it was the aim of this research paper to analyse the integration of user-generated geodata from OpenStreetMap (OSM)-project for estimating building-based population and housing units. The research focuses on the separation of residential and non-residential usage within buildings. Not being detected in official geodatasets, the information can be retrieved from OSM-point and polygondata.
The development of a model for the integration of non-residential information from OSM is the main subject of this research. It contains the analyses of commercial information out of the OSM Tags. Besides an appropriate typology specifications are necessary to process multiple businesses within one official building. The actual data integration occurs with the help of spatial intersections between the datasets.
The implementation of the model is based on three Python-scripts, executing all pre-processing and following calculation steps automatically. In addition to the identification of non-residential building-parts, an estimation of population and housing units per building, based on typical building parameters took place. By means of the estimation results with and without OSM-information it was possible to valuate this method.
Validation data is necessary to measure the quality of the model in comparison to reality. This datasets was provided by the City of Dresden, consisting of statistical population and building unit numbers based on building blocks, and used for the discussion of the results. To describe regional differences, maps with overview and detailed scales as well as statistical schemata where used.:Inhaltsverzeichnis ............................................................................. I
Abkürzungsverzeichnis ..................................................................... V
Abbildungsverzeichnis ...................................................................... VII
Tabellenverzeichnis .......................................................................... IX
1 Einleitung ...................................................................................... 11
1.1 Motivation ................................................................................... 11
1.2 Zielstellung und Aufbau der Arbeit ............................................. 12
2 Theoretische und praktische Grundlagen ...................................... 15
2.1 Räumliche Modellierung der Siedlungsstruktur ........................... 15
2.1.1 Siedlungsstrukturelle Begriffe ................................................. 15
2.1.2 Räumliche Daten ..................................................................... 18
2.2 Semantische Integration ............................................................ 23
2.2.1 Interoperabilität ...................................................................... 24
2.2.2 Datenintegration ..................................................................... 25
2.3 Semantik in Geodaten ................................................................ 28
2.3.1 Attributierung in OpenStreetMap ............................................. 28
2.3.2 Nutzungsinformationen in amtlichen Geobasisdaten ............... 31
3 Modellierung sozioökonomischer Kenngrößen ............................... 33
3.1 Bedarf an kleinräumigen Nutzungsinformationen ....................... 33
3.2 Modellierungsansätze ................................................................. 35
3.2.1 Ableitung sozioökonomischer Daten aus der Fernerkundung .. 35
3.2.2 Modellierung mit Hilfe von Geobasisdaten ............................... 36
3.3 Vorteile und Mängel der vorgestellten Ansätze .......................... 40
3.4 Möglichkeiten von OSM zur Verbesserung der Modellierung ....... 42
4 Methodik ........................................................................................ 43
4.1 Herangehensweise ..................................................................... 43
4.2 Flächen- und Gebäudenutzungen in amtlichen und OSM-Daten .. 44
4.2.1 Typologie der Flächen- und Gebäudenutzung .......................... 44
4.2.2 Typologie der Flächenbeanspruchung von Gewerben .............. 47
4.3 Modell zur Abschätzung des Nichtwohnnutzungsanteils ............. 50
4.3.1 Gebäudetypische Kenngrößen ................................................. 51
4.3.2 Vorgehensweise ...................................................................... 52
5 Daten ............................................................................................. 55
5.1 Untersuchungsgebiet .................................................................. 55
5.2 OpenStreetMap ........................................................................... 56
5.3 Amtliche Geobasisdaten .............................................................. 57
6 Praktische Umsetzung .................................................................... 59
6.1 Datenmanagement ...................................................................... 59
6.1.1 Eingesetzte Software ............................................................... 59
6.1.2 OSM-Import .............................................................................. 60
6.1.3 Datenorganisation ................................................................... 64
6.2 Praktische Umsetzung des Modell zur Abschätzung des Nichtwohnnutzungsanteils ................................................................ 65
6.2.1 Vorverarbeitung ....................................................................... 65
6.2.2 Modellberechnungen und Bevölkerungsabschätzung .............. 74
6.3 Validierung des Modells .............................................................. 79
6.3.1 Validierungsdaten .................................................................... 79
6.3.2 Durchführung ........................................................................... 80
7 Ergebnisse ..................................................................................... 83
7.1 Untersuchung zur Vollständigkeit der semantischen Informationen anhand der Gewerbe POI .......................................................................................................... 83
7.1.1 Datengrundlagen ..................................................................... 84
7.1.2 Gewerbevergleich durch zufällige Straßenwahl ........................ 84
7.1.3 Gezielter Gewerbevergleich durch Ortsbegehung .................... 86
7.2 Charakterisierung des Ergebnisdatensatzes .............................. 88
7.3 Validierung .................................................................................. 91
7.4 Ergebnisvisualisierung ................................................................ 93
8 Ergebnisdiskussion ........................................................................ 97
8.1 Kleinräumige Betrachtung ........................................................... 97
8.2 Dateninkonsistenz ...................................................................... 101
8.3 Methodische Schwächen und Stärken ........................................ 103
8.4 Weitere Analysemöglichkeiten .................................................... 104
9 Zusammenfassung ........................................................................ 105
9.1 Fazit ........................................................................................... 105
9.2 Ausblick ...................................................................................... 106
Literaturverzeichnis .......................................................................... 109
A Anhang .......................................................................................... 115
Anhang 1: IÖR Flächenschema ......................................................... 115
Anhang 2: Flächen- und Gebäudenutzungstypologie........................ 116
Anhang 3: Klassifikationsschema nach (Burckhardt, 2012) .............. 118
Anhang 4: Skript-Auszug 1 - Datenverarbeitung in der OSM-Punktdatei ................................................................................ 120
Anhang 5: Skript-Auszug 2 - Die Funktion „calculateGWTotal“ .......... 121
Anhang 6: Karten - Untersuchungsgebiet Dresden in 1:100.000 ..... 122
Anhang 7: CD-Inhalt ......................................................................... 122
|
Page generated in 0.0881 seconds