• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 43
  • 18
  • 1
  • Tagged with
  • 62
  • 60
  • 46
  • 41
  • 40
  • 40
  • 37
  • 30
  • 28
  • 25
  • 24
  • 23
  • 22
  • 22
  • 20
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Geodaten in der öffentlichen Verwaltung: Eine Analyse am Beispiel des Freistaates Sachsen

Bender, Christian, Mengs, Christoph, Hesse, Mario 03 January 2024 (has links)
Die Digitalisierung der Verwaltung in Deutschland schreitet seit Jahren in der öffentlichen Verwaltung voran. Darauf aufbauend erwachsen neue Möglichkeiten, die Potentiale der Nutzung von raumreferenzierten Fachdaten in der Verwaltungspraxis zu nutzen. Die Ergebnisse einer eigenen Befragung auf Ebene der Kreise und kreisfreien Städte sowie der Landesbehörden zeigen auf, unter welchen Rahmenbedingungen die Nutzung von Geodaten erfolgt, wie dessen technische Ausgestaltung beschrieben werden kann und welche künftigen Potenziale und Hindernisse einer Nutzung von Geodaten im öffentlichen Verwaltungshandeln gegenüberstehen. / The digitization of public administration in Germany has been proceeding for years. Based on this, new possibilities arise to use the potentials of the utilization of geospatial data in the administrative practice. The results of a survey conducted at the level of the districts and district-free cities as well as the state authorities show the general conditions under which geodata are used, how their technical design can be described and which future potentials and challenges exist with regard to the application of geodata in public administration.
2

Dynamische Erzeugung von Diagrammen aus standardisierten Geodatendiensten

Mann, Ulrich 15 May 2014 (has links) (PDF)
Geodateninfrastrukturen (GDI) erfahren in den letzten Jahren immer weitere Verbreitung durch die Schaffung neuer Standards zum Austausch von Geodaten. Die vom Open Geospatial Consortium (OGC), einem Zusammenschluss aus Forschungseinrichtungen und privaten Firmen, entwickelten offenen Beschreibungen von Dienste-Schnittstellen verbessern die Interoperabilität in GDI. OGC-konforme Geodienste werden momentan hauptsächlich zur Aufnahme, Verwaltung, Prozessierung und Visualisierung von Geodaten verwendet. Durch das vermehrte Aufkommen von Geodiensten steigt die Verfügbarkeit von Geodaten. Gleichzeitig hält der Trend zur Generierung immer größerer Datenmengen beispielsweise durch wissenschaftliche Simulationen an (Unwin et al., 2006). Dieser führt zu einem wachsenden Bedarf an Funktionalität zur effektiven Exploration und Analyse von Geodaten, da komplexe Zusammenhänge in großen Datenbeständen untersucht und relevante Informationen heraus gefiltert werden müssen. Dazu angewendete Techniken werden im Forschungsfeld Visual Analytics (Visuelle Analyse) umfassend beschrieben. Die visuelle Analyse beschäftigt sich mit der Entwicklung von Werkzeugen und Techniken zur automatisierten Analyse und interaktiven Visualisierung zum Verständnis großer und komplexer Datensätze (Keim et al., 2008). Bei aktuellen Web-basierten Anwendungen zur Exploration und Analyse handelt es sich hauptsächlich um Client-Server-Systeme, die auf fest gekoppelten Datenbanken arbeiten. Mit den wachsenden Fähigkeiten von Geodateninfrastrukturen steigt das Interesse, Funktionalitäten zur Datenanalyse in einer GDI anzubieten. Das Zusammenspiel von bekannten Analysetechniken und etablierten Standards zur Verarbeitung von Geodaten kann dem Nutzer die Möglichkeit geben, in einer Webanwendung interaktiv auf ad hoc eingebundenen Geodaten zu arbeiten. Damit lassen sich mittels aktueller Technologien Einsichten in komplexe Daten gewinnen, ihnen zugrunde liegende Zusammenhänge verstehen und Aussagen zur Entscheidungsunterstützung ableiten. In dieser Arbeit wird die Eignung der OGC WMS GetFeatureInfo-Operation zur Analyse raum-zeitlicher Geodaten in einer GDI untersucht. Der Schwerpunkt liegt auf der dynamischen Generierung von Diagrammen unter Nutzung externer Web Map Service (WMS) als Datenquellen. Nach der Besprechung von Grundlagen zur Datenmodellierung und GDIStandards, wird auf relevante Aspekte der Datenanalyse und Visualisierung von Diagrammen eingegangen. Die Aufstellung einer Task Taxonomie dient der Untersuchung, welche raumzeitlichen Analysen sich durch die GetFeatureInfo-Operation umsetzen lassen. Es erfolgt die Konzeption einer Systemarchitektur zur Umsetzung der Datenanalyse auf verteilten Geodaten. Zur Sicherstellung eines konsistenten und OGC-konformen Datenaustauschs zwischen den Systemkomponenenten, wird ein GML-Schema erarbeitet. Anschließend wird durch eine prototypischen Implementierung die Machbarkeit der Diagramm-basierten Analyse auf Klimasimulationsdaten des ECHAM5-Modells verifiziert. / Spatial data infrastructures (SDI) have been subject to a widening dispersion in the last decade, through the development of standards for the exchange of geodata. The open descriptions of service interfaces, developed by the OGC, a consortium from research institutions and private sector companies, alter interoperability in SDI. Until now, OGC-conform geoservices are mainly utilised for the recording, management, processing and visualisation of geodata. Through the ongoing emergence of spatial data services there is a rise in the availability of geodata. At the same time, the trend of the generation of ever increasing amounts of data, e. g. by scientific simulation (Unwin et al., 2006), continues. By this, the need for capabilities to effectively explore and analyse geodata is growing. Complex relations in huge data need to be determined and relevant information extracted. Techniques, which are capable of this, are being described extensively by Visual Analytics. This field of research engages in the development of tools and techniques for automated analysis and interactive visualisation of huge and complex data (Keim et al., 2008). Current web-based applications for the exploration and analysis are usually established as Client-Server approaches, working on a tightly coupled data storage (see subsection 3.3). With the growing capabilities of SDI, there is an increasing interest in offering functionality for data analysis. The combination of widely used analysis techniques and well-established standards for the treatment of geodata may offer the possibility of working interactively on ad hoc integrated data. This will allow insights into large amounts of complex data, understand natural interrelations and derive knowledge for spatial decision support by the use of state-of-the-art technologies. In this paper, the capabilities of the OGC WMS GetFeatureInfo operation for the analysis of spatio-temporal geodata in a SDI are investigated. The main focus is on dynamic generation of diagrams by the use of distributed WMS as a data storage. After the review of basics in data modelling and SDI-standards, relevant aspects of data analysis and visualisation of diagrams are treated. The compilation of a task taxonomy aids in the determination of realisable spatio-temporal analysis tasks by use of the GetFeatureInfo operation. In the following, conceptual design of a multi-layered system architecture to accomplish data analysis on distributed datasets, is carried out. In response to one of the main issues, a GML-schema is developed to ensure consistent and OGC-conform data exchange among the system components. To verify the feasibility of integration of diagram-based analysis in a SDI, a system prototype is developed to explore ECHAM5 climate model data.
3

Aktualisierung der Information zur tatsächlichen Nutzung – Neue Wege in Thüringen

Engel, Frank, Fuchs, Frank 13 November 2017 (has links)
Trotz sinkender personeller und materieller Ressourcen müssen sich die Vermessungsverwaltungen den ständig wachsenden Anforderungen an die Qualität ihrer Geobasisdaten stellen. Dabei steht bei den Nutzern oft die Aktualität noch vor der Genauigkeit an erster Stelle der verschiedenen Qualitätskriterien. Der Nachweis der tatsächlichen Nutzung im Liegenschaftskataster wird diesen Wünschen jedoch derzeit kaum gerecht. Die Ursachen hierfür liegen in der bisherigen Form der Erhebung und genau hier wird der Freistaat Thüringen in Zukunft neue Wege gehen. Jedes Jahr werden in Thüringen für die Hälfte der Landesfläche Digitale Orthophotos erstellt. Aufbauend auf dieser Datengrundlage wird in Thüringen ein Verfahren zur zyklischen Fortführung der tatsächlichen Nutzung für ATKIS und für ALKIS eingeführt. Änderungsinformationen werden nur noch an einer Stelle für die Geotopographie und für das Liegenschaftskataster erhoben. Für ALKIS bedeutet das nach der Einführung der zyklischen Gebäudeerfassung aus Luftbildern nun auch für die tatsächliche Nutzung (tN) die Abkehr von einer anlassbezogenen Fortführung. ALKIS- und ATKIS-Daten liegen perspektivisch so in einer einheitlichen Aktualität und widerspruchsfrei vor. Künftig sollen auch Fernerkundungsdaten für eine effizientere Aktualisierung der Daten eingesetzt werden.
4

Flächenerhebung auf Grundlage des neuen ALKIS – Auswirkungen in Baden-Württemberg

Betzholz, Thomas, Wöllper, Frank 13 November 2017 (has links)
Die baden-württembergische Vermessungsverwaltung brachte 2014 eines ihrer größten Projekte der letzten 30 Jahre zum Abschluss. Die bisherigen getrennten Verfahrenslösungen für den Nachweis raumbezogener geometrischer Daten (Automatisierte Liegenschaftskarte – ALK) und für beschreibende nicht raumbezogene Daten (Automatisiertes Liegenschaftsbuch – ALB) wurden im Zuge der Umstellung auf das Amtliche Liegenschaftskatasterinformationssystem ALKIS systematisch in einem einheitlichen Datenmodell verbunden. ALKIS löst damit ALB als Datengrundlage für die Flächenerhebung nach Art der tatsächlichen Nutzung ab.
5

Deutschlandweite Bereitstellung eines 3D-Gebäudemodells – Stand, Qualitätsaspekte und Anwendungspotenzial

Gierse, Kai-Uwe, Westenberg, Gerfried 23 November 2017 (has links)
Ausgewählte und am Kundennutzen orientierte Teilinhalte des Liegenschaftskatasters der Länder bundesweit zentral bereitzustellen ist Kernaufgabe der Zentralen Stelle Hauskoordinaten und Hausumringe (ZSHH). Ergänzend zu den amtlichen Hauskoordinaten und Hausumringen sind seit Ende 2015 auch 3D-Gebäudemodelle im Level of Detail 1 (LoD1) flächendeckend für Deutschland erhältlich. Die Realisierung der speziell für diesen Datensatz entwickelten Qualitätssicherungsprozesse stand in den vergangenen zwei Jahren im Fokus der ZSHH. Deren Einsatz hat sich inzwischen bei den Ländern und der ZSHH selbst etabliert, so dass die Kunden aus dem Geomarketingumfeld, der Versicherungswirtschaft oder der Navigationsbranche zukünftig von der Bereitstellung qualitätsgeprüfter Daten profitieren werden. Qualitätsgeprüfte Daten sind Grundlage für die Ableitung von hochwertigen Folgeprodukten oder -diensten und Basis für präzise und zuverlässige räumliche Analysen. Damit die amtlichen Geobasisdaten den Anforderungen an ein durchgängiges Qualitätsmanagement auch zukünftig gerecht werden, legt die ZSHH mit Unterstützung der Länder ihr Hauptaugenmerk mehr denn je auf diesen so bedeutsamen Aspekt.
6

3D-MAPP: 3D-MicroMapping von großen Geodatensätzen im Web

Herfort, Benjamin, Kaibel, Marcel, Höfle, Bernhard 22 May 2018 (has links)
Die automatische Detektion von Objekten in 3D-Geodaten ist ein wichtiger Bestandteil vieler GIS-Workflows, sei es bei der Kartierung geomorphologischer Formen (Bremer, Sass 2012; Rutzinger et al. 2012) Austrian Alps, using a combination of terrestrial (TLS, der Generierung von 3D-Stadtmodellen (Niemeyer et al. 2012) oder der Entwicklung autonom agierender Fahrzeuge (Maturana, Scherer 2015). Besonders in städtischen Räumen, welche durch komplexe Objektstrukturen sowie eine Vielzahl an verschiedenen Objekttypen charakterisiert sind, können automatische Methoden allein jedoch selten zufriedenstellende Ergebnisse liefern. In diesem Beitrag möchten wir daher untersuchen, inwieweit nutzergenerierte Geodaten bzw. sogenanntes „MicroMapping“ Ansatzpunkte für die Lösung des beschriebenen Problems sein können. Im Rahmen des 3D-MAPP-Projektes wurden dazu 3D-MicroMapping-Aufgaben mit einer unterschiedlichen Komplexität entworfen und in einer Webanwendung implementiert. Die Anwendbarkeit der Methode wurde anschließend in einer empirischen Nutzerstudie untersucht. In der Studie wurden segmentierte LiDAR-Punkwolken genutzt, welche Bäume im städtischen Raum abbilden. Die Aufgabe für die Teilnehmer der Studie bestand darin, Informationen zur Höhe der Baumkrone, zu fehlenden Teilen der Bäume und zu weiteren in der Punktwolke abgebildeten Objekten zu erfassen.
7

Integration von Geodaten in ein Planungssystem

Buchwald, Björn 22 January 2018 (has links)
Die vorliegende Arbeit beschäftigt sich mit der Konzeption einer prototypischen Softwarelösung, welche durch die Integration von Geodaten ein Planungssystem zur Routenfindung zwischen verschiedenen hintereinander stattfindenden Veranstaltungsorten ermöglicht. Der konkrete Anwendungsfall ist das „Dinner-Hopping“.
8

Dynamische Erzeugung von Diagrammen aus standardisierten Geodatendiensten

Mann, Ulrich 07 August 2012 (has links)
Geodateninfrastrukturen (GDI) erfahren in den letzten Jahren immer weitere Verbreitung durch die Schaffung neuer Standards zum Austausch von Geodaten. Die vom Open Geospatial Consortium (OGC), einem Zusammenschluss aus Forschungseinrichtungen und privaten Firmen, entwickelten offenen Beschreibungen von Dienste-Schnittstellen verbessern die Interoperabilität in GDI. OGC-konforme Geodienste werden momentan hauptsächlich zur Aufnahme, Verwaltung, Prozessierung und Visualisierung von Geodaten verwendet. Durch das vermehrte Aufkommen von Geodiensten steigt die Verfügbarkeit von Geodaten. Gleichzeitig hält der Trend zur Generierung immer größerer Datenmengen beispielsweise durch wissenschaftliche Simulationen an (Unwin et al., 2006). Dieser führt zu einem wachsenden Bedarf an Funktionalität zur effektiven Exploration und Analyse von Geodaten, da komplexe Zusammenhänge in großen Datenbeständen untersucht und relevante Informationen heraus gefiltert werden müssen. Dazu angewendete Techniken werden im Forschungsfeld Visual Analytics (Visuelle Analyse) umfassend beschrieben. Die visuelle Analyse beschäftigt sich mit der Entwicklung von Werkzeugen und Techniken zur automatisierten Analyse und interaktiven Visualisierung zum Verständnis großer und komplexer Datensätze (Keim et al., 2008). Bei aktuellen Web-basierten Anwendungen zur Exploration und Analyse handelt es sich hauptsächlich um Client-Server-Systeme, die auf fest gekoppelten Datenbanken arbeiten. Mit den wachsenden Fähigkeiten von Geodateninfrastrukturen steigt das Interesse, Funktionalitäten zur Datenanalyse in einer GDI anzubieten. Das Zusammenspiel von bekannten Analysetechniken und etablierten Standards zur Verarbeitung von Geodaten kann dem Nutzer die Möglichkeit geben, in einer Webanwendung interaktiv auf ad hoc eingebundenen Geodaten zu arbeiten. Damit lassen sich mittels aktueller Technologien Einsichten in komplexe Daten gewinnen, ihnen zugrunde liegende Zusammenhänge verstehen und Aussagen zur Entscheidungsunterstützung ableiten. In dieser Arbeit wird die Eignung der OGC WMS GetFeatureInfo-Operation zur Analyse raum-zeitlicher Geodaten in einer GDI untersucht. Der Schwerpunkt liegt auf der dynamischen Generierung von Diagrammen unter Nutzung externer Web Map Service (WMS) als Datenquellen. Nach der Besprechung von Grundlagen zur Datenmodellierung und GDIStandards, wird auf relevante Aspekte der Datenanalyse und Visualisierung von Diagrammen eingegangen. Die Aufstellung einer Task Taxonomie dient der Untersuchung, welche raumzeitlichen Analysen sich durch die GetFeatureInfo-Operation umsetzen lassen. Es erfolgt die Konzeption einer Systemarchitektur zur Umsetzung der Datenanalyse auf verteilten Geodaten. Zur Sicherstellung eines konsistenten und OGC-konformen Datenaustauschs zwischen den Systemkomponenenten, wird ein GML-Schema erarbeitet. Anschließend wird durch eine prototypischen Implementierung die Machbarkeit der Diagramm-basierten Analyse auf Klimasimulationsdaten des ECHAM5-Modells verifiziert. / Spatial data infrastructures (SDI) have been subject to a widening dispersion in the last decade, through the development of standards for the exchange of geodata. The open descriptions of service interfaces, developed by the OGC, a consortium from research institutions and private sector companies, alter interoperability in SDI. Until now, OGC-conform geoservices are mainly utilised for the recording, management, processing and visualisation of geodata. Through the ongoing emergence of spatial data services there is a rise in the availability of geodata. At the same time, the trend of the generation of ever increasing amounts of data, e. g. by scientific simulation (Unwin et al., 2006), continues. By this, the need for capabilities to effectively explore and analyse geodata is growing. Complex relations in huge data need to be determined and relevant information extracted. Techniques, which are capable of this, are being described extensively by Visual Analytics. This field of research engages in the development of tools and techniques for automated analysis and interactive visualisation of huge and complex data (Keim et al., 2008). Current web-based applications for the exploration and analysis are usually established as Client-Server approaches, working on a tightly coupled data storage (see subsection 3.3). With the growing capabilities of SDI, there is an increasing interest in offering functionality for data analysis. The combination of widely used analysis techniques and well-established standards for the treatment of geodata may offer the possibility of working interactively on ad hoc integrated data. This will allow insights into large amounts of complex data, understand natural interrelations and derive knowledge for spatial decision support by the use of state-of-the-art technologies. In this paper, the capabilities of the OGC WMS GetFeatureInfo operation for the analysis of spatio-temporal geodata in a SDI are investigated. The main focus is on dynamic generation of diagrams by the use of distributed WMS as a data storage. After the review of basics in data modelling and SDI-standards, relevant aspects of data analysis and visualisation of diagrams are treated. The compilation of a task taxonomy aids in the determination of realisable spatio-temporal analysis tasks by use of the GetFeatureInfo operation. In the following, conceptual design of a multi-layered system architecture to accomplish data analysis on distributed datasets, is carried out. In response to one of the main issues, a GML-schema is developed to ensure consistent and OGC-conform data exchange among the system components. To verify the feasibility of integration of diagram-based analysis in a SDI, a system prototype is developed to explore ECHAM5 climate model data.
9

Big Data und Data-Mining im Umfeld städtischer Nutzungskartierung

Bernsdorf, Bodo, Bruns, Julian 23 November 2017 (has links)
Es ist festzustellen, dass die städtische Nutzungskartierung auf immer mehr Datenquellen zurückgreifen kann. Insbesondere handelt es sich um hochauflösende (Geo-)Daten von Fernerkundungsplattformen wie Satelliten aus dem Copernicus-Programm. Aber auch sogenannte Volunteer Geographic Information (VGI) spielen eine zunehmende Rolle. Speziell entwickelte Anwendungsprogramme, sogenannte „Apps“, kommen zum Sammeln solcher Rauminformationen in Frage. Und letztlich kommen Daten aus sozialen Netzwerken zum Tragen. Dieser Beitrag beschäftigt sich mit der Anwendung von Big Data im geo-temporalen Umfeld: Daten mit großen Volumina, die immer schneller in den Prozess gelangen, aus unterschiedlichsten Quellen stammen, unterschiedliche Informationsgehalte aufweisen und mit Unsicherheit behaftet sind. Sie liegen möglicherweise nicht flächendeckend vor, bieten mannigfaltige Bodenauflösungen, sind lückenhaft – dies sind alles Aspekte, die den gängigen Kriterien für „gute“ Daten widersprechen. Man wünscht sich flächendeckende, hochauflösende und hochaktuelle Daten. Der Vorteil bei der Nutzung von Big Data liegt nicht in der „Güte“, sondern in der massenhaften Verfügbarkeit. Der vorliegende Artikel ist als Werkstattbericht zu verstehen, der erste Ansätze in einem Anwendungsszenario zur Detektion sogenannter Intra-Urban Heat Islands, innerstädtischer Hitzeinseln, aufzeigt.
10

Bebauungsstrukturklassifikation NRW – Grundlage für Klimamodellsimulationen

Müller, Nicole, Hecht, Robert, Buchholz, Saskia 22 May 2018 (has links)
Vor dem Hintergrund des Klimawandels, insbesondere der erwarteten zunehmenden Hitzebelastung, soll die Effektivität verschiedener städtebaulicher Klimaanpassungsmaßnahmen untersucht werden. Dabei werden mithilfe von Stadtklimasimulationen die Wirkungen verschiedener Klimaanpassungsmaßnahmen quantifiziert und miteinander verglichen. Um Aussagen für ganz Nordrhein-Westfalen treffen zu können, die Anzahl der Simulationen aber möglichst gering zu halten, werden nur ausgewählte, für Hitze besonders anfällige Stadtquartiere modelliert. Zum einen werden dafür Stadtquartiere in der Beispielstadt Bonn herangezogen, zum anderen aus der Bebauungsstrukturklassifizierung abgeleitete, schematisierte (idealisierte) Stadtstrukturen verwendet. Zur Klassifizierung der Bebauungsstrukturen auf Baublockebene wird ein automatisiertes Klassifikationsverfahren verwendet, in welches flächendeckend verfügbare Geodaten eingehen. Dabei werden die Bebauungsstrukturen, in erster Linie basierend auf der Gebäudegrundfläche, -höhe und -form, der Flächennutzung sowie des Versiegelungsgrades bestimmt. Die Bebauungsstrukturklassifizierung dient sowohl dazu, typische Stadtquartiere für die Stadtklimasimulationen abzuleiten als auch die Ergebnisse aus der Stadt Bonn und den idealisierten Stadtquartieren auf ganz Nordrhein-Westfalen übertragbar zu machen. Die Ergebnisse sollen abschließend den Kommunen in Nordrhein-Westfalen über ein Webtool zur Verfügung gestellt werden.

Page generated in 0.0519 seconds