• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 205
  • 120
  • 39
  • 4
  • Tagged with
  • 365
  • 192
  • 122
  • 120
  • 120
  • 106
  • 52
  • 36
  • 36
  • 36
  • 35
  • 25
  • 25
  • 23
  • 23
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
201

Topology of Uncertain Scalar Fields

Liebmann, Tom 22 July 2021 (has links)
Scalar fields are used in many disciplines to represent scalar quantities over some spatial domain. Their versatility and the potential to model a variety of real-world phenomena has made scalar fields a key part of modern data analysis. Examples range from modeling scan results in medical applications (e.g. Magnetic Resonance Imaging or Computer Tomography), measurements and simulations in climate and weather research, or failure criteria in material sciences. But one thing that all applications have in common is that the data is always affected by errors. In measurements, potential error sources include sensor inaccuracies, an unevenly sampled domain, or unknown external influences. In simulations, common sources of error are differences between the model and the simulated phenomenon or numerical inaccuracies. To incorporate these errors into the analysis process, the data model can be extended to include uncertainty. For uncertain scalar fields that means replacing the single value that is given at every location with a value distribution. While in some applications, the influence of uncertainty might be small, there are a lot of cases where variations in the data can have a large impact on the results. A typical example is weather forecasts, where uncertainty is a crucial part of the data analysis. With increasing access to large sensor networks and extensive simulations, the complexity of scalar fields often grows to a point that makes analysis of the raw data unfeasible. In such cases, topological analysis has proven to be a useful tool for reducing scalar fields to their fundamental properties. Scalar field topology studies structures that do not change under transformations like scaling and bending but only depend on the connectivity and relative value differences between the points of the domain. While a lot of research has been done in this area for deterministic scalar fields, the incorporation of uncertainty into topological methods has only gained little attention so far. In this thesis, several methods are introduced that deal with the topological analysis of uncertain scalar fields. The main focus lies on providing fundamental research on the topic and to drive forward a rigorous analysis of the influence of uncertainty on topological properties. One important property that has a strong influence on topological features are stochastic dependencies between different locations in the uncertain scalar field. In the first part of this thesis, we provide a method for extracting regions that show linear dependency, i.e. correlation. Using a combination of point-cloud density estimation, clustering, and scalar field topology, our method extracts a hierarchical clustering. Together with an interactive visualization, the user can explore the correlation information and select and filter the results. A major benefit of our approach is the comprehensive handling of correlation. This also includes global correlation between distant points and inverse correlation, which is often only partially handled by existing methods. The second part of this thesis focuses on the extraction of topological features, such as critical points or hills and valleys of the scalar field. We provide a method for extracting critical points in uncertain scalar fields and track them over multiple realizations. Using a novel approach that operates in the space of all possible realizations, our method can find all critical points deterministically. This not only increases the reliability of the results but also provides complete knowledge that can be used to study the relation and behavior of critical points across different realizations. Through a combination of multiple views, we provide a visualization that can be used to analyze critical points of an uncertain scalar field for real-world data. In the last part, we further extend our analysis to more complex feature types. Based on the well-known contour tree that provides an abstract view on the topology of a deterministic scalar field, we use an approach that is similar to our critical point analysis to extract and track entire regions of the uncertain scalar field. This requires solving a series of new challenges that are associated with tracking features in the multi-dimensional space of all realizations. As our research on the topic falls under the category of fundamental research, there are still some limitations that have to be overcome in the future. However, we provide a full pipeline for extracting topological features that ranges from the data model to the final interactive visualization. We further show the applicability of our methods to synthetic and real-world data. / Skalarfelder sind Funktionen, die jedem Punkt eines Raumes einen skalaren Wert zuweisen. Sie werden in vielen verschiedenen Bereichen zur Analyse von skalaren Messgrößen mit räumlicher Information eingesetzt. Ihre Flexibilität und die Möglichkeit, viele unterschiedliche Phänomene der realen Welt abzubilden, macht Skalarfelder zu einem wichtigen Werkzeug der modernen Datenanalyse. Beispiele reichen von medizinischen Anwendungen (z.B. Magnetresonanztomographie oder Computertomographie) über Messungen und Simulationen in Klima- und Wetterforschung bis hin zu Versagenskriterien in der Materialforschung. Eine Gemeinsamkeit all dieser Anwendungen ist jedoch, dass die erfassten Daten immer von Fehlern beeinflusst werden. Häufige Fehlerquellen in Messungen sind Sensorungenauigkeiten, ein ungleichmäßig abgetasteter Betrachtungsbereich oder unbekannte externe Einflussfaktoren. Aber auch Simulationen sind von Fehlern, wie Modellierungsfehlern oder numerischen Ungenauigkeiten betroffen. Um die Fehlerbetrachtung in die Datenanalyse einfließen lassen zu können, ist eine Erweiterung des zugrunde liegenden Datenmodells auf sogenannte \emph{unsicheren Daten} notwendig. Im Falle unsicherer Skalarfelder wird hierbei statt eines festen skalaren Wertes für jeden Punkt des Definitionsbereiches eine Werteverteilung angegeben, die die Variation der Skalarwerte modelliert. Während in einigen Anwendungen der Einfluss von Unsicherheit vernachlässigbar klein sein kann, gibt es viele Bereiche, in denen Schwankungen in den Daten große Auswirkungen auf die Resultate haben. Ein typisches Beispiel sind hierbei Wettervorhersagen, bei denen die Vertrauenswürdigkeit und mögliche alternative Ausgänge ein wichtiger Bestandteil der Analyse sind. Die ständig steigende Größe verfügbarer Sensornetzwerke und immer komplexere Simulationen machen es zunehmend schwierig, Daten in ihrer rohen Form zu verarbeiten oder zu speichern. Daher ist es wichtig, die verfügbare Datenmenge durch Vorverarbeitung auf für die jeweilige Anwendung relevante Merkmale zu reduzieren. Topologische Analyse hat sich hierbei als nützliches Mittel zur Verarbeitung von Skalarfeldern etabliert. Die Topologie eines Skalarfeldes umfasst all jene Merkmale, die sich unter bestimmten Transformationen, wie Skalierung und Verzerrung des Definitionsbereiches, nicht verändern. Hierzu zählen beispielsweise die Konnektivität des Definitionsbereiches oder auch die Anzahl und Beziehung von Minima und Maxima. Während die Topologie deterministischer Skalarfelder ein gut erforschtes Gebiet ist, gibt es im Bereich der Verarbeitung von Unsicherheit im topologischen Kontext noch viel Forschungspotenzial. In dieser Dissertation werden einige neue Methoden zur topologischen Analyse von unsicheren Skalarfeldern vorgestellt. Der wesentliche Teil dieser Arbeit ist hierbei im Bereich der Grundlagenforschung angesiedelt, da er sich mit der theoretischen und möglichst verlustfreien Verarbeitung von topologischen Strukturen befasst. Eine wichtige Eigenschaft, die einen starken Einfluss auf die Struktur eines unsicheren Skalarfeldes hat, ist die stochastische Abhängigkeit zwischen verschiedenen Punkten. Im ersten Teil dieser Dissertation wird daher ein Verfahren vorgestellt, das das unsichere Skalarfeld auf Regionen mit starker linearer Abhängigkeit, auch \emph{Korrelation} genannt, untersucht. Durch eine Kombination aus hochdimensionaler Punktwolkenanalyse, Clusterbildung und Skalarfeldtopologie extrahiert unsere Methode eine Hierarchie von Clustern, die die Korrelation des unsicheren Skalarfeldes repräsentiert. Zusammen mit einer interaktiven, visuellen Aufbereitung der Daten wird dem Nutzer so ein explorativer Ansatz zur Betrachtung der stochastischen Abhängigkeiten geboten. Anzumerken ist hierbei, dass unser Verfahren auch globale und inverse Korrelation abdeckt, welche in vielen verwandten Arbeiten oft nicht vollständig behandelt werden. Der zweite Teil dieser Dissertation widmet sich der Analyse und Extraktion von topologischen Merkmalen, wie kritischen Punkten oder ganzen Hügeln oder Tälern im Funktionsgraphen des Skalarfeldes. Hierzu wird ein Verfahren zur Berechnung von kritischen Punkten vorgestellt, das diese auch über viele verschiedene Realisierungen des unsicheren Skalarfeldes identifizieren und verfolgen kann. Dies wird durch einen neuen Ansatz ermöglicht, der den Raum aller möglichen Realisierungen nach geometrischen Strukturen untersucht und somit kritische Punkte deterministisch berechnen kann. Dadurch, dass mit diesem Verfahren keine kritischen Punkte ausgelassen werden, steigt nicht nur die Vertrauenswürdigkeit der Resultate, sondern es wird außerdem möglich, Beziehungen zwischen kritischen Punkten zu untersuchen. Zu diesen Beziehungen gehört beispielsweise das Wandern von kritischen Punkten über verschiedene Positionen oder auch die Entstehung von Skalarwerthügeln oder -tälern. Um die Resultate visuell zu untersuchen, stellen wir mehrere verknüpfte Ansichten bereit, die eine Analyse von kritischen Punkten auch in realen Daten ermöglichen. Im letzten Teil dieser Arbeit erweitern wir die Betrachtung der Topologie von kri\-ti\-schen Punkten auf komplexere Strukturen. Basierend auf dem \emph{Konturbaum}, der eine abstrakte Repräsentation der Topologie eines deterministischen Skalarfeldes ermöglicht, untersuchen wir, wie ganze Regionen des Skalarfeldes von Unsicherheit betroffen sind. Dies führt zu einer Reihe von neuen theoretischen und auch praktischen Herausforderungen, wie der stark steigenden Komplexität der notwendigen Berechnungen oder Inkonsistenzen bei der Verfolgung von topologischen Strukturen über mehrere Realisierungen. Auch wenn zur Anwendung unserer Verfahren auf reale Daten aufgrund des großen Möglichkeitsraumes von unsicheren Skalarfeldern noch Einschränkungen notwendig sind, sind viele der theoretischen Erkenntnisse allgemeingültig. Zur Betrachtung der Ergebnisse werden verschiedene Visualisierungen genutzt, um die extrahierten topologischen Strukturen anhand von synthetischen und realen Daten zu zeigen.
202

Visualisierung komplexer Datenstrukturen in einer CAVE am Beispiel von Graphen

Bornschein, Jens 18 May 2020 (has links)
Diese Arbeit befasst sich mit der Konzeption eines Gestaltungskonzeptes für die Visualisierung komplexer zusammenhängender Datenmengen, wie sie durch Graphen repräsentiert werden können. Als Ausgabemedium wird dazu das immersive VR-System CAVE genutzt, welches es dem Betrachter ermöglicht, die Daten stereoskopisch und damit räumlich zu betrachten. Zur Entwicklung eines Gestaltkonzeptes für Graphen werden sowohl Besonderheiten der Raumwahrnehmung in VR-Systemen als auch Anforderungen und Aufgaben auf Graphen beleuchtet. Zusätzlich entstand ein Modell zur Klassifizierung von Graphenanwendungen sowie ein innovatives Konzept zur Darstellung von großen zweidimensionalen Graphen in einer CAVE. Als Resultat werden grundlegende Gestaltungskriterien angeboten, die es ermöglichen sollen, eine intuitive und effektive Visualisierung von Graphen zu realisieren.:1. Einleitung 1.1. Zielstellung 1.2. Gliederung 2. Grundlagen und Begrife 2.1. Informationsvisualisierung 2.2. Graphentheorie 2.3. Graphenlayout 2.4. Wahrnehmungundpsychologische Grundlagen 2.5. 3D Computergrafik 2.6. Stereo Grafik 2.7. Virtuelle Realität 2.8. Das Medium CAVE 3. Verwandte Arbeiten 3.1. ConeTrees 3.2. Information Cube 3.3. Hyperbolic Layout-H3 viewer 3.4. Skyrails 3.5. Perspective Wall 4. Synthese 4.1. Einführung 4.2. Einsatzgebiet für Graphen 4.3. Arbeiten mit Graphen 4.4. Mehrwert der dritten Dimension 4.5. Allgemeine Gestaltung 4.6. Orientierung 4.7. Farbe als Gestaltungsmittel 4.8. Gestaltung von Knoten 4.9. Gestaltung von Kanten 4.10. Hintergrund 4.11. Anordnung 4.12. Darstellung von großen zweidimensionalen Inhalten 4.13. Zusammenfassung 5. Praktische Umsetzung 5.1. Werkzeuge 5.2. Testfälle 5.3. Umsetzung 5.4. Evaluation 5.5. Zusammenfassung 6. Zusammenfassung und Ausblick 6.1. Fazit 6.2. Diskussion 6.3. Ausblick
203

Aufbau virtueller Versuchsanlagen und deren Nutzung in Lehrveranstaltungen zur Automatisierungstechnik

Othman, Moaid, Stöcker, Christian 27 January 2022 (has links)
In der Ingenieursausbildung ist die Arbeit an Anlagen und Maschinen ein wesentlicher Baustein, um die Anwendbarkeit, Möglichkeiten und Grenzen der in der Theorie vermittelten Methoden an praktischen Problemstellungen zu erproben und einschätzen zu lernen. Zu diesem Zweck werden an vielen Hochschulen und Universitäten unterschiedliche Versuchsanlagen eingesetzt. Die Errichtung und der Betrieb solcher Anlagen erfordern jedoch Platz und sind typischerweise mit hohem Einsatz personeller und finanzieller Ressourcen verbunden. Dieser Beitrag betrachtet den Einsatz virtueller Versuchsanlagen als eine mögliche Ergänzung der bestehenden Laborinfrastruktur. Virtuelle Anlage sind solche, die nicht physisch existieren, sondern deren dynamisches Verhalten simuliert und in einer 3D-Visualisierungen auf einem Monitor oder in einer VR-Brille dargestellt werden kann. Virtuelle Anlagen haben gegenüber realen Versuchsanlagen viele Vorteile in Bezug auf die Dauer und Kosten für deren Realisierung, sowie deren Erweiterung und Anpassung an neue Lehrinhalte und die Skalierung und Vervielfältigung für den Einsatz in Praktika. Auf der anderen Seite müssen Laboringenieure für die Entwicklung, Pflege und Instandhaltung virtueller Anlagen über andere Kompetenzen (insb. im Bereich der IT und Programmierung) verfügen, als bei realen Anlagen. Zudem wird für den Betrieb solcher Anlagen zusätzliche Soft- und Hardware benötigt. Am Beispiel eines virtuellen Aufzugs beschreibt dieser Beitrag im Einzelnen diese Vor- und Nachteile und gibt Hinweise für den Einsatz einer virtuellen Anlage in Praktika und Übungen.
204

SUFUvet - Förderung von Soft skills durch projektbasiertes Lernen

Raida, Antonia Christine, Münster, Sander, Lücker, Ernst, Maurer, Patric 09 June 2017 (has links)
Im Projekt SUFUvet haben Studierende der Veterinärmedizin und der Medieninformatik zur Förderung der Soft Skills gemeinsam einen 3D-visualisierten E-Learning-Kurs erstellt. Durch intensiven interdisziplinären Austausch konnten fachlich-inhaltliche Schwierigkeiten überwunden und ein Endprodukt kreiert werden, welches durch einen Fachbereich alleine nicht realisierbar gewesen wäre. Die Strukturierung der Kooperation durch Scrum wurde dabei durch die Studierenden positiv bewertet.
205

How Visualization Supports the Daily Work in Traditional Humanities on the Example of Visual Analysis Case Studies

Khulusi, Richard 27 June 2023 (has links)
Attempts to convince humanities scholars of digital approaches are met with resistance, often. The so-called Digitization Anxiety is the phenomenon that describes the fear of many traditional scientists of being replaced by digital processes. This hinders not only the progress of the scientific domains themselves – since a lot of digital potential is missing – but also makes the everyday work of researchers unnecessarily difficult. Over the past eight years, we have made various attempts to walk the tightrope between 'How can we help traditional humanities to exploit their digital potential?' and 'How can we make them understand that their expertise is not replaced by digital means, but complemented?' We will present our successful interdisciplinary collaborations: How they came about, how they developed, and the problems we encountered. In the first step, we will look at the theoretical basics, which paint a comprehensive picture of the digital humanities and introduces us to the topic of visualization. The field of visualization has shown a special ability: It manages to walk the tightrope and thus keeps digitization anxiety at bay, while not only making it easier for scholars to access their data, but also enabling entirely new research questions. After an introduction to our interdisciplinary collaborations with the Musical Instrument Museum of Leipzig University, as well as with the Bergen-Belsen Memorial, we will present a series of user scenarios that we have collected in the course of 13 publications. These show our cooperation partners solving different research tasks, which we classify using Brehmer and Munzner’s Task Classification. In this way, we show that we provide researchers with a wide range of opportunities: They can answer their traditional research questions – and in some cases verify long-standing hypotheses about the data for the first time – but also develop their own interest in previously impossible, new research questions and approaches. Finally, we conclude our insights on individual collaborative ideas with perspectives on our newest projects. These have risen from the growing interest of collaborators in the methods we deliver. For example, we get insights into the music of real virtuosos of the 20th century. The necessary music storage media can be heard for the first time through digital tools without risking damage to the old material. In addition, we can provide computer-aided analysis capabilities that help musicologists in their work. In the course of the visualization project at the Bergen-Belsen memorial, we will see that what was once a small diary project has grown into a multimodal and international project with institutions of culture and science from eight countries. This is dedicated not only to the question of preserving cultural objects from Nazi persecution contexts but also to modern ways of disseminating and processing knowledge around this context. Finally, we will compile our experience and accumulated knowledge in the form of problems and challenges at the border between computer science and traditional humanities. These will serve as preparation and assistance for future and current interested parties of such interdisciplinary collaborative projects
206

Configurable nD-visualization for complex Building Information Models

Tauscher, Helga 09 November 2017 (has links)
With the ongoing development of building information modelling (BIM) towards a comprehensive coverage of all construction project information in a semantically explicit way, visual representations became decoupled from the building information models. While traditional construction drawings implicitly contained the visual representation besides the information, nowadays they are generated on the fly, hard-coded in software applications dedicated to other tasks such as analysis, simulation, structural design or communication. Due to the abstract nature of information models and the increasing amount of digital information captured during construction projects, visual representations are essential for humans in order to access the information, to understand it, and to engage with it. At the same time digital media open up the new field of interactive visualizations. The full potential of BIM can only be unlocked with customized task-specific visualizations, with engineers and architects actively involved in the design and development process of these visualizations. The visualizations must be reusable and reliably reproducible during communication processes. Further, to support creative problem solving, it must be possible to modify and refine them. This thesis aims at reconnecting building information models and their visual representations: on a theoretic level, on the level of methods and in terms of tool support. First, the research seeks to improve the knowledge about visualization generation in conjunction with current BIM developments such as the multimodel. The approach is based on the reference model of the visualization pipeline and addresses structural as well as quantitative aspects of the visualization generation. Second, based on the theoretic foundation, a method is derived to construct visual representations from given visualization specifications. To this end, the idea of a domain-specific language (DSL) is employed. Finally, a software prototype proofs the concept. Using the visualization framework, visual representations can be generated from a specific building information model and a specific visualization description. / Mit der fortschreitenden Entwicklung des Building Information Modelling (BIM) hin zu einer umfassenden Erfassung aller Bauprojektinformationen in einer semantisch expliziten Weise werden Visualisierungen von den Gebäudeinformationen entkoppelt. Während traditionelle Architektur- und Bauzeichnungen die visuellen Reprä̈sentationen implizit als Träger der Informationen enthalten, werden sie heute on-the-fly generiert. Die Details ihrer Generierung sind festgeschrieben in Softwareanwendungen, welche eigentlich für andere Aufgaben wie Analyse, Simulation, Entwurf oder Kommunikation ausgelegt sind. Angesichts der abstrakten Natur von Informationsmodellen und der steigenden Menge digitaler Informationen, die im Verlauf von Bauprojekten erfasst werden, sind visuelle Repräsentationen essentiell, um sich die Information erschließen, sie verstehen, durchdringen und mit ihnen arbeiten zu können. Gleichzeitig entwickelt sich durch die digitalen Medien eine neues Feld der interaktiven Visualisierungen. Das volle Potential von BIM kann nur mit angepassten aufgabenspezifischen Visualisierungen erschlossen werden, bei denen Ingenieur*innen und Architekt*innen aktiv in den Entwurf und die Entwicklung dieser Visualisierungen einbezogen werden. Die Visualisierungen müssen wiederverwendbar sein und in Kommunikationsprozessen zuverlässig reproduziert werden können. Außerdem muss es möglich sein, Visualisierungen zu modifizieren und neu zu definieren, um das kreative Problemlösen zu unterstützen. Die vorliegende Arbeit zielt darauf ab, Gebäudemodelle und ihre visuellen Repräsentationen wieder zu verbinden: auf der theoretischen Ebene, auf der Ebene der Methoden und hinsichtlich der unterstützenden Werkzeuge. Auf der theoretischen Ebene trägt die Arbeit zunächst dazu bei, das Wissen um die Erstellung von Visualisierungen im Kontext von Bauprojekten zu erweitern. Der verfolgte Ansatz basiert auf dem Referenzmodell der Visualisierungspipeline und geht dabei sowohl auf strukturelle als auch auf quantitative Aspekte des Visualisierungsprozesses ein. Zweitens wird eine Methode entwickelt, die visuelle Repräsentationen auf Basis gegebener Visualisierungsspezifikationen generieren kann. Schließlich belegt ein Softwareprototyp die Realisierbarkeit des Konzepts. Mit dem entwickelten Framework können visuelle Repräsentationen aus jeweils einem spezifischen Gebäudemodell und einer spezifischen Visualisierungsbeschreibung generiert werden.
207

Ikonizität der Information / Die Erkenntnisfunktion struktureller und gestalteter Bildlichkeit in der digitalen Wissensorganisation

Freyberg, Linda 21 December 2021 (has links)
Die vorliegende Dissertation „Ikonizität der Information“ befasst sich mit der ikonischen Dimension von Wissensorganisationssystemen (WOS) und dem epistemischen Potenzial von Bildlichkeit im Bereich des digitalen Kulturerbes. Dabei bezieht sich die Ikonizität der Information einmal auf eine implizite Dimension auf einer strukturellen Ebene sowie auf explizite Ausdrucksformen wie Visualisierungen, die Objekte und ihre Relationen topologisch darstellen. In einem interdisziplinären Ansatz, der sich unter anderem auf Bild-, Zeichen- und Medientheorie bezieht, werden sowohl aktuelle Visualisierungen als auch historische Entwicklungen in der Theorie und Modellierung von Wissensorganisationssystemen analysiert. Der Theorieteil, in dem die Konzepte Information, Zeichen und Ikonizität adressiert werden, stützt sich vor allem auf die universelle Zeichentheorie und das Konzept des diagrammatic reasoning von Charles Sanders Peirce und bildet die Basis für die Analyse. Die Vagheit und Mehrdeutigkeit oder simultane Pluralität visueller Ausdrucksformen bildet einen ikonischen Überschuss, welcher als maßgeblich für die Erkenntnisfunktion der Bildlichkeit identifiziert wird. Diese Forschung bietet einen theoretischen Rahmen für das Verständnis und die Konzeption von Visualisierungen und multimodalen WOS.
208

Zwischen Gips und 3D-Modell: Dokumentation und Visualisierung antiker Plastik am Beispiel des Toro Farnese in der Abguss-Sammlung des Antikenmuseums Leipzig

Lang, Jörn, Michalski, Paula, Meinecke, Katharina 18 March 2024 (has links)
No description available.
209

Software Visualization in 3D

Müller, Richard 20 April 2015 (has links) (PDF)
The focus of this thesis is on the implementation, the evaluation and the useful application of the third dimension in software visualization. Software engineering is characterized by a complex interplay of different stakeholders that produce and use several artifacts. Software visualization is used as one mean to address this increasing complexity. It provides role- and task-specific views of artifacts that contain information about structure, behavior, and evolution of a software system in its entirety. The main potential of the third dimension is the possibility to provide multiple views in one software visualization for all three aspects. However, empirical findings concerning the role of the third dimension in software visualization are rare. Furthermore, there are only few 3D software visualizations that provide multiple views of a software system including all three aspects. Finally, the current tool support lacks of generating easy integrateable, scalable, and platform independent 2D, 2.5D, and 3D software visualizations automatically. Hence, the objective is to develop a software visualization that represents all important structural entities and relations of a software system, that can display behavioral and evolutionary aspects of a software system as well, and that can be generated automatically. In order to achieve this objective the following research methods are applied. A literature study is conducted, a software visualization generator is conceptualized and prototypically implemented, a structured approach to plan and design controlled experiments in software visualization is developed, and a controlled experiment is designed and performed to investigate the role of the third dimension in software visualization. The main contributions are an overview of the state-of-the-art in 3D software visualization, a structured approach including a theoretical model to control influence factors during controlled experiments in software visualization, an Eclipse-based generator for producing automatically role- and task-specific 2D, 2.5D, and 3D software visualizations, the controlled experiment investigating the role of the third dimension in software visualization, and the recursive disk metaphor combining the findings with focus on the structure of software including useful applications of the third dimension regarding behavior and evolution.
210

Assessing the perceived environment through crowdsourced spatial photo content for application to the fields of landscape and urban planning / Nutzung von räumlich verorteten, im Internet von vielen Menschen zusammengetragenen Fotodaten zur Auswertung und Einschätzung der öffentlichen Wahrnehmung von Landschaft und Umwelt in Stadt- und Landschaftsplanung

Dunkel, Alexander 12 August 2016 (has links) (PDF)
Assessing information on aspects of identification, perception, emotion, and social interaction with respect to the environment is of particular importance to the fields of natural resource management. Our ability to visualize this type of information has rapidly improved with the proliferation of social media sites throughout the Internet in recent years. While many methods to extract information on human behavior from crowdsourced geodata already exist, this work focuses on visualizing landscape perception for application to the fields of landscape and urban planning. Visualization of people’s perceptual responses to landscape is demonstrated with crowdsourced photo geodata from Flickr, a popular photo sharing community. A basic, general method to map, visualize and evaluate perception and perceptual values is proposed. The approach utilizes common tools for spatial knowledge discovery and builds on existing research, but is specifically designed for implementation within the context of landscape perception analysis and particularly suited as a base for further evaluation in multiple scenarios. To demonstrate the process in application, three novel types of visualizations are presented: the mapping of lines of sight in Yosemite Valley, the assessment of landscape change in the area surrounding the High Line in Manhattan, and individual location analysis for Coit Tower in San Francisco. The results suggest that analyzing crowdsourced data may contribute to a more balanced assessment of the perceived landscape, which provides a basis for a better integration of public values into planning processes. / Als Wahrnehmung wird der Bewusstseinsprozess des subjektiven Verstehens der Umwelt bezeichnet. Grundlage für diesen Prozess ist die Gewinnung von Informationen über die Sinne, also aus visuellen, olfaktorischen, akustischen und anderen Reizen. Die Wahrnehmung ist aber auch wesentlich durch interne Prozesse beeinflusst. Das menschliche Gehirn ist fortlaufend damit beschäftigt, sowohl bewusst als auch unbewusst Sinneswahrnehmungen mit Erinnerungen abzugleichen, zu vereinfachen, zu assoziieren, vorherzusagen oder zu vergleichen. Aus diesem Grund ist es schwierig, die Wahrnehmung von Orten und Landschaften in Planungsprozessen zu berücksichtigen. Jedoch wird genau dies von der Europäischen Landschaftskonvention gefordert, die Landschaft als einen bestimmten Bereich definiert, so wie er von Besuchern und Einwohnern wahrgenommen wird (“as a zone or area as perceived by local people or visitors”, ELC Art. 1, Abs. 38). Während viele Fortschritte und Erkenntnisse, zum Beispiel aus den Kognitionswissenschaften, heute helfen, die Wahrnehmung einzelner Menschen zu verstehen, konnte die Stadt- und Landschaftsplanung kaum profitieren. Es fehlt an Kenntnissen über das Zusammenwirken der Wahrnehmung vieler Menschen. Schon Stadtplaner Kevin Lynch beschäftigte dieses gemeinsame, kollektive ‚Bild‘ der menschlichen Umwelt ("generalized mental picture", Lynch, 1960, p. 4). Seitdem wurden kaum nennenswerte Fortschritte bei der Erfassung der allgemeinen, öffentlichen Wahrnehmung von Stadt- und Landschaft erzielt. Dies war Anlass und Motivation für die vorliegende Arbeit. Eine bisher in der Planung ungenutzte Informationsquelle für die Erfassung der Wahrnehmung vieler Menschen bietet sich in Form von crowdsourced Daten (auch ‚Big Data‘), also großen Mengen an Daten die von vielen Menschen im Internet zusammengetragen werden. Im Vergleich zu konventionellen Daten, zum Beispiel solchen die durch Experten erhoben werden und durch öffentliche Träger zur Verfügung stehen, eröffnet sich durch crowdsourced Daten eine bisher nicht verfügbare Quelle für Informationen, um die komplexen Zusammenhänge zwischen Raum, Identität und subjektiver Wahrnehmung zu verstehen. Dabei enthalten crowdsourced Daten lediglich Spuren menschlicher Entscheidungen. Aufgrund der Menge ist es aber möglich, wesentliche Informationen über die Wahrnehmung derer, die diese Daten zusammengetragen haben, zu gewinnen. Dies ermöglicht es Planern zu verstehen, wie Menschen ihre unmittelbare Umgebung wahrnehmen und mit ihr interagieren. Darüber hinaus wird es immer wichtiger, die Ansichten Vieler in Planungsprozessen zu berücksichtigen (Lynam, De Jong, Sheil, Kusumanto, & Evans, 2007; Brody, 2004). Der Wunsch nach öffentlicher Beteiligung sowie die Anzahl an beteiligten Stakeholdern nehmen dabei konstant zu. Durch das Nutzen dieser neuen Informationsquelle bietet sich eine Alternative zu herkömmlichen Ansätzen wie Umfragen, die genutzt werden um beispielsweise Meinungen, Positionen, Werte, Normen oder Vorlieben von bestimmten sozialen Gruppen zu messen. Indem es crowdsourced Daten erleichtern, solch soziokulturelle Werte zu bestimmen, können die Ergebnisse vor allem bei der schwierigen Gewichtung gegensätzlicher Interessen und Ansichten helfen. Es wird die Ansicht geteilt, dass die Nutzung von crowdsourced Daten, indem Einschätzungen von Experten ergänzt werden, letztendlich zu einer faireren, ausgeglichenen Berücksichtigung der Allgemeinheit in Entscheidungsprozessen führen kann (Erickson, 2011, p.1). Eine große Anzahl an Methoden ist bereits verfügbar, um aus dieser Datenquelle wichtige landschaftsbezogene Informationen auszulesen. Beispiele sind die Bewertung der Attraktivität von Landschaften, die Bestimmung der Bedeutung von Sehenswürdigkeiten oder Wahrzeichen, oder die Einschätzung von Reisevorlieben von Nutzergruppen. Viele der bisherigen Methoden wurden jedoch als ungenügend empfunden, um die speziellen Bedürfnisse und das breite Spektrum an Fragestellungen zur Landschaftswahrnehmung in Stadt- und Landschaftsplanung zu berücksichtigen. Das Ziel der vorliegenden Arbeit ist es, praxisrelevantes Wissen zu vermitteln, welches es Planern erlaubt, selbstständig Daten zu erforschen, zu visualisieren und zu interpretieren. Der Schlüssel für eine erfolgreiche Umsetzung wird dabei in der Synthese von Wissen aus drei Kategorien gesehen, theoretische Grundlagen (1), technisches Wissen zur Datenverarbeitung (2) sowie Kenntnisse zur grafischen Visualisierungen (3). Die theoretischen Grundlagen werden im ersten Teil der Arbeit (Part I) präsentiert. In diesem Teil werden zunächst Schwachpunkte aktueller Verfahren diskutiert, um anschließend einen neuen, konzeptionell-technischen Ansatz vorzuschlagen der gezielt auf die Ergänzung bereits vorhandener Methoden zielt. Im zweiten Teil der Arbeit (Part II) wird anhand eines Datenbeispiels die Anwendung des Ansatzes exemplarisch demonstriert. Fragestellungen die angesprochen werden reichen von der Datenabfrage, Verarbeitung, Analyse, Visualisierung, bis zur Interpretation von Grafiken in Planungsprozessen. Als Basis dient dabei ein Datenset mit 147 Millionen georeferenzierte Foto-Daten und 882 Millionen Tags der Fotoaustauschplatform Flickr, welches in den Jahren 2007 bis 2015 von 1,3 Millionen Nutzern zusammengetragen wurde. Anhand dieser Daten wird die Entwicklung neuer Visualisierungstechniken exemplarisch vorgestellt. Beispiele umfassen Spatio-temporal Tag Clouds, eine experimentelle Technik zur Generierung von wahrnehmungsgewichteten Karten, die Visualisierung von wahrgenommenem Landschaftswandel, das Abbilden von wahrnehmungsgewichteten Sichtlinien, sowie die Auswertung von individueller Wahrnehmung von und an bestimmten Orten. Die Anwendung dieser Techniken wird anhand verschiedener Testregionen in den USA, Kanada und Deutschland für alle Maßstabsebenen geprüft und diskutiert. Dies umfasst beispielsweise die Erfassung und Bewertung von Sichtlinien und visuellen Bezügen in Yosemite Valley, das Monitoring von wahrgenommenen Veränderungen im Bereich der High Line in New York, die Auswertung von individueller Wahrnehmung für Coit Tower in San Francisco, oder die Beurteilung von regional wahrgenommenen identitätsstiftenden Landschaftswerten für Baden-Württemberg und die Greater Toronto Area (GTA). Anschließend werden Ansätze vorgestellt, um die Qualität und Validität von Visualisierungen einzuschätzen. Abschließend wird anhand eines konkreten Planungsbeispiels, des London View Management Frameworks (LVMF), eine spezifische Implementation des Ansatzes und der Visualisierungen kurz aufgezeigt und diskutiert. Mit der Arbeit wird vor allem das breite Potential betont, welches die Nutzung von crowdsourced Daten für die Bewertung von Landschaftswahrnehmung in Stadt- und Landschaftsplanung bereithält. Insbesondere crowdsourced Fotodaten werden als wichtige zusätzliche Informationsquelle gesehen, da sie eine bisher nicht verfügbare Perspektive auf die allgemeine, öffentliche Wahrnehmung der Umwelt ermöglichen. Während der breiteren Anwendung noch einige Grenzen gesetzt sind, können die vorgestellten experimentellen Methoden und Techniken schon wichtige Aufschlüsse über eine ganze Reihe von wahrgenommenen Landschaftswerten geben. Auf konzeptioneller Ebene stellt die Arbeit eine erste Grundlage für weitere Forschung dar. Bevor jedoch eine breite Anwendung in der Praxis möglich ist, müssen entscheidende Fragen gelöst werden, beispielsweise zum Copyright, zur Definition von ethischen Standards innerhalb der Profession, sowie zum Schutz der Privatsphäre Beteiligter. Längerfristig wird nicht nur die Nutzung der Daten als wichtig angesehen, sondern auch die Erschließung der essentiellen Möglichkeiten dieser Entwicklung zur besseren Kommunikation mit Auftraggebern, Beteiligten und der Öffentlichkeit in Planungs- und Entscheidungsprozessen.

Page generated in 0.0894 seconds