• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 205
  • 120
  • 39
  • 4
  • Tagged with
  • 365
  • 192
  • 122
  • 120
  • 120
  • 106
  • 52
  • 36
  • 36
  • 36
  • 35
  • 25
  • 25
  • 23
  • 23
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
251

Visualisierung großer Datenmengen im Raum: Großer Beleg

Polowinski, Jan 14 June 2006 (has links)
Large, strongly connected amounts of data, as collected in knowledge bases or those occurring when describing software, are often read slowly and with difficulty by humans when they are represented as spreadsheets or text. Graphical representations can help people to understand facts more intuitively and offer a quick overview. The electronic representation offers means that are beyond the possibilities of print such as unlimited zoom and hyperlinks. This paper addresses a framework for visualizing connected information in 3D-space taking into account the techniques of media design to build visualization structures and map information to graphical properties.:1 EINFÜHRUNG S. 9 1.1 Zusammenfassung des Gestaltungsentwurfs S. 9 1.2 Ziel des Belegs S. 10 1.3 Interdisziplinäres Projekt S. 10 2 VORGEHEN S. 12 2.1 Ablauf S. 12 2.2 Konkrete Beispielinhalte S. 13 2.3 Beispielimplementierung S. 13 3 DATENMODELL S. 15 3.1 Ontologien S. 15 3.2 Ontologie Konstruktion S. 15 3.3 Analyse der Domain Design S. 18 3.8 Erstes Ordnen S. 19 3.9 Verwendete Ontologie-Struktur S. 21 3.10 Design-Ontologien S. 23 3.11 Schwierigkeiten bei der Ontologiekonstruktion S. 28 3.12 Einpflegen der Daten mit Protégé S. 29 3.13 Facetten S. 29 3.14 Filter S. 32 4 DATENVISUALISIERUNG S. 35 4.1 Visualisierung zeitlicher Daten S. 35 4.2 Hyperhistory S. 35 4.3 Graphisches Vokabular - graphische Dimensionen S. 37 4.4 Mapping S. 39 5 FRAMEWORK UND GESTALTUNG DES MEDIUMS S. 43 5.1 Technologien und Werkzeuge S. 44 5.2 Architektur S. 46 5.3 Konfiguration S. 51 5.4 DataBackendManager S. 52 5.5 Mapping im Framework S. 53 5.6 atomicelements S. 54 5.7 Appearance Bibliothek S. 55 5.8 TransformationUtils S. 56 5.9 Structures S. 57 5.10 LOD S. 64 5.11 Häufung von Einträgen [+] S. 66 5.12 Darstellung von Relationen [+] S. 69 5.13 Head Up Display [+] S. 71 5.14 Navigation S. 72 5.15 Performanz S. 73 5.16 Gestaltung des Mediums S. 74 6 AUSBLICK S. 80 7 FAZIT S. 81 8 ANHANG A – Installation S. 82 8.1 Vorraussetzungen S. 82 8.2 Programmaufruf S. 82 8.3 Stereoskopie S. 82 9 ANHANG B – Beispielimplementierung zur Visualisierung des Themas „Geschichte des Designs in Deutschland im 19. und 20. Jh.“ S. 84 9.1 Eingrenzung des Umfangs S. 84 9.2 Überblick zur deutschen Designgeschichte S. 84 9.3 Vorgehen S. 85 9.4 Unscharfe Datumsangaben S. 85 9.5 Kontextereignisse S. 85 9.6 Ursache-Wirkung-Beziehungen S. 86 9.7 Mehrsprachigkeit S. 86 9.8 Quellenangaben S. 86 9.9 Bildmaterial S. 87 LITERATURVERZEICHNIS S. 88 GLOSSAR S. 90 ABBILDUNGSVERZEICHNIS S. 91 / Große, stark vernetzte Datenmengen, wie sie in Wissensbasen oder Softwaremodellen vorkommen, sind von Menschen oft nur langsam und mühsam zu lesen, wenn sie als Tabellen oder Text dargestellt werden. Graphische Darstellungen können Menschen helfen, Tatsachen intuitiver zu verstehen und bieten einen schnellen Überblick. Die elektronische Darstellung bietet Mittel, welche über die Möglichkeiten von Print hinausgehen, wie z.B. unbegrenzten Zoom und Hyperlinks. Diese Arbeit stellt ein Framework für die Visualisierung vernetzter Informationen im 3D-Raum vor, welches Techniken der Gestaltung zur Erstellung von graphischen Strukturen und zur Abbildung von Informationen auf graphische Eigenschaften berücksichtigt.:1 EINFÜHRUNG S. 9 1.1 Zusammenfassung des Gestaltungsentwurfs S. 9 1.2 Ziel des Belegs S. 10 1.3 Interdisziplinäres Projekt S. 10 2 VORGEHEN S. 12 2.1 Ablauf S. 12 2.2 Konkrete Beispielinhalte S. 13 2.3 Beispielimplementierung S. 13 3 DATENMODELL S. 15 3.1 Ontologien S. 15 3.2 Ontologie Konstruktion S. 15 3.3 Analyse der Domain Design S. 18 3.8 Erstes Ordnen S. 19 3.9 Verwendete Ontologie-Struktur S. 21 3.10 Design-Ontologien S. 23 3.11 Schwierigkeiten bei der Ontologiekonstruktion S. 28 3.12 Einpflegen der Daten mit Protégé S. 29 3.13 Facetten S. 29 3.14 Filter S. 32 4 DATENVISUALISIERUNG S. 35 4.1 Visualisierung zeitlicher Daten S. 35 4.2 Hyperhistory S. 35 4.3 Graphisches Vokabular - graphische Dimensionen S. 37 4.4 Mapping S. 39 5 FRAMEWORK UND GESTALTUNG DES MEDIUMS S. 43 5.1 Technologien und Werkzeuge S. 44 5.2 Architektur S. 46 5.3 Konfiguration S. 51 5.4 DataBackendManager S. 52 5.5 Mapping im Framework S. 53 5.6 atomicelements S. 54 5.7 Appearance Bibliothek S. 55 5.8 TransformationUtils S. 56 5.9 Structures S. 57 5.10 LOD S. 64 5.11 Häufung von Einträgen [+] S. 66 5.12 Darstellung von Relationen [+] S. 69 5.13 Head Up Display [+] S. 71 5.14 Navigation S. 72 5.15 Performanz S. 73 5.16 Gestaltung des Mediums S. 74 6 AUSBLICK S. 80 7 FAZIT S. 81 8 ANHANG A – Installation S. 82 8.1 Vorraussetzungen S. 82 8.2 Programmaufruf S. 82 8.3 Stereoskopie S. 82 9 ANHANG B – Beispielimplementierung zur Visualisierung des Themas „Geschichte des Designs in Deutschland im 19. und 20. Jh.“ S. 84 9.1 Eingrenzung des Umfangs S. 84 9.2 Überblick zur deutschen Designgeschichte S. 84 9.3 Vorgehen S. 85 9.4 Unscharfe Datumsangaben S. 85 9.5 Kontextereignisse S. 85 9.6 Ursache-Wirkung-Beziehungen S. 86 9.7 Mehrsprachigkeit S. 86 9.8 Quellenangaben S. 86 9.9 Bildmaterial S. 87 LITERATURVERZEICHNIS S. 88 GLOSSAR S. 90 ABBILDUNGSVERZEICHNIS S. 91
252

Visual Analysis of High-Dimensional Point Clouds using Topological Abstraction

Oesterling, Patrick 17 May 2016 (has links) (PDF)
This thesis is about visualizing a kind of data that is trivial to process by computers but difficult to imagine by humans because nature does not allow for intuition with this type of information: high-dimensional data. Such data often result from representing observations of objects under various aspects or with different properties. In many applications, a typical, laborious task is to find related objects or to group those that are similar to each other. One classic solution for this task is to imagine the data as vectors in a Euclidean space with object variables as dimensions. Utilizing Euclidean distance as a measure of similarity, objects with similar properties and values accumulate to groups, so-called clusters, that are exposed by cluster analysis on the high-dimensional point cloud. Because similar vectors can be thought of as objects that are alike in terms of their attributes, the point cloud\'s structure and individual cluster properties, like their size or compactness, summarize data categories and their relative importance. The contribution of this thesis is a novel analysis approach for visual exploration of high-dimensional point clouds without suffering from structural occlusion. The work is based on implementing two key concepts: The first idea is to discard those geometric properties that cannot be preserved and, thus, lead to the typical artifacts. Topological concepts are used instead to shift away the focus from a point-centered view on the data to a more structure-centered perspective. The advantage is that topology-driven clustering information can be extracted in the data\'s original domain and be preserved without loss in low dimensions. The second idea is to split the analysis into a topology-based global overview and a subsequent geometric local refinement. The occlusion-free overview enables the analyst to identify features and to link them to other visualizations that permit analysis of those properties not captured by the topological abstraction, e.g. cluster shape or value distributions in particular dimensions or subspaces. The advantage of separating structure from data point analysis is that restricting local analysis only to data subsets significantly reduces artifacts and the visual complexity of standard techniques. That is, the additional topological layer enables the analyst to identify structure that was hidden before and to focus on particular features by suppressing irrelevant points during local feature analysis. This thesis addresses the topology-based visual analysis of high-dimensional point clouds for both the time-invariant and the time-varying case. Time-invariant means that the points do not change in their number or positions. That is, the analyst explores the clustering of a fixed and constant set of points. The extension to the time-varying case implies the analysis of a varying clustering, where clusters appear as new, merge or split, or vanish. Especially for high-dimensional data, both tracking---which means to relate features over time---but also visualizing changing structure are difficult problems to solve.
253

Visualisierungs- und Interaktionskonzept zur graphenbasierten Exploration

Tomschke, Steffen 19 May 2016 (has links) (PDF)
In der heutigen Zeit bilden Netzwerke, auf technologischer sowie sozialer Ebene, die zentralen Systeme in der Informationsverarbeitung. Graphen stellen mit ihren mathematischen Eigenschaften eine geeignete Art der Beschreibung von Netzwerken dar. Seit 1741, beginnend mit Eulers Königsberger Brückenproblem (Euler 1741), werden Graphen für die Visualisierung thematisiert. Mit Beginn der Netzwerktechnik Mitte des 20. Jahrhunderts und der Entstehung digitaler sowie sozialer Netzwerke wächst das Interesse an der Visualisierung von Graphen. Dies setzt sich zu Beginn des 21. Jahrhunderts mit dem Aufbau von Firmennetzwerken und deren steigender Komplexität fort. Verschiedene Bereiche wie Psychologie, Mathematik, Kunst, Mensch-Maschine-Systemtechnik und Mediengestaltung beeinflussen die Ausprägung der Visualisierung von Graphen. Insbesondere psychologische Aspekte der visuellen Wahrnehmung und der kognitiven Leistung bilden die Grundlage zur Gestaltung von Graphen. Netzwerke beinhalten einen hohen Informationsgrad für den Rezipienten. Am Beispiel komplexer Firmennetzwerke stellt sich die Herausforderung nach einer effizienten und individuellen Exploration. Aktuelle Lösungen in Form von Tabellen und Datenbankabfragesprachen erzeugen eine hohe kognitive Last des Nutzers. Die Darstellung von Netzwerken in Graphen unterstützt den Nutzer in der Erfassung des Kontexts. Aktuelle Visualisierungskonzepte für Graphen bieten nur geringe Möglichkeiten der individuellen Exploration. Dies resultiert in einem „Lost-in-Context“-Effekt und einer erhöhten kognitiven Last. Das Visualisierungs- und Interaktionskonzept dieser Arbeit ermöglicht die Reduktion des „Lost-in-Context“-Effekts sowie der kognitiven Last. Dieser Forschungsansatz der Arbeit lässt sich dazu in drei Betrachtungsbereiche unterteilen: das Gedächtnismodell zur visuellen Kognition, das globale Strukturmittel und die lokalen Strukturmittel der graphenbasierten Exploration. Im Bereich der visuellen Kognition wird als Grundlage das Gedächtnismodell von Kosslyn diskutiert und adaptiert. Diese Adaption für die graphenbasierte Exploration zeigt die Verwendung von mentalen Karten des Nutzers. Dies basiert auf der Identifikation von semantischen und numerischen Werten der wahrgenommenen Objekte. Das globale Strukturmittel „Multi-Level-of-Detail“-Konzept basiert auf der Abbildung semantischer und numerischer Eigenschaften von wahrgenommenen Objekten auf eine mentale Karte. Das Gedächtnismodell von Kosslyn wird für die graphenbasierte Exploration angepasst und stellt die Grundlage für diese Abbildung dar. Das globale Strukturmittel ermöglicht dem Nutzer, parallel mehrere Detailstufen in der Graphvisualisierung zu erzeugen und individuell zu manipulieren. Dies reduziert die kognitive Last während der graphenbasierten Exploration. Die Einführung des globalen Strukturmittels fordert die Betrachtung lokaler Strukturmittel zur visuellen Wahrnehmung und Gestaltung des Graphen. Im Bereich der lokalen Strukturmittel werden die verschiedenen graphischen und interaktiven Mittel zur graphenbasierten Exploration diskutiert. Vor dem Hintergrund des aufgestellten Gedächtnismodells sowie den Grundlagen der Gestaltgesetze wird ein Baukasten visueller Elemente zur Gestaltung von Graphen betrachtet. Dieser wird durch die Diskussion der Eigenschaften der Graphobjekte, zum Beispiel: Position, Größe, Form, Clustern und Bündeln, beeinflusst. In einer prototypischen Umsetzung des Konzepts wird, im Vergleich zu Tabellen und Datenbankabfragesprachen, am Beispiel eines komplexen Firmennetzwerks die Reduktion der kognitiven Last gezeigt. Die Evaluation der kognitiven Last erfolgt mittels des NASA-TLX. In einem „Within-Subject“ Experiment werden Experten zu dem Konzept befragt. Dieses zeigt, dass im Vergleich zu aktuellen Graphdarstellungen eine Reduktion des „Lost-in-Context“-Effekts eintritt. Zusätzlich konnte gezeigt werden, dass nicht alle gestalterischen Mittel der lokalen Strukturmittel, im Vergleich zu aktuellen Lösungen und Konzepten, eine Verbesserung brachten. Die zentralen Aspekte des eingeführten Konzepts zeigen die Verwendung von mentalen Karten während der graphenbasierten Exploration komplexer Netzwerke.
254

Close and Distant Reading Visualizations for the Comparative Analysis of Digital Humanities Data

Jänicke, Stefan 19 July 2016 (has links) (PDF)
Traditionally, humanities scholars carrying out research on a specific or on multiple literary work(s) are interested in the analysis of related texts or text passages. But the digital age has opened possibilities for scholars to enhance their traditional workflows. Enabled by digitization projects, humanities scholars can nowadays reach a large number of digitized texts through web portals such as Google Books or Internet Archive. Digital editions exist also for ancient texts; notable examples are PHI Latin Texts and the Perseus Digital Library. This shift from reading a single book “on paper” to the possibility of browsing many digital texts is one of the origins and principal pillars of the digital humanities domain, which helps developing solutions to handle vast amounts of cultural heritage data – text being the main data type. In contrast to the traditional methods, the digital humanities allow to pose new research questions on cultural heritage datasets. Some of these questions can be answered with existent algorithms and tools provided by the computer science domain, but for other humanities questions scholars need to formulate new methods in collaboration with computer scientists. Developed in the late 1980s, the digital humanities primarily focused on designing standards to represent cultural heritage data such as the Text Encoding Initiative (TEI) for texts, and to aggregate, digitize and deliver data. In the last years, visualization techniques have gained more and more importance when it comes to analyzing data. For example, Saito introduced her 2010 digital humanities conference paper with: “In recent years, people have tended to be overwhelmed by a vast amount of information in various contexts. Therefore, arguments about ’Information Visualization’ as a method to make information easy to comprehend are more than understandable.” A major impulse for this trend was given by Franco Moretti. In 2005, he published the book “Graphs, Maps, Trees”, in which he proposes so-called distant reading approaches for textual data that steer the traditional way of approaching literature towards a completely new direction. Instead of reading texts in the traditional way – so-called close reading –, he invites to count, to graph and to map them. In other words, to visualize them. This dissertation presents novel close and distant reading visualization techniques for hitherto unsolved problems. Appropriate visualization techniques have been applied to support basic tasks, e.g., visualizing geospatial metadata to analyze the geographical distribution of cultural heritage data items or using tag clouds to illustrate textual statistics of a historical corpus. In contrast, this dissertation focuses on developing information visualization and visual analytics methods that support investigating research questions that require the comparative analysis of various digital humanities datasets. We first take a look at the state-of-the-art of existing close and distant reading visualizations that have been developed to support humanities scholars working with literary texts. We thereby provide a taxonomy of visualization methods applied to show various aspects of the underlying digital humanities data. We point out open challenges and we present our visualizations designed to support humanities scholars in comparatively analyzing historical datasets. In short, we present (1) GeoTemCo for the comparative visualization of geospatial-temporal data, (2) the two tag cloud designs TagPies and TagSpheres that comparatively visualize faceted textual summaries, (3) TextReuseGrid and TextReuseBrowser to explore re-used text passages among the texts of a corpus, (4) TRAViz for the visualization of textual variation between multiple text editions, and (5) the visual analytics system MusikerProfiling to detect similar musicians to a given musician of interest. Finally, we summarize our and the collaboration experiences of other visualization researchers to emphasize the ingredients required for a successful project in the digital humanities, and we take a look at future challenges in that research field.
255

Visualisierung dynamischer Raumphänomene in Geoinformationssystemen / Visualization of dynamic spatial phenomena in geographic information systems

Schmallowsky, Antje January 2009 (has links)
Die visuelle Kommunikation ist eine effiziente Methode, um dynamische Phänomene zu beschreiben. Informationsobjekte präzise wahrzunehmen, einen schnellen Zugriff auf strukturierte und relevante Informationen zu ermöglichen, erfordert konsistente und nach dem formalen Minimalprinzip konzipierte Analyse- und Darstellungsmethoden. Dynamische Raumphänomene in Geoinformationssystemen können durch den Mangel an konzeptionellen Optimierungsanpassungen aufgrund ihrer statischen Systemstruktur nur bedingt die Informationen von Raum und Zeit modellieren. Die Forschung in dieser Arbeit ist daher auf drei interdisziplinäre Ansätze fokussiert. Der erste Ansatz stellt eine echtzeitnahe Datenerfassung dar, die in Geodatenbanken zeitorientiert verwaltet wird. Der zweite Ansatz betrachtet Analyse- und Simulationsmethoden, die das dynamische Verhalten analysieren und prognostizieren. Der dritte Ansatz konzipiert Visualisierungsmethoden, die insbesondere dynamische Prozesse abbilden. Die Symbolisierung der Prozesse passt sich bedarfsweise in Abhängigkeit des Prozessverlaufes und der Interaktion zwischen Datenbanken und Simulationsmodellen den verschiedenen Entwicklungsphasen an. Dynamische Aspekte können so mit Hilfe bewährter Funktionen aus der GI-Science zeitnah mit modularen Werkzeugen entwickelt und visualisiert werden. Die Analyse-, Verschneidungs- und Datenverwaltungsfunktionen sollen hierbei als Nutzungs- und Auswertungspotential alternativ zu Methoden statischer Karten dienen. Bedeutend für die zeitliche Komponente ist das Verknüpfen neuer Technologien, z. B. die Simulation und Animation, basierend auf einer strukturierten Zeitdatenbank in Verbindung mit statistischen Verfahren. Methodisch werden Modellansätze und Visualisierungstechniken entwickelt, die auf den Bereich Verkehr transferiert werden. Verkehrsdynamische Phänomene, die nicht zusammenhängend und umfassend darstellbar sind, werden modular in einer serviceorientierten Architektur separiert, um sie in verschiedenen Ebenen räumlich und zeitlich visuell zu präsentieren. Entwicklungen der Vergangenheit und Prognosen der Zukunft werden über verschiedene Berechnungsmethoden modelliert und visuell analysiert. Die Verknüpfung einer Mikrosimulation (Abbildung einzelner Fahrzeuge) mit einer netzgesteuerten Makrosimulation (Abbildung eines gesamten Straßennetzes) ermöglicht eine maßstabsunabhängige Simulation und Visualisierung des Mobilitätsverhaltens ohne zeitaufwendige Bewertungsmodellberechnungen. Zukünftig wird die visuelle Analyse raum-zeitlicher Veränderungen für planerische Entscheidungen ein effizientes Mittel sein, um Informationen übergreifend verfügbar, klar strukturiert und zweckorientiert zur Verfügung zu stellen. Der Mehrwert durch visuelle Geoanalysen, die modular in einem System integriert sind, ist das flexible Auswerten von Messdaten nach zeitlichen und räumlichen Merkmalen. / Visual communication is an efficient method to describe dynamic phenomena. Perceiving information objects precisely and facilitating quick access to structured and relevant information requires consistent analysis and presentation methods conceived according to the formal minimisation principle. Because of the lack of conceptual optimisation adaptations due to their static system structure, dynamic space phenomena in geoinformation systems can only model the information of time and space conditionally. This is why research in this paper focuses on three interdisciplinary approaches. The first approach represents data collection close to real-time which is administered in geodatabases in a time-oriented manner. The second approach looks at analysis and simulation methods that analyse and forecast dynamic behaviour. The third approach conceives visualisation methods that model dynamic processes in particular. Where required, the symbolising of processes adapts to the various development phases depending on the process flow and the interaction between databases and simulation models. This allows dynamic aspects to be developed and visualised in a timely manner using modular tools with the help of proven geoscience functions. The analysis, intersection and data administration functions are intended to serve as utilisation and analysis potential as an alternative to static chart methods. For the time component, linking new technologies such as simulation and animation is significant based on a structured time database in connection with statistical methods. Modelling approaches and visualisation techniques are methodically developed and transferred to the traffic field. Dynamic traffic phenomena that cannot be modelled cohesively and comprehensively are separated into a service-oriented modular architecture in order to present them visually on different levels of space and time. Past developments and forecasts are modelled and visually analysed using various calculation methods. Linking a micro-simulation (modelling individual vehicles) to a network-controlled macro-simulation (modelling an entire road network) makes it possible to simulate and visualise mobility behaviour regardless of scale without time-consuming analysis model calculations. In the future, the visual analysis of space-time changes for planning decisions will be an efficient tool in order to make comprehensive, clearly structured and appropriate information available. The flexible analysis of measurement data according to time and space criteria represents the added value of visual geoanalysis integrated into a system with a modular structure.
256

Skeleton-based visualization of massive voxel objects with network-like architecture

Prohaska, Steffen January 2007 (has links)
This work introduces novel internal and external memory algorithms for computing voxel skeletons of massive voxel objects with complex network-like architecture and for converting these voxel skeletons to piecewise linear geometry, that is triangle meshes and piecewise straight lines. The presented techniques help to tackle the challenge of visualizing and analyzing 3d images of increasing size and complexity, which are becoming more and more important in, for example, biological and medical research. Section 2.3.1 contributes to the theoretical foundations of thinning algorithms with a discussion of homotopic thinning in the grid cell model. The grid cell model explicitly represents a cell complex built of faces, edges, and vertices shared between voxels. A characterization of pairs of cells to be deleted is much simpler than characterizations of simple voxels were before. The grid cell model resolves topologically unclear voxel configurations at junctions and locked voxel configurations causing, for example, interior voxels in sets of non-simple voxels. A general conclusion is that the grid cell model is superior to indecomposable voxels for algorithms that need detailed control of topology. Section 2.3.2 introduces a noise-insensitive measure based on the geodesic distance along the boundary to compute two-dimensional skeletons. The measure is able to retain thin object structures if they are geometrically important while ignoring noise on the object's boundary. This combination of properties is not known of other measures. The measure is also used to guide erosion in a thinning process from the boundary towards lines centered within plate-like structures. Geodesic distance based quantities seem to be well suited to robustly identify one- and two-dimensional skeletons. Chapter 6 applies the method to visualization of bone micro-architecture. Chapter 3 describes a novel geometry generation scheme for representing voxel skeletons, which retracts voxel skeletons to piecewise linear geometry per dual cube. The generated triangle meshes and graphs provide a link to geometry processing and efficient rendering of voxel skeletons. The scheme creates non-closed surfaces with boundaries, which contain fewer triangles than a representation of voxel skeletons using closed surfaces like small cubes or iso-surfaces. A conclusion is that thinking specifically about voxel skeleton configurations instead of generic voxel configurations helps to deal with the topological implications. The geometry generation is one foundation of the applications presented in Chapter 6. Chapter 5 presents a novel external memory algorithm for distance ordered homotopic thinning. The presented method extends known algorithms for computing chamfer distance transformations and thinning to execute I/O-efficiently when input is larger than the available main memory. The applied block-wise decomposition schemes are quite simple. Yet it was necessary to carefully analyze effects of block boundaries to devise globally correct external memory variants of known algorithms. In general, doing so is superior to naive block-wise processing ignoring boundary effects. Chapter 6 applies the algorithms in a novel method based on confocal microscopy for quantitative study of micro-vascular networks in the field of microcirculation. / Die vorliegende Arbeit führt I/O-effiziente Algorithmen und Standard-Algorithmen zur Berechnung von Voxel-Skeletten aus großen Voxel-Objekten mit komplexer, netzwerkartiger Struktur und zur Umwandlung solcher Voxel-Skelette in stückweise-lineare Geometrie ein. Die vorgestellten Techniken werden zur Visualisierung und Analyse komplexer drei-dimensionaler Bilddaten, beispielsweise aus Biologie und Medizin, eingesetzt. Abschnitt 2.3.1 leistet mit der Diskussion von topologischem Thinning im Grid-Cell-Modell einen Beitrag zu den theoretischen Grundlagen von Thinning-Algorithmen. Im Grid-Cell-Modell wird ein Voxel-Objekt als Zellkomplex dargestellt, der aus den Ecken, Kanten, Flächen und den eingeschlossenen Volumina der Voxel gebildet wird. Topologisch unklare Situationen an Verzweigungen und blockierte Voxel-Kombinationen werden aufgelöst. Die Charakterisierung von Zellpaaren, die im Thinning-Prozess entfernt werden dürfen, ist einfacher als bekannte Charakterisierungen von so genannten "Simple Voxels". Eine wesentliche Schlussfolgerung ist, dass das Grid-Cell-Modell atomaren Voxeln überlegen ist, wenn Algorithmen detaillierte Kontrolle über Topologie benötigen. Abschnitt 2.3.2 präsentiert ein rauschunempfindliches Maß, das den geodätischen Abstand entlang der Oberfläche verwendet, um zweidimensionale Skelette zu berechnen, welche dünne, aber geometrisch bedeutsame, Strukturen des Objekts rauschunempfindlich abbilden. Das Maß wird im weiteren mit Thinning kombiniert, um die Erosion von Voxeln auf Linien zuzusteuern, die zentriert in plattenförmigen Strukturen liegen. Maße, die auf dem geodätischen Abstand aufbauen, scheinen sehr geeignet zu sein, um ein- und zwei-dimensionale Skelette bei vorhandenem Rauschen zu identifizieren. Eine theoretische Begründung für diese Beobachtung steht noch aus. In Abschnitt 6 werden die diskutierten Methoden zur Visualisierung von Knochenfeinstruktur eingesetzt. Abschnitt 3 beschreibt eine Methode, um Voxel-Skelette durch kontrollierte Retraktion in eine stückweise-lineare geometrische Darstellung umzuwandeln, die als Eingabe für Geometrieverarbeitung und effizientes Rendering von Voxel-Skeletten dient. Es zeigt sich, dass eine detaillierte Betrachtung der topologischen Eigenschaften eines Voxel-Skeletts einer Betrachtung von allgemeinen Voxel-Konfigurationen für die Umwandlung zu einer geometrischen Darstellung überlegen ist. Die diskutierte Methode bildet die Grundlage für die Anwendungen, die in Abschnitt 6 diskutiert werden. Abschnitt 5 führt einen I/O-effizienten Algorithmus für Thinning ein. Die vorgestellte Methode erweitert bekannte Algorithmen zur Berechung von Chamfer-Distanztransformationen und Thinning so, dass diese effizient ausführbar sind, wenn die Eingabedaten den verfügbaren Hauptspeicher übersteigen. Der Einfluss der Blockgrenzen auf die Algorithmen wurde analysiert, um global korrekte Ergebnisse sicherzustellen. Eine detaillierte Analyse ist einer naiven Zerlegung, die die Einflüsse von Blockgrenzen vernachlässigt, überlegen. In Abschnitt 6 wird, aufbauend auf den I/O-effizienten Algorithmen, ein Verfahren zur quantitativen Analyse von Mikrogefäßnetzwerken diskutiert.
257

Analyse von Test-Pattern für SoC Multiprozessortest und -debugging mittels Test Access Port (JTAG)

Vogelsang, Stefan, Köhler, Steffen, Spallek, Rainer G. 11 June 2007 (has links) (PDF)
Bei der Entwickelung von System-on-Chip (SoC) Debuggern ist es leider hinreichend oft erforderlich den Debugger selbst auf mögliche Fehler zu untersuchen. Da alle ernstzunehmenden Debugger konstruktionsbedingt selbst ein eingebettetes System darstellen, erwächst die Notwendigkeit eine einfache und sicher kontrollierbare Diagnose-Hardware zu entwerfen, welche den Zugang zur Funktionsweise des Debuggers über seine Ausgänge erschließt. Derzeitig ist der Test Access Port (TAP nach IEEE 1149.1-Standard) für viele Integratoren die Grundlage für den Zugriff auf ihre instanzierte Hardware. Selbst in forschungsorientierten Multi- Core System-on-Chip Architekturen wie dem ARM11MP der Firma ARM wird dieses Verfahren noch immer eingesetzt. In unserem Beitrag möchten wir ein Spezialwerkzeug zur Analyse des TAPKommunikationsprotokolles vorstellen, welches den Einsatz teurer Analysetechnik (Logik- Analysatoren) unnötig werden lässt und darüber hinaus eine komfortable, weitergehende Unterstützung für Multi-Core-Systeme bietet. Aufbauend auf der Problematik der Abtastung und Erfassung der Signalzustände am TAP mittels FPGA wird auf die verschiedenen Visualisierungs- und Analyseaspekte der TAPProtokollphasen in einer Multi-Core-Prozessor-Zielsystemumgebung eingegangen. Die hier vorgestellte Lösung ist im Rahmen eines FuE-Verbundprojektes enstanden. Das Vorhaben wird im Rahmen der Technologieförderung mit Mitteln des Europäischen Fonds für regionale Entwicklung (EFRE) 2000-2006 und mit Mitteln des Freistaates Sachsen gefördert.
258

Zur Problematik der Erschließung digitaler Medien – dargestellt am Beispiel des KIT-Katalogs

Mönnich, Michael, Köberle, Boris 28 January 2011 (has links) (PDF)
Die Erschließung digitaler Medien wird - im Gegensatz zu der von konventionellen Printmedien - in Bibliotheken derzeit noch nicht im wünschenswerten Umfang durchgeführt. Dies gilt vor allem für Online- Ressourcen und Netzpublikationen. Im Vortrag wird dies anhand von Beispielen aus dem Katalog der KIT-Bibliothek dargestellt. Einen möglichen Ansatz für die verbesserte Erschließung stellt die Verwendung kollaborativer Verfahren dar. Am Beispiel des Recommendersystems Bibtip, das vor mehreren Jahren in Karlsruhe entwickelt wurde und inzwischen in zahlreichen Bibliotheken im Einsatz ist, sollen die Funktionsweise und die Auswirkungen eines Einsatzes solcher Lösungen vorgestellt werden.
259

Interactive rendering techniques for focus+context visualization of 3D geovirtual environments

Trapp, Matthias January 2013 (has links)
This thesis introduces a collection of new real-time rendering techniques and applications for focus+context visualization of interactive 3D geovirtual environments such as virtual 3D city and landscape models. These environments are generally characterized by a large number of objects and are of high complexity with respect to geometry and textures. For these reasons, their interactive 3D rendering represents a major challenge. Their 3D depiction implies a number of weaknesses such as occlusions, cluttered image contents, and partial screen-space usage. To overcome these limitations and, thus, to facilitate the effective communication of geo-information, principles of focus+context visualization can be used for the design of real-time 3D rendering techniques for 3D geovirtual environments (see Figure). In general, detailed views of a 3D geovirtual environment are combined seamlessly with abstracted views of the context within a single image. To perform the real-time image synthesis required for interactive visualization, dedicated parallel processors (GPUs) for rasterization of computer graphics primitives are used. For this purpose, the design and implementation of appropriate data structures and rendering pipelines are necessary. The contribution of this work comprises the following five real-time rendering methods: • The rendering technique for 3D generalization lenses enables the combination of different 3D city geometries (e.g., generalized versions of a 3D city model) in a single image in real time. The method is based on a generalized and fragment-precise clipping approach, which uses a compressible, raster-based data structure. It enables the combination of detailed views in the focus area with the representation of abstracted variants in the context area. • The rendering technique for the interactive visualization of dynamic raster data in 3D geovirtual environments facilitates the rendering of 2D surface lenses. It enables a flexible combination of different raster layers (e.g., aerial images or videos) using projective texturing for decoupling image and geometry data. Thus, various overlapping and nested 2D surface lenses of different contents can be visualized interactively. • The interactive rendering technique for image-based deformation of 3D geovirtual environments enables the real-time image synthesis of non-planar projections, such as cylindrical and spherical projections, as well as multi-focal 3D fisheye-lenses and the combination of planar and non-planar projections. • The rendering technique for view-dependent multi-perspective views of 3D geovirtual environments, based on the application of global deformations to the 3D scene geometry, can be used for synthesizing interactive panorama maps to combine detailed views close to the camera (focus) with abstract views in the background (context). This approach reduces occlusions, increases the usage the available screen space, and reduces the overload of image contents. • The object-based and image-based rendering techniques for highlighting objects and focus areas inside and outside the view frustum facilitate preattentive perception. The concepts and implementations of interactive image synthesis for focus+context visualization and their selected applications enable a more effective communication of spatial information, and provide building blocks for design and development of new applications and systems in the field of 3D geovirtual environments. / Die Darstellung immer komplexerer raumbezogener Information durch Geovisualisierung stellt die existierenden Technologien und den Menschen ständig vor neue Herausforderungen. In dieser Arbeit werden fünf neue, echtzeitfähige Renderingverfahren und darauf basierende Anwendungen für die Fokus-&-Kontext-Visualisierung von interaktiven geovirtuellen 3D-Umgebungen – wie virtuelle 3D-Stadt- und Landschaftsmodelle – vorgestellt. Die große Menge verschiedener darzustellender raumbezogener Information in 3D-Umgebungen führt oft zu einer hohen Anzahl unterschiedlicher Objekte und somit zu einer hohen Geometrie- und Texturkomplexität. In der Folge verlieren 3D-Darstellungen durch Verdeckungen, überladene Bildinhalte und eine geringe Ausnutzung des zur Verfügung stehenden Bildraumes an Informationswert. Um diese Beschränkungen zu kompensieren und somit die Kommunikation raumbezogener Information zu verbessern, kann das Prinzip der Fokus-&-Kontext-Visualisierung angewendet werden. Hierbei wird die für den Nutzer wesentliche Information als detaillierte Ansicht im Fokus mit abstrahierter Kontextinformation nahtlos miteinander kombiniert. Um das für die interaktive Visualisierung notwendige Echtzeit-Rendering durchzuführen, können spezialisierte Parallelprozessoren für die Rasterisierung von computergraphischen Primitiven (GPUs) verwendet werden. Dazu ist die Konzeption und Implementierung von geeigneten Datenstrukturen und Rendering-Pipelines notwendig. Der Beitrag dieser Arbeit umfasst die folgenden fünf Renderingverfahren. • Das Renderingverfahren für interaktive 3D-Generalisierungslinsen: Hierbei wird die Kombination unterschiedlicher 3D-Szenengeometrien, z. B. generalisierte Varianten eines 3DStadtmodells, in einem Bild ermöglicht. Das Verfahren basiert auf einem generalisierten Clipping-Ansatz, der es erlaubt, unter Verwendung einer komprimierbaren, rasterbasierten Datenstruktur beliebige Bereiche einer 3D-Szene freizustellen bzw. zu kappen. Somit lässt sich eine Kombination von detaillierten Ansichten im Fokusbereich mit der Darstellung einer abstrahierten Variante im Kontextbereich implementieren. • Das Renderingverfahren zur Visualisierung von dynamischen Raster-Daten in geovirtuellen 3D-Umgebungen zur Darstellung von 2D-Oberflächenlinsen: Die Verwendung von projektiven Texturen zur Entkoppelung von Bild- und Geometriedaten ermöglicht eine flexible Kombination verschiedener Rasterebenen (z.B. Luftbilder oder Videos). Somit können verschiedene überlappende sowie verschachtelte 2D-Oberflächenlinsen mit unterschiedlichen Dateninhalten interaktiv visualisiert werden. • Das Renderingverfahren zur bildbasierten Deformation von geovirtuellen 3D-Umgebungen: Neben der interaktiven Bildsynthese von nicht-planaren Projektionen, wie beispielsweise zylindrischen oder sphärischen Panoramen, lassen sich mit diesem Verfahren multifokale 3D-Fischaugen-Linsen erzeugen sowie planare und nicht-planare Projektionen miteinander kombinieren. • Das Renderingverfahren für die Generierung von sichtabhängigen multiperspektivischen Ansichten von geovirtuellen 3D-Umgebungen: Das Verfahren basiert auf globalen Deformationen der 3D-Szenengeometrie und kann zur Erstellung von interaktiven 3D-Panoramakarten verwendet werden, welche beispielsweise detaillierte Absichten nahe der virtuellen Kamera (Fokus) mit abstrakten Ansichten im Hintergrund (Kontext) kombinieren. Dieser Ansatz reduziert Verdeckungen, nutzt den zur Verfügung stehenden Bildraum in verbesserter Weise aus und reduziert das Überladen von Bildinhalten. • Objekt-und bildbasierte Renderingverfahren für die Hervorhebung von Fokus-Objekten und Fokus-Bereichen innerhalb und außerhalb des sichtbaren Bildausschnitts, um die präattentive Wahrnehmung eines Benutzers besser zu unterstützen. Die in dieser Arbeit vorgestellten Konzepte, Entwürfe und Implementierungen von interaktiven Renderingverfahren zur Fokus-&-Kontext-Visualisierung sowie deren ausgewählte Anwendungen ermöglichen eine effektivere Kommunikation raumbezogener Information und repräsentieren softwaretechnische Bausteine für die Entwicklung neuer Anwendungen und Systeme im Bereich der geovirtuellen 3D-Umgebungen.
260

Generation and Implementation of Virtual Landscapes for an Augmented Reality HMI-Laboratory / Generierung und Implementierung von virtuellen Landschaften in ein HMI- Labor mit erweiterter Realität

Milius, Jeannette 05 February 2014 (has links) (PDF)
Three dimensional visualisation achieves tremendous savings in time and costs during the design process. Due to these circumstances this methods are gaining in importance. For example improvement in performance and the product security or enabling the operative optimization of a production sequence. By the virtual testing it is possible to validate a product in the whole developing process and product lifecycle. The flight simulator ATILa at Airbus Defence and Space in Friedrichshafen uses these advantages for own products. ATILa is used to test intelligent assistance systems for helicopter pilots. Here the graphic implementation of the virtual earth plays a key role when practicing realistical scenarios. This approach is implemented with the Common Database (CDB) which is enabled by the definition of specifications and standards. Different commercial software packages by Presagis are used to implement the aforementioned database. The software Terra Vista is used for the database generation, including the compilation. For the CDB implementation the software Vega Prime is used to prepare the data with the help of the RTP. The software Vega Prime is not able to display 3D models with LODs, due to a software error. Therefore a third software named Creator is used to modify them. The 3D models are available in the OpenFlight Format. This OpenFlight format consists of different kind of nodes with a complex hierarchical structure. Other software solutions, such as Autodesk or Blender, are not able to provide access to the specific structure. The edited models can be integrated in the virtual environment and have to defined by unambiguous indices. Various settings are used to implement the objects automatically. The compilation of the area of interest takes place by the definition of a geotile with a specific size depending on the latitude. The CDB ouput will be transferred by Vega Prime and with the help of the RTP into the simulator. In addition, there is the possibility to render various CDB databases in the simulator to enable a visualisation of the complete earth. Finally, any errors occurring will be described and methods of resolution explained. The complexity of the generation process of a CDB database could be represented with this thesis. However, the whole workflow of the visualisation of the earth is still in its initial stages, since among other things there are errors in the software. To sum up; the potential of the CDB can be evaluated as above average. / Die 3D Visualisierung vereinfacht den Planungsprozess und geht somit mit einer Zeit- und Kosten- einsparung einher. Aufgrund dieser Sachverhalte gewinnt sie immer weiter an Bedeutung, um zum Beispiel eine verbesserte und sichere Benutzung eines Produktes oder einen optimierten Betrieb einer Produktionskette zu ermöglichen. Durch vorherige virtuelle Erprobung und Vali- dierung eines Produktes können Kosten für den gesamten Entwicklungsprozess und den Pro- duktlebenszyklus gering gehalten werden. Im Flugsimulator für Helikopter namens ATILa in Friedrichshafen (Airbus Defence and Space) versucht man die genannten Vorteile für die eigenen Produkte zu nutzen. Im ATILa werden Assistenzsysteme geprüft, welche die Helikopterpiloten während ihres Fluges unterstützen sollen. Hierbei spielt die grafische Umsetzung der virtuellen Erde in dem Simulator eine entscheidende Rolle, um die Szenarien realitätsnah durchführen zu können. Dies kann mit Hilfe einer sogenannten Common Database (CDB), die durch Spezi- fikationen und Standards definiert ist, umgesetzt werden. Mittels verschiedener kommerzieller Softwarepakete der Firma Presagis lässt sich die oben genannte Datenbank erstellen. Die Gener- ierung und Kompilierung wird mit dem Softwareprogramm Terra Vista vorgenommen. Die Imple- mentierung der CDB in den Flugsimulator erfolgt mit der Software Vega Prime, welche die Daten über einen RTP zur Verfügung stellt. Da dieses Programm durch einen Softwarefehler nicht in der Lage ist, 3D Modelle mit verschiedenen Detaillierungsgraden darzustellen, muss eine dritte Soft- ware namens Creator genutzt werden. Die 3D Modelle liegen im OpenFlight Format vor. Dieses OpenFlight Format weist eine komplexe hierarchische Struktur aus verschiedenen Knoten auf. Andere Softwarelösungen, wie Autodesk oder Blender, sind nicht in der Lage einen Einblick in die spezielle Struktur zu geben. Die bearbeiteten Modelle können dann in der virtuellen Umgebung eingebunden und müssen durch eindeutige Indizes definiert werden. Verschiedene Einstellun- gen werden genutzt, um Objekte automatisch einzubinden. Die Kompilierung des Interessenge- bietes erfolgt über die Definition einer Geokachel mit einer bestimmten Größe, die abhängig vom Breitengrad ist. Die ausgegebene CDB wird mit Vega Prime und mit Hilfe des RTPs in den Simu- lator übertragen. Des Weiteren gibt es die Möglichkeit verschiedene CDB Datenbanken im Sim- ulator simultan zu rendern, was eine vollständige Visualisierung der kompletten Erde ermöglicht. Abschließend werden aufgetretene Fehler näher beschrieben und Lösungsansätze erläutert. Mit der vorliegenden Arbeit konnte die Komplexität der Entstehung einer CDB Datenbank dargestellt werden. Dennoch befindet sich der gesamte Arbeitsablauf der Visualisierung der Erde noch am Anfang, da u.a. Softwarefehler zu bemängeln sind. Zusammenfassend kann das Potenzial einer CDB als überdurchschnittlich bewertet werden.

Page generated in 0.0601 seconds