311 |
Visual Analysis of High-Dimensional Point Clouds using Topological AbstractionOesterling, Patrick 14 April 2016 (has links)
This thesis is about visualizing a kind of data that is trivial to process by computers but difficult to imagine by humans because nature does not allow for intuition with this type of information: high-dimensional data. Such data often result from representing observations of objects under various aspects or with different properties. In many applications, a typical, laborious task is to find related objects or to group those that are similar to each other. One classic solution for this task is to imagine the data as vectors in a Euclidean space with object variables as dimensions. Utilizing Euclidean distance as a measure of similarity, objects with similar properties and values accumulate to groups, so-called clusters, that are exposed by cluster analysis on the high-dimensional point cloud. Because similar vectors can be thought of as objects that are alike in terms of their attributes, the point cloud\''s structure and individual cluster properties, like their size or compactness, summarize data categories and their relative importance. The contribution of this thesis is a novel analysis approach for visual exploration of high-dimensional point clouds without suffering from structural occlusion. The work is based on implementing two key concepts: The first idea is to discard those geometric properties that cannot be preserved and, thus, lead to the typical artifacts. Topological concepts are used instead to shift away the focus from a point-centered view on the data to a more structure-centered perspective. The advantage is that topology-driven clustering information can be extracted in the data\''s original domain and be preserved without loss in low dimensions. The second idea is to split the analysis into a topology-based global overview and a subsequent geometric local refinement. The occlusion-free overview enables the analyst to identify features and to link them to other visualizations that permit analysis of those properties not captured by the topological abstraction, e.g. cluster shape or value distributions in particular dimensions or subspaces. The advantage of separating structure from data point analysis is that restricting local analysis only to data subsets significantly reduces artifacts and the visual complexity of standard techniques. That is, the additional topological layer enables the analyst to identify structure that was hidden before and to focus on particular features by suppressing irrelevant points during local feature analysis. This thesis addresses the topology-based visual analysis of high-dimensional point clouds for both the time-invariant and the time-varying case. Time-invariant means that the points do not change in their number or positions. That is, the analyst explores the clustering of a fixed and constant set of points. The extension to the time-varying case implies the analysis of a varying clustering, where clusters appear as new, merge or split, or vanish. Especially for high-dimensional data, both tracking---which means to relate features over time---but also visualizing changing structure are difficult problems to solve.
|
312 |
Analyse von Test-Pattern für SoC Multiprozessortest und -debugging mittels Test Access Port (JTAG)Vogelsang, Stefan, Köhler, Steffen, Spallek, Rainer G. 11 June 2007 (has links)
Bei der Entwickelung von System-on-Chip (SoC) Debuggern ist es leider hinreichend oft erforderlich
den Debugger selbst auf mögliche Fehler zu untersuchen. Da alle ernstzunehmenden Debugger
konstruktionsbedingt selbst ein eingebettetes System darstellen, erwächst die Notwendigkeit
eine einfache und sicher kontrollierbare Diagnose-Hardware zu entwerfen, welche den Zugang
zur Funktionsweise des Debuggers über seine Ausgänge erschließt.
Derzeitig ist der Test Access Port (TAP nach IEEE 1149.1-Standard) für viele Integratoren die
Grundlage für den Zugriff auf ihre instanzierte Hardware. Selbst in forschungsorientierten Multi-
Core System-on-Chip Architekturen wie dem ARM11MP der Firma ARM wird dieses Verfahren
noch immer eingesetzt.
In unserem Beitrag möchten wir ein Spezialwerkzeug zur Analyse des TAPKommunikationsprotokolles
vorstellen, welches den Einsatz teurer Analysetechnik (Logik-
Analysatoren) unnötig werden lässt und darüber hinaus eine komfortable, weitergehende
Unterstützung für Multi-Core-Systeme bietet.
Aufbauend auf der Problematik der Abtastung und Erfassung der Signalzustände am TAP
mittels FPGA wird auf die verschiedenen Visualisierungs- und Analyseaspekte der TAPProtokollphasen
in einer Multi-Core-Prozessor-Zielsystemumgebung eingegangen.
Die hier vorgestellte Lösung ist im Rahmen eines FuE-Verbundprojektes enstanden. Das Vorhaben
wird im Rahmen der Technologieförderung mit Mitteln des Europäischen Fonds für regionale
Entwicklung (EFRE) 2000-2006 und mit Mitteln des Freistaates Sachsen gefördert.
|
313 |
Studentensymposium Informatik Chemnitz 2012: Tagungsband zum 1. Studentensymposium Chemnitz vom 4. Juli 201205 December 2012 (has links)
In diesem Jahr fand das erste Studentensymposium Informatik Chemnitz (TUCSIS StudSym 2012) statt. Wir freuen uns, Ihnen in diesem Tagungsband studentische Beiträge präsentieren zu können.
Das Studentensymposium der Fakultät für Informatik der TU Chemnitz richtet sich an alle Studierende und Doktoranden der Informatik sowie angrenzender Disziplinen mit Schwerpunkt Informatik aus dem Raum Chemnitz. Das Symposium hat das Ziel, den Studierenden eine Plattform zu geben, ihre Projekte, Studienarbeiten und Forschungsvorhaben vorzustellen. Im Mittelpunkt des Symposiums stehen studentische Projekte aus Seminaren, Praktika, Abschlussarbeiten oder extracurricularen Aktivitäten. Das Symposium bietet die Möglichkeit, vor einem akademischen Publikum Ideen, Pläne und Ergebnisse zu präsentieren und zu diskutieren. Darüber hinaus sind Doktoranden eingeladen ihre Promotionsprojekte mit einem Poster zu präsentieren um dadurch Feedback von anderen jungen Wissenschaftlern und Professoren für ihre wissenschaftliche Arbeit zu erhalten.
|
314 |
Konzept, Funktionalität und erste exemplarische Ergebnisse des Monitors der Siedlungs- und Freiraumentwicklung (IÖR-Monitor)Meinel, Gotthard, Schumacher, Ulrich January 2010 (has links)
Die amtliche Flächenstatistik in Deutschland erweist sich aus verschiedenen Gründen als ergänzungsbedürftig. Die Auswertung von topographischen Geobasisdaten kann hier einen wesentlichen Beitrag zur Qualifizierung der jetzigen flächenstatistischen Berichtssysteme leisten. Daraus resultiert die Motivation für den Aufbau eines Monitors der Siedlungs- und Freiraumentwicklung (IÖR-Monitor).
Der Beitrag stellt nach Darstellung der Ziele, Grundlagen und Funktionen dieses Monitors erste exemplarische Ergebnisse einer Flächennutzungsanalyse Deutschlands auf Grundlage der genauesten topographischen Geobasisdaten (ATKIS Basis-DLM) vor. Dazu wurden die Siedlungs- und Verkehrsstruktur zu den Zeitschnitten 2006 und 2008 erfasst und in Form von Indikatoren auf Landes-, Kreis- und Gemeindeebene ausgewertet. Die zugrunde liegenden bundesweiten Flächennutzungsinformationen ermöglichen prinzipiell auch Indikatorberechnungen für nichtadministrative Bezugseinheiten wie Überschwemmungs- und Flusseinzugsgebiete oder quadratische Rasterzellen unterschiedlicher Größe. Die Vorteile der Nutzung topographischer Geobasisdaten für die
Analyse der Flächennutzung und ihrer Entwicklung werden gegenüber der katasterorientierten Sicht der amtlichen Flächenstatistik herausgestellt.
Ein Schwerpunkt des Beitrages liegt auf indikatorbasierten Siedlungs- und Verkehrsflächenanalysen. Darüber hinaus ermöglicht die Einbeziehung von Bevölkerungszahlen die Ermittlung von Dichte- bzw. Ausstattungsindikatoren (ausgewählte Flächennutzungsarten pro Einwohner). Straßen- und Schienennetzdichten können sowohl in Bezug auf die Gebietsfläche als auch nur den Siedlungsraum ausgewertet werden. Durch die georäumliche Verortung neuer Bauflächen wird zukünftig erstmals auch die Bestimmung der Relation städtebaulicher Innen- zur Außenentwicklung möglich.
Wegen des aufwändigen Fortführungsprozesses topographischer Geobasisdaten nach Kartenblattschnitten und der damit verbundenen Laufendhaltungszyklen ergeben sich teilweise größere Zeitintervalle für deren Grundaktualität. Deshalb wird beim IÖR-Monitor für jeden Indikator eine mittlere Aktualität zu jeder Gebietseinheit berechnet und in Karten- bzw. Tabellenform angezeigt. In den letzten Jahren gibt es deutliche Verbesserungen der Grundaktualität des ATKIS Basis-DLM in Deutschland, die auch aus diesem Grund die Nutzung dieser Daten für ein Monitoring der Flächennutzung nahelegen.
|
315 |
Analyse und Visualisierung der Siedlungsentwicklung mit SEMENTA®-CHANGEHecht, Robert, Herold, Hendrik, Meinel, Gotthard January 2010 (has links)
In diesem Beitrag werden Methoden der gebäudebasierten Erfassung der Siedlungsstruktur, deren Veränderung und Visualisierung vorgestellt. Die Analyse der Siedlungsentwicklung mit SEMENTA®-CHANGE basiert auf der automatisierten Auswertung topographischer Kartenwerke verschiedenster Zeitstände im Maßstab 1:25 000. Der Verfahrensansatz leistet einen wichtigen Beitrag für die Planung, da er für große Flächen eine Verortung der Gebäude-, Siedlungsflächen- und Siedlungsstrukturentwicklung der vergangenen Jahrzehnte erlaubt und sich daraus auch wertvolle Aussagen über die Wirksamkeit von raumplanerischen Instrumenten (z. B. Verhältnis der Innen- zur Außenentwicklung) ableiten lassen. Beispielhaft werden an ausgewählten Projektergebnissen das Anwendungspotenzial sowie die Grenzen des Verfahrens diskutiert.
|
316 |
Neue Analyse- und Visualisierungsmöglichkeiten im Monitor der Siedlungs- und Freiraumentwicklung (IÖR-Monitor)Förster, Jochen 02 March 2015 (has links)
Der Monitor der Siedlungs- und Freiraumentwicklung, kurz: „IÖR-Monitor“ informiert seit 2010 im Internet über die Entwicklung der Siedlungs- und Freiraumstruktur in Deutschland. Dabei befindet er sich in stetiger Weiterentwicklung, sowohl was das Indikatorenset betrifft, als auch die Visualisierungs- und die Analysemöglichkeiten. Der Beitrag beschreibt die neuesten Entwicklungen des Übersichts-Viewers und gibt einen Einblick in den entstehenden Detail-Viewer.
|
317 |
Pöppelmann 3D. Bücher - Pläne - Raumwelten: Katalog zur Ausstellung im Buchmuseum der Sächsischen Landesbibliothek, Staats- und Universitätsbibliothek (SLUB) vom 17. Mai bis 1. September 2013Tiller, Elisabeth, Lieber, Maria 23 August 2013 (has links)
Matthäus Daniel Pöppelmann prägte als Hofarchitekt Augusts des Starken das barocke Stadtbild Dresdens – vor allem durch den Bau des Zwingers. Pöppelmann ließ sich durch zeitgenössische Architektur höfischer Metropolen wie Rom, Wien und Paris/Versailles zu prachtvollen Entwürfen für das von August dem Starken erträumte neue Residenzareal in Dresden inspirieren.
Zusätzlich zu seinen dienstlichen Studienreisen durch Europa griff Pöppelmann hierfür auf Bücher zurück, um allmählich aus europäischen wie auch asiatischen Vorbildern eine eigene Formensprache zu generieren. Standardwerke über Architekturtheorie, Perspektive, klassische Säulenordnung sowie Mathematik und Mechanik, aber auch zeitgenössische Berichte von Gesandtschafts- und Handelsreisen nach Asien fand er in der kurfürstlichen Bibliothek vor. Pöppelmann legte jedoch auch eine eigene Büchersammlung an, deren Bestand in der Nachlassakte verzeichnet ist. Diese Privatbibliothek ist maßgeblich von beruflichen Interessen geprägt, offenbart aber auch deutliche Vorlieben Pöppelmanns, die von religiösen Gebrauchstexten über Geschichtswerke bis zur schönen Literatur reichen.
Pöppelmanns Büchersammlung kann dergestalt exemplarisch über den Wissenshorizont eines Beamten am sächsischen Hof zu Beginn des 18. Jahrhunderts Aufschluss geben. Sie verdeutlicht am konkreten Beispiel die Dynamiken der barocken Zirkulation von Wissen und deren Materialisierungen. Seitenblicke auf Büchersammlungen von Fach- und Hofkollegen ergänzen den Einblick in diesen Abschnitt europäischer Barockkultur.
|
318 |
Generation and Implementation of Virtual Landscapes for an Augmented Reality HMI-LaboratoryMilius, Jeannette 11 February 2014 (has links)
Three dimensional visualisation achieves tremendous savings in time and costs during the design process. Due to these circumstances this methods are gaining in importance. For example improvement in performance and the product security or enabling the operative optimization of a production sequence. By the virtual testing it is possible to validate a product in the whole developing process and product lifecycle. The flight simulator ATILa at Airbus Defence and Space in Friedrichshafen uses these advantages for own products. ATILa is used to test intelligent assistance systems for helicopter pilots. Here the graphic implementation of the virtual earth plays a key role when practicing realistical scenarios. This approach is implemented with the Common Database (CDB) which is enabled by the definition of specifications and standards. Different commercial software packages by Presagis are used to implement the aforementioned database. The software Terra Vista is used for the database generation, including the compilation. For the CDB implementation the software Vega Prime is used to prepare the data with the help of the RTP. The software Vega Prime is not able to display 3D models with LODs, due to a software error. Therefore a third software named Creator is used to modify them. The 3D models are available in the OpenFlight Format. This OpenFlight format consists of different kind of nodes with a complex hierarchical structure. Other software solutions, such as Autodesk or Blender, are not able to provide access to the specific structure. The edited models can be integrated in the virtual environment and have to defined by unambiguous indices. Various settings are used to implement the objects automatically. The compilation of the area of interest takes place by the definition of a geotile with a specific size depending on the latitude. The CDB ouput will be transferred by Vega Prime and with the help of the RTP into the simulator. In addition, there is the possibility to render various CDB databases in the simulator to enable a visualisation of the complete earth. Finally, any errors occurring will be described and methods of resolution explained. The complexity of the generation process of a CDB database could be represented with this thesis. However, the whole workflow of the visualisation of the earth is still in its initial stages, since among other things there are errors in the software. To sum up; the potential of the CDB can be evaluated as above average. / Die 3D Visualisierung vereinfacht den Planungsprozess und geht somit mit einer Zeit- und Kosten- einsparung einher. Aufgrund dieser Sachverhalte gewinnt sie immer weiter an Bedeutung, um zum Beispiel eine verbesserte und sichere Benutzung eines Produktes oder einen optimierten Betrieb einer Produktionskette zu ermöglichen. Durch vorherige virtuelle Erprobung und Vali- dierung eines Produktes können Kosten für den gesamten Entwicklungsprozess und den Pro- duktlebenszyklus gering gehalten werden. Im Flugsimulator für Helikopter namens ATILa in Friedrichshafen (Airbus Defence and Space) versucht man die genannten Vorteile für die eigenen Produkte zu nutzen. Im ATILa werden Assistenzsysteme geprüft, welche die Helikopterpiloten während ihres Fluges unterstützen sollen. Hierbei spielt die grafische Umsetzung der virtuellen Erde in dem Simulator eine entscheidende Rolle, um die Szenarien realitätsnah durchführen zu können. Dies kann mit Hilfe einer sogenannten Common Database (CDB), die durch Spezi- fikationen und Standards definiert ist, umgesetzt werden. Mittels verschiedener kommerzieller Softwarepakete der Firma Presagis lässt sich die oben genannte Datenbank erstellen. Die Gener- ierung und Kompilierung wird mit dem Softwareprogramm Terra Vista vorgenommen. Die Imple- mentierung der CDB in den Flugsimulator erfolgt mit der Software Vega Prime, welche die Daten über einen RTP zur Verfügung stellt. Da dieses Programm durch einen Softwarefehler nicht in der Lage ist, 3D Modelle mit verschiedenen Detaillierungsgraden darzustellen, muss eine dritte Soft- ware namens Creator genutzt werden. Die 3D Modelle liegen im OpenFlight Format vor. Dieses OpenFlight Format weist eine komplexe hierarchische Struktur aus verschiedenen Knoten auf. Andere Softwarelösungen, wie Autodesk oder Blender, sind nicht in der Lage einen Einblick in die spezielle Struktur zu geben. Die bearbeiteten Modelle können dann in der virtuellen Umgebung eingebunden und müssen durch eindeutige Indizes definiert werden. Verschiedene Einstellun- gen werden genutzt, um Objekte automatisch einzubinden. Die Kompilierung des Interessenge- bietes erfolgt über die Definition einer Geokachel mit einer bestimmten Größe, die abhängig vom Breitengrad ist. Die ausgegebene CDB wird mit Vega Prime und mit Hilfe des RTPs in den Simu- lator übertragen. Des Weiteren gibt es die Möglichkeit verschiedene CDB Datenbanken im Sim- ulator simultan zu rendern, was eine vollständige Visualisierung der kompletten Erde ermöglicht. Abschließend werden aufgetretene Fehler näher beschrieben und Lösungsansätze erläutert. Mit der vorliegenden Arbeit konnte die Komplexität der Entstehung einer CDB Datenbank dargestellt werden. Dennoch befindet sich der gesamte Arbeitsablauf der Visualisierung der Erde noch am Anfang, da u.a. Softwarefehler zu bemängeln sind. Zusammenfassend kann das Potenzial einer CDB als überdurchschnittlich bewertet werden.
|
319 |
Feedback-Driven Data ClusteringHahmann, Martin 28 October 2013 (has links)
The acquisition of data and its analysis has become a common yet critical task in many areas of modern economy and research. Unfortunately, the ever-increasing scale of datasets has long outgrown the capacities and abilities humans can muster to extract information from them and gain new knowledge. For this reason, research areas like data mining and knowledge discovery steadily gain importance. The algorithms they provide for the extraction of knowledge are mandatory prerequisites that enable people to analyze large amounts of information. Among the approaches offered by these areas, clustering is one of the most fundamental. By finding groups of similar objects inside the data, it aims to identify meaningful structures that constitute new knowledge. Clustering results are also often used as input for other analysis techniques like classification or forecasting.
As clustering extracts new and unknown knowledge, it obviously has no access to any form of ground truth. For this reason, clustering results have a hypothetical character and must be interpreted with respect to the application domain. This makes clustering very challenging and leads to an extensive and diverse landscape of available algorithms. Most of these are expert tools that are tailored to a single narrowly defined application scenario. Over the years, this specialization has become a major trend that arose to counter the inherent uncertainty of clustering by including as much domain specifics as possible into algorithms. While customized methods often improve result quality, they become more and more complicated to handle and lose versatility. This creates a dilemma especially for amateur users whose numbers are increasing as clustering is applied in more and more domains. While an abundance of tools is offered, guidance is severely lacking and users are left alone with critical tasks like algorithm selection, parameter configuration and the interpretation and adjustment of results.
This thesis aims to solve this dilemma by structuring and integrating the necessary steps of clustering into a guided and feedback-driven process. In doing so, users are provided with a default modus operandi for the application of clustering. Two main components constitute the core of said process: the algorithm management and the visual-interactive interface. Algorithm management handles all aspects of actual clustering creation and the involved methods. It employs a modular approach for algorithm description that allows users to understand, design, and compare clustering techniques with the help of building blocks. In addition, algorithm management offers facilities for the integration of multiple clusterings of the same dataset into an improved solution. New approaches based on ensemble clustering not only allow the utilization of different clustering techniques, but also ease their application by acting as an abstraction layer that unifies individual parameters. Finally, this component provides a multi-level interface that structures all available control options and provides the docking points for user interaction.
The visual-interactive interface supports users during result interpretation and adjustment. For this, the defining characteristics of a clustering are communicated via a hybrid visualization. In contrast to traditional data-driven visualizations that tend to become overloaded and unusable with increasing volume/dimensionality of data, this novel approach communicates the abstract aspects of cluster composition and relations between clusters. This aspect orientation allows the use of easy-to-understand visual components and makes the visualization immune to scale related effects of the underlying data. This visual communication is attuned to a compact and universally valid set of high-level feedback that allows the modification of clustering results. Instead of technical parameters that indirectly cause changes in the whole clustering by influencing its creation process, users can employ simple commands like merge or split to directly adjust clusters.
The orchestrated cooperation of these two main components creates a modus operandi, in which clusterings are no longer created and disposed as a whole until a satisfying result is obtained. Instead, users apply the feedback-driven process to iteratively refine an initial solution. Performance and usability of the proposed approach were evaluated with a user study. Its results show that the feedback-driven process enabled amateur users to easily create satisfying clustering results even from different and not optimal starting situations.
|
320 |
Aggregation, Filterung und Visualisierung von Nachrichten aus heterogenen Quellen - Ein System für den unternehmensinternen EinsatzLunze, Torsten, Feldmann, Marius, Eixner, Thomas, Canbolat, Serkan, Schill, Alexander January 2009 (has links)
No description available.
|
Page generated in 0.0805 seconds