• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 205
  • 120
  • 39
  • 4
  • Tagged with
  • 365
  • 192
  • 122
  • 120
  • 120
  • 106
  • 52
  • 36
  • 36
  • 36
  • 35
  • 25
  • 25
  • 23
  • 23
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
291

Visual Analytics for the Exploratory Analysis and Labeling of Cultural Data

Meinecke, Christofer 20 October 2023 (has links)
Cultural data can come in various forms and modalities, such as text traditions, artworks, music, crafted objects, or even as intangible heritage such as biographies of people, performing arts, cultural customs and rites. The assignment of metadata to such cultural heritage objects is an important task that people working in galleries, libraries, archives, and museums (GLAM) do on a daily basis. These rich metadata collections are used to categorize, structure, and study collections, but can also be used to apply computational methods. Such computational methods are in the focus of Computational and Digital Humanities projects and research. For the longest time, the digital humanities community has focused on textual corpora, including text mining, and other natural language processing techniques. Although some disciplines of the humanities, such as art history and archaeology have a long history of using visualizations. In recent years, the digital humanities community has started to shift the focus to include other modalities, such as audio-visual data. In turn, methods in machine learning and computer vision have been proposed for the specificities of such corpora. Over the last decade, the visualization community has engaged in several collaborations with the digital humanities, often with a focus on exploratory or comparative analysis of the data at hand. This includes both methods and systems that support classical Close Reading of the material and Distant Reading methods that give an overview of larger collections, as well as methods in between, such as Meso Reading. Furthermore, a wider application of machine learning methods can be observed on cultural heritage collections. But they are rarely applied together with visualizations to allow for further perspectives on the collections in a visual analytics or human-in-the-loop setting. Visual analytics can help in the decision-making process by guiding domain experts through the collection of interest. However, state-of-the-art supervised machine learning methods are often not applicable to the collection of interest due to missing ground truth. One form of ground truth are class labels, e.g., of entities depicted in an image collection, assigned to the individual images. Labeling all objects in a collection is an arduous task when performed manually, because cultural heritage collections contain a wide variety of different objects with plenty of details. A problem that arises with these collections curated in different institutions is that not always a specific standard is followed, so the vocabulary used can drift apart from another, making it difficult to combine the data from these institutions for large-scale analysis. This thesis presents a series of projects that combine machine learning methods with interactive visualizations for the exploratory analysis and labeling of cultural data. First, we define cultural data with regard to heritage and contemporary data, then we look at the state-of-the-art of existing visualization, computer vision, and visual analytics methods and projects focusing on cultural data collections. After this, we present the problems addressed in this thesis and their solutions, starting with a series of visualizations to explore different facets of rap lyrics and rap artists with a focus on text reuse. Next, we engage in a more complex case of text reuse, the collation of medieval vernacular text editions. For this, a human-in-the-loop process is presented that applies word embeddings and interactive visualizations to perform textual alignments on under-resourced languages supported by labeling of the relations between lines and the relations between words. We then switch the focus from textual data to another modality of cultural data by presenting a Virtual Museum that combines interactive visualizations and computer vision in order to explore a collection of artworks. With the lessons learned from the previous projects, we engage in the labeling and analysis of medieval illuminated manuscripts and so combine some of the machine learning methods and visualizations that were used for textual data with computer vision methods. Finally, we give reflections on the interdisciplinary projects and the lessons learned, before we discuss existing challenges when working with cultural heritage data from the computer science perspective to outline potential research directions for machine learning and visual analytics of cultural heritage data.
292

Bedarfsanalyse zur Darstellung von Daten im Bereich Learning Analytics aus Lernenden-Sicht

Kammer, Dietrich, Müller, Mathias 31 May 2023 (has links)
Learning Analytics beschreibt das Messen, Sammeln, Analysieren und Berichten von Daten, um Lernprozesse verstehen und verbessern zu können (Siemens und Long 2011). Eng verwandt mit Learning Analytics sind die Bereiche Academic Analytics und Educational Data Mining, die mit jeweils unterschiedlicher Ausrichtung ebenso die datenbasierte Überprüfung, Vorhersage und Änderung von akademischen Prozessen untersuchen (Baepler und Murdoch 2010). In diesem Beitrag fokussieren wir entsprechende Benutzungsschnittstellen, welche die gesammelten Daten visualisieren und verfügbar machen. ... [Aus: Einleitung]
293

Model-driven development and simulation of distributed communication systems

Brumbulli, Mihal 04 June 2015 (has links)
Verteilte Kommunikationssysteme haben in den letzten Jahren enorm an Bedeutung gewonnen, insbesondere durch die Vielzahl von Anwendungen in unserem Alltag. Die Heterogenität der Anwendungen und Anwendungsdomänen spricht für die Komplexität solcher Systeme und verdeutlicht die Herausforderungen, mit denen ihre Entwickler konfrontiert sind. Der Schwerpunkt dieser Arbeit liegt auf der Unterstützung des Entwicklungsprozesses von Anwendungen für verteilte Kommunikationssysteme. Es gibt zwei Aspekte, die dabei berücksichtigt werden müssen. Der erste und offensichtlichste ist die Unterstützung der Entwicklung der Anwendung selbst, die letztendlich auf der vorhandenen verteilten Kommunikationsinfrastruktur bereitgestellt werden soll. Der zweite weniger offensichtliche, aber genauso wichtige Aspekt besteht in der Analyse der Anwendung vor ihrer eigentlichen Installation. Anwendungsentwicklung und analyse sind also "zwei Seiten der gleichen Medaille". Durch die Berücksichtigung beider Aspekt erhöht sich jedoch andererseits der Aufwand bei der Entwicklung. Die Arbeit kombiniert und erweitert vorhandene Technologien entsprechend dem modellgetriebenen Entwicklungsparadigma zu einer einheitlichen Entwicklungsmethode. Die Eigenschaften der Anwendung werden in einer vereinheitlichten Beschreibung erfasst, welche sowohl die automatische Überführung in Installationen auf echten Infrastrukturen erlaubt, als auch die Analyse auf der Basis von Modellen. Darüber hinaus wird der Entwicklungsprozess mit zusätzlicher Unterstützung bei der Visualisierung der Analyse ergänzt. Die Praktikabilität des Ansatzes wird anschließend anhand der Entwicklung und Analyse einer Anwendung zur Erdbebenfrühwarnung unter Beweis gestellt. / Distributed communication systems have gained a substantial importance over the past years with a large set of examples of systems that are present in our everyday life. The heterogeneity of applications and application domains speaks for the complexity of such systems and the challenges that developers are faced with. The focus of this dissertation is on the development of applications for distributed communication systems. There are two aspects that need to be considered during application development. The first and most obvious is the development of the application itself that will be deployed on the existing distributed communication infrastructure. The second and less obvious, but equally important, is the analysis of the deployed application. Application development and analysis are like "two sides of the the same coin". However, the separation between the two increases the cost and effort required during the development process. Existing technologies are combined and extended following the model-driven development paradigm to obtain a unified development method. The properties of the application are captured in a unified description which drives automatic transformation for deployment on real infrastructures and/or analysis. Furthermore, the development process is complemented with additional support for visualization to aid analysis. The defined approach is then used in the development of an alarming application for earthquake early warning.
294

Towards a Unifying Visualization Ontology

Voigt, Martin, Polowinski, Jan 13 April 2011 (has links)
Although many terminologies, taxonomies and also first ontologies for visualization have been suggested, there is still no unified and formal knowledge representation including the various fields of this interdisciplinary domain. We moved a step towards such an ontology by systematically reviewing existing models and classifications, identifying important fields and discussing inconsistently used terms. Finally, we specified an initial visualization ontology which can be used for both classification and synthesis of graphical representations. Our ontology can also serve the visualization community as a foundation to further formalize, align and unify its existing and future knowledge.
295

The influence of physico-chemical surface properties and morphological and topological pore space properties on trapping (CCS) and recovery efficiency (EOR): a micromodel visualization study

Golmohammadi, Saeed 26 October 2023 (has links)
We theoretically and experimentally investigate the impact of pore space structure, wettability, and surface roughness on the displacement front, trapping, and sweeping efficiency at low capillary numbers. The microstructure of (i) 2D geologically-realistic media (2D natural sand and sandstone), (ii) a topological 3D-2D-transformation (2D sand analog), and (iii) geometrically representative media (Delaunay Triangulation) were studied over a wide range of wettability from water-wet to oil-wet systems provided by using various fluid-pairs. We observed the transition (compact to fractal) in the displacement front caused by local instabilities identified by Cieplak and Robbins. The trapping efficiency of 2D natural microstructures showed a non-monotonous dependency on wettability, whereas a crossover from no trapping to maximal trapping was observed in 2D patterns of circular grains. For the first time, we compared identical experimental microstructures with simulation, capturing the key elements of the invasion process. We demonstrated that corner flows occur particularly in low-porosity media, where the smaller grain-grain distance hindered the corner-flow bridging. These insights could improve the CO2 geological storage and Enhanced Oil Recovery processes.
296

Prozesssprachenbasiertes System zur Ansteuerung digitaler Menschmodelle als Teilkomponente einer Software zur Planung und Visualisierung menschlicher Arbeit in der Digitalen Fabrik / Process language based system for controlling digital human models as a software component for planning and visualization of human activities in the Digital Factory

Bauer, Sebastian 08 March 2016 (has links) (PDF)
Die Werkzeuge und Methoden der Digitalen Fabrik sind bereits seit vielen Jahren in den einzelnen Phasen des Produktentstehungsprozess im Einsatz. Sie werden dabei u.a. auch zur Planung und Gestaltung menschlicher Arbeit eingesetzt. Mit Hilfe digitaler Menschmodelle können Aspekte des Arbeitsablaufs, der Zeitwirtschaft und der Arbeitsplatzgestaltung bereits frühzeitig untersucht und verbessert werden. Die Entwicklung effizienter Simulationssysteme steht auf diesem Gebiet jedoch insbesondere im Vergleich mit anderen Bereichen, wie beispielsweise der Robotersimulation, noch am Anfang. Die vorliegende Arbeit beschäftigt sich zunächst mit der Analyse bereits existierender Menschmodell-Simulationssysteme. Aus den identifizierten Schwachstellen dieser Systeme und weiteren durch Experteninterviews sowie Literaturrecherche gewonnenen Erkenntnissen wird eine Anforderungsliste erstellt, die als Grundlage für die Konzeption und Umsetzung eines innovativen Ansatzes zur Ansteuerung und Bewegungsgenerierung für digitale Menschmodelle dient. Diese neuartige Methodik wird schließlich in ein Simulations-Softwaresystem implementiert und anschließend im Praxis-Einsatz evaluiert. Es konnte gezeigt werden, dass das neue System die Mängel der vorhandenen Systeme behebt und somit als Werkzeug zur effizienten Planung, Gestaltung und Bewertung menschlicher Arbeit geeignet ist. / For many years the tools and methods of the Digital Factory are used in various stages of the product development process. They are also used for the planning and design of human work, which is typically done using a digital human model. Aspects of the workflow, time management and workplace design can be investigated and improved upon in the early stages of the product development process using digital human models. But in this field the development of efficient simulation systems is not matured enough compared to other fields for e.g. robot simulation. This paper starts with an analysis of existing simulation systems for digital human models. Afterwards a requirements list is created from the identified weaknesses of these systems, knowledge gained through expert interviews and literature reviews. These requirements serve as the base for the design and implementation of an innovative approach for motion generation and control of digital human models. This new methodology is then implemented as a simulation software system and evaluated in practical applications. The developed system fixed the shortcomings of existing systems and thus it is a suitable tool for efficient planning, design and evaluation of human labor.
297

Visualisierung von Service-Frontends in einem Werkzeug zur präsentationsorientierten Komposition annotierter Dienste / Graphical Representation of Service-Frontends in a Tool for presentation-oriented Composition of annotated Services.

Dannecker, Lars 11 January 2010 (has links) (PDF)
Das Ziel des ServFace Projektes ist es Endnutzern ohne umfangreiche IT-Kenntnisse das einfache Erstellen von servicebasierten Anwendungen zu ermöglichen. Dazu wird ein Kompositions- werkzeug mit dem Namen “ServFace Builder“ verwendet. Das Werkzeug erlaubt es Endnutzern, interaktive Anwendungen durch die Komposition von Service-Operationen zu erstellen. Dafür ist eine grafische Repräsentation der Service-Operationen durch UI-Fragmente notwendig. Die UI-Fragmente werden im ServFace-Umfeld als Frontends bezeichnet. In der vorliegenden Arbeit wird ein Konzept zur automatischen Visualisierung dieser Frontends vorgestellt. Um das Ergebnis der Visualisierung zu verbessern, nutzt der Visualisierungsprozess neben der Service-Beschreibung weitere Informationen in Form von Annotationen und Gestaltungsempfehlungen. Konkret werden die folgenden Aspekte in dieser Arbeit beschrieben: • Visualisierung von Frontends zur Repräsentation von Service-Operationen auf Basis von Service-Beschreibungen, Annotationen, Plattformspezifikationen und Gestaltungsempfehlungen unter der Maßgabe der Gebrauchstauglichkeit und Nutzbarkeit. • Integration der Frontends in die jeweils aktuelle Instanzen des gegebenen Anwendungsmodells. • Technische Umsetzung und Evaluation der entwickelten Konzepte / The aim of the ServFace Project is to enable users with limited IT skills to easily create service-based applications. In order to do so, a tool called "ServFace Builder" has been developed. This tool allows users to build a composite application by combining several service operations. An important part of the ServFace Builder is the graphical representation of those service operations through user interfaces. This thesis describes an approach to automatically generate user interfaces for service operations. To enhance the graphical representation, the user interface generation process of the ServFace Builder comprises annotations and design recommendations next to the common service descriptions to enhance the result of the generation process. This thesis discusses: • Graphical representation of service operations on the basis of service descriptions, annotations, plattform specifications and design recommendations. • Integration of the graphical representation into the actual instance of the given application model. • Implementation and evaluation of the presented concepts.
298

Konzeption und Entwicklung eines automatisierten Workflows zur geovisuellen Analyse von georeferenzierten Textdaten(strömen) / Microblogging Content / Concept and development of an automated workflow for geovisual analytics of georeferenced text data (streams) / microblogging content

Gröbe, Mathias 27 October 2016 (has links) (PDF)
Die vorliegende Masterarbeit behandelt den Entwurf und die exemplarische Umsetzung eines Arbeitsablaufs zur Aufbereitung von georeferenziertem Microblogging Content. Als beispielhafte Datenquelle wurde Twitter herangezogen. Darauf basierend, wurden Überlegungen angestellt, welche Arbeitsschritte nötig und mit welchen Mitteln sie am besten realisiert werden können. Dabei zeigte sich, dass eine ganze Reihe von Bausteinen aus dem Bereich des Data Mining und des Text Mining für eine Pipeline bereits vorhanden sind und diese zum Teil nur noch mit den richtigen Einstellungen aneinandergereiht werden müssen. Zwar kann eine logische Reihenfolge definiert werden, aber weitere Anpassungen auf die Fragestellung und die verwendeten Daten können notwendig sein. Unterstützt wird dieser Prozess durch verschiedenen Visualisierungen mittels Histogrammen, Wortwolken und Kartendarstellungen. So kann neues Wissen entdeckt und nach und nach die Parametrisierung der Schritte gemäß den Prinzipien des Geovisual Analytics verfeinert werden. Für eine exemplarische Umsetzung wurde nach der Betrachtung verschiedener Softwareprodukte die für statistische Anwendungen optimierte Programmiersprache R ausgewählt. Abschließend wurden die Software mit Daten von Twitter und Flickr evaluiert. / This Master's Thesis deals with the conception and exemplary implementation of a workflow for georeferenced Microblogging Content. Data from Twitter is used as an example and as a starting point to think about how to build that workflow. In the field of Data Mining and Text Mining, there was found a whole range of useful software modules that already exist. Mostly, they only need to get lined up to a process pipeline using appropriate preferences. Although a logical order can be defined, further adjustments according to the research question and the data are required. The process is supported by different forms of visualizations such as histograms, tag clouds and maps. This way new knowledge can be discovered and the options for the preparation can be improved. This way of knowledge discovery is already known as Geovisual Analytics. After a review of multiple existing software tools, the programming language R is used to implement the workflow as this language is optimized for solving statistical problems. Finally, the workflow has been tested using data from Twitter and Flickr.
299

Pöppelmann 3D. Bücher - Pläne - Raumwelten

23 August 2013 (has links) (PDF)
Matthäus Daniel Pöppelmann prägte als Hofarchitekt Augusts des Starken das barocke Stadtbild Dresdens – vor allem durch den Bau des Zwingers. Pöppelmann ließ sich durch zeitgenössische Architektur höfischer Metropolen wie Rom, Wien und Paris/Versailles zu prachtvollen Entwürfen für das von August dem Starken erträumte neue Residenzareal in Dresden inspirieren. Zusätzlich zu seinen dienstlichen Studienreisen durch Europa griff Pöppelmann hierfür auf Bücher zurück, um allmählich aus europäischen wie auch asiatischen Vorbildern eine eigene Formensprache zu generieren. Standardwerke über Architekturtheorie, Perspektive, klassische Säulenordnung sowie Mathematik und Mechanik, aber auch zeitgenössische Berichte von Gesandtschafts- und Handelsreisen nach Asien fand er in der kurfürstlichen Bibliothek vor. Pöppelmann legte jedoch auch eine eigene Büchersammlung an, deren Bestand in der Nachlassakte verzeichnet ist. Diese Privatbibliothek ist maßgeblich von beruflichen Interessen geprägt, offenbart aber auch deutliche Vorlieben Pöppelmanns, die von religiösen Gebrauchstexten über Geschichtswerke bis zur schönen Literatur reichen. Pöppelmanns Büchersammlung kann dergestalt exemplarisch über den Wissenshorizont eines Beamten am sächsischen Hof zu Beginn des 18. Jahrhunderts Aufschluss geben. Sie verdeutlicht am konkreten Beispiel die Dynamiken der barocken Zirkulation von Wissen und deren Materialisierungen. Seitenblicke auf Büchersammlungen von Fach- und Hofkollegen ergänzen den Einblick in diesen Abschnitt europäischer Barockkultur.
300

Berechnung der Schallausbreitung in transversalisotropen Werkstoffen zur Festlegung optimaler Parameter für die Ultraschallprüfung mit Gruppenstrahlern durch Einführung einer vierdimensionalen Punktrichtwirkung / Modelling of the sound propagation in transversely isotropic materials for the determination of optimised parameters for the ultrasonic testing with phased arrays by introduction of a four-dimensional directivity pattern

Völz, Uwe 19 December 2014 (has links) (PDF)
Die zerstörungsfreie Ultraschallprüfung von akustisch anisotropen Werkstoffen stellt auch heute noch eine Herausforderung dar. Die Gefügestruktur in solchen Materialien beeinflusst die Wellenausbreitung derart, dass es zum einen zu starken Streuungen durch die großflächigen Korngrenzen und zum anderen, aufgrund der akustischen Anisotropie, zu einer Richtungsabhängigkeit der Schallgeschwindigkeiten kommt. In den vergangenen Jahren wurden bereits Lösungsansätze zur mathematischen Modellierung der Schallausbreitung in anisotropen Materialien vorgestellt. Diese basieren in der Regel auf FEM- bzw. FIT- Algorithmen, die durch die Diskretisierung des gesamten Volumens einen hohen Rechenaufwand erfordern und in der täglichen Prüfpraxis aufgrund ihrer Komplexität bei der Parametrierung nur bedingt einsetzbar sind. Aus diesem Grund wird hier ein Ansatz zur Schallfeldberechnung gewählt, der auf die praktische Anwendung von Gruppenstrahler-Prüfköpfen zugeschnitten ist. Während sich andere Verfahren auf einzelne Wellenanteile und monofrequente Lösungen beschränken, um den Rechenaufwand zu reduzieren, können mit diesem Ansatz die reale Signalform des Prüfkopfes sowie alle auftretenden Wellenanteile in homogenen transversalisotropen Medien berücksichtigt werden. Durch entsprechende Optimierungen im Berechnungsalgorithmus lässt sich das gesamte vierdimensionale Schallfeld eines Gruppenstrahler-Prüfkopfes im Halbraum in kürzester Zeit berechnen. Die analytische Lösung der Wellengleichung für den Halbraum in Form einer Greenschen Funktion wird dabei in eine Gleichung umgeformt, die hier als vierdimensionale Punktrichtwirkung bezeichnet wird. Dieser Modellansatz ermöglicht es, die Parameter eines Gruppenstrahlersystems in der praktischen Anwendung zu überprüfen und durch iterative Rechnungen zu optimieren. Mit Hilfe einer einfach zu handhabenden Visualisierungstechnik ist es möglich diesen Modellansatz mit realen Schallfeldmessungen zu vergleichen. Dazu werden mit elektrodynamischen Sonden die einzelnen Komponenten des dreidimensionalen Vektors der Teilchenverschiebung an der Oberfläche von Festkörpern abgetastet. Die an den Messpunkten ermittelten Zeitfunktionen des Verschiebungsvektors werden dann dem berechneten Zeitverlauf der Wellenausbreitung gegenübergestellt. Die berechneten und gemessenen Schallfelder stimmen in der Phasenlage und im Amplitudenverlauf gut überein. Die Ergebnisse zeigen, dass mit dem verwendeten Rechenmodell alle in der Realität auftretenden Wellenanteile vollständig berücksichtigt werden und dreidimensionale Problemstellungen aus der Praxis mit diesem Modell korrekt berechnet werden können. / The non-destructive ultrasonic testing of acoustic anisotropic materials is an important challenge. The texture of these materials causes a strong scattering of the sound wave by the extensive grain boundaries and a direction dependent sound velocity by the acoustic anisotropy. Several approaches for the modelling of the sound propagation in anisotropic materials were presented in the last years. These approaches are normally based on FEM or FIT algorithms using a discretisation of the complete volume. Their calculation needs extensive time and a very complex parameterisation. Thus these algorithms are not suitable in practice of ultrasonic testing. In this work an approach is presented that is optimised for the application of phased array transducers. The new approach considers the real frequency spectrum of the transducer as well as all occurring wave modes in homogeneous transversely isotropic media, whereas other approaches are limited to solutions for single wave modes and single frequencies to reduce the calculation effort. The appropriate optimisations of the mathematical algorithm allow the fast calculation of the complete four-dimensional transient wave field of a phased array transducer in the half-space. The Green’s functions are derived by an analytical solution of the elastodynamic wave equation for the half-space. These functions will be transformed into an equation which will be referred to in this work as four-dimensional directivity pattern. This approach allows the verification of the parameters of a phased array system and their optimisation by iterative calculations in the practical application. To get accurate results in these calculations, the experimental verification of the applied mathematical model for the wave propagation is an essential task. The technique presented in this work applies electrodynamic probes, which provides a simple use. The probes can detect the particle displacement at a solid surface in all three spatial directions. The measured time-functions of the wave field will be compared with the calculated time-functions. They show a good accordance in the phase and the amplitude. This confirms that the applied mathematical model considers completely all in practice occurring wave modes. The results further show that three-dimensional problems in practice can be calculated correctly with this model.

Page generated in 0.0926 seconds