• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 47
  • 30
  • 8
  • 4
  • Tagged with
  • 89
  • 29
  • 25
  • 21
  • 18
  • 16
  • 16
  • 16
  • 14
  • 14
  • 14
  • 14
  • 12
  • 10
  • 7
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Diffusive Oberflächenerzeugung zur realistischen Beschneiung virtueller Welten / Diffusive Surface Generation for Realistic Snow Cover Generation in Virtual Worlds

v. Festenberg, Niels 18 November 2010 (has links) (PDF)
In dieser Dissertation wird erstmalig ein theoretisches Fundament zur Beschneiung virtueller Szenen entwickelt. Das theoretische Fundament wird als analytisches Modell in Form einer Diffusionsgleichung formuliert. Aus dem analytischen Modell lässt sich eine Gruppe von Algorithmen zur Beschneiung virtueller Szenen ableiten. Eingehende Voruntersuchungen zur allgemeinen Modellierung natürlicher Phänomene in der Computergraphik sowie eine Klassifikation der bestehenden Literatur über mathematische Schneemodellierung bilden den Anfang der Arbeit. Aus der umfassenden Darstellung der Eigenschaften von Schnee, wie er in der Natur vorkommt, ergeben sich die Grundlagen für die Modellbildung. Die Modellbildung fußt auf den grundlegenden Ansätzen der klassischen Mechanik und der statistischen Physik. Für die Beschneiung auf visueller Skala erweist sich der Diffusionsprozess als geeignete Beschreibung. Mit der Beschreibung lassen sich diffusiv Schneeoberflächen erzeugen. Der konkrete computergraphische Wert des theoretischen Fundaments wird anhand zweier Implementierungen exemplarisch dargestellt, und zwar in der Distanzfeldmethode und der Diffusionskernmethode. Die Ergebnisse werden mithilfe dreidimensionaler Rauschtexturen und Alpha-Masken an den Rändern fotorealistisch visualisiert. / In this dissertation for the first time a theoretical foundation is developed for snow accumulation in virtual scenes. The theoretical foundation is formulated in an analytical model as diffusion equation. The analytical model leads to a group of algorithms for virtual snow accumulation. Comprehensive investigations for the modelling of natural phenomena in computer graphics in general are used to develop a method classification scheme. Another classification is given for an overview over the aspects of snow in the real world. This allows an efficient presentation of related literature on snow modelling. A new approach of snow modelling is then drawn from first principles of classical mechanics and statistical physics. Diffusion processes provide an efficient theoretical framework for snow accumulation. The mathematical structure of diffusion equations is discussed and demonstrated to be adequate to snow modelling in visual scales. The value of the theoretical foundation for computer graphics is demonstrated with two exemplary implementations, a distance field method and the diffusion kernel method. Results are visualized with 3D noise textures and alpha masks near borders delivering photorealistic snow pictures.
52

Der Pulvermaar-Vulkan

Diele, Laurence Martine January 2000 (has links) (PDF)
Das etwa 20 000 Jahre alte Pulvermaar in der Westeifel besitzt einen 72 m tiefen, zentral liegenden See und einen stellenweise mindestens 45 m mächtigen Tuffwall. Durch seinen außergewöhnlich guten Erhaltungszustand nimmt es eine Sonderstellung ein. Um auch den Tiefbau dieser Struktur besser kennenzulernen, wurden geophysikalische Messungen mit dem Ziel einer dreidimensionalen Modellierung durchgeführt. Über beides wird in dieser Arbeit berichtet. Den Schwerpunkt der geophysikalischen Untersuchungen bildet ein Gravimetrieprogramm mit der Erstellung einer Schwerekarte des Pulvermaars und seiner Umgebung. Im Rahmen dieser Schweremessungen hat der Einsatz des GPS-Systems zur Vermessung ein besonderes Gewicht. Die Magnetfeldmessungen der Totalintensität konzentrieren sich mit einem dichten Meßnetz auf den Seebereich (Messungen im Boot). Mit Widerstands-Tiefensondierungen der Geoelektrik wird versucht, zu einer präziseren Bestimmung der Tuffmächtigkeiten zu gelangen. Die gewonnene Schwerekarte dient einer dreidimensionalen Modellierung auf der Basis der Freiluftanomalie mit dem Programm IGMAS. Die verhältnismäßig kleine (negative) Schwere-anomalie von 1 - 2 mGal über dem Pulvermaar läßt vermuten, daß ein Basaltkörper in das Diatrem eingebettet ist und zur kleinen Amplitude beiträgt. Die Magnetfeldmessungen er-härten diese Vorstellung; das Ergebnis einer einfachen Modellierung für ein diametrales Profil ist mit einem 40 m mächtigen Basaltkörper grob 120 m unter Seeoberfläche ver-träglich. Die Ergebnisse der gravimetrischen und magnetischen Modellierung, die Mächtigkeitsab-schätzungen für die pyroklastischen Ablagerungen aufgrund der Geoelektrik-Messungen sowie die Einbeziehung einer Volumenkalkulation für die Pyroklastika führen zu einem detaillierten Modell für das Pulvermaar, das sich insbesondere durch ein 2000 m tief reichendes Diatrem auszeichnet. Eine Bearbeitung des Schwerefeldes mit der Berechnung von Gradientenfeldern führt zu einem bisher von Maaren nicht bekannten Ergebnis: Um das Pulvermaar herum existiert ein Hof erniedrigter Dichte mit einem Durchmesser von grob 2 km. Als Ursache wird eine Auf-lockerung des Gesteins durch Streß-Wellen angenommen, die ihren Ursprung in den wiederholten starken Eruptionen der Maar-Entstehung haben. Ebenfalls die Gradienten-felder der Gravimetrie zeigen Zusammenhänge zwischen der Struktur des Maares und der regionalen Tektonik auf. / The Pulvermaar is located in the Westeifel volcanic field. It is roughly 20000 years old and contains a 72 m deep, centrally situated maar lake as well as a partially at least 45 m thick tuff-rim. The Pulvermaar is very exceptional due to its good state of preservation. To learn more about the underground body of this structure, geophysical investigations were carried out aiming at a three-dimensional modeling. The core of the geophysical investigations represented a gravimetrical program in order to create a gravitational anomaly map of the Pulvermaar and its surroundings. The use of the GPS-system was of special importance for the gravimetrical measurements. The magnetic field measurements of the total intensity were mainly conducted in a fine pattern all over the lake-side (measurements on a boat). With the help of geoelectrical resistivity soundings one tried to precisely determine the thickness of the tuff deposits. The resulting gravity anomaly map serves a three-dimensional modeling based on free air anomaly with the software-program IGMAS. The relatively small (negative) gravitational anomaly of 1-2 mGal above the Pulvermaar leads to the assumption that a basaltic body is embedded in the diatreme and contributes to the small amplitude. The magnetic field measurements support this conception. The result of a simple modeling of a diametrical profile fits to a 40 m thick basaltic body located in about 120 m below the surface of the lake. The gravimetric and magnetic modeling, the estimation of the thickness of the pyroclastic deposits based on geoelectrical measurements, and the calculation of the volumina of the pyroclastic rocks lead to a detailled model for the Pulvermaar. This is espeacially characterized by a 2000 m deep diatreme. The processing of the gravity field by a calculation of its gradient fields leads to a result which is yet unknown for maarvolcanoes: the Pulvermaar is surrounded by a 2 km-diameter halo of reduced density. This can be explained by a relaxation of the rocks caused by stress-waves which originate from the repeatedly heavy eruptions during the formation of maarvolcanoe. Also, the gradients fields of the gravity show correlations between the structure of the maarvolcanoe and the regional tectonic.
53

Distributed Occlusion Culling for Realtime Visualization

Domaratius, Uwe 14 March 2007 (has links) (PDF)
This thesis describes the development of a distributed occlusion culling solution for complex generic scenes. Moving these calculations onto a second computer should decrease the load on the actual rendering system and therefore allow higher framerates. This work includes an introduction to parallel rendering systems and discussion of suitable culling algorithms. Based on these parts, a client-server system for occlusion culling is developed. The test results of a prototypical implementation form the last part of this thesis.
54

Applied Visualization in the Neurosciences and the Enhancement of Visualization through Computer Graphics

Eichelbaum, Sebastian 10 December 2014 (has links) (PDF)
The complexity and size of measured and simulated data in many fields of science is increasing constantly. The technical evolution allows for capturing smaller features and more complex structures in the data. To make this data accessible by the scientists, efficient and specialized visualization techniques are required. Maximum efficiency and value for the user can only be achieved by adapting visualization to the specific application area and the specific requirements of the scientific field. Part I: In the first part of my work, I address the visualization in the neurosciences. The neuroscience tries to understand the human brain; beginning at its smallest parts, up to its global infrastructure. To achieve this ambitious goal, the neuroscience uses a combination of three-dimensional data from a myriad of sources, like MRI, CT, or functional MRI. To handle this diversity of different data types and sources, the neuroscience need specialized and well evaluated visualization techniques. As a start, I will introduce an extensive software called \"OpenWalnut\". It forms the common base for developing and using visualization techniques with our neuroscientific collaborators. Using OpenWalnut, standard and novel visualization approaches are available to the neuroscientific researchers too. Afterwards, I am introducing a very specialized method to illustrate the causal relation of brain areas, which was, prior to that, only representable via abstract graph models. I will finalize the first part of my work with an evaluation of several standard visualization techniques in the context of simulated electrical fields in the brain. The goal of this evaluation was clarify the advantages and disadvantages of the used visualization techniques to the neuroscientific community. We exemplified these, using clinically relevant scenarios. Part II: Besides the data preprocessing, which plays a tremendous role in visualization, the final graphical representation of the data is essential to understand structure and features in the data. The graphical representation of data can be seen as the interface between the data and the human mind. The second part of my work is focused on the improvement of structural and spatial perception of visualization -- the improvement of the interface. Unfortunately, visual improvements using computer graphics methods of the computer game industry is often seen sceptically. In the second part, I will show that such methods can be applied to existing visualization techniques to improve spatiality and to emphasize structural details in the data. I will use a computer graphics paradigm called \"screen space rendering\". Its advantage, amongst others, is its seamless applicability to nearly every visualization technique. I will start with two methods that improve the perception of mesh-like structures on arbitrary surfaces. Those mesh structures represent second-order tensors and are generated by a method named \"TensorMesh\". Afterwards I show a novel approach to optimally shade line and point data renderings. With this technique it is possible for the first time to emphasize local details and global, spatial relations in dense line and point data. / In vielen Bereichen der Wissenschaft nimmt die Größe und Komplexität von gemessenen und simulierten Daten zu. Die technische Entwicklung erlaubt das Erfassen immer kleinerer Strukturen und komplexerer Sachverhalte. Um solche Daten dem Menschen zugänglich zu machen, benötigt man effiziente und spezialisierte Visualisierungswerkzeuge. Nur die Anpassung der Visualisierung auf ein Anwendungsgebiet und dessen Anforderungen erlaubt maximale Effizienz und Nutzen für den Anwender. Teil I: Im ersten Teil meiner Arbeit befasse ich mich mit der Visualisierung im Bereich der Neurowissenschaften. Ihr Ziel ist es, das menschliche Gehirn zu begreifen; von seinen kleinsten Teilen bis hin zu seiner Gesamtstruktur. Um dieses ehrgeizige Ziel zu erreichen nutzt die Neurowissenschaft vor allem kombinierte, dreidimensionale Daten aus vielzähligen Quellen, wie MRT, CT oder funktionalem MRT. Um mit dieser Vielfalt umgehen zu können, benötigt man in der Neurowissenschaft vor allem spezialisierte und evaluierte Visualisierungsmethoden. Zunächst stelle ich ein umfangreiches Softwareprojekt namens \"OpenWalnut\" vor. Es bildet die gemeinsame Basis für die Entwicklung und Nutzung von Visualisierungstechniken mit unseren neurowissenschaftlichen Kollaborationspartnern. Auf dieser Basis sind klassische und neu entwickelte Visualisierungen auch für Neurowissenschaftler zugänglich. Anschließend stelle ich ein spezialisiertes Visualisierungsverfahren vor, welches es ermöglicht, den kausalen Zusammenhang zwischen Gehirnarealen zu illustrieren. Das war vorher nur durch abstrakte Graphenmodelle möglich. Den ersten Teil der Arbeit schließe ich mit einer Evaluation verschiedener Standardmethoden unter dem Blickwinkel simulierter elektrischer Felder im Gehirn ab. Das Ziel dieser Evaluation war es, der neurowissenschaftlichen Gemeinde die Vor- und Nachteile bestimmter Techniken zu verdeutlichen und anhand klinisch relevanter Fälle zu erläutern. Teil II: Neben der eigentlichen Datenvorverarbeitung, welche in der Visualisierung eine enorme Rolle spielt, ist die grafische Darstellung essenziell für das Verständnis der Strukturen und Bestandteile in den Daten. Die grafische Repräsentation von Daten bildet die Schnittstelle zum Gehirn des Menschen. Der zweite Teile meiner Arbeit befasst sich mit der Verbesserung der strukturellen und räumlichen Wahrnehmung in Visualisierungsverfahren -- mit der Verbesserung der Schnittstelle. Leider werden viele visuelle Verbesserungen durch Computergrafikmethoden der Spieleindustrie mit Argwohn beäugt. Im zweiten Teil meiner Arbeit werde ich zeigen, dass solche Methoden in der Visualisierung angewendet werden können um den räumlichen Eindruck zu verbessern und Strukturen in den Daten hervorzuheben. Dazu nutze ich ein in der Computergrafik bekanntes Paradigma: das \"Screen Space Rendering\". Dieses Paradigma hat den Vorteil, dass es auf nahezu jede existierende Visualiserungsmethode als Nachbearbeitunsgschritt angewendet werden kann. Zunächst führe ich zwei Methoden ein, die die Wahrnehmung von gitterartigen Strukturen auf beliebigen Oberflächen verbessern. Diese Gitter repräsentieren die Struktur von Tensoren zweiter Ordnung und wurden durch eine Methode namens \"TensorMesh\" erzeugt. Anschließend zeige ich eine neuartige Technik für die optimale Schattierung von Linien und Punktdaten. Mit dieser Technik ist es erstmals möglich sowohl lokale Details als auch globale räumliche Zusammenhänge in dichten Linien- und Punktdaten zu erfassen.
55

Datenräume, Informationslandschaften, Wissensstädte zur Verräumlichung des Wissens und Denkens in der Computermoderne

Wagner, Kirsten January 2003 (has links)
Zugl.: Berlin, Humboldt-Univ., Diss., 2003
56

Zeitparametervariable Analyse und Visualisierung von Finanzdaten : Methoden der Investmentprozessbegleitung fondsgebundener Anlageformen /

Schelwies, Norman. Böselt, Martin January 2008 (has links) (PDF)
Tech. Univ., Diss.--Ilmenau, 2008.
57

Die Raummaschine : Raum und Perspektive im Computerspiel /

Schwingeler, Stephan. January 2008 (has links)
Zugl.: Trier, Universiẗat, Magisterarbeit u.d.T.: Schwingeler, Stephan: Raum und Perspektive im Computerspiel.
58

Standardisierte Auszeichnungssprachen der Computergraphik für interaktive Systeme

Rotard, Martin Christian. January 2005 (has links)
Stuttgart, Univ., Diss., 2005.
59

Occlusion culling and hardware accelerated volume rendering

Meißner, Michael. Unknown Date (has links) (PDF)
University, Diss., 2000--Tübingen. / Erscheinungsjahr an der Haupttitelstelle: 2000.
60

Intuitive und immersive Interaktion für virtuelle Umgebungen am Beispiel von VR-Design Review

Knöpfle, Christian. Unknown Date (has links)
Techn. Universiẗat, Diss., 2003--Darmstadt.

Page generated in 0.0407 seconds