• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 3
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 7
  • 7
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Dust in Large Optical Surveys

Schlafly, Edward Ford 03 August 2012 (has links)
We present results studying the distribution and properties of the diffuse dust in the Milky Way Galaxy using large optical surveys—specifically, the Sloan Digital Sky Survey (SDSS) and the Panoramic Survey Telescope and Rapid Response System 1 (Pan-STARRS1). This work has resulted in accurate measurements of dust reddening in regions of low extinction over large regions of sky. We present maps of reddening from dust covering the footprint of the SDSS, which covers one quarter of the sky. We present preliminary maps of dust covering the Pan-STARRS1 footprint, which covers three-quarters of the sky, including most of the plane of our Galaxy. We use these maps of dust to decisively exclude some simple parameterizations of dust extinction (Cardelli et al., 1989) in favor of others (Fitzpatrick, 1999). We show that the extinction predicted by the widely-used far-infrared dust map of Schlegel et al. (1998) is overestimated by 18%, and recalibrate that map using our extinction measurements. We further map variation in the properties of the dust, as indicated by variation in the amount of extinction relative to the amout of far-infrared dust extinction, and by variation in the ratio of dust extinction at different frequencies. We confirm these results by measuring reddening using two independent techniques and data sets, the SDSS photometry and spectroscopy. We further present the photometric calibration of the Pan-STARRS1 data—a necessary step to studying the dust with that ongoing survey. We achieve photometric precision unprecedented in a large optical survey, accurate to better than 1%. We additionally show the suitability of the calibrated photometry for studying the distribution of dust. Finally, we present preliminary three-dimensional maps of the dust in the Galaxy using our calibrated data from Pan-STARRS1. These maps will provide by far the most extensive information yet achieved about the three-dimensional distribution of extinction in the Galaxy. / Physics
2

Gaia : de la validation des données aux paramètres du Red Clump / Gaia : from the data validation to the Red Clump parameters

Ruiz-Dern, Laura 08 November 2016 (has links)
La mission Gaia de l'Agence Spatiale Européenne (ESA) a pour objectif de cartographier notre galaxie avec une précision astrométrique jamais atteinte auparavant. Il est donc particulièrement important que les données qui seront publiées soient rigoureusement validées afin d'assurer une qualité optimum au Catalogue. Ces validations sont faites par l'une des équipes de l'unité de coordination CU9 du Consortium Gaia DPAC (Data Processing and Analys Consortium) chargé par l'ESA de la production du Catalogue Gaia. Dans le cadre de cette thèse, nous avons mis en place toute l’infrastructure nécessaire à la validation du catalogue Gaia par comparaison avec des catalogues externes. Celle-ci gère toutes les interactions avec l'environnement global des validations et avec la base de données Gaia. Ensuite nous avons développé un ensemble de tests statistiques pour valider les données du premier catalogue Gaia (DR1). Ces tests concernent notamment l’homogénéité des données sur le ciel, la qualité des positions et de la photométrie de l'ensemble des étoiles de DR1 (plus d'un milliard d'étoiles, $V<20$) ainsi que celle des parallaxes et mouvements propres des étoiles de textit{Tycho-Gaia} Astrometric Solution (TGAS), environ deux millions d'étoiles communes aux catalogues Gaia et Tycho-2 ($V<12$). Ces tests statistiques sur la DR1 sont opérationnels et ont déjà été appliqués très récemment sur des données préliminaires. Cela a déjà permis d'améliorer ces données (donc la qualité du catalogue), et d'en caractériser les propriétés statistiques. Cette caractérisation est essentielle à une exploitation scientifique correcte des données. Le premier catalogue Gaia sera publié à la fin de l’été 2016. Parmi les objets observés par Gaia, il y a une population d'étoiles particulièrement intéressantes, les étoiles du Red Clump (RC), très utilisées comme étalons de distance. Nous avons développé et testé deux méthodes pour modéliser les relations couleur-couleur (CC) et température effective - couleur dans toutes les bandes photométriques, de l'ultraviolet au proche-infrarouge. Elles permettront de caractériser le RC dans la bande G de Gaia dès la publication du catalogue: 1. en utilisant des modèles théoriques, et 2. empiriquement, en se basant sur une méthode Monte Carlo Markov Chain (MCMC). Pour cela nous avons très rigoureusement sélectionné des échantillons d'étoiles avec une bonne qualité photométrique, une bonne métallicité, déterminée par spectroscopie, une température effective homogène et une faible extinction interstellaire. À partir de ces calibrations CC et température-couleur, nous avons ensuite développé une méthode par Maximum de Vraisemblance qui permet de déterminer les magnitudes absolues, les températures et les extinctions des étoiles du RC. Les couleurs et extinctions ainsi obtenues ont été testées sur des étoiles avec des températures effectives mesurées spectroscopiquement et une extinction déterminée par la mesure des Bandes Diffuses Interstellaires (DIB). Ces propriétés intrinsèques des étoiles du RC vont permettre de caractériser le Red Clump Gaia et de calibrer, dans la bande Gaia, la magnitude absolue de cet étalon de distance, premier échelon essentiel de la détermination des distances dans l'Univers. / The Gaia mission of the European Space Agency (ESA) aims to map our galaxy with an unprecedented astrometric precision. It is therefore very important that the data that will be published be rigorously validated to ensure an optimal quality in the Catalogue. These validations are done by one of the teams of the coordination unit CU9 of the Gaia DPAC Consortium (Data Processing and Analysis Consortium) commissioned by ESA of the Gaia catalogue production. As part of this thesis, we implemented all the necessary infrastructure to validate the Gaia catalogue by comparison with external catalogues. This last manages all the interactions with the global environment of validations and with the Gaia database. Then we developed a set of statistical tests to validate the data from the first Gaia catalogue (DR1). These tests relate in particular to the homogeneity of data on the sky, the quality of the positions and of photometry of all the stars of DR1 (more than a billion stars, $V <20$) as well as that of the parallaxes and proper motions for textit{Tycho-Gaia} Astrometric Solution (TGAS) stars, around two million stars in common in Gaia and Tycho-2 catalogues ($V <12$).These DR1 statistical tests are operational and were already applied very recently on preliminary data. This has improved the data (thus the quality of the catalog) as well as allowed to characterize the statistical properties. This characterisation is essential for a correct scientific exploitation of the data. The first Gaia catalogue will be released in late summer 2016.Among the objects that Gaia observes, there is a population of stars particularly interesting, the Red Clump (RC) stars, widely used for distance indicators. We developed and tested two methods to model the colour-colour (CC) and effective temperature - colour relations in all photometric bands, from the ultraviolet to the near infrared. They will allow us to characterize the RC in the Gaia G band upon publication of the catalogue: 1. using theoretical models, and 2. empirically, based on a Monte Carlo Markov Chain (MCMC) method. For this we have very carefully selected samples of stars with a good photometric quality, good metallicity determined by spectroscopy, an homogeneous effective temperature and a low interstellar extinction.From these CC and temperature-colour calibrations, we then developed a Maximum Likelihood method that allows to derive absolute magnitudes, temperatures and extinctions of the RC stars. Estimates of colours and extinctions are tested on stars with spectroscopically measured effective temperatures and an extinction determined by the measurement of Diffuse Interstellar Bands (DIB). These intrinsic properties of RC stars will allow to characterize the Gaia RC and calibrate, within the Gaia G band, the absolute magnitude of this standard candle, first essential step of determining distances in the Univers.
3

Analysis of historical solar observations and long-term changes in solar irradiance

Chatzistergos, Theodosios 02 June 2017 (has links)
No description available.
4

Optical cartography of the Northern Galactic Plane

Farnhill, Hywel John January 2016 (has links)
Counting stars as a means of studying the structure of the Milky Way has a long history, which has progressed significantly with the undertaking of large-area surveys. Photographic surveys have been supplanted with the advent of CCD technology by digital surveys, which provide improved data quality allowing better calibration and fainter limits to be probed reliably. The INT/WFC Photometric H Survey of the Northern Galactic Plane (IPHAS) provides broad-band r0 and i0 photometry down to 20th magnitude at Galactic latitudes jbj < 5 . In this work I make use of the opportunity that IPHAS photometry provides to create stellar number density maps of the Northern Galactic Plane. I produce preliminary maps which are used to identify and exclude poor quality data during the preparation of the second data release of the survey (DR2). By crossmatching IPHAS against the AAVSO Photometric All-Sky Survey (APASS), I derive transformations between the two photometric systems, and measure the per-IPHAS- field magnitude shifts needed to bring the two surveys in line before a global calibration can be applied. Repeating the crossmatching approach between IPHAS and the Sloan Digital Sky Survey (SDSS), I derive transformations between the two surveys and assess their agreement before and after global photometric calibration, in order to gauge the improvement achieved. The effects of incompleteness begin to affect the fainter end of any photometric survey as a consequence of confusion and sensitivity limits. I present the application of artificial source insertion on every broad-band IPHAS DR2 image in order to measure the impact of incompleteness across the entire survey. These measurements are used to construct incompleteness-corrected density maps down to magnitude limits of r0 . 19 and i0 . 18 at an angular resolution of 1 arcminute. These maps represent a unique data product which has applications in studies of Galactic structure and extinction. I perform a cluster search on the i0-band density map, which in addition to returning 71 known clusters, identifies 29 overdensities unassociated with any known clusters. I compare the stellar densities given by my maps to those in simulated versions of the Milky Way generated by models of Galactic population synthesis. I examine the Gaia Universe Model Snapshot (GUMS), a catalogue which predicts the sky as may be observed by the Gaia mission. In order to make meaningful comparisons between GUMS and IPHAS I determine transformations between the two photometric surveys. The results of the comparison are mixed. I also make use of the 2003 Besan con model of Galactic population synthesis to generate catalogues of synthetic photometry along three sightlines in the IPHAS footprint in order to test different 3D extinction prescriptions. The lowest Galactic longitudes (` 30 ) prove to be particularly challenging to emulate, suggesting 3D mapping of optical extinction in the Galactic Plane is not yet a mature art. The main problem appears to be one of underprediction of the obscuration.
5

Kalibrierverfahren und optimierte Bildverarbeitung für Multiprojektorsysteme / Calibration methods and optimized image processing for multi-projector display systems

Heinz, Marcel 28 November 2013 (has links) (PDF)
Gegenstand der vorliegenden Dissertation ist die Entwicklung von Kalibrierverfahren und Algorithmen zur Bildverarbeitung im Kontext von Multiprojektorsystemen mit dem Ziel, die Einsatzmöglichkeiten von derartigen Anlagen zu erweitern und die Nutzerakzeptanz solcher Systeme zu steigern. Die Arbeit konzentriert sich dabei insbesondere auf (annähernd) planare Mehrsegment-Projektionsanlagen, die aus preisgünstigen, nicht speziell für den Visualisierungbereich konzipierten Consumer- und Office-Projektoren aufgebaut werden. Im ersten Teil der Arbeit werden bestehende Verfahren zur geometrischen Kalibrierung, zum Edge-Blending sowie zur Helligkeits- und Farbanpassung auf ihre Eignung im Hinblick auf die Anforderungen untersucht und Erweiterungen entwickelt. Für die kamerabasierte Geometrie- Kalibrierung wird mit Lininenpattern gearbeitet, wobei ein effizienter rekursiver Algorithmus zur Berechnung der Schnittpunkte bei leicht gekrümmten Oberflächen vorgestellt wird. Für das Edge-Blending wird ein generalisiertes Modell entwickelt, das mehrere bestehende Ansätze kombiniert und erweitert. Die vorgenommene Modifikation der Distanzfunktion erlaubt insbesondere die bessere Steuerung des Helligkeitsverlaufs und ermöglicht weichere Übergänge an den Grenzen der Überlappungszonen. Es wird weiterhin gezeigt, dass das Edge-Blending mit bestehenden Ansätzen zum Ausgleich der Helligkeitsunterschiede wie Luminance Attenutation Maps kombiniert werden kann. Für die photometrische Kalibrierung ist die Kenntnis der Farb-Transferfunktion, also der Abbildung der Eingabe-Farbwerte auf die tatsächlich vom Projektor erzeugten Ausgaben, unerlässlich. Die herkömmlichen Ansätze betrachten dabei vorwiegend RGB-Projektoren, bei denen die dreidimensionale Transferfunktion in drei eindimensionale Funktionen für jeden Farbkanal zerlegt werden kann. Diese Annahme trifft jedoch auf die betrachteten Projektoren meist nicht zu. Insbesondere DLP-Projektoren mit Farbrad verfügen oft über zusätzliche Grundfarben, so dass der Farbraum deutlich von einem idealen RGB-Modell abweicht. In dieser Arbeit wird zunächst ein empirisches Modell einer Transferfunktion vorgestellt, das sich für derartige Projektoren besser eignet, allerdings die Helligkeit der Projektoren nicht vollständig ausnutzt. Im zweiten Teil der Arbeit wird ein kamerabasiertes Messverfahren entwickelt, mit dem direkt die dreidimensionale Farb-Transferfunktion ermittelt werden kann. Gegenüber bestehenden Verfahren werden tausende von Farbsamples gleichzeitig erfasst, so dass die erreichbare Sampledichte unter praxisrelevanten Messbedingungen von 17x17x17 auf 64x64x64 erhöht und damit die Qualität der photometrischen Kalibrierung signifikant gesteigert werden kann. Weiterhin wird ein Schnellverfahren entwickelt, dass die Messungsdauer bei 17x17x17 Samples von mehreren Stunden mit bisherigen Verfahren auf weniger als 30 Minuten reduziert. Im dritten Teil werden Algorithmen zur effizienten Bildverarbeitung entwickelt, die der GPU-basierten Anwendung der Kalibrierparameter auf die darzustellenden Bilddaten in Echtzeit dienen. Dabei werden die Möglichkeiten zur Vermeidung redundanter Berechnungsschritte beim Einsatz Stereoskopie-fähiger Projektoren ausgenutzt. Weiterhin wird das eigentliche Kalibrierverfahren effizient mit Verfahren zur Konvertierung von stereoskopischen Bildverfahren kombiniert. Es wird gezeigt, dass ein einzelner PC aus Standardkomponenten zur Ansteuerung einer Mehrsegment-Projektionsanlage mit bis zu 6 Projektoren ausreicht. Die Verwendung von DVI-Capture-Karten ermöglicht dabei den Betrieb einer solchen Anlage wie einen "großen Monitor" für beliebige Applikationen und Betriebssysteme.
6

Contributions to Monocular Deformable 3D Reconstruction : Curvilinear Objects and Multiple Visual Cues / Contributions à la reconstruction 3D déformable monoculaire : objets curvilinéaires et indices visuels multiples

Gallardo, Mathias 20 September 2018 (has links)
La reconstruction 3D monoculaire déformable est le problème général d'estimation de forme 3D d'un objet déformable à partir d'images 2D. Plusieurs scénarios ont émergé : le Shape-from-Template (SfT) et le Non-Rigid Structure-from-Motion (NRSfM) sont deux approches qui ont été grandement étudiées pour leur applicabilité. La première utilise une seule image qui montre un objet se déformant et un patron (une forme 3D texturée de l'objet dans une pose de référence). La seconde n'utilise pas de patron, mais utilise plusieurs images et estime la forme 3D dans chaque image. Les deux approches s'appuient sur le mouvement de points de correspondances entre les images et sur des a priori de déformations, restreignant ainsi leur utilisation à des surfaces texturées qui se déforment de manière lisse. Cette thèse fait avancer l'état de l'art du SfT et du NRSfM dans deux directions. La première est l'étude du SfT dans le cas de patrons 1D (c’est-à-dire des courbes comme des cordes et des câbles). La seconde direction est le développement d'algorithmes de SfT et de NRSfM qui exploitent plusieurs indices visuels et qui résolvent des cas réels et complexes non-résolus précédemment. Nous considérons des déformations isométriques et reconstruisons la partie extérieure de l'objet. Les contributions techniques et scientifiques de cette thèse sont divisées en quatre parties.La première partie de cette thèse étudie le SfT curvilinéaire, qui est le cas du patron curvilinéaire plongé dans un espace 2D ou 3D. Nous proposons une analyse théorique approfondie et des solutions pratiques pour le SfT curvilinéaire. Malgré son apparente simplicité, le SfT curvilinéaire s'est avéré être un problème complexe : il ne peut pas être résolu à l'aide de solutions locales non-holonomes d'une équation différentielle ordinaire et ne possède pas de solution unique, mais un nombre fini de solutions ambiguës. Une contribution technique majeure est un algorithme basé sur notre théorie, qui génère toutes les solutions ambiguës. La deuxième partie de cette thèse traite d'une limitation des méthodes de SfT : la reconstruction de plis. Cette limitation vient de la parcimonie de la contrainte de mouvement et de la régularisation. Nous proposons deux contributions qui s'appuient sur un cadre de minimisation d'énergie non-convexe. Tout d'abord, nous complétons la contrainte de mouvement avec une contrainte robuste de bord. Ensuite, nous modélisons implicitement les plis à l'aide d'une représentation dense de la surface basée maillage et d'une contrainte robuste de lissage qui désactive automatiquement le lissage de la courbure sans connaître a priori la position des plis.La troisième partie de cette thèse est dédiée à une autre limitation du SfT : la reconstruction de surfaces peu texturées. Cette limitation vient de la difficulté d'obtenir des correspondances (parcimonieuses ou denses) sur des surfaces peu texturées. Comme l'ombrage révèle les détails sur des surfaces peu texturées, nous proposons de combiner l'ombrage avec le SfT. Nous présentons deux contributions. La première est une initialisation en cascade qui estime séquentiellement la déformation de la surface, l'illumination de la scène, la réponse de la caméra et enfin les albédos de la surface à partir d'images monoculaires où la surface se déforme. La seconde est l'intégration de l'ombrage à notre précédent cadre de minimisation d'énergie afin de raffiner simultanément les paramètres photométriques et de déformation.La dernière partie de cette thèse relâche la connaissance du patron et aborde deux limitations du NRSfM : la reconstruction de surfaces peu texturées avec des plis. Une contribution majeure est l'extension du second cadre d'optimisation pour la reconstruction conjointe de la forme 3D de la surface sur toutes les images d'entrée et des albédos de la surface sans en connaître un patron. / Monocular deformable 3D reconstruction is the general problem of recovering the 3D shape of a deformable object from monocular 2D images. Several scenarios have emerged: the Shape-from-Template (SfT) and the Non-Rigid Structure-from-Motion (NRSfM) are two approaches intensively studied for their practicability. The former uses a single image depicting the deforming object and a template (a textured 3D shape of this object in a reference pose). The latter does not use a template, but uses several images and recovers the 3D shape in each image. Both approaches rely on the motion of correspondences between the images and deformation priors, which restrict their use to well-textured surfaces which deform smoothly. This thesis advances the state-of-the-art in SfT and NRSfM in two main directions. The first direction is to study SfT for the case of 1D templates (i.e. curved, thin structures such as ropes and cables). The second direction is to develop algorithms in SfT and NRSfM that exploit multiple visual cues and can solve complex, real-world cases which were previously unsolved. We focus on isometric deformations and reconstruct the outer part of the object. The technical and scientific contributions of this thesis are divided into four parts. The first part of this thesis studies the case of a curvilinear template embedded in 2D or 3D space, referred to Curve SfT. We propose a thorough theoretical analysis and practical solutions for Curve SfT. Despite its apparent simplicity, Curve SfT appears to be a complex problem: it cannot be solved locally using exact non-holonomic partial differential equation and is only solvable up to a finite number of ambiguous solutions. A major technical contribution is a computational solution based on our theory, which generates all the ambiguous solutions.The second part of this thesis deals with a limitation of SfT methods: reconstructing creases. This is due to the sparsity of the motion constraint and regularization. We propose two contributions which rely on a non-convex energy minimization framework. First, we complement the motion constraint with a robust boundary contour constraint. Second, we implicitly model creases with a dense mesh-based surface representation and an associated robust smoothing constraint, which deactivates curvature smoothing automatically where needed, without knowing a priori the crease location. The third part of this thesis is dedicated to another limitation of SfT: reconstructing poorly-textured surfaces. This is due to correspondences which cannot be obtained so easily on poorly-textured surfaces (either sparse or dense). As shading reveals details on poorly-textured surfaces, we propose to combine shading and SfT. We have two contributions. The first is a cascaded initialization which estimates sequentially the surface's deformation, the scene illumination, the camera response and then the surface albedos from deformed monocular images. The second is to integrate shading to our previous energy minimization framework for simultaneously refining deformation and photometric parameters.The last part of this thesis relaxes the knowledge of the template and addresses two limitations of NRSfM: reconstructing poorly-textured surfaces with creases. Our major contribution is an extension of the second framework to recover jointly the 3D shapes of all input images and the surface albedos without any template.
7

Kalibrierverfahren und optimierte Bildverarbeitung für Multiprojektorsysteme

Heinz, Marcel 18 November 2013 (has links)
Gegenstand der vorliegenden Dissertation ist die Entwicklung von Kalibrierverfahren und Algorithmen zur Bildverarbeitung im Kontext von Multiprojektorsystemen mit dem Ziel, die Einsatzmöglichkeiten von derartigen Anlagen zu erweitern und die Nutzerakzeptanz solcher Systeme zu steigern. Die Arbeit konzentriert sich dabei insbesondere auf (annähernd) planare Mehrsegment-Projektionsanlagen, die aus preisgünstigen, nicht speziell für den Visualisierungbereich konzipierten Consumer- und Office-Projektoren aufgebaut werden. Im ersten Teil der Arbeit werden bestehende Verfahren zur geometrischen Kalibrierung, zum Edge-Blending sowie zur Helligkeits- und Farbanpassung auf ihre Eignung im Hinblick auf die Anforderungen untersucht und Erweiterungen entwickelt. Für die kamerabasierte Geometrie- Kalibrierung wird mit Lininenpattern gearbeitet, wobei ein effizienter rekursiver Algorithmus zur Berechnung der Schnittpunkte bei leicht gekrümmten Oberflächen vorgestellt wird. Für das Edge-Blending wird ein generalisiertes Modell entwickelt, das mehrere bestehende Ansätze kombiniert und erweitert. Die vorgenommene Modifikation der Distanzfunktion erlaubt insbesondere die bessere Steuerung des Helligkeitsverlaufs und ermöglicht weichere Übergänge an den Grenzen der Überlappungszonen. Es wird weiterhin gezeigt, dass das Edge-Blending mit bestehenden Ansätzen zum Ausgleich der Helligkeitsunterschiede wie Luminance Attenutation Maps kombiniert werden kann. Für die photometrische Kalibrierung ist die Kenntnis der Farb-Transferfunktion, also der Abbildung der Eingabe-Farbwerte auf die tatsächlich vom Projektor erzeugten Ausgaben, unerlässlich. Die herkömmlichen Ansätze betrachten dabei vorwiegend RGB-Projektoren, bei denen die dreidimensionale Transferfunktion in drei eindimensionale Funktionen für jeden Farbkanal zerlegt werden kann. Diese Annahme trifft jedoch auf die betrachteten Projektoren meist nicht zu. Insbesondere DLP-Projektoren mit Farbrad verfügen oft über zusätzliche Grundfarben, so dass der Farbraum deutlich von einem idealen RGB-Modell abweicht. In dieser Arbeit wird zunächst ein empirisches Modell einer Transferfunktion vorgestellt, das sich für derartige Projektoren besser eignet, allerdings die Helligkeit der Projektoren nicht vollständig ausnutzt. Im zweiten Teil der Arbeit wird ein kamerabasiertes Messverfahren entwickelt, mit dem direkt die dreidimensionale Farb-Transferfunktion ermittelt werden kann. Gegenüber bestehenden Verfahren werden tausende von Farbsamples gleichzeitig erfasst, so dass die erreichbare Sampledichte unter praxisrelevanten Messbedingungen von 17x17x17 auf 64x64x64 erhöht und damit die Qualität der photometrischen Kalibrierung signifikant gesteigert werden kann. Weiterhin wird ein Schnellverfahren entwickelt, dass die Messungsdauer bei 17x17x17 Samples von mehreren Stunden mit bisherigen Verfahren auf weniger als 30 Minuten reduziert. Im dritten Teil werden Algorithmen zur effizienten Bildverarbeitung entwickelt, die der GPU-basierten Anwendung der Kalibrierparameter auf die darzustellenden Bilddaten in Echtzeit dienen. Dabei werden die Möglichkeiten zur Vermeidung redundanter Berechnungsschritte beim Einsatz Stereoskopie-fähiger Projektoren ausgenutzt. Weiterhin wird das eigentliche Kalibrierverfahren effizient mit Verfahren zur Konvertierung von stereoskopischen Bildverfahren kombiniert. Es wird gezeigt, dass ein einzelner PC aus Standardkomponenten zur Ansteuerung einer Mehrsegment-Projektionsanlage mit bis zu 6 Projektoren ausreicht. Die Verwendung von DVI-Capture-Karten ermöglicht dabei den Betrieb einer solchen Anlage wie einen "großen Monitor" für beliebige Applikationen und Betriebssysteme.

Page generated in 0.1384 seconds