• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 2
  • 1
  • Tagged with
  • 3
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Optimierung eines 360-Grad-Videoaufnahmesystems für Hintergrundbespielung im Bereich der Auto-Kinematographie im Studio.

Cottrell, Dylan 24 September 2024 (has links)
Die Filmproduktionsfirma LUMALENSCAPE verfügt über ein System zur Anfertigung von Aufnahmen für die Hintergrundbespielung in der Auto-Kinematographie im Studio. Diese Arbeit befasst sich mit der Auswahl der Brennweite der verwendeten Objektive. Dabei wurde eine vergleichende Fallstudie in Verbindung mit einer gewichteten Nutzwertanalyse und einem Experteninterview durchgeführt. Anhand festgelegter Kriterien wurden verschiedene Brennweiten hinsichtlich ihrer Eignung für das Stitching und einen angemessenen Immersionsgrad verglichen. Hierfür wurde ein Versuch durchgeführt, bei dem geeignete Aufnahmen für den Vergleich anhand von Testobjekten erstellt wurden. Die meisten Kriterien wurden mathematisch bewertet. Bei einigen, die der Immersion zuzuschreiben sind, wurde die Untersuchung der Wahrnehmung eines Experten herangezogen. Die gewonnenen Daten ermöglichen eine Priorisierung der Fälle und eine Handlungsempfehlung für die Firma.:Selbstständigkeitserklärung Abbildungsverzeichnis Tabellenverzeichnis Abkürzungsverzeichnis 1.0 Einleitung 1.1 Zielsetzung 1.2 Relevanz des Themas 1.3 Aufbau der Arbeit 2.0 Theoretische Grundlagen 2.1 Grundlegende Begriffe 2.1.1 Stitching 2.1.2 Parallaxe 2.1.3 Nodalpunkt 2.1.4 Abbildungsmaßstab 2.1.5 Bildwinkel 2.1.6 Brennweite 2.1.7 Immersion 2.1.8 Geistereffekt 2.1.9 Objektivverzerrung 2.1.10 Überlappung 2.1.11 MatchingMarker 2.1.12 Computer Vision 2.1.13 Kamerakalibrierung 2.2 Projektive Geometrie 2.3 Projektionsarten 2.3.1 Rektilineare Projektion 2.3.2 Zylindrische Projektion 2.3.3 Sphärische Projektion 2.3.4 Kubische Projektion 2.3.5 Stereografische Projektion 2.4 Entwicklung von Stitching-Algorithmen 2.5 360-Grad-Systeme 3.0 Vorgehensweise und Methodik 3.1 Konkretisierung der Zielsetzung 3.2 Das System von LUMALENSCAPE 3.3 Überblick Vorgehensweise und Methodik 3.4 Auswahl von Software 3.4.1 MATLAB 3.4.2 PTGui 3.4.3 ft-UVPass 3.4.4 DaVinci Resolve 3.4.5 Adobe Photoshop und After Effects 3.4.6 Blender 3.4.7 Microsoft Excel 3.5 Vergleichende Fallstudie 3.5.1 Theoretischer Rahmen 3.5.2 Fallauswahl 3.5.3 Fallstudie 3.6 Gewichtete Nutzwertanalyse 3.6.1 Experteninterview 3.6.2 Entscheidungskriterien 3.6.3 Gewichtung der Entscheidungskriterien 4.0 Durchführung und Ergebnispräsentation 4.1 Versuchsumsetzung 4.2 Ergebnispräsentation Fallstudie 4.2.1 Größe Überlappungsbereich 4.2.2 Matching Marker 4.2.3 Parallaxenstärke 4.2.4 Objektivverzerrung 4.2.5 Abbildungsmaßstab 4.2.6 Natürlicher Bildeindruck 4.2.7 Geistereffekte 4.2.8 Schärfe der Naht 4.2.9 Auffälligkeit der Naht 4.3 Ergebnispräsentation Nutzwertanalyse 5.0 Diskussion 5.1 Bewertung der Ergebnisse 5.2 Methodenkritik 6.0 Fazit und Handlungsempfehlung Literaturverzeichnis Glossar Anhang
2

Tunable liquid micro-optical systems based on electrowetting design, fabrication and characterization

Krogmann, Florian January 2008 (has links)
Zugl.: Freiburg (Breisgau), Univ., Diss., 2008
3

Multikamerabasiertes Verfahren zur Fokusebenenbestimmung für eine AR-Datenbrille mit adaptiver Optik

Penzel, Markus 12 June 2019 (has links)
Logistikmitarbeiter können mit Augmented-Reality-Datenbrillen ausgerüstet werden, um relevante Daten in ihr Sichtfeld einblenden zu lassen. Mithilfe moderner Datenbrillen können Visualisierungen dabei aufgrund der Brennweitendifferenz zwischen dem menschlichen Auge und der Datenbrillenoptik meist nur auf definierte Entfernungen scharf dargestellt werden. Ein Angleich der Brennweite der Optik an die Brennweite des Auges ermöglicht eine scharfe Darstellung der Inhalte innerhalb des Griffbereiches des Mitarbeiters. Zur Realisierung dieses Ansatzes wird in dieser Arbeit ein multikamerabasiertes Verfahren zur automatischen Adaptierung der Optikbrennweite vorgeschlagen. Für die Brennweitenadaptierung wird ein Ansatz zur Pupillendetektion in Kombination mit einer 3D-Umgebungskamera vorgestellt. Da geläufige Algorithmen zur Pupillendetektion nicht für die Verwendung auf eingebetteten Systemen optimiert sind, wird der Schwerpunkt auf die Entwicklung eines geeigneten ressourcenarmen Algorithmus gelegt. Die nötige Relation zwischen dem menschlichen Auge und der 3D-Kamera wird dabei über einen Ansatz der mehrstufigen Ebenenkalibrierung realisiert. Die gewonnenen 3D-Tiefeninformationen werden anschließend mithilfe einer adaptiven Flüssiglinse zur Brennweitenjustierung der Optik genutzt. Da aktuell keine Datenbrillen mit den genannten Komponenten erhältlich sind, wurde eine eigenes Konzept realisiert. Die später beabsichtigte Anwendung soll dem Nutzer dabei Informationen zur Umsetzung aktueller Aufgaben anzeigen und diese direkt auf die Brennweite des Auges anpassen, um dessen kognitive Belastung zu reduzieren.:1 Einleitung 1 1.1 Aktueller Stand der Technik 2 1.2 Systemübersicht 6 1.3 Inhaltliche Gliederung 8 1.4 Wissenschaftlicher Beitrag 9 2 Theoretische Vorbetrachtungen 11 2.1 Augmentierte Realität 11 2.1.1 Übersicht 11 2.1.2 Videoaufnahme in Echtzeit 13 2.1.3 Tracking 13 2.1.4 Registrierung 15 2.1.5 Visuelle Ausgabemöglichkeiten 16 2.1.6 Eye-Tracking in AR 17 2.2 Das menschliche Auge 18 2.2.1 Anatomie 19 2.2.2 Das Auge als dioptrischer Apparat 22 2.2.3 Die Pupille 25 2.2.4 Verhaltensanalyse des Auges 26 2.2.5 Die retinale Signalverarbeitung 27 2.3 3D-Umgebungen 29 2.3.1 Kameramodell 29 2.3.2 Stereoskopie 32 2.3.3 Strukturiertes Licht 37 2.3.4 Time of Flight 39 3 Entwurf einer AR-Datenbrille mit blickpunktabhängiger Brennweitenadaptierung 42 3.1 Gesamtsystem 42 3.2 Infrarotbeleuchtung für die Eye-Tracking-Kamera 44 3.2.1 Gefährdung der Kornea durch IR-A Strahlen 47 3.2.2 Thermische Netzhautgefährdung – schwacher visueller Reiz 48 3.2.3 Überprüfung der Einhaltung der Grenzwerte der selektierten IR-LED 50 3.3 Optisches System 53 3.4 Adaptive Linse 55 3.5 3D-Umgebungskamera 56 3.6 Recheneinheit 58 4 Eye-Tracking 59 4.1 Einleitung 59 4.2 Voruntersuchungen 64 4.3 Eye-Tracking-Algorithmus „Fast Ellipse Fitting “(FEF) 67 4.3.1 Stand der Forschung 67 4.3.2 Übersicht 69 4.3.3 Schwellwertapproximation 70 4.3.4 ROI-Findung / hochaufgelöste Schwellwertsuche 72 4.3.5 Pupillendetektion 75 4.3.6 Anfälligkeiten 76 4.4 Validierung 81 4.5 Zusammenfassung 85 4.6 Diskussion 86 5 Blickpunktschätzung 87 5.1 Einleitung 87 5.2 2D-Blickpunktschätzung 89 5.2.1 Einleitung 89 5.2.2 Evaluierung 92 5.3 3D-Blickpunktschätzung 100 5.3.1 Stand der Technik 100 5.3.2 Aufnahme von Kalibrierungspunkten im 3D-Raum 103 5.3.3 Algorithmen zur 3D-Blickpunktschätzung 104 5.3.4 Evaluierung 108 5.4 Zusammenfassung 111 5.5 Diskussion 111 6 Blickpunktanalyse 113 6.1 Filterung der Augenbewegungen/Glint-Vektoren 113 6.1.1 Stand der Forschung 113 6.1.2 Glättung der Glint-Vektoren 116 6.2 Blickpunktauswertung 117 6.2.1 Display-Steuerung 119 6.2.2 Eye-Tracking zur Informationsergänzung 125 6.2.3 Validierung der 3D-Blickpunktschätzung 131 6.3 Zusammenfassung 135 6.4 Diskussion 136 7 Zusammenfassung 138 8 Ausblick 140 9 Literaturverzeichnis 142 A Anhang 151

Page generated in 0.0335 seconds