• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 58
  • 4
  • 3
  • 2
  • 2
  • 2
  • Tagged with
  • 80
  • 80
  • 18
  • 14
  • 12
  • 11
  • 11
  • 11
  • 10
  • 8
  • 8
  • 8
  • 8
  • 7
  • 7
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
71

Ultrasound segmentation tools and their application to assess fetal nutritional health

Rackham, Thomas January 2016 (has links)
Maternal diet can have a great impact on the health and development of the fetus. Poor fetal nutrition has been linked to the development of a set of conditions in later life, such as coronary heart disease, type 2 diabetes and hypertension, while restricted growth can result in hypogylcemia, hypocalcemia, hypothermia, polycythemia, hyperbilirubinemia and cerebral palsy. High alcohol consumption during pregnancy can result in Fetal Alcohol Syndrome, a condition that can cause growth retardation, lowered intelligence and craniofacial defects. Current biometric assessment of the fetus involves size-based measures which may not accurately portray the state of fetal development, since they cannot differentiate cases of small-but-healthy or large-but-unhealthy fetuses. This thesis aims to outline a set of more appropriate measures of accurately capturing the state of fetal development. Specifically, soft tissue area and liver volume measurement are examined, followed by facial shape characterisation. A number of tools are presented which aim to allow clinicians to achieve accurate segmentations of these landmark regions. These are modifications on the Live Wire algorithm, an interactive segmentation method in which the user places a number of anchor points and a minimum cost path is calculated between the previous anchor point and the cursor. This focuses on giving the clinician intuitive control over the exact position of the segmented contour. These modifications are FA-S Live Wire, which utilises Feature Asymmetry and a weak shape constraint, ASP Live Wire, which is a 3D expansion of Live Wire, and FA-O Live Wire, which uses Feature Asymmtery and Local Orientation to guide the segmentation process. These have been designed with each of the specific biometric landmarks in mind. Finally, a method of characterising fetal face shape is proposed, using a combination of the segmentation methods described here and a simple shape model with a parameterised b-spline meshing approach to facial surface representation.
72

Robuster Entwurf und statistische Modellierung für Bildsensoren mit hochparalleler analoger Bildverarbeitungseinheit

Graupner, Achim 28 November 2003 (has links)
Die gemeinsame Integration von Bildsensor und analoger hochparalleler Verarbeitungseinheit stellt eine Möglichkeit zur Realisierung von leistungsfähigen ein-chip Bildaufnahmesystemen dar. Die vorliegende Arbeit liefert Beiträge zum systematischen Entwurf von derartigen Systemen und analysiert bekannte und neuartige Schaltungstechniken bezüglich ihrer Eignung für deren Implementierung. Anhand des vom Autor mitentwickelten CMOS-Bildsensors mit hochparalleler analoger Bildverarbeitungseinheit werden die vorgestellten Methoden und Schaltungstechniken demonstriert. Die Problematik beim Entwurf hochparalleler analoger Systeme besteht in der im Vergleich zu digitalen Systemen geringen Automatisierbarkeit. Es ist kein top-down-Entwurf möglich, da nicht jede beliebige Funktion mit beliebiger Genauigkeit realisierbar ist. Um die jeweilige Genauigkeit der Funktionsblöcke bei der Analyse des hochparallelen Systems berücksichtigen zu können, sind rechenaufwendige Simulationen nötig. Um diesen Rechenaufwand zu senken, wird vorgeschlagen, für die Simulation des Gesamtsystems einen angepaßten Simulator und für die Analyse der schaltungstechnischen Realisierung der Funktionsblöcke konventionelleWerkzeuge für elektrische Netzwerke zu verwenden. Die beiden Simulationsdomänen werden mit Hilfe von numerischen Verhaltensmodellen verbunden. Durch diese Trennung wird die Simulation des Gesamtsystems als Bestandteil des Entwurfsflusses praktikabel. Für die Bewertung, inwieweit die zufälligen Schwankungen der Bauelementeparameter das Verhalten von Baublöcken beeinflussen, wird die Varianzanalyse als Alternative zur konventionellen Monte-Carlo-Analyse vorgeschlagen. Die Varianzanalyse ist wesentlich weniger rechenaufwendig und liefert genaue Resultate für alle Schaltungseigenschaften mit hinreichend glatten Parameterabhängigkeiten, wenn die Bauelementeparameter als normalverteilt und statistisch unabhängig angenommen werden können. Sie hat darüberhinaus den Vorteil, das Schaltungsverständnis für den Entwerfer zu erhöhen, da sofort die Bauelementeparameter mit dem größten Einfluß auf das Schaltungsverhalten identifiziert werden können. Der Vergleich verschiedener Schaltungstechniken hat gezeigt, daß zeitdiskrete wertkontinuierliche Verfahren, bei denen die Information als Strom repräsentiert wird, für die Realisierung von hochparallelen analogen Systemen besonders geeignet sind. Als besonderer Vorteil ist die weitestgehende Unabhängigkeit des Verhaltens derartiger Schaltungen von Bauelementeparametern hervorzuheben.Weitere Schaltungstechniken, deren Verhalten von zufälligen Parameterabweichungen nur wenig beeinflußt werden, sind in einer Taxonomie zusammengefaßt. Es wurde ein CMOS-Bildsensor mit hochparalleler analoger Bildverarbeitungseinheit und digitaler Ausgabe realisiert. Der current-mode-Bildsensor ist separat von der Verarbeitungseinheit angeordnet. Es wurden vier verschiedene Realisierungsmöglichkeiten untersucht und eine konventionelle integrierende voltage-mode Pixelzelle mit nachfolgendem differentiellen Spannungs- Strom-Wandler realisiert. Das Rechenfeld ist für die räumliche Faltung oder lineare Transformation von Bilddaten mit digital bereitzustellenden Koeffizienten ausgelegt. Dessen Operation basiert auf einer bit-weisen analogen Verarbeitung. Der Schaltkreis wurde erfolgreich getestet. Die nachgewiesene Bildqualität deckt sich in guter Näherung mit den bei der Simulation des Gesamtsystems getroffenen Vorhersagen / The joined implementation of an image sensor and a highly parallel analog processing unit is an advantageous approach for realizing efficient single-chip vision systems. This thesis proposes a design flow for the development of such systems. Moreover known and novel circuit techniques are analysed with respect for their suitability for the implementation of highly parallel systems. The presented methodologies and circuit techniques are demonstrated at the example of a CMOS image sensor with an embedded highly parallel analog image processing unit in whose design the author was involved. One of the major problems in designing highly parallel analog circuits is the low automation compared to the design of digital circuits. As not every function can be realized with arbitrary accuracy top-down-design is not feasible. So, when analysing the system behaviour the respective precision of each function block has to be considered. As this is a very demanding task in terms of computing power, it is proposed to use a dedicated tool for the simulation of the system and conventional network analysis tools for the inspection of the circuit realizations. Both simulation domains are combined by means of numerical behavioural models. By using separate tools system-simulations of highly parallel analog systems as a part of the design flow become practicable. Variance analysis basing on parameter sensitivities is proposed as an alternative to the conventional Monte-Carlo-analysis for investigating the influence of random device parameter variations on the system behaviour. Variance analysis requires much less computational effort while providing accurate results for all circuit properties with sufficiently smooth parameter dependencies if the random parameters can be assumed normally distributed and statistically independent. Additionally, variance analysis increases the designer’s knowledge about the circuit, as the device parameters with the highest influence on the circuit performance can immediately be identified. The comparison of various circuit techniques has shown, that sampled-time continuous-valued current-mode principles are the best choice for realizing highly parallel analog systems. A distinctive advantage of such circuits is their almost independence from device parameters. A selection of further circuit techniques with low sensitivity to random device parameter variations are summarized in a taxonomy. A CMOS image sensor with embedded highly parallel analog image processing unit has been implemented. The image sensor provides a current-mode output and is arranged separate from the processing unit. Four different possibilities for realizing an image sensor have been analysed. A conventional integrating voltage-mode pixel cell with a succeeding differential voltage- to-current-converter has been selected. The processing unit is designed for performing spatial convolution and linear transformation with externally provided digital kernels. It operates in bit-wise analog manner. The chip has been tested successfully. The measured image quality in good approximation corresponds with the estimations made with system simulations.
73

Einführung in die Digitale Bildverarbeitung: Lehrbuch für ingenieurwissenschaftliche Studiengänge

Richter, Christiane, Teichert, Bernd 07 February 2024 (has links)
Das Buch gibt eine Einführung in die Digitale Bildverarbeitung. Der Inhalt des Buches gliedert sich in sechs Kapitel. Im ersten Kapitel werden die wichtigsten Definitionen und Anwendungsgebiete der Digitalen Bildverarbeitung sowie wesentliche Komponenten eines digitalen Bildverarbeitungssystems erklärt. Das zweite Kapitel befasst sich mit den Grundlagen digitaler Bilder, den Bilddatenformaten und Kompressionsverfahren. Die Grundlagen der Farbtheorie und ein kurzer Überblick über die wichtigsten Farbsysteme werden im dritten Kapitel vermittelt. Die zwei anschließenden Kapitel beschäftigen sich mit der Manipulation von Grauwerten. Der Schwerpunkt liegt hier auf den Punktoperationen und den Filtertechniken. Das letzte Kapitel behandelt die für die Lehrgebiete Photogrammetrie, Fernerkundung und Geoinformationssysteme überaus wichtigen Grundlagen der geometrischen Transformation.:Vorwort 1. Einführung in die digitale Bildverarbeitung 1.1 Definition der Bildverarbeitung 1.2 Anwendungsgebiete der Digitalen Bildverarbeitung 1.3 Komponenten eines Bildverarbeitungssystems 2. Digitale Bilder 2.1 Entstehung digitaler Bilder 2.2 Bildmatrix und Grauwerte 2.3 Digitale Bilder im Ortsbereich 2.3.1 Bildrepräsentation 2.3.2 Auflösung eines Pixels 2.3.3 Das Pixelkoordinatensystem 2.3.4 Grundsätzliche Festlegungen 2.3.5 Topologien oder Nachbarschaftsrelationen 2.3.6 Distanzen 2.4 Eigenschaften digitaler Bilder 2.4.1 Mittelwert und mittlere quadratische Abweichung 2.4.2 Varianz und Standardabweichung 2.4.3 Histogramm 2.4.4 Stochastische Einflüsse 2.5 Kompressionen und Datenformate 2.5.1 Ausgewählte Verfahren zur Bildkompression 2.5.2 Bilddatenformate 3. Farbtheorie 3.1 Was ist Farbe? 3.2 Farbsysteme 3.2.1 RGB- und CMY- Farbsystem 3.2.2 Das Farbdreieck (Maxwell’sches Dreieck) 3.2.3 Das IHS- Modell 3.2.4 Das CIE- Farbmodell 3.3 Bildwiedergabe 3.4 Farbmanipulation 4. Punktoperationen 4.1 Schwellwertoperation zur Erzeugung von Binärbildern 4.2 Arithmetische Bildoperationen 4.3 Logische oder Boolesche Kombinationen 4.4 Kontrast- und Helligkeitsänderungen 4.4.1 Kontrastübertragungsfunktionen 4.4.2 Kontrastveränderung durch Histogrammanpassungen 4.4.3 Äquidensitenherstellung 5. Filteroperationen 5.1 Lineare Filter 5.1.1 Tiefpassfilter 5.1.2 Hochpassfilter 5.1.2.5 Schärfung 5.2 Morphologische Filter 5.2.1 Medianfilter 5.2.2 Minimum- und Maximumfilter 5.2.3 Dilatation und Erosion im Binärbild 5.2.4 Opening und Closing 6. Geometrische Bildtransformationen 6.1 Koordinatentransformationen im 2D-Raum 6.2 Direkte und indirekte Transformation 6.2.1 Direkte Transformation 6.2.2 Indirekte Transformation 6.3 Resampling 6.3.1 Nächster Nachbar 6.3.2 Bilineare Interpolation 6.3.3 Interpolationen höherer Ordnung 6.3.4 Zusammenfassung der Interpolationsmethoden Quellennachweis Sachregister / The book provides an introduction into digital image processing. The content of the book is divided into six chapters. In the first chapter, the most important definitions and areas of application of digital image processing as well as essential components of a digital image processing system are explained. The second chapter deals with the basics of digital images, image data formats and compression methods. The basics of color theory and a brief overview of the most important color systems are presented in the third chapter. The following two chapters deal with the manipulation of gray values. The focus here is on point operations and filtering techniques. The last chapter deals with the fundamentals of geometric transformation, which are extremely important for the areas of photogrammetry, remote sensing and geographic information systems.:Vorwort 1. Einführung in die digitale Bildverarbeitung 1.1 Definition der Bildverarbeitung 1.2 Anwendungsgebiete der Digitalen Bildverarbeitung 1.3 Komponenten eines Bildverarbeitungssystems 2. Digitale Bilder 2.1 Entstehung digitaler Bilder 2.2 Bildmatrix und Grauwerte 2.3 Digitale Bilder im Ortsbereich 2.3.1 Bildrepräsentation 2.3.2 Auflösung eines Pixels 2.3.3 Das Pixelkoordinatensystem 2.3.4 Grundsätzliche Festlegungen 2.3.5 Topologien oder Nachbarschaftsrelationen 2.3.6 Distanzen 2.4 Eigenschaften digitaler Bilder 2.4.1 Mittelwert und mittlere quadratische Abweichung 2.4.2 Varianz und Standardabweichung 2.4.3 Histogramm 2.4.4 Stochastische Einflüsse 2.5 Kompressionen und Datenformate 2.5.1 Ausgewählte Verfahren zur Bildkompression 2.5.2 Bilddatenformate 3. Farbtheorie 3.1 Was ist Farbe? 3.2 Farbsysteme 3.2.1 RGB- und CMY- Farbsystem 3.2.2 Das Farbdreieck (Maxwell’sches Dreieck) 3.2.3 Das IHS- Modell 3.2.4 Das CIE- Farbmodell 3.3 Bildwiedergabe 3.4 Farbmanipulation 4. Punktoperationen 4.1 Schwellwertoperation zur Erzeugung von Binärbildern 4.2 Arithmetische Bildoperationen 4.3 Logische oder Boolesche Kombinationen 4.4 Kontrast- und Helligkeitsänderungen 4.4.1 Kontrastübertragungsfunktionen 4.4.2 Kontrastveränderung durch Histogrammanpassungen 4.4.3 Äquidensitenherstellung 5. Filteroperationen 5.1 Lineare Filter 5.1.1 Tiefpassfilter 5.1.2 Hochpassfilter 5.1.2.5 Schärfung 5.2 Morphologische Filter 5.2.1 Medianfilter 5.2.2 Minimum- und Maximumfilter 5.2.3 Dilatation und Erosion im Binärbild 5.2.4 Opening und Closing 6. Geometrische Bildtransformationen 6.1 Koordinatentransformationen im 2D-Raum 6.2 Direkte und indirekte Transformation 6.2.1 Direkte Transformation 6.2.2 Indirekte Transformation 6.3 Resampling 6.3.1 Nächster Nachbar 6.3.2 Bilineare Interpolation 6.3.3 Interpolationen höherer Ordnung 6.3.4 Zusammenfassung der Interpolationsmethoden Quellennachweis Sachregister
74

Процена квалитета слике и видеа кроз очување информација о градијенту / Procena kvaliteta slike i videa kroz očuvanje informacija o gradijentu / Gradient-based image and video quality assessment

Bondžulić Boban 14 April 2016 (has links)
<p>У овој дисертацији разматране су објективне мере процене квалитета<br />слике и видеа са потпуним и делимичним референцирањем на изворни<br />сигнал. За потребе евалуације квалитета развијене су поуздане,<br />рачунски ефикасне мере, засноване на очувању информација о<br />градијенту. Мере су тестиране на великом броју тест слика и видео<br />секвенци, различитих типова и степена деградације. Поред јавно<br />доступних база слика и видео секвенци, за потребе истраживања<br />формиране су и нове базе видео секвенци са преко 300 релевантних<br />тест узорака. Поређењем доступних субјективних и објективних скорова<br />квалитета показано је да је објективна евалуација квалитета веома<br />сложен проблем, али га је могуће решити и доћи до високих<br />перформанси коришћењем предложених мера процене квалитета слике<br />и видеа.</p> / <p>U ovoj disertaciji razmatrane su objektivne mere procene kvaliteta<br />slike i videa sa potpunim i delimičnim referenciranjem na izvorni<br />signal. Za potrebe evaluacije kvaliteta razvijene su pouzdane,<br />računski efikasne mere, zasnovane na očuvanju informacija o<br />gradijentu. Mere su testirane na velikom broju test slika i video<br />sekvenci, različitih tipova i stepena degradacije. Pored javno<br />dostupnih baza slika i video sekvenci, za potrebe istraživanja<br />formirane su i nove baze video sekvenci sa preko 300 relevantnih<br />test uzoraka. Poređenjem dostupnih subjektivnih i objektivnih skorova<br />kvaliteta pokazano je da je objektivna evaluacija kvaliteta veoma<br />složen problem, ali ga je moguće rešiti i doći do visokih<br />performansi korišćenjem predloženih mera procene kvaliteta slike<br />i videa.</p> / <p>This thesis presents an investigation into objective image and video quality<br />assessment with full and reduced reference on original (source) signal. For<br />quality evaluation purposes, reliable, computational efficient, gradient-based<br />measures are developed. Proposed measures are tested on different image<br />and video datasets, with various types of distorsions and degradation levels.<br />Along with publicly available image and video quality datasets, new video<br />quality datasets are maded, with more than 300 relevant test samples.<br />Through comparison between available subjective and objective quality<br />scores it has been shown that objective quality evaluation is highly complex<br />problem, but it is possible to resolve it and acchieve high performance using<br />proposed quality measures.</p>
75

Predlog nove mere za ocenu kvaliteta slike prilikom interpolacije i njena implementacija u računarskoj obradi signal slike / The proposal of new measures for assessing the picture quality when interpolation and its implementation in the computer processing of the image signal

Maksimović-Moićević Sanja 21 October 2015 (has links)
<p>Osnovni doprinos ove doktorske disertacije je razvoj algortima i sistema za objektivnu procenu vizuelnog kvaliteta slike uzimajući u obzir najvažnija moguća oštećenja kao što su zamućenje ivica (oštrina) i poremećaj prirodnog izgleda teksture objekata na slici sa jedne strane i uticaj sadržaja slike (procenta ivica u slici) na procenu kvaliteta sa druge strane. Dakle, hipoteza izneta u ovom radu je da je potreban multiparametarski pristup da bi se dobila objektivna procena kvaliteta slike koja je što približnija subjektivnoj proceni.</p>
76

The subnuclear localisation of Notch responsive genes

Jones, Matthew Leslie January 2018 (has links)
Title: The subnuclear localisation of Notch responsive genes. Candidate Name: Matthew Jones Notch signalling is a highly conserved cell-cell communication pathway with critical roles in metazoan development and mutations in Notch pathway components are implicated in many types of cancer. Notch is an excellent and well-studied model of biological signalling and gene regulation, with a single intracellular messenger, one receptor and two ligands in Drosophila. However, despite the limited number of chemical players involved, a striking number of different outcomes arise. Molecular studies have shown that Notch activates different targets in different cell types and it is well known that Notch is important for maintaining a stem cell fate in some situations and driving differentiation in others. Thus some of the factors affecting the regulation of Notch target genes are yet to be discovered. Previous studies in various organisms have found that the location of a gene within the nucleus is important for its regulation and genome reorganisation can occur following gene activation or during development. Therefore this project aimed to label individual Notch responsive loci and determine their subnuclear localisation. In order to tag loci of interest a CRISPR/Cas9 genome-editing method was established that enabled the insertion of locus tags at Notch targets, namely the well-characterized Enhancer of split locus and also dpn and Hey, two transcription factors involved in neural cell fate decisions. The ParB/Int system is a recently developed locus tagging system and is not well characterised in Drosophila. It has a number of advantages over the traditional LacO/LacI-GFP locus tagging system as it does not rely on binding site repeats for signal amplification and can label two loci simultaneously in different colours. This thesis characterised the ParB/Int system in the Drosophila salivary gland and larval L3 neuroblast. Using 3D image segmentation hundreds of nuclei were reconstructed and a volume based normalisation method was applied to determine the subnuclear localisation of several Notch targets with and without genetic manipulations of the Notch pathway.
77

Interaktivní segmentace 3D CT dat s využitím hlubokého učení / Interactive 3D CT Data Segmentation Based on Deep Learning

Trávníčková, Kateřina January 2020 (has links)
This thesis deals with CT data segmentation using convolutional neural nets and describes the problem of training with limited training sets. User interaction is suggested as means of improving segmentation quality for the models trained on small training sets and the possibility of using transfer learning is also considered. All of the chosen methods help improve the segmentation quality in comparison with the baseline method, which is the use of automatic data specific segmentation model. The segmentation has improved by tens of percents in Dice score when trained with very small datasets. These methods can be used, for example, to simplify the creation of a new segmentation dataset.
78

Popis objektů v obraze / Object Description in Images

Dvořák, Pavel January 2011 (has links)
This thesis consider description of segments identified in image. At first there are described main methods of segmentation because it is a process contiguous before describing of objects. Next chapter is devoted to methods which focus on description identified regions. There are studied algorithms used for characterizing of different features. There are parts devoted to color, location, size, orientation, shape and topology. The end of this chapter is devoted to moments. Next chapters are focused on designing fit algorithms for segments description and XML files creating according to MPEG-7 standards and their implementation into RapidMiner. In the last chapter there are described results of the implementation.
79

Methods for image restoration and segmentation by sparsity promoting energy minimization / Методе за рестаурацију и сегментацију дигиталне слике засноване наминимизацији функције енергије која фаворизује ретке репрезентацијесигнала / Metode za restauraciju i segmentaciju digitalne slike zasnovane naminimizaciji funkcije energije koja favorizuje retke reprezentacijesignala

Bajić Papuga Buda 16 September 2019 (has links)
<p>Energy minimization approach is widely used in image processing applications.<br />Many image processing problems can be modelled in a form of a minimization<br />problem. This thesis deals with two crucial tasks of image analysis workflows:<br />image restoration and segmentation of images corrupted by blur and noise. Both<br />image restoration and segmentation are modelled as energy minimization<br />problems, where energy function is composed of two parts: data fidelity term and<br />regularization term. The main contribution of this thesis is development of new<br />data fidelity and regularization terms for both image restoration and<br />segmentation tasks.<br />Image restoration methods (non-blind and blind deconvolution and superresolution<br />reconstruction) developed within this thesis are suited for mixed<br />Poisson-Gaussian noise which is encountered in many realistic imaging<br />conditions. We use generalized Anscombe variance stabilization transformation<br />for removing signal-dependency of noise. We propose novel data fidelity term<br />which incorporates variance stabilization transformation process into account.<br />Turning our attention to the regularization term for image restoration, we<br />investigate how sparsity promoting regularization in the gradient domain<br />formulated as Total Variation, can be improved in the presence of blur and mixed<br />Poisson-Gaussian noise. We found that Huber potential function leads to<br />significant improvement of restoration performance.<br />In this thesis we propose new segmentation method, the so called coverage<br />segmentation, which estimates the relative coverage of each pixel in a sensed<br />image by each image component. Its data fidelity term takes into account<br />blurring and down-sampling processes and in that way it provides robust<br />segmentation in the presence of blur, allowing at the same time segmentation at<br />increased spatial resolution. In addition, new sparsity promoting regularization<br />terms are suggested: (i) Huberized Total Variation which provides smooth object<br />boundaries and noise removal, and (ii) non-edge image fuzziness, which<br />responds to an assumption that imaged objects are crisp and that fuzziness is<br />mainly due to the imaging and digitization process.<br />The applicability of here proposed restoration and coverage segmentation<br />methods is demonstrated for Transmission Electron Microscopy image<br />enhancement and segmentation of micro-computed tomography and<br />hyperspectral images.</p> / <p>Поступак минимизације функције енергије је често коришћен за<br />решавање проблема у обради дигиталне слике. Предмет истраживања<br />тезе су два круцијална задатка дигиталне обраде слике: рестаурација и<br />сегментација слика деградираних шумом и замагљењем. И рестaурација<br />и сегментација су моделовани као проблеми минимизације функције<br />енергије која представља збир две функције: функције фитовања<br />података и регуларизационе функције. Главни допринос тезе је развој<br />нових функција фитовања података и нових регуларизационих функција<br />за рестаурацију и сегментацију.<br />Методе за рестаурацију (оне код којих је функција замагљења позната и<br />код којих је функцију замагљења потребно оценити на основу датих<br />података као и методе за реконструкцију слике у супер-резолуцији)<br />развијене у оквиру ове тезе третирају мешавину Поасоновог и Гаусовог<br />шума који се појављује у многобројним реалистичним сценаријима. За<br />третирање такве врсте шума користили смо нелинеарну трансформацију<br />и предложили смо нову функцију фитовања података која узима у обзир<br />такву трансформацију. У вези са регуларизационим функцијама смо<br />тестирали хипотезу да се функција Тоталне Варијације која промовише<br />ретку слику у градијентном домену може побољшати уколико се користе<br />тзв. потенцијалне функције. Показали смо да се употребом Хуберове<br />потенцијалне функције може значајно побољшати квалитет рестауриране<br />слике која је деградирана замагљењем и мешавином Поасоновог и<br />Гаусовог шума.<br />У оквиру тезе смо предложили нову методу сегментације која допушта<br />делимичну покривеност пиксела објектом. Функција фитовања података<br />ове методе укључује и модел замагљења и смањења резолуције. На тај<br />начин је постигнута робустност сегментације у присуству замагљења и<br />добијена могућност сегментирања слике у супер-резолуцији. Додатно,<br />нове регуларизационе функције које промовишу ретке репрезентације<br />слике су предложене.<br />Предложене методе рестаурације и сегментације која допушта делимичну<br />покривеност пиксела објектом су примењене на слике добијене помоћу<br />електронског микроскопа, хиперспектралне слике и медицинске ЦТ слике.</p> / <p>Postupak minimizacije funkcije energije je često korišćen za<br />rešavanje problema u obradi digitalne slike. Predmet istraživanja<br />teze su dva krucijalna zadatka digitalne obrade slike: restauracija i<br />segmentacija slika degradiranih šumom i zamagljenjem. I restauracija<br />i segmentacija su modelovani kao problemi minimizacije funkcije<br />energije koja predstavlja zbir dve funkcije: funkcije fitovanja<br />podataka i regularizacione funkcije. Glavni doprinos teze je razvoj<br />novih funkcija fitovanja podataka i novih regularizacionih funkcija<br />za restauraciju i segmentaciju.<br />Metode za restauraciju (one kod kojih je funkcija zamagljenja poznata i<br />kod kojih je funkciju zamagljenja potrebno oceniti na osnovu datih<br />podataka kao i metode za rekonstrukciju slike u super-rezoluciji)<br />razvijene u okviru ove teze tretiraju mešavinu Poasonovog i Gausovog<br />šuma koji se pojavljuje u mnogobrojnim realističnim scenarijima. Za<br />tretiranje takve vrste šuma koristili smo nelinearnu transformaciju<br />i predložili smo novu funkciju fitovanja podataka koja uzima u obzir<br />takvu transformaciju. U vezi sa regularizacionim funkcijama smo<br />testirali hipotezu da se funkcija Totalne Varijacije koja promoviše<br />retku sliku u gradijentnom domenu može poboljšati ukoliko se koriste<br />tzv. potencijalne funkcije. Pokazali smo da se upotrebom Huberove<br />potencijalne funkcije može značajno poboljšati kvalitet restaurirane<br />slike koja je degradirana zamagljenjem i mešavinom Poasonovog i<br />Gausovog šuma.<br />U okviru teze smo predložili novu metodu segmentacije koja dopušta<br />delimičnu pokrivenost piksela objektom. Funkcija fitovanja podataka<br />ove metode uključuje i model zamagljenja i smanjenja rezolucije. Na taj<br />način je postignuta robustnost segmentacije u prisustvu zamagljenja i<br />dobijena mogućnost segmentiranja slike u super-rezoluciji. Dodatno,<br />nove regularizacione funkcije koje promovišu retke reprezentacije<br />slike su predložene.<br />Predložene metode restauracije i segmentacije koja dopušta delimičnu<br />pokrivenost piksela objektom su primenjene na slike dobijene pomoću<br />elektronskog mikroskopa, hiperspektralne slike i medicinske CT slike.</p>
80

Kalibrierverfahren und optimierte Bildverarbeitung für Multiprojektorsysteme

Heinz, Marcel 18 November 2013 (has links)
Gegenstand der vorliegenden Dissertation ist die Entwicklung von Kalibrierverfahren und Algorithmen zur Bildverarbeitung im Kontext von Multiprojektorsystemen mit dem Ziel, die Einsatzmöglichkeiten von derartigen Anlagen zu erweitern und die Nutzerakzeptanz solcher Systeme zu steigern. Die Arbeit konzentriert sich dabei insbesondere auf (annähernd) planare Mehrsegment-Projektionsanlagen, die aus preisgünstigen, nicht speziell für den Visualisierungbereich konzipierten Consumer- und Office-Projektoren aufgebaut werden. Im ersten Teil der Arbeit werden bestehende Verfahren zur geometrischen Kalibrierung, zum Edge-Blending sowie zur Helligkeits- und Farbanpassung auf ihre Eignung im Hinblick auf die Anforderungen untersucht und Erweiterungen entwickelt. Für die kamerabasierte Geometrie- Kalibrierung wird mit Lininenpattern gearbeitet, wobei ein effizienter rekursiver Algorithmus zur Berechnung der Schnittpunkte bei leicht gekrümmten Oberflächen vorgestellt wird. Für das Edge-Blending wird ein generalisiertes Modell entwickelt, das mehrere bestehende Ansätze kombiniert und erweitert. Die vorgenommene Modifikation der Distanzfunktion erlaubt insbesondere die bessere Steuerung des Helligkeitsverlaufs und ermöglicht weichere Übergänge an den Grenzen der Überlappungszonen. Es wird weiterhin gezeigt, dass das Edge-Blending mit bestehenden Ansätzen zum Ausgleich der Helligkeitsunterschiede wie Luminance Attenutation Maps kombiniert werden kann. Für die photometrische Kalibrierung ist die Kenntnis der Farb-Transferfunktion, also der Abbildung der Eingabe-Farbwerte auf die tatsächlich vom Projektor erzeugten Ausgaben, unerlässlich. Die herkömmlichen Ansätze betrachten dabei vorwiegend RGB-Projektoren, bei denen die dreidimensionale Transferfunktion in drei eindimensionale Funktionen für jeden Farbkanal zerlegt werden kann. Diese Annahme trifft jedoch auf die betrachteten Projektoren meist nicht zu. Insbesondere DLP-Projektoren mit Farbrad verfügen oft über zusätzliche Grundfarben, so dass der Farbraum deutlich von einem idealen RGB-Modell abweicht. In dieser Arbeit wird zunächst ein empirisches Modell einer Transferfunktion vorgestellt, das sich für derartige Projektoren besser eignet, allerdings die Helligkeit der Projektoren nicht vollständig ausnutzt. Im zweiten Teil der Arbeit wird ein kamerabasiertes Messverfahren entwickelt, mit dem direkt die dreidimensionale Farb-Transferfunktion ermittelt werden kann. Gegenüber bestehenden Verfahren werden tausende von Farbsamples gleichzeitig erfasst, so dass die erreichbare Sampledichte unter praxisrelevanten Messbedingungen von 17x17x17 auf 64x64x64 erhöht und damit die Qualität der photometrischen Kalibrierung signifikant gesteigert werden kann. Weiterhin wird ein Schnellverfahren entwickelt, dass die Messungsdauer bei 17x17x17 Samples von mehreren Stunden mit bisherigen Verfahren auf weniger als 30 Minuten reduziert. Im dritten Teil werden Algorithmen zur effizienten Bildverarbeitung entwickelt, die der GPU-basierten Anwendung der Kalibrierparameter auf die darzustellenden Bilddaten in Echtzeit dienen. Dabei werden die Möglichkeiten zur Vermeidung redundanter Berechnungsschritte beim Einsatz Stereoskopie-fähiger Projektoren ausgenutzt. Weiterhin wird das eigentliche Kalibrierverfahren effizient mit Verfahren zur Konvertierung von stereoskopischen Bildverfahren kombiniert. Es wird gezeigt, dass ein einzelner PC aus Standardkomponenten zur Ansteuerung einer Mehrsegment-Projektionsanlage mit bis zu 6 Projektoren ausreicht. Die Verwendung von DVI-Capture-Karten ermöglicht dabei den Betrieb einer solchen Anlage wie einen "großen Monitor" für beliebige Applikationen und Betriebssysteme.

Page generated in 0.0694 seconds