• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 203
  • 28
  • 18
  • 13
  • 8
  • 7
  • 5
  • 3
  • 3
  • 2
  • 2
  • 2
  • 1
  • 1
  • Tagged with
  • 343
  • 343
  • 78
  • 71
  • 63
  • 56
  • 52
  • 38
  • 32
  • 32
  • 28
  • 28
  • 28
  • 25
  • 24
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
251

A Multidimensional Filtering Framework with Applications to Local Structure Analysis and Image Enhancement

Svensson, Björn January 2008 (has links)
Filtering is a fundamental operation in image science in general and in medical image science in particular. The most central applications are image enhancement, registration, segmentation and feature extraction. Even though these applications involve non-linear processing a majority of the methodologies available rely on initial estimates using linear filters. Linear filtering is a well established cornerstone of signal processing, which is reflected by the overwhelming amount of literature on finite impulse response filters and their design. Standard techniques for multidimensional filtering are computationally intense. This leads to either a long computation time or a performance loss caused by approximations made in order to increase the computational efficiency. This dissertation presents a framework for realization of efficient multidimensional filters. A weighted least squares design criterion ensures preservation of the performance and the two techniques called filter networks and sub-filter sequences significantly reduce the computational demand. A filter network is a realization of a set of filters, which are decomposed into a structure of sparse sub-filters each with a low number of coefficients. Sparsity is here a key property to reduce the number of floating point operations required for filtering. Also, the network structure is important for efficiency, since it determines how the sub-filters contribute to several output nodes, allowing reduction or elimination of redundant computations. Filter networks, which is the main contribution of this dissertation, has many potential applications. The primary target of the research presented here has been local structure analysis and image enhancement. A filter network realization for local structure analysis in 3D shows a computational gain, in terms of multiplications required, which can exceed a factor 70 compared to standard convolution. For comparison, this filter network requires approximately the same amount of multiplications per signal sample as a single 2D filter. These results are purely algorithmic and are not in conflict with the use of hardware acceleration techniques such as parallel processing or graphics processing units (GPU). To get a flavor of the computation time required, a prototype implementation which makes use of filter networks carries out image enhancement in 3D, involving the computation of 16 filter responses, at an approximate speed of 1MVoxel/s on a standard PC.
252

Local Phase Coherence Measurement for Image Analysis and Processing

Hassen, Rania Khairy Mohammed January 2013 (has links)
The ability of humans to perceive significant pattern and structure of an image is something which humans take for granted. We can recognize objects and patterns independent of changes in image contrast and illumination. In the past decades, it has been widely recognized in both biology and computer vision that phase contains critical information in characterizing the structures in images. Despite the importance of local phase information and its significant success in many computer vision and image processing applications, the coherence behavior of local phases at scale-space is not well understood. This thesis concentrates on developing an invariant image representation method based on local phase information. In particular, considerable effort is devoted to study the coherence relationship between local phases at different scales in the vicinity of image features and to develop robust methods to measure the strength of this relationship. A computational framework that computes local phase coherence (LPC) intensity with arbitrary selections in the number of coefficients, scales, as well as the scale ratios between them has been developed. Particularly, we formulate local phase prediction as an optimization problem, where the objective function computes the closeness between true local phase and the predicted phase by LPC. The proposed framework not only facilitates flexible and reliable computation of LPC, but also broadens the potentials of LPC in many applications. We demonstrate the potentials of LPC in a number of image processing applications. Firstly, we have developed a novel sharpness assessment algorithm, identified as LPC-Sharpness Index (LPC-SI), without referencing the original image. LPC-SI is tested using four subject-rated publicly-available image databases, which demonstrates competitive performance when compared with state-of-the-art algorithms. Secondly, a new fusion quality assessment algorithm has been developed to objectively assess the performance of existing fusion algorithms. Validations over our subject-rated multi-exposure multi-focus image database show good correlations between subjective ranking score and the proposed image fusion quality index. Thirdly, the invariant properties of LPC measure have been employed to solve image registration problem where inconsistency in intensity or contrast patterns are the major challenges. LPC map has been utilized to estimate image plane transformation by maximizing weighted mutual information objective function over a range of possible transformations. Finally, the disruption of phase coherence due to blurring process is employed in a multi-focus image fusion algorithm. The algorithm utilizes two activity measures, LPC as sharpness activity measure along with local energy as contrast activity measure. We show that combining these two activity measures result in notable performance improvement in achieving both maximal contrast and maximal sharpness simultaneously at each spatial location.
253

Local Phase Coherence Measurement for Image Analysis and Processing

Hassen, Rania Khairy Mohammed January 2013 (has links)
The ability of humans to perceive significant pattern and structure of an image is something which humans take for granted. We can recognize objects and patterns independent of changes in image contrast and illumination. In the past decades, it has been widely recognized in both biology and computer vision that phase contains critical information in characterizing the structures in images. Despite the importance of local phase information and its significant success in many computer vision and image processing applications, the coherence behavior of local phases at scale-space is not well understood. This thesis concentrates on developing an invariant image representation method based on local phase information. In particular, considerable effort is devoted to study the coherence relationship between local phases at different scales in the vicinity of image features and to develop robust methods to measure the strength of this relationship. A computational framework that computes local phase coherence (LPC) intensity with arbitrary selections in the number of coefficients, scales, as well as the scale ratios between them has been developed. Particularly, we formulate local phase prediction as an optimization problem, where the objective function computes the closeness between true local phase and the predicted phase by LPC. The proposed framework not only facilitates flexible and reliable computation of LPC, but also broadens the potentials of LPC in many applications. We demonstrate the potentials of LPC in a number of image processing applications. Firstly, we have developed a novel sharpness assessment algorithm, identified as LPC-Sharpness Index (LPC-SI), without referencing the original image. LPC-SI is tested using four subject-rated publicly-available image databases, which demonstrates competitive performance when compared with state-of-the-art algorithms. Secondly, a new fusion quality assessment algorithm has been developed to objectively assess the performance of existing fusion algorithms. Validations over our subject-rated multi-exposure multi-focus image database show good correlations between subjective ranking score and the proposed image fusion quality index. Thirdly, the invariant properties of LPC measure have been employed to solve image registration problem where inconsistency in intensity or contrast patterns are the major challenges. LPC map has been utilized to estimate image plane transformation by maximizing weighted mutual information objective function over a range of possible transformations. Finally, the disruption of phase coherence due to blurring process is employed in a multi-focus image fusion algorithm. The algorithm utilizes two activity measures, LPC as sharpness activity measure along with local energy as contrast activity measure. We show that combining these two activity measures result in notable performance improvement in achieving both maximal contrast and maximal sharpness simultaneously at each spatial location.
254

Influence of Tissue Conductivity Inhomogeneity and Anisotropy on EEG/MEG based Source Localization in the Human Brain

Wolters, Carsten H. 28 November 2004 (has links) (PDF)
The inverse problem in Electro- and Magneto-EncephaloGraphy (EEG/MEG) aims at reconstructing the underlying current distribution in the human brain using potential differences and/or magnetic fluxes that are measured non-invasively directly, or at a close distance, from the head surface. The solution requires repeated computation of the forward problem, i.e., the simulation of EEG and MEG fields for a given dipolar source in the brain using a volume-conduction model of the head. The associated differential equations are derived from the Maxwell equations. Not only do various head tissues exhibit different conductivities, some of them are also anisotropic conductors as, e.g., skull and brain white matter. To our knowledge, previous work has not extensively investigated the impact of modeling tissue anisotropy on source reconstruction. Currently, there are no readily available methods that allow direct conductivity measurements. Furthermore, there is still a lack of sufficiently powerful software packages that would yield significant reduction of the computation time involved in such complex models hence satisfying the time-restrictions for the solution of the inverse problem. In this dissertation, techniques of multimodal Magnetic Resonance Imaging (MRI) are presented in order to generate high-resolution realistically shaped anisotropic volume conductor models. One focus is the presentation of an improved segmentation of the skull by means of a bimodal T1/PD-MRI approach. The eigenvectors of the conductivity tensors in anisotropic white matter are determined using whole head Diffusion-Tensor-MRI. The Finite Element (FE) method in combination with a parallel algebraic multigrid solver yields a highly efficient solution of the forward problem. After giving an overview of state-of-the-art inverse methods, new regularization concepts are presented. Next, the sensitivity of inverse methods to tissue anisotropy is tested. The results show that skull anisotropy affects significantly EEG source reconstruction whereas white matter anisotropy affects both EEG and MEG source reconstructions. Therefore, high-resolution FE forward modeling is crucial for an accurate solution of the inverse problem in EEG and MEG. / Motivation und Einordnung: Seit nun fast drei Jahrzehnten werden im Bereich der Kognitionswissenschaften und in klinischer Forschung und Routine die Quellen elektrischer Aktivitaet im menschlichen Gehirn anhand ihrer ueber das Elektroenzephalogramm (EEG) an der Kopfoberflaeche gemessenen Potentialverteilung bzw. ihres ueber das Magnetoenzephalogramm (MEG) in einigen Zentimetern Entfernung davon gemessenen magnetischen Flusses rekonstruiert. Im Vergleich zu anderen funktionellen Bildgebungsmethoden wie z.B. die Positronen-Emissions-Tomographie (PET) oder die funktionelle Magnetresonanztomographie (fMRT) hat die EEG/MEG-Quellrekonstruktion den Vorteil einer sehr hohen zeitlichen Aufloesung. Die gemessene Aktivitaet ist das Resultat von Ionenbewegungen in aktivierten kortikalen Regionen des Gehirns, den sog. Primaerstroemen. Schon im Jahr 1949 wurden erstmals die Primaerstroeme ueber Stromdipole mathematisch modelliert. Der Primaerstrom erzeugt R\"uckstr\"ome im leitf\"ahigen Gewebe des Kopfes, die sog. {\em Sekund\"arstr\"ome}. Die Rekonstruktion der Dipolquellen wird das {\em EEG/MEG inverse Problem} genannt. Dessen L\"osung erfordert die wiederholte Berechnung des {\em Vorw\"arts\-problems}, d.h. der Simulation der EEG/MEG-Feldverteilung f\"ur eine gegebene Dipolquelle im Gehirn. Ein erstes Anwendungsgebiet f\/indet sich in der Diagnose und Therapie von pharma-resistenten Epilepsien, von denen ca. 0,25\% der Weltbev\"olkerung betroffen sind und f\"ur die sich in den letzten Jahrzehnten eine systematische chirurgische Behandlung ent\-wickelt hat. Voraussetzung f\"ur einen die restlichen Gehirnregionen schonenden chirurgischen Eingrif\/f ist die Kenntnis der Lage und Ausdehnung der epileptischen Zentren. Bisher wurden diese Charakteristika in den Patienten stark belastenden invasiven Untersuchungen wie zum Beispiel Subdural- oder Tiefen-Elektroden gewonnen. Die bioelektrischen Signale von Epilepsiekranken weisen zwischen den Anfallsereignissen sog. interiktale Spikes auf. Die nicht-invasive Messung des EEG/MEG dieser interiktalen Spikes und die anschlie{\ss}ende Berechnung des epileptischen Zentrums belastet den Patienten nicht. Ein weiteres Anwendungsfeld ist die pr\"aoperative Ermittlung der Lage wichtiger funk\-tio\-nell-zu\-sam\-men\-h\"angender Zentren im Gehirn, z.B.~des prim\"ar-mo\-to\-ri\-schen, des prim\"ar-au\-di\-to\-rischen oder prim\"ar-somatosensorischen Cortex. Bei Operationen in diesen Bereichen (z.B.~Tumoroperationen) k\"onnten L\"ahmungen, H\"or- und Sensibilit\"atsst\"orungen vermieden werden. Dazu werden \"uber akustische oder sensorische Reize charakteristische Signale evoziert und \"uber Summationstechniken sichtbar gemacht. Durch das L\"osen des inversen Problems wird versucht, die zugrunde liegende Quellstruktur zu ermitteln. Neben den aufgef\"uhrten klinischen Anwendungen ergeben sich auch zahlreiche Anwendungsfelder in der Kognitionswissenschaft. Von Interesse sind z.B.~funktionelle Zusammenh\"ange im Gehirn und die Aufdeckung der aktivierten Areale w\"ahrend der Verarbeitung eines Reizes, wie z.B. der Sprachverarbeitung im Gehirn. Die L\"osung des Vorw\"artsproblems impliziert die Mo\-del\-lierung des Kopfes als Volumenleiter. Es ist bekannt, dass in makroskopischer Hinsicht Gewebe wie die Kopfhaut, der Sch\"adel, die Zerebrospinalfl\"ussigkeit (engl.: CSF) und die Hirngewebe graue und wei{\ss}e Substanz (engl.: GM und WM) verschiedene Leitf\"ahigkeiten besitzen. Der menschliche Sch\"adel ist aus drei Schichten aufgebaut, eine relativ gut leitf\"ahige spongi\"ose Schicht wird von zwei stark isolierenden Schichten, den \"au{\ss}eren und inneren Kompakta, eingeschlossen. In radialer Richtung durch den Sch\"adel handelt es sich also um eine Reihenschaltung von hohem, niedrigem und hohem Widerstand, wohingegen in den tangentialen Richtungen die Leiter parallel geschaltet sind. Als Ganzes gesehen besitzt der Sch\"adel demnach eine richtungsabh\"angige oder {\em anisotrope} Leitf\"ahigkeit mit einem gemessenen Verh\"altnis von bis zu 1 zu 10. F\"ur die faserige WM wurde ebenfalls eine Anisotropie mit einem \"ahnlichen Verh\"altnis (senkrecht zu parallel zu den Fasern) nachgewiesen. Leider existiert bis heute keine direkte Methode, die Leitf\"ahigkeit der WM nicht-invasiv in gen\"ugender Aufl\"osung zu ermittelt. Seit einigen Jahren werden aller\-dings Formalismen diskutiert, die den gesuchten Leitf\"ahigkeitstensor in Bezug setzen zum Wasserdiffusionstensor, der in WM nicht-invasiv \"uber die Diffusionstensor-MRT (DT-MRT) gemessen werden kann. Nat\"urlich wird keine fundamentale Beziehung zwischen der freien Beweglichkeit von Ionen und Wasserteilchen angenommen, sondern lediglich, dass die eingeschr\"ankte Mobilit\"at \"uber die Fasergeometrie der WM in Beziehung steht. Heutzutage werden verschiedene Ans\"atze f\"ur die L\"osung des Vor\-w\"arts\-pro\-blems genutzt und mit steigender Genauigkeit der Modellierung des Kopfvolumenleiters erh\"oht sich die Komplexit\"at der numerischen Feldberechnungen. Einfache Modelle, die immer noch am h\"aufigsten Gebrauchten, beschreiben den Kopf als Mehrschalenkugel-Leiter mit \"ublicherweise drei Schichten, die die Kopfhaut, den Sch\"adel und das Gehirn repr\"asentieren. Um besser auf die Geometrie der drei modellierten Oberfl\"achen einzugehen, wurden sog. BE-Modelle (von engl.: Boundary Element) entwickelt, die sich f\"ur isotrop leitf\"ahige Schichten eignen. Um sowohl auf realistische Geometrien als auch auf Anisotropien und Inhomogenit\"aten eingehen zu k\"onnen, wurden Finite-Elemente (FE) Modelle des Kopfes ent\-wi\-ckelt. Zwei wichtige Fragen stellen sich nun: Ist eine exakte Modellierung der vorgestellten Gewebeleitf\"ahigkeits-Anisotropien n\"otig und in welchen F\"allen reichen weniger berechnungsaufwendige Verfahren aus? Wie k\"onnen komplexe FE-Vorw\"artsmodelle hinreichend beschleunigt werden, um den Zeitrestriktionen f\"ur inverse Quellrekonstruktionen in den Anwendungen zu gen\"ugen? Es existieren zahlreiche Arbeiten, die, basierend auf FE-Modellen des Kopfes, gezeigt haben, dass \"Offnungen im Sch\"adel wie z.B. diejenige, durch die der optische Nerv eintritt oder das okzipitale Loch des Hirnstamms, oder Inhomogenit\"aten wie L\"asionen im Gehirn oder die Sutura des Sch\"adels (insbesondere bei Kleinkindern, wo die Sutura noch nicht geschlossen sind) einen nicht vernachl\"assigbaren Einfluss auf das EEG/MEG-Vorw\"arts\-problem haben. Eine erste Studie bzgl. der Sensitivit\"at zweier ausgew\"ahlter EEG-Rekonstruktionsverfahren wies teils gro{\ss}e Fehler im Falle der Nichtbeachtung von Sch\"adel-Anisotropie nach. Insbesondere f\"ur diverse klinische Anwendungen wird der sog. {\em single dipole fit} im kontinuierlichen Parameterraum verwendet. Aufgrund des hohen Berechnungsaufwands wurden solche Verfahren bisher noch nicht auf ihre Sensitivit\"at auf Sch\"adel\-anisotropie getestet. Obwohl bereits eine Studie einen nicht-vernachl\"assigbaren Einfluss auf die EEG/MEG-Vorw\"artssimulation zeigte, gibt es noch keinerlei Ergebnis zur Aus\-wir\-kung der WM-Anisotropie auf inverse Rekonstruktionsverfahren. Die L\"osung des inversen Problems ist im allgemeinen nicht eindeutig. Viele Dipol-Quell\-konfi\-gura\-tionen k\"onnen ein und dieselbe EEG und MEG Feldverteilung erzeugen. Zus\"atz\-liche Annahmen \"uber die Quellen sind dementsprechend unerl\"asslich. Bei den sog. {\em fokalen Rekonstruktionsmethoden} wird die Annahme gemacht, dass einige wenige Dipole den gemessenen Daten zugrunde liegen. Diese Dipole (Anzahl, Ort, Richtung, St\"arke) sollen innerhalb des anatomisch und physiologisch sinnvollen Suchgebiets so ermittelt werden, dass die Messwerte m\"oglichst genau erkl\"art werden, gleichzeitig aber das Rauschen keinen zu starken Einfluss auf die L\"osung nimmt und die Algorithmen stabil in Bezug auf eine \"Ubersch\"atzung der Anzahl aktiver Quellen bleiben. Bei diesen, wie auch bei den sog. {\em Stromdichterekonstruktionsverfahren}, wird sich das Konzept der Regularisierung als eine wichtige Methode herausstellen. Wissenschaftliche Ergebnisse der Dissertation: Die Ergebnisse der vorgelegten Dissertation k\"onnen in vier Teilbereiche aufgeteilt werden. Im ersten Teilbereich wurden Methoden zur Registrierung und Segmentierung multimodaler MR-Bilder vorgestellt mit dem Ziel, ein {\bf realistisches anisotropes Multigewebe Kopfmodell} zu generieren. In der Literatur wurde von gr\"o{\ss}eren EEG- und MEG-Quell\-rekonstruktions\-fehlern aufgrund mangelhafter Modellierung insbesondere der inneren Sch\"a\-del\-kante berichtet. Ein erster Fokus dieser Arbeit lag dementsprechend auf einer verbesserten Segmentierung dieser Kante, die \"uber ein auf dem T1-gewichteten MRT (T1-MRT) registrierten Protonendichte-ge\-wich\-teten MRT (PD-MRT) gewonnen wurde. Die innere Sch\"a\-del\-kante zeichnet sich im PD-MRT im Gegensatz zum T1-MRT durch einen hohen Kontrast zwischen CSF (protonenreich) und Knochen (protonenarm) aus. Das T1-MRT wurde hingegen f\"ur die Segmentierung der Kopfhaut, der GM und der WM verwendet. Die Standardtechnik im Bereich der EEG/MEG-Quellrekonstruktion nutzt lediglich ein T1-MRT und gewinnt die gesuchte innere Sch\"adelkante \"uber ein Gl\"atten und Aufblasen der segmentierten Hirnoberfl\"ache. Im Vergleich beider Methoden konnte eine Verbesserung der Segmentierung von bis zu 8,5mm in Gebieten erzielt werden, in denen die Standardmethode die Dicke der CSF-Schicht untersch\"atzte. \"Uber die vorgestellten Methoden, insbesondere der Segmentierung unter Ber\"ucksichtigung der MR-Inhomogenit\"aten, konnte zudem eine sehr exakte Modellierung der GM erzielt werden, welche dann als anatomische und auch physiologische Nebenbedingung in die Quellrekonstruktion eingebettet werden kann. Zur realistischen Modellierung der An\-iso\-tropie der Sch\"adelschicht wurde ein deformierbares Modell eingesetzt, welches eine gegl\"attete Spongiosaoberfl\"ache darstellt und somit ein Abgreifen der Leitf\"ahigkeitstensor-Eigenvektoren in radialer Knochenrichtung erm\"oglicht. Die Eigenvektoren der WM-Tensoren wurden \"uber Ganzkopf-DT-MRT gemessen. Sch\"adel- und WM-Tensor-Eigen\-werte wurden entweder unter Ausnutzung publizierter Werte simuliert oder gem\"a{\ss} einem differentialen EMA (von engl.: Effective Medium Approach) ermittelt. Der zweite Teilbereich betraf die {\bf schnelle hochaufgel\"oste FE-Modellierung} des EEG/ MEG-Vorw\"artsproblems. Zun\"achst wurde ein \"Uberblick \"uber die Theorie gegeben und die praktische Realisierung der sp\"ater eingesetzten hochaufgel\"osten anisotropen FE-Volumen\-leiter\-modelle vorgestellt. In numerischen Genauigkeitsstudien konnte nachgewiesen werden, dass Hexaeder-FE-Netze, welche ein Verschieben der St\"utzpunkte zur Gl\"attung an Gewebekanten nutzen, vorteilhaft sind zu herk\"ommlichen Hexaeder-Netzen. Dazu wurden die Reihenentwicklungsformeln f\"ur das Mehrschalenkugel-Modell eingesetzt. Ein wei\-terer Fokus dieser Arbeit lag auf dem Einsatz schneller FE-L\"osungsmethoden, welche die praktische Anwendbarkeit von hochaufgel\"osten anisotropen FE-Kopfmodellen in den verschiedenen Anwendungsgebieten erm\"oglichen sollte. In einem Zeitvergleich zwischen dem neu in die Software integrierten parallelen (12 Prozessoren) algebraischen Mehrgitter- und dem Standard-Einprozessor-Jacobi-Vor\-kon\-di\-tio\-nierer f\"ur das Verfahren der konjugierten Gradienten konnte f\"ur hochaufgel\"oste anisotrope FE-Kopfmodelle ein Beschleunigungsfaktor von mehr als 100 erzielt werden. Im dritten Teilbereich, den {\bf Methoden zum inversen Problem}, wurden neben einem \"Uber\-blick \"uber fokale Rekonstruktions\-verfahren und Stromdichte\-rekon\-struk\-tions\-verfahren algorithmische Neuentwicklungen pr\"asentiert. Es wurde zun\"achst die Methode des {\em single dipole fit} in die FE-Modellierung eingef\"uhrt. F\"ur multiple dipolare Quellen wurde ein {\em Si\-mu\-lated Annealing} Algorithmus in Kombination mit einer abgeschnittenen Singul\"arwertzerlegung im diskreten Parameterraum entwickelt. Im Vergleich zu Standardmethoden zeigte der Algorithmus in verschiedenen Si\-mu\-lations\-studien eine ver\-bes\-serte F\"ahigkeit der Unterscheidung zwischen realen und sog. {\em ghost} Quellen. Des Weiteren wurde eine k\"urzlich in der Literatur vorgestellte raum-zeitliche Regularisierungsme\-thode auf die Stromdichterekonstruktion und, als zweite Anwendung, auf die dynamische Impedanztomographie angewandt. Der raum-zeitliche Ansatz konnte dabei eine stabilisierende Wirkung auf die Rekonstruktionsergebnisse erzielen und zeigte im Hinblick auf seine Genauigkeit und den Speicher- und Rechenzeitbedarf Vorteile gegen\"uber einem sog. {\em Kal\-man-Gl\"atter}. Im letzten Teilbereich der Dissertation wurden Untersuchungen zur {\bf An\-iso\-tro\-pie-Sensi\-tivi\-t\"at} durchgef\"uhrt. Der erste Teil bezog sich dabei auf das Vorw\"arts\-problem, wo die Resultate im Einklang mit der verf\"ugbaren Literatur waren. Es kann festgehalten werden, dass Sch\"adelanisotropie einen nicht-vernachl\"assigbaren Einfluss auf die EEG-Simulation hatte, wohingegen das MEG unbeeinflusst blieb. Je mehr eine Quelle von WM umgeben war, desto gr\"o{\ss}er war der Einfluss der WM-Anisotropie auf sowohl EEG als auch MEG. F\"ur das MEG wirkte sich WM-Anisotropie insbesondere auf Quellen mit starken radialen Anteilen aus. Lokale Leitf\"ahigkeits\"anderungen im Bereich der Quelle sollten sowohl im Hinblick auf das EEG als auch auf das MEG modelliert werden. Im zweiten Teil wurden die Einfl\"usse auf die inverse Quellrekonstruktion untersucht. Mit 18mm maximalem Fehler des EEG basierten {\em single dipole fit} war die Lokalisation einer haupts\"achlich tangential orientierten oberfl\"achennahen Quelle besonders sensitiv gegen\"uber einer 1 zu 10 Sch\"adelanisotropie. Da die tangentialen Quellen im temporalen Bereich (Sch\"adel re\-la\-tiv d\"unn) zu tief und im parietalen und okzipitalen Bereich (Sch\"adel relativ dick) zu oberfl\"achennah lokalisiert wurden, scheint eine Approximation der Sch\"adelanisotropie in BE-Modellen \"uber eine Anpassung des skalaren Sch\"adelleitf\"ahigkeitswertes nicht m\"oglich zu sein. Obwohl bei Vernachl\"assigung der WM-Anisotropie der maximale EEG-Lokalisierungsfehler mit 6,2mm f\"ur eine tiefe Quelle wesentlich geringer ausfiel, kann aufgrund eines maximalen Orientierungsfehlers von 24$^{\circ}$ und einer mehr als zweifach untersch\"atzten Quellst\"arke eine Missinterpretation des Ergebnisses nicht ausgeschlossen werden. F\"ur die Rekonstruktion der vier tangentialen oberfl\"achennahen Dipole, welche als Aktivit\"atszentren der sog. {\em Early Left Anterior Negativity} (ELAN) Komponente bei der Syntaxanalyse von Sprache betrachtet werden, stellte sich WM und Sch\"adel\-anisotropie als vernachl\"assigbar im Hinblick auf eine MEG-Rekonstruk\-tion heraus. Im Gegensatz dazu wurde das EEG-Rekonstruktionsergebnis f\"ur alle getesteten inversen Verfahren stark verf\"alscht. Anisotropie verschob das Aktivit\"ats\-zentrum von $L_1$ und $L_2$ Norm Stromdichterekonstruktionsverfahren entlang der Sylvischen Furche in anteriore Richtung.
255

Recovery of cerebrovascular morphodynamics from time-resolved rotational angiography

Zhang, Chong 28 July 2011 (has links)
Over the last decade, there has been a growing interest in assessing cerebral aneurysmal wall motion, because of its potential connections to the biomechanical conditions of the vessel wall, which could eventually aid the prediction of aneurysmal rupture risk. Such quantification could provide a valid surrogate for the vascular wall status and integrity. However, the vast majority of current morphological indices used in the literature to predict growth and rupture in cerebral aneurysms do not take into account the temporal changes that occur during the cardiac cycle. This is because these indices are derived from image modalities that do not provide sufficient temporal and/or spatial resolution to obtain dynamic aneurysm information, which is expected to be similar to or below image resolution. Among currently available vascular imaging techniques, 3D rotational angiography (3DRA) and digital subtraction angiography (DSA) have the highest spatial (and temporal) resolution. Still, for a human operator relying solely on qualitative visual observation, even when using images from these modalities, to objectively analyze the small motion and shape changes of the cerebrovasculature of an individual throughout the cardiac cycle is difficult, if not impossible. Therefore, the availability of a robust morphodynamic analysis tool is needed. In this context, this thesis focuses on developing techniques to estimate, quantify and analyze cerebrovascular wall motion, particularly aneurysmal wall motion, using such modalities. The main contributions of the thesis are: 1) a first methodology to estimate and model patient-specific cerebrovascular morphodynamics over one cardiac cycle, through a proposed multiple 2D to 3D image registration framework; 2) an extension of this methodology to provide robust and efficient estimates of cerebrovascular wall motion for clinical evaluation and for further biomechanical modeling of the cerebrovascular wall; 3) a patient study that demonstrates the validity of the developed techniques from clinical practice, through an analysis of 3DRA and DSA images. Each of these contributions is published in or submitted to a peerreviewed international journal. / Durante la última década se ha dado un creciente interés en la evaluación del movimiento de la pared vascular en aneurismas cerebrales. Éste hecho ha sido motivado en gran medida por la relación existente entre dicha motilidad y sus condiciones biomecánicas, pudiendo éstas llegar a ser útiles en la predicción del riesgo de ruptura del aneurisma cerebral analizado. De este modo, de ésta cuantificación, se podría llegar a derivar un indicador indirecto del estado e integridad de la pared vascular. Sin embargo, la gran mayoría de los índices morfológicos utilizados en la actualidad para predecir crecimiento y ruptura de aneurismas cerebrales no consideran los cambios que se producen en el tiempo a lo largo del ciclo cardíaco. Esto se debe a que dichos índices se obtienen a partir de modalidades de imagen que no proporcionan suficiente resolución espacial y/o temporal para obtener información dinámica del aneurisma, cuyo rango de variación se espera sea similar o inferior a la resolución de la imagen. Entre las técnicas de imagen vascular disponibles en la actualidad, la angiografía rotacional 3D (3DRA) y la angiografía de substracción digital (DSA) son las que ofrecen la mayor resolución espacial (y temporal). De todos modos, aún utilizando imágenes de estas modalidades, el análisis objetivo de pequeñas diferencias de forma y movimiento en los vasos cerebrales de un individuo a lo largo de un ciclo cardíaco es difícil, si no imposible para un operador humano utilizando únicamente medidas cualitativas guiadas por inspección visual. Por lo tanto, la disponibilidad de herramientas robustas para el análisis morfodinámico de la vasculatura cerebral resulta necesaria. En este contexto, la investigación de esta tesis se concentra en el desarrollo de técnicas para estimar, cuantificar y analizar el movimiento de las paredes de los vasos cerebrales, con particular énfasis en el movimiento de la pared en aneurismas, utilizando las modalidades indicadas anteriormente. En líneas generales, esta tesis presenta tres contribuciones principales: 1) una primera metodología de estimación y modelado morfodinámico de vasos cerebrales a lo largo de un ciclo cardíaco, utilizando una técnica de registrado de imágenes 2D-3D; 2) una metodología extendida para proporcionar una estimación robusta y eficiente del movimiento de las paredes de los vasos cerebrales para su evaluación clínica y posterior modelado biomecánico de dichas paredes; 3) un estudio sobre una población de pacientes que demuestra la validez de las técnicas desarrolladas en la práctica clínica, a través del análisis en imágenes de 3DRA y DSA. Cada una de estas contribuciones ha sido publicada o se encuentra en fase de revisión en revistas internacionales indexadas.
256

Image registration methods for reconstructing a gene expression atlas of early zebrafish embryogenesis / Μέθοδοι αντιστοίχισης εικόνων για την ανακατασκευή άτλαντα γονιδιακής έκφρασης κατά τα αρχικά στάδια της εμβρυογένεσης των ζεβρόψαρων

Μπαλάνου, Ευαγγελία 12 April 2010 (has links)
The process of embryogenesis is governed by the expressions of groups of genes which are acting in a coordinate way. Uncovering how the expressions of these genes control the development of a multicellular organism is fundamental for developmental biology. Gene expression atlases could capture quantitative spatio-temporal information of all genes expressed in a developing embryo. In other words, they could reveal the underlying genetic activity during the embryogenetic processes by providing information about, apart from how much and which, where and when the genes are expressed at cellular level and the interactions between them. The extraction of relative gene expression data and their simultaneous study in animal models, such as zebrafish, would be greatly facilitated by the existence of such atlases. This Master Thesis focuses on the early zebrafish embryogenesis and its goal is to design and implement an image processing framework that will provide the means to gather the expression patterns of different genes from different embryos at a given developmental stage into a common template. The framework should work with image-based data from different embryos, each fluorescently stained to label nuclear DNA and the expression patterns of a reference gene and another gene of interest. The volumetric data from each fluorescent label are contained in different channels. Therefore the crux of the framework lies in its ability to combine appropriately the information from the different channels and deal with a three-dimensional image registration problem. The implemented framework works with datasets of two embryos, one that serves as a template and depicts a whole embryo and another that has to be aligned with the first and depicts part of the other embryo. It is composed of different steps, responsible for preprocessing the channels, coarsely positioning the partial embryo view in the three dimensional template’s space and determining the geometrical transformation that finally aligns it with the template using as reference the gene expression pattern common to all labelled embryos. The resulting transformation is used to map the second expression patterns, thus producing their spatial expression atlas. The algorithm developed is based on the Insight Segmentation and Registration Toolkit. The framework was evaluated with data from six embryos at the same developmental stage and four different registration methods were compared in terms of performance. Visual inspection of the results identified the combination of the correlation coefficient, as a similarity measure function between two images, with the gradient descent optimization algorithm as the most appropriate method for this specific application. The final results obtained showed that the framework achieves its goal of integrating several gene expression patterns into a common template. This framework is ready to be used in order to construct a gene expression atlas integrating a large number of gene expression data of the zebrafish embryogenesis. In the near future, this atlas should be validated with known genetic interactions and used to unravel new ones, so that gene regulatory network models can become a reality. / Η διαδικαςία ανάπτυξης των εμβρύων καθορίζεται από τις συγχρονισμένες εκφράσεις ορισμένων γονιδίων. Το πώς αυτές ελέγχουν την δημιουργία ενός πολυκύτταρου οργανισμού από ένα κύτταρο αποτελεί αντικείμενο μελέτης της Αναπτυξιακής Βιολογίας. Ένας χάρτης γονιδιακής έκφρασης θα μπορούσε να συνδυάζει χρονικές, χωρικές και ποσοτικές πληροφορίες σχετικά με την έκφραση των γονιδίων που ενορχηστρώνουν την διαδικασία ανάπτυξης ενός εμβρύου. Σε έναν τέτοιον χάρτη η γενετική δραστηριότητα θα αναλυόταν σε συνιστώσες που αφορούν το ποια, πότε, πού και πόσο εκφράζονται τα γονίδια σε κυτταρικό επίπεδο. Η ύπαρξη τέτοιων χαρτών για οργανισμούς, όπως το ζεβρόψαρο, που πρωταγωνιστεί σε μελέτες που αφορούν σπονδυλωτά, θα διευκολύνει την ταυτόχρονη μελέτη των εκφράσεων και των μεταξύ τους αλληλεπιδράσεων. Η παρούσα διπλωματική εστιάζεται στον σχεδιασμό και στην υλοποίηση μιας διαδικασίας επεξεργασίας εικόνας που θα είναι ικανή να συγκεντρώσει τις γονιδιακές εκφράσεις ενός συγκεκριμένου σταδίου ανάπτυξης του ζεβρόψαρου σε έναν τρισδιάστατο άτλαντα. Τα δεδομένα που πρέπει να επεξεργαστεί είναι τρισδιάστατες απεικονίσεις διαφορετικών εμβρύων, κάθε ένα από τα οποία έχει σημανθεί με φθορίζουσες ουσίες με στόχους το DNA των πυρήνων και τις εκφράσεις δύο γονιδίων, εκ των οποίων η μία είναι κοινή για όλα τα έμβρυα. Η πληροφορία που αποκαλύπτει κάθε ουσία βρίσκεται σε διαφορετικό κανάλι της κάθε εικόνας. Συνεπώς η διαδικασία θα πρέπει να συνδυάζει κατάλληλα τις πληροφορίες των διαφορετικών καναλιών και να ευθυγραμμίζει τρισδιάστατες εικόνες. Η υλοποιημένη διαδικασία δέχεται σειρές δεδομένων από δύο έμβρυα. Η μία απεικονίζει πλήρως ένα έμβρυο, το οποίο αποτελεί το έμβρυο αναφοράς και η άλλη μέρος του άλλου εμβρύου, το οποίο κα πρέπει να ευθυγραμμιστεί με το πρώτο. Η διαδικασία αποτελείται από διάφορα βήματα, τα οποία προεπεξεργάζονται τα δεδομένα, μετασχηματίζουν την εικόνα του μερικώς απεικονιζόμενου εμβρύου ώστε να αποκτήσει μια κατάλληλη αρχική θέση στον χώρο που ορίζεται από την εικόνα του ολόκληρου εμβρύου και τέλος ευθυγραμμίζουν την πρώτη εικόνα στην δεύτερη χρησιμοποιώντας ως αναφορά τη γονιδιακή έκφραση που είναι κοινή για όλα τα σημασμένα έμβρυα. Οι παράμετροι που προκύπτουν από την ευθυγράμμιση χρησιμοποιούνται για την αντιστοίχιση των άλλων σημασμένων γονιδιακών εκφράσεων, δημιουργώντας έτσι ένα τρισδιάστατο χάρτη εκφράσεων. Η υλοποίηση βασίστηκε στο Insight Segmentation and Registration Toolkit. Η διαδικασία δοκιμάστηκε με δεδομένα από έξι έμβρυα του ίδιου σταδίου ανάπτυξης και συγκρίθηκαν οι επιδόσεις τεσσάρων μεθόδων αντιστοίχισης. Οπτική αξιολόγηση των αποτελεσμάτων ανέδειξε τον συνδυασμό της συνάρτησης του συντελεστή συσχέτισης με τον αλγόριθμο βελτιστοποίησης gradient descent ως την πιο κατάλληλη μέθοδο για την συγκεκριμένη εφαρμογή. Τα τελικά αποτελέσματα απέδειξαν ότι η διαδικασία επιτυγχάνει τον στόχο της. Η διαδικασία που υλοποιήθηκε στην παρούσα διπλωματική είναι έτοιμη προς χρήση για την δημιουργία ενός χάρτη γονιδιακής έκφρασης του ζεβρόψαρου. Αντικείμενο μελλοντικής μελέτης αποτελεί η επικύρωση του χάρτη με ήδη γνωστές γονιδιακές αλληλεπιδράσεις και κατόπιν η χρήση του για την εύρεση νέων.
257

Verification of patient position for proton therapy using portal X-Rays and digitally reconstructed radiographs

Van der Bijl, Leendert 12 1900 (has links)
Thesis (MScEng (Applied Mathematics))--University of Stellenbosch, 2006. / This thesis investigates the various components required for the development of a patient position verification system to replace the existing system used by the proton facilities of iThemba LABS1. The existing system is based on the visual comparison of a portal radiograph (PR) of the patient in the current treatment position and a digitally reconstructed radiograph (DRR) of the patient in the correct treatment position. This system is not only of limited accuracy, but labour intensive and time-consuming. Inaccuracies in patient position are detrimental to the effectiveness of proton therapy, and elongated treatment times add to patient trauma. A new system is needed that is accurate, fast, robust and automatic. Automatic verification is achieved by using image registration techniques to compare the PR and DRRs. The registration process finds a rigid body transformation which estimates the difference between the current position and the correct position by minimizing the measure which compares the two images. The image registration process therefore consists of four main components: the DRR, the PR, the measure for comparing the two images and the minimization method. The ray-tracing algorithm by Jacobs was implemented to generate the DRRs, with the option to use X-ray attenuation calibration curves and beam hardening correction curves to generate DRRs that approximate the PRs acquired with iThemba LABS’s digital portal radiographic system (DPRS) better. Investigations were performed mostly on simulated PRs generated from DRRs, but also on real PRs acquired with iThemba LABS’s DPRS. The use of the Correlation Coefficient (CC) and Mutual Information (MI) similarity measures to compare the two images was investigated. Similarity curves were constructed using simulated PRs to investigate how the various components of the registration process influence the performance. These included the use of the appropriate XACC and BHCC, the sizes of the DRRs and the PRs, the slice thickness of the CT data, the amount of noise contained by the PR and the focal spot size of the DPRS’s X-ray tube. It was found that the Mutual Information similarity measure used to compare 10242 pixel PRs with 2562 pixel DRRs interpolated to 10242 pixels performed the best. It was also found that the CT data with the smallest slice thickness available should be used. If only CT data with thick slices is available, the CT data should be interpolated to have thinner slices. Five minimization algorithms were implemented and investigated. It was found that the unit vector direction set minimization method can be used to register the simulated PRs robustly and very accurately in a respectable amount of time. Investigations with limited real PRs showed that the behaviour of the registration process is not significantly different than for simulated PRs.
258

Detecção e rastreamento de leucócitos em imagens de microscopia intravital via processamento espaçotemporal

Silva, Bruno César Gregório da 19 February 2016 (has links)
Submitted by Luciana Sebin (lusebin@ufscar.br) on 2016-10-06T13:29:02Z No. of bitstreams: 1 DissBCGS.pdf: 7250050 bytes, checksum: df4b2203e5e586a2cba2f75ff4af7f2f (MD5) / Approved for entry into archive by Marina Freitas (marinapf@ufscar.br) on 2016-10-13T20:24:11Z (GMT) No. of bitstreams: 1 DissBCGS.pdf: 7250050 bytes, checksum: df4b2203e5e586a2cba2f75ff4af7f2f (MD5) / Approved for entry into archive by Marina Freitas (marinapf@ufscar.br) on 2016-10-13T20:24:21Z (GMT) No. of bitstreams: 1 DissBCGS.pdf: 7250050 bytes, checksum: df4b2203e5e586a2cba2f75ff4af7f2f (MD5) / Made available in DSpace on 2016-10-13T20:24:30Z (GMT). No. of bitstreams: 1 DissBCGS.pdf: 7250050 bytes, checksum: df4b2203e5e586a2cba2f75ff4af7f2f (MD5) Previous issue date: 2016-02-19 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) / Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP) / Over the last few years, a large number of researchers have directed their efforts and interests for the in vivo study of the cellular and molecular mechanisms of leukocyte-endothelial interactions in the microcirculation of many tissues under different inflammatory conditions. The main goal of these studies is to develop more effective therapeutic strategies for the treatment of inflammatory and autoimmune diseases. Nowadays, analysis of the leukocyte-endothelial interactions in small animals is performed by visual assessment from an intravital microscopy image sequences. Besides being time consuming, this procedure may cause visual fatigue of the observer and, therefore, generate false statistics. In this context, this work aims to study and develop computational techniques for the automatic detection and tracking of leukocytes in intravital video microscopy. For that, results from frame to frame processing (2D – spatial analysis) will be combined with those from the three-dimensional analysis (3D=2D+t – spatio-temporal analysis) of the volume formed by stacking the video frames. The main technique addressed for both processings is based on the analysis of the eigenvalues of the local Hessian matrix. While the 2D image processing aims the leukocyte detection without worrying about their tracking, 2D+t processing is intended to assist on the dynamic analysis of cell movement (tracking), being able to predict cell movements in cases of occlusion, for example. In this work we used intravital video microscopy obtained from a study of Multiple Sclerosis in mice. Noise reduction and registration techniques comprise the preprocessing step. In addition, techniques for the analysis and definition of cellular pathways comprise the post processing step. Results of 2D and 2D+t processing steps, compared with conventional visual analysis, have shown the effectiveness of the proposed approach. / Nos últimos anos, um grande número de pesquisadores tem voltado seus esforços e interesses para o estudo in vivo dos mecanismos celulares e moleculares da interação leucócitoendotélio na microcirculação de vários tecidos e em várias condições inflamatórias. O principal objetivo desses estudos é desenvolver estratégias terapêuticas mais eficazes para o tratamento de doenças inflamatórias e autoimunes. Atualmente, a análise de interações leucócito-endotélio em pequenos animais é realizada de maneira visual a partir de uma sequência de imagens de microscopia intravital. Além de ser demorado, esse procedimento pode levar à fadiga visual do observador e, portanto, gerar falsas estatísticas. Nesse contexto, este trabalho de pesquisa tem como objetivo estudar e desenvolver técnicas computacionais para a detecção e rastreamento automáticos de leucócitos em vídeos de microscopia intravital. Para isso, resultados do processamento quadro a quadro do vídeo (2D – análise espacial) serão combinados com os resultados da análise tridimensional (3D=2D+t – análise espaço-temporal) do volume formado pelo empilhamento dos quadros do vídeo. A principal técnica abordada para ambos os processamentos é baseada na análise local dos autovalores da matriz Hessiana. Enquanto o processamento de imagens 2D tem como objetivo a detecção de leucócitos sem se preocupar com seu rastreamento, o processamento 2D+t pretende auxiliar na análise dinâmica de movimentação das células (rastreamento), sendo capaz de prever movimentos celulares em casos de oclusão, por exemplo. Neste trabalho foram utilizados vídeos de microscopia intravital obtidos a partir de um estudo da Esclerose Múltipla realizado com camundongos. Técnicas de redução de ruído e estabilização do movimento das sequências de imagens compõem a etapa de pré-processamento, assim como técnicas para a definição e análise dos caminhos celulares compõem a etapa de pós-processamento. Resultados das etapas de processamento 2D e 2D+t, comparados com a convencional análise visual, demonstraram a eficácia da abordagem proposta. / FAPESP: 2013/26171-6
259

T?cnicas visuais de localiza??o e mapeamento simult?neos sem extra??o de primitivas geom?tricas da imagem

Ara?jo, Vitor Menegheti Ugulino de 29 July 2011 (has links)
Made available in DSpace on 2014-12-17T14:55:52Z (GMT). No. of bitstreams: 1 VitorMUA_DISSERT.pdf: 1704175 bytes, checksum: aa664311278faf5559b37a1627d7e89e (MD5) Previous issue date: 2011-07-29 / In Simultaneous Localization and Mapping (SLAM - Simultaneous Localization and Mapping), a robot placed in an unknown location in any environment must be able to create a perspective of this environment (a map) and is situated in the same simultaneously, using only information captured by the robot s sensors and control signals known. Recently, driven by the advance of computing power, work in this area have proposed to use video camera as a sensor and it came so Visual SLAM. This has several approaches and the vast majority of them work basically extracting features of the environment, calculating the necessary correspondence and through these estimate the required parameters. This work presented a monocular visual SLAM system that uses direct image registration to calculate the image reprojection error and optimization methods that minimize this error and thus obtain the parameters for the robot pose and map of the environment directly from the pixels of the images. Thus the steps of extracting and matching features are not needed, enabling our system works well in environments where traditional approaches have difficulty. Moreover, when addressing the problem of SLAM as proposed in this work we avoid a very common problem in traditional approaches, known as error propagation. Worrying about the high computational cost of this approach have been tested several types of optimization methods in order to find a good balance between good estimates and processing time. The results presented in this work show the success of this system in different environments / No SLAM (Simultaneous Localization and Mapping), um rob? posicionado em uma localiza??o desconhecida de um ambiente qualquer deve ser capaz de construir uma perspectiva deste ambiente (um mapa) e se localizar no mesmo simultaneamente, utilizando apenas informa??es captadas pelos sensores do rob? e muitas vezes sinais de controle conhecidos. Recentemente, impulsionados pelo avan?o computacional, trabalhos nessa ?rea propuseram usar c?mera de v?deo como sensor e surgiu assim o SLAM Visual. Este possui v?rias abordagens e a grande maioria delas funcionam, basicamente, extraindo caracter?sticas do ambiente, calculando as devidas correspond?ncias e atrav?s destas, e de filtros estat?sticos, estimam os par?metros necess?rios. Neste trabalho ? apresentado um sistema de SLAM Visual Monocular que utiliza registro direto de imagem para calcular o erro de reproje??o entre imagens e m?todos de otimiza??o que minimizam esse erro e assim obter os par?metros relativos ? pose do rob? e o mapa do ambiente diretamente dos pixels das imagens. Dessa forma as etapas de extra??o e correspond?ncia de caracter?sticas s?o dispensadas, possibilitando que nosso sistema funcione bem em ambientes onde as abordagens tradicionais teriam dificuldades. Al?m disso, ao se abordar o problema do SLAM da forma proposta nesse trabalho evitase um problema muito comum nas abordagens tradicionais, conhecido como acumulo do erro. Preocupando-se com o elevado custo computacional desta abordagem foram testados v?rios tipos de m?todos de otimiza??o afim de achar um bom equil?brio entre boas estimativas e tempo de processamento. Os resultados apresentados neste trabalho comprovam o funcionamento desse sistema em diferentes ambientes
260

Adaptive registration using 2D and 3D features for indoor scene reconstruction. / Registro adaptativo usando características 2D e 3D para reconstrução de cenas em ambientes internos.

Juan Carlos Perafán Villota 27 October 2016 (has links)
Pairwise alignment between point clouds is an important task in building 3D maps of indoor environments with partial information. The combination of 2D local features with depth information provided by RGB-D cameras are often used to improve such alignment. However, under varying lighting or low visual texture, indoor pairwise frame registration with sparse 2D local features is not a particularly robust method. In these conditions, features are hard to detect, thus leading to misalignment between consecutive pairs of frames. The use of 3D local features can be a solution as such features come from the 3D points themselves and are resistant to variations in visual texture and illumination. Because varying conditions in real indoor scenes are unavoidable, we propose a new framework to improve the pairwise frame alignment using an adaptive combination of sparse 2D and 3D features based on both the levels of geometric structure and visual texture contained in each scene. Experiments with datasets including unrestricted RGB-D camera motion and natural changes in illumination show that the proposed framework convincingly outperforms methods using 2D or 3D features separately, as reflected in better level of alignment accuracy. / O alinhamento entre pares de nuvens de pontos é uma tarefa importante na construção de mapas de ambientes em 3D. A combinação de características locais 2D com informação de profundidade fornecida por câmeras RGB-D são frequentemente utilizadas para melhorar tais alinhamentos. No entanto, em ambientes internos com baixa iluminação ou pouca textura visual o método usando somente características locais 2D não é particularmente robusto. Nessas condições, as características 2D são difíceis de serem detectadas, conduzindo a um desalinhamento entre pares de quadros consecutivos. A utilização de características 3D locais pode ser uma solução uma vez que tais características são extraídas diretamente de pontos 3D e são resistentes a variações na textura visual e na iluminação. Como situações de variações em cenas reais em ambientes internos são inevitáveis, essa tese apresenta um novo sistema desenvolvido com o objetivo de melhorar o alinhamento entre pares de quadros usando uma combinação adaptativa de características esparsas 2D e 3D. Tal combinação está baseada nos níveis de estrutura geométrica e de textura visual contidos em cada cena. Esse sistema foi testado com conjuntos de dados RGB-D, incluindo vídeos com movimentos irrestritos da câmera e mudanças naturais na iluminação. Os resultados experimentais mostram que a nossa proposta supera aqueles métodos que usam características 2D ou 3D separadamente, obtendo uma melhora da precisão no alinhamento de cenas em ambientes internos reais.

Page generated in 0.1558 seconds