• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 42
  • 40
  • 11
  • 1
  • 1
  • Tagged with
  • 95
  • 49
  • 40
  • 34
  • 28
  • 22
  • 22
  • 22
  • 20
  • 19
  • 16
  • 15
  • 15
  • 12
  • 12
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Ein Beitrag zur effektiven Implementierung adaptiver Spektraltransformationen in applikationsspezifische integrierte Schaltkreise / On Effective Implementation of Adaptive Spectral Transforms in Application Specific Integrated Circuits

Lohweg, Volker 21 January 2004 (has links) (PDF)
Image retrieval, texture analysis, optical character recognition and general inspection tasks are of main interest in the field of image processing and pattern recognition. Methods which operate automatically are of interest in the above mentioned areas. Therefore, translation invariant transforms are helpful tools for pattern recognition tasks. Nonlinear spatial transforms and fuzzy pattern classification with unimodal potential functions are established in signal processing. They have proved to be excellent tools in feature extraction and classification. In this thesis nonlinear discrete transforms, which are adaptable for different application tasks, will be presented. The adaptivity includes the group specific behaviour, the amount of calculations and the implementability in application specific integrated circuits. The pattern separability properties of these transforms are better compared to that of the well known power spectrum of the Fourier transform and several other known transforms. Furthermore, a hardware accelerator image processing and classification system will presented, which is implemented on one field programmable gate array (FPGA). The system can be used for feature extraction, pattern recognition and classification tasks. In the field of printed image inspection the system is applicable under practical aspects. / In vielen Bereichen der ein- und zweidimensionalen Signalverarbeitung besteht die Aufgabe Signale oder Objekte unabhängig von ihren aktuellen Positionen mittels geeigneter Merkmale zu klassifizieren. Mit Hilfe schneller nichtlinearer Spektraltransformationen ist eine positionsinvariante Merkmalgewinnung möglich. In dieser Arbeit werden reelle Transformationen vorgestellt, deren Eigenschaften in Bezug auf verschiedene Parameter angepasst werden können. Zu nennen ist das gruppeninvariante Verhalten, der rechentechnische Aufwand und die Implementierbarkeit in applikationsspezifische Schaltungen. Durch unterschiedliche Berechnungsstrukturen kann beispielsweise die Separationseigenschaft aufgabengemäß adaptiert werden. Basierend auf dem Konzept charakteristischer Matrizen wird ein generalisiertes Verfahren zur Berechnung der Transformationen abgeleitet. Bezüglich ihrer Charakteristika können die vorzustellenden Transformationen gegenüber anderen als ebenbürtig oder sogar überlegen bezeichnet werden. In Kombination mit einem Fuzzy-Klassifikationsverfahren (Fuzzy-Pattern-Classification, FPC) wird ein System-On-Programmable-Chip Mustererkennungssystem entwickelt, das auf einem programmierbaren applikationsspezifischen Schaltkreis (FPGA) implementiert wird. Das System ist in der Lage pixel-basierende Bilder zu klassifizieren. In der Anwendung der Druckbildinspektion erweist sich das Mustererkennungssystem als praxisgerecht einsetzbar.
62

Orientation Invariant Pattern Detection in Vector Fields with Clifford Algebra and Moment Invariants

Bujack, Roxana 19 December 2014 (has links)
The goal of this thesis is the development of a fast and robust algorithm that is able to detect patterns in flow fields independent from their orientation and adequately visualize the results for a human user. This thesis is an interdisciplinary work in the field of vector field visualization and the field of pattern recognition. A vector field can be best imagined as an area or a volume containing a lot of arrows. The direction of the arrow describes the direction of a flow or force at the point where it starts and the length its velocity or strength. This builds a bridge to vector field visualization, because drawing these arrows is one of the fundamental techniques to illustrate a vector field. The main challenge of vector field visualization is to decide which of them should be drawn. If you do not draw enough arrows, you may miss the feature you are interested in. If you draw too many arrows, your image will be black all over. We assume that the user is interested in a certain feature of the vector field: a certain pattern. To prevent clutter and occlusion of the interesting parts, we first look for this pattern and then apply a visualization that emphasizes its occurrences. In general, the user wants to find all instances of the interesting pattern, no matter if they are smaller or bigger, weaker or stronger or oriented in some other direction than his reference input pattern. But looking for all these transformed versions would take far too long. That is why, we look for an algorithm that detects the occurrences of the pattern independent from these transformations. In the second part of this thesis, we work with moment invariants. Moments are the projections of a function to a function space basis. In order to compare the functions, it is sufficient to compare their moments. Normalization is the act of transforming a function into a predefined standard position. Moment invariants are characteristic numbers like fingerprints that are constructed from moments and do not change under certain transformations. They can be produced by normalization, because if all the functions are in one standard position, their prior position has no influence on their normalized moments. With this technique, we were able to solve the pattern detection task for 2D and 3D flow fields by mathematically proving the invariance of the moments with respect to translation, rotation, and scaling. In practical applications, this invariance is disturbed by the discretization. We applied our method to several analytic and real world data sets and showed that it works on discrete fields in a robust way.
63

Merkmalsextraktion für die Klassifikation von Bestandteilen in Dokument-Bildern

Poller, Andreas 20 November 2005 (has links)
Am Institut für Print- und Medientechnik an der TU Chemnitz wird ein System entwickelt, welches gescannte Dokumente archivieren soll. Im Gegensatz zu bereits existierenden OCR-Systemen, sollen diese Dokumente hier jedoch nicht mittels einer Schrifterkennung verarbeitet werden. Vielmehr sind Textbereiche in den gescannten Vorlagen zu vektorisieren. Bereiche mit Grafiken und Illustrationen werden bei diesem Verfahren als ein Bildvektor gespeichert. Diese Vorgehensweise soll es ermöglichen, auch Dokumente mit Schriftsymbolen effizient zu archivieren, die keinen "herkömmlichen" Schriftsätzen zugehörig sind. Diese Studienarbeit stellt Merkmalsextraktionsverfahren vor, die aus einem gegebenen Teil (Segment) eines Dokumentenscans Merkmale extrahieren, die es ermöglichen sollen, diesen mittels eines Klassifikationsverfahrens einer Klasse Textblock oder einer Klasse Grafikblock zuzuordnen. Zusätzlich werden zwei Klassifikationsverfahren, ein Entscheidungsbaum und eine Fuzzy-Logik, auf die Nutzbarkeit für einen solchen Mustererkennungsprozess überprüft. Als Textblöcke erkannte Bereiche werden im zu entwickelnden Gesamtverfahren dann in nachfolgenden Verarbeitungsschritten einer Vektorisierung zugeführt.
64

Learning to Predict Dense Correspondences for 6D Pose Estimation

Brachmann, Eric 17 January 2018 (has links)
Object pose estimation is an important problem in computer vision with applications in robotics, augmented reality and many other areas. An established strategy for object pose estimation consists of, firstly, finding correspondences between the image and the object’s reference frame, and, secondly, estimating the pose from outlier-free correspondences using Random Sample Consensus (RANSAC). The first step, namely finding correspondences, is difficult because object appearance varies depending on perspective, lighting and many other factors. Traditionally, correspondences have been established using handcrafted methods like sparse feature pipelines. In this thesis, we introduce a dense correspondence representation for objects, called object coordinates, which can be learned. By learning object coordinates, our pose estimation pipeline adapts to various aspects of the task at hand. It works well for diverse object types, from small objects to entire rooms, varying object attributes, like textured or texture-less objects, and different input modalities, like RGB-D or RGB images. The concept of object coordinates allows us to easily model and exploit uncertainty as part of the pipeline such that even repeating structures or areas with little texture can contribute to a good solution. Although we can train object coordinate predictors independent of the full pipeline and achieve good results, training the pipeline in an end-to-end fashion is desirable. It enables the object coordinate predictor to adapt its output to the specificities of following steps in the pose estimation pipeline. Unfortunately, the RANSAC component of the pipeline is non-differentiable which prohibits end-to-end training. Adopting techniques from reinforcement learning, we introduce Differentiable Sample Consensus (DSAC), a formulation of RANSAC which allows us to train the pose estimation pipeline in an end-to-end fashion by minimizing the expectation of the final pose error.
65

Automatisierte Ermittlung der Vorzugsrichtung von Nervenfasern in mikroskopischen Abbildungen des menschlichen Gehirn

Schätzchen, Sarah 25 July 2023 (has links)
Diese Arbeit befasst sich mit der automatisierten Analyse der Ausrichtungen von Neuronenfasern in Mikroskopiebildern des menschlichen Gehirns. Für eine solche Analyse wurden vom Paul-Flechsig-Institut für Hirnforschung Leipzig (PFI) Fluoreszenzbilddaten zur Verfügung gestellt. Um für diese Daten Faserausrichtungen zu ermitteln, werden drei Schritte durchgeführt: Neuronenfasern werden hervorgehoben, bzw. freigestellt, es werden Orientierungen zu diesen zugeordnet und die hierdurch ermittelten Ergebnisse werden visualisiert. Es werden für jeden dieser Schritte mehrere Verfahren der klassischen Bildverarbeitung vorgestellt und die Auswirkung verschiedener Parameter auf deren Ergebnisse untersucht. Betrachtet werden Verfahren zur Kontrasterhöhung, Gauß-Filter, auf Hessematrizen basierende Filter, Berechnung von Phasenübereinstimmung und eine Wavelet-Transformation. Alle während dieser Arbeit vorgenommenen Implementierungen stehen als Python-Skripte auf GitHub (https://github.com/saphyll/fiber-orientation) zur Verfügung.:Einleitung 1. Grundlagen 1.1 Datengrundlage 1.2 Architektur 1.3 Grundlagen der Bildverarbeitung 1.3.1 Histogramme 1.3.2 Konvolution 1.3.3 Gaußkernel 1.3.4 Hessematrix und Eigenvektoren 1.4.5 Fourier-Transformation 2. Faseranalyse in 2D 2.1 Hervorhebung von Fasern 2.1.1 Histogram Equalization 2.1.2 Gauß-Filter 2.1.3 Hessematrix-basierte Filter 2.1.4 Phase Congruency 2.1.5 Isotropic Undecimated Wavelet Transform 2.2 Analyse und Visualisierung von Faserrichtungen 2.2.1 Richtungshistogramme 2.2.2 Kacheln 2.2.3 Direkte Ergebnisbilder 3. Zusammenfassung und Ausblick / This thesis covers the automated analysis of fiber orientations in microscopic images of the human brain in regard to data provided by the Paul Flechsig Institute of Brain Research Leipzig (PFI). For the retrieval of information about fiber orientations, three steps are used: An enhancement of fiber visibility and definition, an assignment of orientations to those fibers and a visualisation of fibers and their orientations. Multiple methods from classical image processing are presented for each of these steps and are evaluated according to the available data. These methods include contrast enhancement, gaussian filters, hessian filters, calculation of phase congruency and a wavelet transformation. All implementations resulting from this thesis are available as Python scripts on GitHub (https://github.com/saphyll/fiber-orientation).:Einleitung 1. Grundlagen 1.1 Datengrundlage 1.2 Architektur 1.3 Grundlagen der Bildverarbeitung 1.3.1 Histogramme 1.3.2 Konvolution 1.3.3 Gaußkernel 1.3.4 Hessematrix und Eigenvektoren 1.4.5 Fourier-Transformation 2. Faseranalyse in 2D 2.1 Hervorhebung von Fasern 2.1.1 Histogram Equalization 2.1.2 Gauß-Filter 2.1.3 Hessematrix-basierte Filter 2.1.4 Phase Congruency 2.1.5 Isotropic Undecimated Wavelet Transform 2.2 Analyse und Visualisierung von Faserrichtungen 2.2.1 Richtungshistogramme 2.2.2 Kacheln 2.2.3 Direkte Ergebnisbilder 3. Zusammenfassung und Ausblick
66

Binary Geometric Transformer Descriptor Based Machine Learning for Pattern Recognition in Design Layout

Treska, Fergo 13 September 2023 (has links)
This paper proposes a novel algorithm in pixel-based pattern recognition in design layout which offers simplicity, speed and accuracy to recognize any patterns that later can be used to detect problematic pattern in lithography process so they can be removed or improved earlier in design stage.:Abstract 1 Content 3 List of Figure 6 List of Tables 8 List of Abbreviations 9 Chapter 1: Introduction 10 1.1 Motivation 10 1.2 Related Work 11 1.3 Purpose and Research Question 12 1.4 Approach and Methodology 12 1.5 Scope and Limitation 12 1.6 Target group 13 1.7 Outline 13 Chapter 2: Theoretical Background 14 2.1 Problematic Pattern in Computational Lithography 14 2.2 Optical Proximity Effect 16 2.3 Taxonomy of Pattern Recognition 17 2.3.1 Feature Generation 18 2.3.2 Classifier Model 19 2.3.3 System evaluation 20 2.4 Feature Selection Technique 20 2.4.1 Wrapper-Based Methods 21 2.4.2 Average-Based Methods 22 2.4.3 Binary Geometrical Transformation 24 2.4.3.1 Image Interpolation 24 2.4.3.2 Geometric Transformation 26 2.4.3.2.1 Forward Mapping: 26 2.4.3.2.2 Inverse Mapping: 27 2.4.3.3 Thresholding 27 2.5 Machine Learning Algorithm 28 2.5.1 Linear Classifier 29 2.5.2 Linear Discriminant Analysis (LDA) 30 2.5.3 Maximum likelihood 30 2.6 Scoring (Metrics to Measure Classifier Model Quality) 31 2.6.1 Accuracy 32 2.6.2 Sensitivity 32 2.6.3 Specifity 32 2.6.4 Precision 32 Chapter 3: Method 33 3.1 Problem Formulation 33 3.1.1 T2T Pattern 35 3.1.2 Iso-Dense Pattern 36 3.1.3 Hypothetical Hotspot Pattern 37 3.2 Classification System 38 3.2.1 Wrapper and Average-based 38 3.2.2 Binary Geometric Transformation Based 39 3.3 Window-Based Raster Scan 40 3.3.1 Scanning algorithm 40 3.4 Classifier Design 42 3.4.1 Training Phase 43 3.4.2 Discriminant Coefficient Function 44 3.4.3 SigmaDi 45 3.4.4 Maximum Posterior Probability 45 3.4.5 Classifier Model Block 46 3.5 Weka 3.8 47 3.6 Average-based Influence 49 3.7 BGT Based Model 50 Chapter 4: Results 55 4.1 Wrapper and Average-based LDA classifier 55 4.2 BGT Based LDA with SigmaDi Classifier 56 4.3 Estimation Output 57 4.4 Probability Function 58 Chapter 5: Conclusion 59 5.1 Conclusions 59 5.2 Future Research 60 Bibliography 61 Selbstständigkeitserklärung 63
67

Kontinuierliche Bewertung psychischer Beanspruchung an informationsintensiven Arbeitsplätzen auf Basis des Elektroenzephalogramms

Radüntz, Thea 21 January 2016 (has links)
Die Informations- und Kommunikationstechnologien haben die Arbeitswelt grundlegend verändert. Durch den Einsatz komplexer, hochautomatisierter Systeme werden an die kognitive Leistungsfähigkeit und Belastbarkeit von Arbeitnehmern hohe Anforderungen gestellt. Über die Ermittlung der psychischen Beanspruchung des Menschen an Arbeitsplätzen mit hohen kognitiven Anforderungen wird es möglich, eine Über- oder Unterbeanspruchung zu vermeiden. Gegenstand der Dissertation ist deshalb die Entwicklung, Implementierung und der Test eines neuen Systems zur kontinuierlichen Bewertung psychischer Beanspruchung an informationsintensiven Arbeitsplätzen auf Basis des Elektroenzephalogramms. Im theoretischen Teil der Arbeit werden die Konzepte zur Definition der psychischen Beanspruchung und Modelle zur Beschreibung der menschlichen Informationsverarbeitung zusammengestellt. Die Auswertung einer Reihe von Experimenten ist die Basis für die Konzeption und den Test des neuen Systems zur Indexierung der psychischen Beanspruchung. Die Aufgabenbatterie, die Stichprobenbeschreibung, der Versuchsaufbau und -ablauf sind Bestandteil des experimentellen Teils der Arbeit. Während der Aufgabenlösung wird von den Probanden das Elektroenzephalogramm mit 25 Kanälen abgeleitet. Es folgt eine Artefakteliminierung, für die ein neues automatisch und in Echtzeit arbeitendes Verfahren entwickelt wurde. Die Klassifikation und damit die Indexierung von Segmenten des Elektroenzephalogramms in die Klassen niedriger, mittlerer oder hoher Beanspruchung erfolgt auf Basis einer ebenfalls neu entwickelten Methode, deren Grundlage Dual Frequency Head Maps sind. Damit ist ein vollständiges System entstanden, das die einzelnen Verfahrensschritte integriert und die Aufgabenstellung der Arbeit erfüllt: Es kann an informationsintensiven Arbeitsplätzen eingesetzt werden, um kontinuierlich die Bewertung der psychischen Beanspruchung auf Basis des Elektroenzephalogramms vorzunehmen. / Advanced information and communication technology has fundamentally changed the working environment. Complex and highly automated systems impose high demands on employees with respect to cognitive capacity and the ability to cope with workload. The registration of mental workload of employees on-site at workplaces with high cognitive demands enables preventing over- or underload. The subject of this dissertation is therefore the development, implementation and testing of a novel system for continuous assessment of mental workload at information intensive workplaces on the basis of the electroencephalogram. In the theoretical section of the thesis concepts for defining mental workload are given; furthermore, models for describing human information processing are introduced and the relevant terminology such as strain, workload, and performance is clarified. Evaluation of an array of experiments with cognitive tasks forms the basis for the conceptual design and testing of the novel system for indexing mental workload. Descriptions of these tasks, the sample, the experimental set-up and procedure are included in the experimental section. The electroencephalogram with 25 channels was recorded from the subjects while performing the tasks. Subsequently, an artifact elimination was carried out, for which a new, automated, and real-time capable procedure has been developed. Segments from the electroencephalogram are classified and thusly indexed into classes of low, medium, and high workload on the basis of a likewise newly developed method, whose central element are Dual Frequency Head Maps. Hence, a complete system emerges that integrates the single processing steps and satisfies the scope of this thesis: It can be applied on-site at information intensive workplaces for continuous assessment of mental workload on the basis of the electroencephalogram.
68

Entwicklung und Validierung eines Gesamtsystems zur Verkehrserfassung basierend auf Luftbildsequenzen

Kozempel, Karsten 22 March 2012 (has links)
Diese Dissertation soll einen Beitrag zur Weiterentwicklung der luftgestützten Verkehrslageerfassung leisten. Als Plattform dafür dient ein flugzeuggetragenes Kamerasystem, welches mit einem Inertialsystem gekoppelt ist. Vorgestellt werden hauptsächlich bildverarbeitende Algorithmen, welche an die Bildaufnahme anschließend bis hin zur Ermittlung der verkehrstechnischen Kenngrößen zum Einsatz kommen. Nach kurzer Skizzierung der verwendeten Hardware wird die Kalibrierung der Kameraeinbauwinkel durch Testflüge erläutert und auf ihre Genauigkeit hin untersucht. Es wird gezeigt, dass die Orientierungsdaten nicht die vom Hersteller angegebene Genauigkeit erreichen, was jedoch für die Verkehrslageerfassung nur von geringer Bedeutung ist. Anschließend an die Bildaufbereitung, welche die Orthobildgenerierung sowie die Eingrenzung der verkehrsaktiven Flächen beinhaltet, wird zur Ermittlung der Fahrzeugdichte ein zweistufiger Fahrzeugerkennungsalgorithmus entwickelt, welcher zunächst auf Kantenfilterbasis möglichst schnell Hypothesen erstellt. Diese werden in einer zweiten Phase durch eine Support Vector Machine überprüft, wobei ein Großteil der Fehlhypothesen verworfen wird. Die Erkennung erreicht bei guten Voraussetzungen Vollständigkeiten bis zu 90 Prozent bei sehr geringem Anteil von Fehldetektionen. Anschließend wird ein auf Singulärwertzerlegung basierender Tracking-Algorithmus verwendet, um Fahrzeughypothesen in benachbarten Bildern zu assoziieren und die mittleren Geschwindigkeiten zu ermitteln. Die erhaltenen Geschwindigkeiten unterscheiden sich um weniger als zehn km/h von den manuell erhobenen. Abschließend wird eine alternative Orientierungsmethode vorgestellt, welche auf Basis von GPS-Positionen und Bildinformationen automatisch die Fluglage ermittelt. Dies geschieht durch die Extraktion und das Matching von Straßensegmenten sowie zusätzliche Passpunktverfolgung. Die Ergebnisse weisen Genauigkeiten von etwa 0,1 bis 0,2 Grad auf. / This dissertation should make a contribution to the further development of airborne traffic detection. The used hardware is an airborne camera system combined with an inertial measurement unit for orientation determination. Mainly computer vision algorithms are presented, which are applied afterwards the image acquisition up to the determination of the most important traffic data. After a short presentation of the used hardware the calibration of the camera''s alignment angles during test flights is explained and its accuracy is analyzed. It is shown that the orientation data doesn''t reach the specified accuracy, which is fortunately less important for traffic detection. After the image preparation, which contains the ortho image generation as well as the clipping of traffic areas, a two-stage vehicle detection algorithm is implemented, which at first rapidly creates hypotheses based on edge filters. In the second stage those hypotheses are verified by a Support Vector Machine which rejects most of the False Posititves. At good conditions the detection reaches completeness rates of up to 90 percent with a low contingent of FP detections. Subsequently a tracking algorithm based on singular value decomposition is applied to associate vehicle hypotheses in adjacent images and determine the average speed. The achieved velocities differ less than ten kph from the manually obtained data. Concluding an orientation method is presented, that automatically determines the airplane''s attitude based on GPS and image information. This is realized by extraction and matching of street segments and additional tracking of ground control points. The results have accuracies of around 0.1 to 0.2 degrees.
69

Trigger and reconstruction farms in the HERA-B experiment and algorithms for a Third Level Trigger

Schwanke, Ullrich 30 October 2000 (has links)
Das HERA-$B$-Experiment am Deutschen Elektronen-Synchrotron (DESY) in Hamburg dient der Untersuchung der Physik von Teilchen, die $b$-Quarks enthalten. Der Schwerpunkt des Ex\-pe\-ri\-mentes liegt auf der Messung der CP-Verletzung im System der neutralen $B$-Mesonen. Es wird erwartet, dass die pr\"azise Bestimmung der CP-Asymmetrie im Zerfallskanal $B^0(\bar{B}^0)\to J/\psi K_S^0$ gro{\ss}en Einfluss auf die Weiterentwicklung des Standardmodells der Elementarteilchenphysik und g\"angiger kosmologischer Theorien haben wird. Das HERA-$B$-Experiment nutzt den Protonenstrahl des HERA-Ringes, um in Kollisionen mit einem feststehenden Target paarweise $B$-Hadronen zu erzeugen. Die Wechselwirkungen werden in einem Vorw\"artsspektrometer mit etwa 600.000 Auslesekan\"alen nachgewiesen. Aufgrund der relativ niedrigen Schwerpunktsenergie von 41.6\,GeV sind Ereignisse mit $b$-Quarks im Vergleich zu Wechselwirkungen mit leichteren Quarks um etwa sechs Gr\"o{\ss}enordnungen unterdr\"uckt. Die Selektion von Signalereignissen stellt daher eine besondere Herausforderung dar. Sie wird von einem vierstufigen Datennahme- und Triggerystem \"ubernommen, das die Ereignisrate von 10\,MHz auf etwa 20\,Hz reduziert. Neben speziell entwickelter Elektronik werden im Triggersystem mehrere hundert handels\"ubliche PCs eingesetzt. Die Computer sind in zwei so genannten PC-Farmen mit jeweils mehr als 200 Prozessoren angeordnet, die die Rechenkapazit\"at f\"ur Triggerentscheidungen und die prompte Analyse der Ereignisdaten zur Verf\"ugung stellen. Auf der einen Farm laufen schnelle Triggerprogramme mit einer Rechenzeit von etwa 1--100\,ms pro Ereignis ab. Die andere Farm rekonstruiert die Ereignisse online, bevor die Daten auf Band dauerhaft archiviert werden. Die pro Ereignis aufgewandte Rechenzeit liegt dabei im Bereich einiger Sekunden. Die vorliegende Arbeit behandelt zwei Themenkreise. Einerseits wird die technische Umsetzung der Trigger- und der Rekonstruktionsfarm beschrieben. Besonderes Augenmerk liegt dabei auf den Software-Systemen, die den Farmen erforderliche Kalibrationsdaten verf\"ugbar machen und die zentrale \"Uberwachung der Ergebnisse der ablaufenden Programme gestatten. Der Hauptteil der Arbeit besch\"aftigt sich mit Algorithmen f\"ur eine dritte Triggerstufe, die zus\"atzlich zu existierenden Programmen auf der Triggerfarm zum Einsatz kommen sollen. Der Zerfall $B^0(\bar{B}^0)\to J/\psi X$ hat eine sehr klare Signatur, wenn das $J/\psi$ in ein $e^+e^-$- oder $\mu^+\mu^-$-Paar zerf\"allt. Im Triggersystem wird nach einem Paar entgegengesetzt geladener Leptonen des gleichen Typs gesucht, deren invariante Masse der des $J/\psi$ entspricht und deren Spuren von einem gemeinsamen Vertex in der N\"ahe des Targets ausgehen. Es wird davon ausgegangen, dass die Ausnutzung aller kinematischen Zwangsbedingungen ausreicht, um diesen Zerfallskanal klar von Untergrundereignissen zu trennen. Die dritte Triggerstufe soll dagegen auf Signalprozesse mit weniger kinematischen Beschr\"ankungen angewandt werden. Solche Ereignisse entstehen zum Beispiel dann, wenn zwei in der Proton-Target-Kollision erzeugte $B$-Mesonen semileptonisch zerfallen. Das Triggersystem selektiert lediglich die beiden Leptonen, die aber hier nicht von einem gemeinsamen Vertex kommen. Die dritte Triggerstufe soll f\"ur derartige Zerfallstopologien innerhalb von 100\,ms pro Ereignis weitere Kriterien zur Unterscheidung von Signal- und Untergrundprozessen aus den Daten extrahieren. In der Arbeit wird anhand von Monte-Carlo-Studien untersucht, inwieweit die Daten des Silizium-Vertexdetektors des Experimentes zur Entscheidungsfindung einer dritten Triggerstufe beitragen k\"onnen. Dabei wird die Rekonstruktion von Spuren aus der Zerfallskaskade der $B$-Hadronen zus\"atzlich zu den von der vorhergehenden Triggerstufe selektierten Lep\-ton\-en an\-ge\-strebt. Mithilfe einer schnellen Mustererkennung f\"ur den Vertexdetektor wird gezeigt, dass das Auffinden aller Spuren und die Anwendung von Triggeralgorithmen innerhalb des vorgegebenen Zeitfensters von 100\,ms m\"oglich sind. Die Bestimmung der Spurparameter nahe der Targetregion macht von der Methode des Kalman-Filters Gebrauch, um der Vielfachstreuung im Detektormaterial Rechnung zu tragen. Dabei tritt das Problem auf, dass weder der Impuls der gefundenen Spuren bekannt ist, noch die Materialverteilung im Vertexdetektor aus Zeitgr\"unden in aller Strenge ber\"ucksichtigt werden kann. Durch geeignete N\"aherungen gelingt es, eine ausreichende Genauigkeit f\"ur die Spurparameter zu erreichen. Die aufgefundenen Teilchen bilden den Ausgangspunkt f\"ur Triggeralgorithmen. Hierbei wird untersucht, welche Methoden am besten geeignet sind, um Signal- und Unter\-grund\-ereignisse voneinander zu trennen. Es erweist sich, dass das Auffinden von Spuren mit gro{\ss}em Impaktparameter aussichtsreichere Ans\"atze als eine Suche nach Sekund\"arvertices bietet. / The HERA-$B$ experiment at Deutsches Elektronen-Synchrotron (DESY) Hamburg aims at investigating the physics of particles containing $b$ quarks. The experiment focusses on measuring CP violation in the system of neutral $B$ mesons. It is expected that the precise determination of the CP asymmetry in the channel $B^0(\bar{B}^0)\to J/\psi K_S^0$ will have an impact on the further development of the Standard Model of Elementary Particle Physics and cosmological theories. The HERA-$B$ experiment uses the proton beam of the HERA storage ring in fixed-target mode. $B$ hadrons are produced in pairs when protons from the beam halo interact with target nuclei. The interactions are recorded by a forward-spectrometer with roughly 600.000 readout channels. At the HERA-$B$ centre-of-mass energy of 42.6\,GeV, the $b\bar{b}$ cross section is only a tiny fraction of the total inelastic cross section. Only one in about 10$^6$ events contains $b$ quarks, which turns the selection of signal events into a particular challenge. The selection is accomplished by a four-stage data acquisition and trigger system reducing the event rate from 10\,MHz to about 20\,Hz. Besides custom-made electronics, several hundreds of PCs are used in the trigger system. The computers are arranged in two so-called PC farms with more than 200 processors each. The PC farms provide the computing capacity for trigger decisions and the prompt analysis of event data. One farm executes fast trigger programs with a computing time of 1--100\,ms per event. The other farm performs online reconstruction of the events before data are archived on tape. The computing time per event is in the range of several seconds. This thesis covers two topics. In the beginning, the technical implementation of the trigger and the reconstruction farm are described. In doing so, emphasis is put on the software systems which make calibration data available to the farms and which provide a centralised view on the results of the executing processes. The principal part of this thesis deals with algorithms for a Third Level Trigger. This trigger is to come into operation on the trigger farm together with existing programs. Processes of the type $B^0(\bar{B}^0)\to J/\psi X$ have a very clean signature when the $J/\psi$ decays to a $e^+e^-$ or $\mu^+\mu^-$ pair. The trigger system attempts to identify two unlike-sign leptons of the same flavour whose invariant mass matches the $J/\psi$. In later steps, the tracks are required to originate from a common vertex close to the target. It is assumed that these kinematic constraints are sufficient to pick out events of this type among the copious background processes. In contrast, the Third Level Trigger is to be applied to signal processes with fewer kinematic constraints. Such events occur for example when two $B$ mesons, which were created in a proton-target collision, decay semileptonically. The trigger system selects merely the two leptons which do not originate from a common vertex in this case. The Third Level Trigger has 100\,ms at its disposal to extract further criteria from the data which can serve to distinguish between signal and background events. This thesis investigates with the aid of Monte-Carlo simulations how the data of the experiment's silicon vertex detector can contribute to the decisions of a Third Level Trigger. The trigger aims at reconstructing tracks from the decay cascade of $B$ mesons in addition to the leptons selected by the preceding trigger levels. A fast pattern recognition for the vertex detector demonstrates that the reconstruction of all tracks and the application of trigger algorithms are possible within the given time slot of 100\,ms. The determination of track parameters in the target region exploits the Kalman-filter method to account for the multiple scattering of particles in the detector material. The application of this method is, however, made difficult by two facts. First, the momentum of the reconstructed tracks is not known. And, second, the material distribution in the detector cannot be taken into consideration in detail due to timing limitations. Adequate approximations for the momentum and the material traversed by a particle help to accomplish a sufficient accuracy of the track parameters. The reconstructed tracks constitute the starting point of several trigger algorithms, whose suitability to select signal events is investigated. Our studies indicate that the reconstruction of tracks with large impact parameters is a more promising approach than a search for secondary vertices.
70

An Approach to Incremental Learning Good Classification Tests

Naidenova, Xenia, Parkhomenko, Vladimir 28 May 2013 (has links) (PDF)
An algorithm of incremental mining implicative logical rules is pro-posed. This algorithm is based on constructing good classification tests. The in-cremental approach to constructing these rules allows revealing the interde-pendence between two fundamental components of human thinking: pattern recognition and knowledge acquisition.

Page generated in 0.2877 seconds