• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 23
  • 3
  • 2
  • 1
  • 1
  • Tagged with
  • 32
  • 32
  • 12
  • 12
  • 12
  • 9
  • 7
  • 6
  • 6
  • 5
  • 5
  • 5
  • 5
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Holistic Face Recognition By Dimension Reduction

Gul, Ahmet Bahtiyar 01 January 2003 (has links) (PDF)
Face recognition is a popular research area where there are different approaches studied in the literature. In this thesis, a holistic Principal Component Analysis (PCA) based method, namely Eigenface method is studied in detail and three of the methods based on the Eigenface method are compared. These are the Bayesian PCA where Bayesian classifier is applied after dimension reduction with PCA, the Subspace Linear Discriminant Analysis (LDA) where LDA is applied after PCA and Eigenface where Nearest Mean Classifier applied after PCA. All the three methods are implemented on the Olivetti Research Laboratory (ORL) face database, the Face Recognition Technology (FERET) database and the CNN-TURK Speakers face database. The results are compared with respect to the effects of changes in illumination, pose and aging. Simulation results show that Subspace LDA and Bayesian PCA perform slightly well with respect to PCA under changes in pose / however, even Subspace LDA and Bayesian PCA do not perform well under changes in illumination and aging although they perform better than PCA.
12

Multilayer Energy Discriminating Detector for Medical X-ray Imaging Applications

Allec, Nicholas 14 November 2012 (has links)
Contrast-enhanced mammography (CEM) relies on visualizing the growth of new blood vessels (i.e. tumor angiogenesis) to provide sufficient materials for cell proliferation during the development of cancer. Since cancers will accumulate an injected contrast agent more than other tissues, it is possible to use one of several methods to enhance the area of lesions in the x-ray image and remove the contrast of normal tissue. Large area flat panel detectors may be used for CEM wherein the subtraction of two acquired images is used to create the resulting enhanced image. There exist several methods to acquire the images to be subtracted, which include temporal subtraction (pre- and post-contrast images) and dual-energy subtraction (low- and high-energy images), however these methods suffer from artifacts due to patient motion between image acquisitions. In this research the use of a multilayer flat panel detector is examined for CEM that is designed to acquire both (low- and high-energy) images simultaneously, thus avoiding motion artifacts in the resulting subtracted image. For comparison, a dual-energy technique prone to motion artifacts that uses a single-layer detector is also investigated. Both detectors are evaluated and optimized using amorphous selenium as the x-ray to charge conversion material, however the theoretical analysis could be extended to other conversion materials. Experimental results of single pixel prototypes of both multilayer and single-layer detectors are also discussed and compared to theoretical results. For a more comprehensive analysis, the motion artifacts present in dual-exposure techniques are modeled and the performance degradation due to motion artifacts is estimated. The effects of noise reduction techniques are also evaluated to determine potential image quality improvements in CEM images.
13

Multilayer Energy Discriminating Detector for Medical X-ray Imaging Applications

Allec, Nicholas 14 November 2012 (has links)
Contrast-enhanced mammography (CEM) relies on visualizing the growth of new blood vessels (i.e. tumor angiogenesis) to provide sufficient materials for cell proliferation during the development of cancer. Since cancers will accumulate an injected contrast agent more than other tissues, it is possible to use one of several methods to enhance the area of lesions in the x-ray image and remove the contrast of normal tissue. Large area flat panel detectors may be used for CEM wherein the subtraction of two acquired images is used to create the resulting enhanced image. There exist several methods to acquire the images to be subtracted, which include temporal subtraction (pre- and post-contrast images) and dual-energy subtraction (low- and high-energy images), however these methods suffer from artifacts due to patient motion between image acquisitions. In this research the use of a multilayer flat panel detector is examined for CEM that is designed to acquire both (low- and high-energy) images simultaneously, thus avoiding motion artifacts in the resulting subtracted image. For comparison, a dual-energy technique prone to motion artifacts that uses a single-layer detector is also investigated. Both detectors are evaluated and optimized using amorphous selenium as the x-ray to charge conversion material, however the theoretical analysis could be extended to other conversion materials. Experimental results of single pixel prototypes of both multilayer and single-layer detectors are also discussed and compared to theoretical results. For a more comprehensive analysis, the motion artifacts present in dual-exposure techniques are modeled and the performance degradation due to motion artifacts is estimated. The effects of noise reduction techniques are also evaluated to determine potential image quality improvements in CEM images.
14

Atmospheric Corrosion of Silver

Rubino, David John 13 July 2022 (has links)
No description available.
15

Development of simplified power grid models in EU project Spine

Alharbi, Mohammad January 2020 (has links)
The electric power system is among the biggest and most complex man-made physical network worldwide. The increase of electricity demand, the integration of ICT technologies for the modernization of the electric grid and the introduction of intermittent renewable generation has resulted in further increasing the complexity of operating and planning the grid optimally. For this reason the analysis of large-scale power systems considering all state variables is a very complicated procedure. Thus, it is necessary to explore methods that represent the original network with smaller equivalent networks in order to simplify power system studies. The equivalent network should provide an accurate and efficient estimation of the behavior of the original power system network without considering the full analytical modelling of the grid infrastructure.   This thesis investigates partitioning methods and reduction methodologies in order to develop a proper reduction model. The K-means and K-medoids clustering algorithms are employed to partition the network into numerous clusters of buses. In this thesis the Radial, Equivalent, and Independent (REI) method is further developed, implemented, and evaluated for obtaining a reduced, equivalent circuit of each cluster of the original power system. The basic idea of REI method is to aggregate the power injections of the eliminated buses to two fictitious buses through the zero power balance network.   The method is implemented using Julia language and the PowerModels.jl package. The reduction methodology is evaluated using the IEEE 5-bus, 30-bus, and 118-bus systems, by comparing a series of accuracy and performance indices. Factors examined in the comparison include the chosen number of clusters, different assumptions for the slack bus as well as the effect of the imposed voltage limits on the fictitious REI buses. / Elsystemet är ett av de största och mest komplexa människotillverkade fysiskanätverken i världen. Ökad elförbrukning, integration av informationsteknik föratt modernisera elnäten samt införandet av varierande förnybar elproduktion harresulterat i ytterligare ökad komplexitet för att driva nätet optimalt. Därför ärdet mycket komplicerat att analysera storskaliga elsystem samtidigt som man tarhänsyn till alla tillståndsvariabler. Det är således nödvändigt att utforska metoderför att modellera det ursprungliga nätverket med ett mindre ekvivalent nätverk föratt underlätta studier av elsystem. Det ekvivalenta nätverket ska ge en noggrann ocheffektiv uppskattning av det ursprungliga systemets egenskaper utan att inkludera enkompletta analytisk modell av nätverkets stuktur.Den här rapporten undersöker metoder för att dela upp och reducera ett nätverkför att få fram en lämplig ekvivalent modell. Klusteranalysalgotmerna K-meansoch K-medoids används för att dela in nätverket i ett antal kluster av noder. Irapporten vidareutvecklas, implementeras och utvärderas REI-metoden för att ta framreducerade ekvivalenta nätverk för varje kluster i det ursprungliga systemet. Dengrundläggande idén med REI-metoden är att den aggregerar elproduktionen i deelminerade noderna i två fiktiva noder genom ett nolleffektbalansnätverk.Metoden är implementerad i programspråket Julia och programpaketetPowerModels.jl. Reduceringsmetoderna utvärderas på IEEE:s system med 5 noder,30 noder respektive 118 noder, genom att jämföra ett antal index för noggrannhetoch prestanda. De faktorer som undersäks i jämförelsen inkluderar det valda antaletkluster, olika antagande om slacknoden samt följderna av spänningsgränserna för defiktiva REI-noderna.v
16

Explicit state space verification

Schmidt, Karsten 15 November 2002 (has links)
Gegenstand der Arbeit ist die Verifikation von verteilten diskreten Systemen in bezug auf Spezifikationen ihres Verhaltens. Diskrete Systeme bestehen aus einer abzaehlbaren Zustandsmenge und einer Zustandsuebergangsrelation. Bei verteilten Systemen ist eine signifikante Zahl von Zustandsuebergaengen nur durch eine kleine Zahl von Komponenten eines strukturierten Zustandsraumes bedingt und aendert auch nur wenige Komponenten. Bei praktisch relevanten Systemen ist die Zustandszahl unbeherrschbar gross. Dieses Phaenomen wird Zustandsraumexplosion genannt. Verteiltheit gilt als eine der wesentlichen Ursachen fuer Zustandsraumexplosion, weil nebenlaeufig moegliche lokale Zustandsuebergaenge abhaengig von ihren exponentiell vielen Ausfuehrungsreihenfolgen exponentiell viele verschiedene Zwischenzustaende erzeugen koennen. Fuer Verifikationsaufgaben sind Systeme daher implizit gegeben durch eine Beschreibung von Anfangszustaenden und (lokale) Regeln zur Generierung von Folgezustaenden. Solche Systembeschreibungen folgen verschiedenen Paradigmen, z.B. dem variablenorientierten Paradigma (Zustaende sind Werte von Variablen, die durch Zustandsuebergaenge gelesen und geschrieben werden) oder dem ressourcenorientierten Paradigma (Zustaende sind Verteilungen von Ressourcen im System, die durch Zustandsuebergaenge konsumiert oder produziert werden). Die Verfuegbarkeit von Verifikationstechniken oder spezifischen Implementationen haengt vom zugrundeliegenden Paradigma ab. Als Sprache zur Formulierung von Spezifikationen des Verhaltens verwenden wir etablierte temporale Logiken und fuer die Praxis bedeutsame Fragmente solcher Logiken. Temporale Logik beschreibt Eigenschaften von Abfolgen von Zustaenden, basierend auf elementaren, einzelne Zustaende betreffenden Eigenschaften. Auf einer expliziten Systemdarstellung lassen sich temporallogische Eigenschaften effizient, d.h. mit einer linear von der Zustandszahl abhaengigen Laufzeit, verifizieren. Eine solche Verifikation basiert auf einfachen Suchalgorithmen in dem durch das System definierten Zustandsgraph. Ein solcher Verifikationsansatz ist aber wegen der genannten Zustandsraumexplosion nicht durchfuehrbar. Im wesentlichen werden drei Loesungsansaetze in Richtung durchfuehrbarer Verifikationsalgorithmen verfolgt. Die strukturelle Verifikation versucht, Eigenschaften direkt aus spezifischen Mustern in der impliziten Systembeschreibung abzuleiten. Der derzeitige Stand der Technik gestattet solche Ableitungen nur fuer wenige und einfach strukturierte Verhaltensspezifikationen und erfordert auch dann in einigen Faellen recht aufwendige Berechnungen. Bei der symbolischen Zustandsraumanalyse wird der Zustandsraum erschoepfend durchmustert, allerdings unter Benutzung von Datenstrukturen, deren elementare Objekte ganze Mengen von Zustaenden beschreiben, und deren elementare Operationen die Folgezustaende fuer ganze solche Mengen aus der impliziten Systembeschreibung errechnen. Bei der expliziten Zustandsraumverifikation, dem Thema der vorliegenden Habilitationsschrift, wird eine explizite Repraesentation eines Zustandsraumes generiert, der wesentlich kleiner ist als der Zustandsraum des untersuchten Systems, in bezug auf die untersuchte Eigenschaft aber per Konstruktion aequivalent zum originalen System ist. Zur Konstruktion werden Informationen aus der impliziten Systembeschreibung herangezogen. Eine Technologie zur expliziten Zustandsraumverifikation besteht also aus - Einer mathematisch fundierten Theorie, die einer bestimmten Konstruktionsmethode bescheinigt, welche Eigenschaften durch sie bewahrt werden; - effizienten Algorithmen zur Implementation eine solchen Konstruktion; Die Arbeit enthaelt, fuer mehrere bekannte Verfahren, Beitraege zu jeweils mindestens einem der beiden Bestandteile einer expliziten Zustandsraumverifikationstechnik. Die Methode der sturen Mengen verkleinert den explizit zu konstruierenden Zustandsraum dadurch, dass von den in einem Zustand moeglichen Zustandsuebergaengen nur einige tatsaechlich untersucht werden, so dass weit weniger Zwischenzustaende durch verschiedene Abfolge nebenlaeufiger lokaler Zustandsuebergaenge entstehen. Die zu untersuchenden Uebergaenge werden abhaengig von der zu verifizierenden Eigenschaft und Informationen aus der Systemstruktur so ausgewaehlt, dass zu jeder Klasse von fuer die Eigenschaft relevanten Systemablaeufen wenigstens einer im reduzierten Zustandsraum repraesentiert ist. Die erste 1988 veroeffentlichte Methode diente der Bewahrung von terminalen Zustaenden sowie mindestens eines Pfades unendlicher Laenge. In der Folge wurde diese Technik auf viele andere Klassen von Eigenschaften erweitert, wobei vor allem die Faehigkeit, einen unendlichen Pfad zu bewahren, dahingehend verfeinert wurde, dass gezielt Pfade mit bestimmten Eigenschaften bewahrt werden konnten. Dabei spielte das Konzept unsichtbarer Zustandsuebergaenge eine tragende Rolle, wobei ein unsichtbarer Zustandsuebergang die Eigenschaft hat, dass er keine fuer die Eigenschaft relevanten Zustandskomponenten aendert. Daher war die Anwendung der Methode sturer Mengen begrenzt auf lokale Systemeigenschaften, weil andereseits zu wenige unsichtbare Uebergaenge fuer eine substantielle Reduktion zur Verfuegung stuenden. In der vorliegenden Arbeit setzen wir an der ersten Arbeit zur Methode sturer Mengen an und verfeinern die Faehigkeit, terminale Zustaende zu bewahren, dahingehend, dass nun die Praesenz von Zustaenden mit beliebigen in temporaler Logik formulierbaren Eigenschaften bewahrt werden. Die neue Methode basiert nicht auf der Existenz unsichtbarer Uebergaenge und kann in der Tat auch bei der Verifikation globaler Systemeigenschaften zu substantieller Reduktion fuehren. Das neue Konzept zur Konstruktion des reduzierten Zustandsraumes sind sogenannte UP-Mengen. Eine UP-Menge ist eine Menge von Uebergaengen, von denen mindestens einer in einem Systemablauf von einem Zustand, der die untersuchte Eigenschaft nicht erfuellt, zu einem Zustand, der die Eigenschaft erfuellt, vorkommen muss. Wir geben Algorithmen an, die kleine UP-Mengen fuer beliebige Zustaende aus der impliziten Systembeschreibung und einer Repraesentation der untersuchten Eigenschaft in der temporalen Logik CTL berechnet. Wir zeigen, dass jede Konstruktion, die in einem Zustand alle Uebergaenge in einer schwach sturen Obermenge einer zu dem Zustand berechneten UP-Menge untersucht, alle Zustaende erreicht, die die Eigenschaft besitzen. Dabei ist die Konstruktion schwach sturer Mengen die allen Methoden sturer Mengen gemeinsame Grundkonstruktion. Symmetrische Reduktion verkleinert den zu untersuchenden Zustandsraum dadurch, dass zu jeder Klasse von in bezug auf Symmetrie aequivalenten Zustaenden jeweils nur einer weiterverfolgt wird. Dadurch lassen sich alle gegenueber Symmetrie insensitive Eigenschaften bewahren (wobei man oft Insensitivitaet einer Eigenschaft durch die geeignete Wahl der Symmetrienmenge erreichen kann). Symmetrische Reduktion beinhaltet zwei Probleme, erstens das Aufinden der einem System innewohnenden Symmetrie, und zweitens, zu einem gegebenen Zustand, das Auffinden zu ihm aequivalenter Zustaende in der Menge bereits untersuchter Zustaende. Die meisten vorhandenen Implementationen leiten Symmetrien aus speziellen Datenstrukturen ab, in denen wegen der eingeschraenkten Operationen die verschiedenen Elemente des Typs austauschbar sind. Das Auffinden aequivalenter Zustaende wird durch eine Transformation neu berechnter Zustaende in einen aequivalenten kanonischen Repraesentanten realisert. Alternativ zu diesem Ansatz wurde zur Beschreibung von Symmetrien die Verwendung von Graphautomorphismen auf netzartigen impliziten Systembeschreibungsformen vorgeschlagen. Es zeigt sich, dass per Umwandlung von Datenabhaengigkeiten in Graphrepraesentationen, jede Datentypsymmetrie auch einen Graphautomorphismus bildet, andererseits aber durch Graphautomorphismen Symmetrien beschreibbar sind, die sich in Datentypbetrachtungen nicht wiederfinden lassen. Diese zusaetzlichen Symmetrien erlauben eine staerkere Reduktion des Zustandsraumes. Zur Graphautomorphismentechnik fehlten bislang leistungsfaehige Algorithmen zur Umsetzung dieser Technologie. Wir setzen an der auf Graphautomorphismen basierenden Methode an und unterlegen alle Teilprobleme mit leistungsfaehigen Algorithmen. Die Berechnung der Automorphismen beschraenken wir auf ein Erzeugendensystem, das polynomiell viele Elemente, gemessen an der Groesse der impliziten Systembeschreibung, hat. Die Berechnung selbst ist schlimmstenfalls exponentiell, was nicht verwundert, weil das Problem mit einem Entscheidungsproblem eng korreliert, von dem bekannt ist, dass es in der Klasse NP, aber unbekannt, ob es NP-vollstaendig oder in P liegt. Diese Eigenschaft hat dem Problem eingehende Untersuchung zuteil werden lassen, wegen der nach wie vor offenen "P ungleich NP?"-Frage. Trotzdem ist kein polynomieller Algorithmus bekannt. Umso erfreulicher ist es, dass unser Berechnungsalgorithmus sich auf realistischen Beispielen bisher durchweg polynomiell verhielt, und lediglich bei eigens konstruierten Systemen ins Exponentielle ausriss. Fuer die Loesung des Problems, aequivalente bereits bekannte Zustaende aufzuspueren, schlagen wir mehrere Techniken vor und beschreiben ihre Leistungsfaehigkeit abhaengig von der Struktur der innewohnenden Symmetrie. Fuer duenne Symmetriegruppen (wenige symmetrische Transformationen) eignet sich eine Technik, bei der die Symmetrien der Reihe nach aus dem Erzeugendensystem generiert werden, und das symmetrische Bild des neuen Zustandes mit der Menge der bekannten Zustaende verglichen wird. Dabei koennen wir, abhaengig vom Ausgang einer solchen Ueberpruefung, die Generierung von Symmetrien unterdruecken, von denen aus vorhandenen Informationen klar ist, dass sie keinesfalls zum Erfolg fuehren. Dadurch kann eine erhebliche Effizienzsteigerung erzielt werden. Bei einer zweiten Technik iterieren wir die bekannten Zustaende, genauer gesagt, diejenigen Zustaende, die fuer eine die Symmetrie respektierende Hashfunktion denselben Wert liefert wie der neue Zustand, ob es eine Symmetrie gibt, die beide Zustaende ineinander ueberfuehrt. Das verbleibende Problem kann durch eine Adaption des Symmetrieberechnungsverfahrens geloest werden. Eine vorherige Berechnung des Erzeugendensystems kann entfallen. Die dritte vorgeschlagene Technik benutzt das Erzeugendensystem, um den neuen Zustand approximativ in einen kanonischen aequivalenten Zustand zu ueberfuehren. Diese Technik ist von allen beschriebenen Methoden die effizienteste, liefert aber groessere Zustandsraeume als die beiden anderen Techniken. Wir studieren die Vor- und Nachteile aller Techniken anhand mehrerer Beispielsysteme. Die dritte in der Arbeit behandelte Technik ist die Methode der Ueberdeckbarkeitsgraphen. Sie ist spezifisch fuer die ressourcenbasierte Systembeschreibungsform der Petrinetze. Sie diente urspruenglich zur Aufspuerung von Stellen im System, an denen sich unbeschraenkt viele Ressourcen ansammeln koennen. Formal ist ein Ueberdeckbarkeitsgraph eine endliche Abstraktion eines Systems mit bis zu unendlich vielen Zustaenden. Von nur wenigen Eigenschaften war bekannt, dass sie sich aus dem Ueberdeckbarkeitsgraphen ableiten lassen. Wir formulieren Regeln zur Auswertung von Ueberdeckbarkeitsgraphen, mit deren Hilfe es moeglich ist, eine Vielzahl von in temporaler Logik formulierten Eigenschaften aus dem Ueberdeckbarkeitsgraph abzuleiten. Diese Reglen sind inhaerent unvollstaendig, da bekannt ist, dass fuer viele Eigenschaften es Paare von Systemen gibt, die isomorphe Ueberdeckbarkeitsgraphen liefern, sich aber in bezug auf die Eigenschaft verschieden verhalten. Fuer universelle Eigenschaften des CTL-Fragments ACTL erhalten wir Bewahrungsresultate durch das Ausweisen einer Simulationsrelation zwischen dem originalen System und seinem Ueberdeckbarkeitsgraph. Fuer existentielle Eigenschaften basieren unsere Resultate auf einer Abschwaechung der Erfuellbarkeitsrelation ueber Zustaenden des Ueberdeckbarkeitsgraphen. Einem Zustand des Ueberdeckbarkeitsgraphen entsprechen divergierende Folgen von Zustaenden des Originalgraphen. Normalerweise schreibt man einem Zustand des Ueberdeckbarkeitsgraphen dann eine Eigenschaft zu, wenn alle Folgenglieder im Originalsystem die Eigenschaft besitzen. Wir arbeiten dagegen mit einem Begriff, wo Gueltigkeit der Eigenschaft nur fuer fast alle Folgenglieder gefordert wird. Eine letzte Gruppe von Techniken ist bisher in der Zustandsraumverifikation nicht eingestzt worden, aber aus der strukturellen Verifikation fuer Petrinetze bekannt. Zu einem Petrinetz kann eine ganzzahlige Inzidenzmatrix C gebildet werden, mit deren Hilfe ein linear-algebraischer Zusammenhang zwischen voneinander errichbaren Zustaenden hergestellt werden kann. Stellen- und Transitionsinvarianten sind Loesungen der durch C-T bzw. C definierten homogenen Gleichungssysteme. Dabei dienen Stelleninvarianten gewoehnlich einer Abschaetzung der Menge der erreichbaren Zustaende nach oben, mit daraus resultierenden Moeglichkeiten der Ableitung von Eigenschaften, waehrend Transitionsinvarianten Zyklen im Zustandsraum charakterisieren. Wir verwenden Stelleninvarianten zur Kompression von einzelnen Zustaenden. Durch Stelleninvarianten lassen sich einige Komponenten in einen funktionalen Zusammenhang zu den verbleibenden Komponenten stellen. Dadurch ist auch nach dem Streichen der funktional abhaengigen Stellen der Zustand noch eindeutig determiniert. Wir zeigen, dass bei der Konstruktion des Zustandsraumes ein durch die verbleibenden Stellen gebildeter "Fingerabdruck" ausreicht. Transitionsinvarianten verwenden wir dazu, eine Menge von Zustaenden so auszuzeichnen, dass jeder Zyklus im Zustandsraum mindestens einen ausgezeichneten Zustand enthaelt. Darufhin speichern wir noch noch ausgezeichnete Zustaende permanent, sparen also Speicherplatz. Fuer nicht ausgezeichnete Zustaende kann es passieren, dass sie mehrmals aufgesucht werden (auf verschiedene Weise aus Vorgaengerzustaenden entstehen). Weil sie nicht gespeichert sind, werden auch wiederholt ihre Nachfolgezustaende untersucht. Da in jedem Kreis mindestens ein ausgezeichneter, also permanent zu speichernder Zustand enthalten ist, entstehen durch diese wiederholte Berechnung keine Probleme in bezug auf Terminierung des Verfahrens, wohl aber erhebliche Laufzeiteinbussen. Wir schlagen Methoden zur Begrenzung der Laufzeiteinbussen um den Preis weiterer zu speichernder Zustaende vor. Fuer alle untersuchten Methoden studieren wir die Abhaengigkeit der Anwendbarkeit und Effizienz der Methode von dem der gegebenen impliziten Systembeschreibung zugrundeliegenden Paradigma. Wir untersuchen ebenfalls die Kompatibilitaet der Verfahren mit verschiedenen Strategien zur Generierung des Zustandsraumes (Tiefe zuerst, Breite zuerst, verteilt) und Moeglichkeiten der gemeinsamen Anwendung verschiedener Techniken. / Verification is the task of determining whether a (model of a) system holds a given behavioral property. State space verification comprises a class of computer aided verification techniques where the property is verified through exhaustive exploration of the reachable states of the system. Brute force implementations of state space verification are intractable, due to the well known state explosion problem. Explicit state space verification techniques explore the state space one state at a time, and rely usually on data structures where the size of the data structure increases monotonously with an increasing number of explored states. They alleviate state explosion by constructing a reduced state space that, by a mathematically founded construction, behaves like the original system with respect to the specified properties. Thereby, decrease of the number of states in the reduced system is the core issue of a reduction technique thus reducing the amount of memory required. An explicit state space verification technique comprises of - a theory that establishes whether, and how, certain properties can be preserved through a construction of a reduced state space; - a set of procedures to execute the actual construction efficiently. In this thesis, we contribute to several existing explicit state space verification techniques in either of these two respects. We extend the class of stubborn set methods (an instance of partial order reduction) by constructions that preserve previously unsupported classes of properties. Many existing constructions rely on the existence of "invisible" actions, i.e. actions whose effect does not immediately influence the verified property. We propose efficient constructions that can be applied without having such invisible actions, and prove that they preserve reachability properties as well as certain classes of more complex behavioral system properties. This way, so called "global" properties can now be approached with better stubborn set methods. We pick up a graph automorphism based approach to symmetry reduction and propose a set of construction algorithms that make this approach feasible. In difference to established symmetry techniques that rely on special "symmetry creating" data types, a broader range of symmetries can be handled with our approach thus obtaining smaller reduced state spaces. Coverability graph construction leads to a finite representation of an infinite state space of a Petri net by condensing diverging sequences of states to their limit. We prove rules to determine temporal logic properties of the original system from its coverability graph, far beyond the few properties known to be preserved so far. We employ the Petri net concept of linear algebraic invariants for compressing states as well as for leaving states out of explicit storage. Compression uses place invariants for replacing states by smaller fingerprints that still uniquely identify a state (unlike many hash compression techniques). For reducing the number of explicitly stored states, we rely on the capability of Petri net transition invariants to characterize cycles in the state space. For termination of an exhaustive exploration of a finite state space, it is sufficient to cover all cycles with explicitly stored states. Both techniques are easy consequences of well known facts about invariants. As a novel contribution, we observe that both techniques can be applied without computing an explicit representation of (a generating set for) the respective invariants. This speeds up the constructions considerably and saves a significant amount of memory. For all presented techniques, we illustrate their capabilities to reduce the complexity of state space reduction using a few academic benchmark examples. We address compatibility issues, i.e. the possibility to apply techniques in combination, or in connection with different strategies for exploring the reduced state space. We propose a scheme to distribute state space exploration on a cluster of workstations and discuss consequences for using this scheme for state space reduction. We collect observations concerning the impact of the choice of system description formalisms, and property specification languages, on the availability of explicit state space verification techniques.
17

Target Glint Phenomenon Analysis And Evaluation Of Glint Reduction Techniques

Bahtiyar, Selcuk 01 September 2012 (has links) (PDF)
In this thesis, target induced glint error phenomenon is analyzed and the glint reduction techniques are evaluated. Glint error reduction performance of the methods is given in a comparative manner. First, target glint is illustrated with the dumbbell model which has two point scatterers. This illustration of the glint error builds the basic notion of target scattering centers and effect of scattering characteristics on glint error. This simplest approach is also used to understand the glint reduction methods. In an effort to evaluate the glint reduction techniques, a model based upon the concept of coherent summation of scattering complexes is used . The model is also used for introducing the basic properties of glint phenomenon. Basics of the glint phenomenon and glint reduction techniques are discussed with particular emphasis on diversity methods. Frequency diversity and spatial diversity techniques are described and investigated with generated simulation data. The diversity selection methods which are used to eliminate the erroneous data are introduced and their performances are investigated. Glint error reduction results of various scenarios including both reduction techniques and selection methods are evaluated in comparison with each other. The results indicate that significant reduction of glint error is possible by the appropriate utilization of diversity techniques in radar systems.
18

Pricing methods for Asian options

Mudzimbabwe, Walter January 2010 (has links)
>Magister Scientiae - MSc / We present various methods of pricing Asian options. The methods include Monte Carlo simulations designed using control and antithetic variates, numerical solution of partial differential equation and using lower bounds.The price of the Asian option is known to be a certain risk-neutral expectation. Using the Feynman-Kac theorem, we deduce that the problem of determining the expectation implies solving a linear parabolic partial differential equation. This partial differential equation does not admit explicit solutions due to the fact that the distribution of a sum of lognormal variables is not explicit. We then solve the partial differential equation numerically using finite difference and Monte Carlo methods.Our Monte Carlo approach is based on the pseudo random numbers and not deterministic sequence of numbers on which Quasi-Monte Carlo methods are designed. To make the Monte Carlo method more effective, two variance reduction techniques are discussed.Under the finite difference method, we consider explicit and the Crank-Nicholson’s schemes. We demonstrate that the explicit method gives rise to extraneous solutions because the stability conditions are difficult to satisfy. On the other hand, the Crank-Nicholson method is unconditionally stable and provides correct solutions. Finally, we apply the pricing methods to a similar problem of determining the price of a European-style arithmetic basket option under the Black-Scholes framework. We find the optimal lower bound, calculate it numerically and compare this with those obtained by the Monte Carlo and Moment Matching methods.Our presentation here includes some of the most recent advances on Asian options, and we contribute in particular by adding detail to the proofs and explanations. We also contribute some novel numerical methods. Most significantly, we include an original contribution on the use of very sharp lower bounds towards pricing European basket options.
19

Correlation of Incisura Anatomy With Syndesmotic Malreduction

Boszczyk, Andrzej, Kwapisz, Sławomir, Krümmel, Martin, Grass, Rene, Rammelt, Stefan 29 October 2019 (has links)
Background: The anatomy of the syndesmosis is variable, yet little is known on the correlation between differences in anatomy and syndesmosis reduction results. The aim of this study was to analyze the correlation between syndesmotic anatomy and the modes of syndesmotic malreduction. Methods: Bilateral postreduction ankle computed tomography (CT) scans of 72 patients treated for fractures with syndesmotic disruption were analyzed. Incisura depth, fibular engagement into the incisura, and incisura rotation were correlated with degree of syndesmotic malreduction in coronal and sagittal planes as well as rotational malreduction. Results: Clinically relevant malreduction in the coronal plane, sagittal plane, and rotation affected 8.3%, 27.8%, and 19.4% of syndesmoses, respectively. The syndesmoses with a deep incisura and the fibula not engaged into the tibial incisura were at risk of overcompression, anteverted incisuras at risk of anterior fibular translation, and retroverted incisuras at risk of posterior fibular translation. Conclusions: Certain morphologic configurations of the tibial incisura increased the risk of specific syndesmotic malreduction patterns. Level of Evidence: Level III, comparative study.
20

Evaluation of Convolutional Neural Network Based Classification and Feature Detection Supporting Autonomous Robotic Harvesting

Green, Allison 15 May 2023 (has links)
No description available.

Page generated in 0.1033 seconds