• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 173
  • 67
  • 15
  • 13
  • 10
  • 8
  • 4
  • 4
  • 4
  • 4
  • 3
  • 2
  • 1
  • Tagged with
  • 378
  • 378
  • 123
  • 93
  • 69
  • 66
  • 62
  • 52
  • 52
  • 48
  • 44
  • 40
  • 38
  • 34
  • 33
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
221

[en] STOCHASTIC VOLATILITY VIA MONTE CARLO LIKELIHOOD: A COMPARATIVE STUDY / [pt] VOLATILIDADE ESTOCÁSTICA VIA VEROSSIMILHANÇA DE MONTE CARLO: UM ESTUDO COMPARATIVO

RAPHAEL PIMENTEL DE OLIVEIRA CRUZ 26 May 2004 (has links)
[pt] Esta dissertação discute o modelo de Volatilidade Estocástica (SV) estimado via metodologia Durbin & Koopman, chamada Verossimilhança de Monte Carlo( MCL). Comparou-se a cobertura condicional do valor em risco (VaR), deste modelo, com as do modelo GARCH(1,1) e SV estimado via Quasi Máxima Verossimilhança (QML). Os modelos foram estendindos a distúrbios Gaussiano e t-Student na equação da média. O desempenho dos modelos foi avaliado fora da amostra para retornos diários dos índices Ibovespa, S&P500, Nasdaq e Dow Jones. Para o critério de avaliação foi utilizado o teste de Christoffersen. Foram econtradas evidências empíricas de que o modelo SV estimado via MCL é tão eficiente quanto o modelo GARCH(1,1), em termos da cobertura condicional do VaR. / [en] This dissertation discusses the estimation of the Stochastic Volatility (SV)model using a Durbin and Koopman methodology called Monte Carlo Like-lihood (MCL). The conditional coverage of value at risk (VaR) of SV via MCL model was compared to the GARCH (1,1) model and to the SV model via Quasi Maximum Likelihood (QML) estimation. The models were extended to Gaussian and Student-t isturbances in the mean equation. The performances of the models were evaluated out-of-sample for daily returns on the Ibovespa, S&P500, Nasdaq and Dow Jones indexes. Christoffersen test were applied for the evaluation criteria. In terms of the VaR conditional coverage, empirical evidences indicate that the SV model via MCL estimation is as efficient as the GARCH (1,1) model.
222

Explicit state space verification

Schmidt, Karsten 15 November 2002 (has links)
Gegenstand der Arbeit ist die Verifikation von verteilten diskreten Systemen in bezug auf Spezifikationen ihres Verhaltens. Diskrete Systeme bestehen aus einer abzaehlbaren Zustandsmenge und einer Zustandsuebergangsrelation. Bei verteilten Systemen ist eine signifikante Zahl von Zustandsuebergaengen nur durch eine kleine Zahl von Komponenten eines strukturierten Zustandsraumes bedingt und aendert auch nur wenige Komponenten. Bei praktisch relevanten Systemen ist die Zustandszahl unbeherrschbar gross. Dieses Phaenomen wird Zustandsraumexplosion genannt. Verteiltheit gilt als eine der wesentlichen Ursachen fuer Zustandsraumexplosion, weil nebenlaeufig moegliche lokale Zustandsuebergaenge abhaengig von ihren exponentiell vielen Ausfuehrungsreihenfolgen exponentiell viele verschiedene Zwischenzustaende erzeugen koennen. Fuer Verifikationsaufgaben sind Systeme daher implizit gegeben durch eine Beschreibung von Anfangszustaenden und (lokale) Regeln zur Generierung von Folgezustaenden. Solche Systembeschreibungen folgen verschiedenen Paradigmen, z.B. dem variablenorientierten Paradigma (Zustaende sind Werte von Variablen, die durch Zustandsuebergaenge gelesen und geschrieben werden) oder dem ressourcenorientierten Paradigma (Zustaende sind Verteilungen von Ressourcen im System, die durch Zustandsuebergaenge konsumiert oder produziert werden). Die Verfuegbarkeit von Verifikationstechniken oder spezifischen Implementationen haengt vom zugrundeliegenden Paradigma ab. Als Sprache zur Formulierung von Spezifikationen des Verhaltens verwenden wir etablierte temporale Logiken und fuer die Praxis bedeutsame Fragmente solcher Logiken. Temporale Logik beschreibt Eigenschaften von Abfolgen von Zustaenden, basierend auf elementaren, einzelne Zustaende betreffenden Eigenschaften. Auf einer expliziten Systemdarstellung lassen sich temporallogische Eigenschaften effizient, d.h. mit einer linear von der Zustandszahl abhaengigen Laufzeit, verifizieren. Eine solche Verifikation basiert auf einfachen Suchalgorithmen in dem durch das System definierten Zustandsgraph. Ein solcher Verifikationsansatz ist aber wegen der genannten Zustandsraumexplosion nicht durchfuehrbar. Im wesentlichen werden drei Loesungsansaetze in Richtung durchfuehrbarer Verifikationsalgorithmen verfolgt. Die strukturelle Verifikation versucht, Eigenschaften direkt aus spezifischen Mustern in der impliziten Systembeschreibung abzuleiten. Der derzeitige Stand der Technik gestattet solche Ableitungen nur fuer wenige und einfach strukturierte Verhaltensspezifikationen und erfordert auch dann in einigen Faellen recht aufwendige Berechnungen. Bei der symbolischen Zustandsraumanalyse wird der Zustandsraum erschoepfend durchmustert, allerdings unter Benutzung von Datenstrukturen, deren elementare Objekte ganze Mengen von Zustaenden beschreiben, und deren elementare Operationen die Folgezustaende fuer ganze solche Mengen aus der impliziten Systembeschreibung errechnen. Bei der expliziten Zustandsraumverifikation, dem Thema der vorliegenden Habilitationsschrift, wird eine explizite Repraesentation eines Zustandsraumes generiert, der wesentlich kleiner ist als der Zustandsraum des untersuchten Systems, in bezug auf die untersuchte Eigenschaft aber per Konstruktion aequivalent zum originalen System ist. Zur Konstruktion werden Informationen aus der impliziten Systembeschreibung herangezogen. Eine Technologie zur expliziten Zustandsraumverifikation besteht also aus - Einer mathematisch fundierten Theorie, die einer bestimmten Konstruktionsmethode bescheinigt, welche Eigenschaften durch sie bewahrt werden; - effizienten Algorithmen zur Implementation eine solchen Konstruktion; Die Arbeit enthaelt, fuer mehrere bekannte Verfahren, Beitraege zu jeweils mindestens einem der beiden Bestandteile einer expliziten Zustandsraumverifikationstechnik. Die Methode der sturen Mengen verkleinert den explizit zu konstruierenden Zustandsraum dadurch, dass von den in einem Zustand moeglichen Zustandsuebergaengen nur einige tatsaechlich untersucht werden, so dass weit weniger Zwischenzustaende durch verschiedene Abfolge nebenlaeufiger lokaler Zustandsuebergaenge entstehen. Die zu untersuchenden Uebergaenge werden abhaengig von der zu verifizierenden Eigenschaft und Informationen aus der Systemstruktur so ausgewaehlt, dass zu jeder Klasse von fuer die Eigenschaft relevanten Systemablaeufen wenigstens einer im reduzierten Zustandsraum repraesentiert ist. Die erste 1988 veroeffentlichte Methode diente der Bewahrung von terminalen Zustaenden sowie mindestens eines Pfades unendlicher Laenge. In der Folge wurde diese Technik auf viele andere Klassen von Eigenschaften erweitert, wobei vor allem die Faehigkeit, einen unendlichen Pfad zu bewahren, dahingehend verfeinert wurde, dass gezielt Pfade mit bestimmten Eigenschaften bewahrt werden konnten. Dabei spielte das Konzept unsichtbarer Zustandsuebergaenge eine tragende Rolle, wobei ein unsichtbarer Zustandsuebergang die Eigenschaft hat, dass er keine fuer die Eigenschaft relevanten Zustandskomponenten aendert. Daher war die Anwendung der Methode sturer Mengen begrenzt auf lokale Systemeigenschaften, weil andereseits zu wenige unsichtbare Uebergaenge fuer eine substantielle Reduktion zur Verfuegung stuenden. In der vorliegenden Arbeit setzen wir an der ersten Arbeit zur Methode sturer Mengen an und verfeinern die Faehigkeit, terminale Zustaende zu bewahren, dahingehend, dass nun die Praesenz von Zustaenden mit beliebigen in temporaler Logik formulierbaren Eigenschaften bewahrt werden. Die neue Methode basiert nicht auf der Existenz unsichtbarer Uebergaenge und kann in der Tat auch bei der Verifikation globaler Systemeigenschaften zu substantieller Reduktion fuehren. Das neue Konzept zur Konstruktion des reduzierten Zustandsraumes sind sogenannte UP-Mengen. Eine UP-Menge ist eine Menge von Uebergaengen, von denen mindestens einer in einem Systemablauf von einem Zustand, der die untersuchte Eigenschaft nicht erfuellt, zu einem Zustand, der die Eigenschaft erfuellt, vorkommen muss. Wir geben Algorithmen an, die kleine UP-Mengen fuer beliebige Zustaende aus der impliziten Systembeschreibung und einer Repraesentation der untersuchten Eigenschaft in der temporalen Logik CTL berechnet. Wir zeigen, dass jede Konstruktion, die in einem Zustand alle Uebergaenge in einer schwach sturen Obermenge einer zu dem Zustand berechneten UP-Menge untersucht, alle Zustaende erreicht, die die Eigenschaft besitzen. Dabei ist die Konstruktion schwach sturer Mengen die allen Methoden sturer Mengen gemeinsame Grundkonstruktion. Symmetrische Reduktion verkleinert den zu untersuchenden Zustandsraum dadurch, dass zu jeder Klasse von in bezug auf Symmetrie aequivalenten Zustaenden jeweils nur einer weiterverfolgt wird. Dadurch lassen sich alle gegenueber Symmetrie insensitive Eigenschaften bewahren (wobei man oft Insensitivitaet einer Eigenschaft durch die geeignete Wahl der Symmetrienmenge erreichen kann). Symmetrische Reduktion beinhaltet zwei Probleme, erstens das Aufinden der einem System innewohnenden Symmetrie, und zweitens, zu einem gegebenen Zustand, das Auffinden zu ihm aequivalenter Zustaende in der Menge bereits untersuchter Zustaende. Die meisten vorhandenen Implementationen leiten Symmetrien aus speziellen Datenstrukturen ab, in denen wegen der eingeschraenkten Operationen die verschiedenen Elemente des Typs austauschbar sind. Das Auffinden aequivalenter Zustaende wird durch eine Transformation neu berechnter Zustaende in einen aequivalenten kanonischen Repraesentanten realisert. Alternativ zu diesem Ansatz wurde zur Beschreibung von Symmetrien die Verwendung von Graphautomorphismen auf netzartigen impliziten Systembeschreibungsformen vorgeschlagen. Es zeigt sich, dass per Umwandlung von Datenabhaengigkeiten in Graphrepraesentationen, jede Datentypsymmetrie auch einen Graphautomorphismus bildet, andererseits aber durch Graphautomorphismen Symmetrien beschreibbar sind, die sich in Datentypbetrachtungen nicht wiederfinden lassen. Diese zusaetzlichen Symmetrien erlauben eine staerkere Reduktion des Zustandsraumes. Zur Graphautomorphismentechnik fehlten bislang leistungsfaehige Algorithmen zur Umsetzung dieser Technologie. Wir setzen an der auf Graphautomorphismen basierenden Methode an und unterlegen alle Teilprobleme mit leistungsfaehigen Algorithmen. Die Berechnung der Automorphismen beschraenken wir auf ein Erzeugendensystem, das polynomiell viele Elemente, gemessen an der Groesse der impliziten Systembeschreibung, hat. Die Berechnung selbst ist schlimmstenfalls exponentiell, was nicht verwundert, weil das Problem mit einem Entscheidungsproblem eng korreliert, von dem bekannt ist, dass es in der Klasse NP, aber unbekannt, ob es NP-vollstaendig oder in P liegt. Diese Eigenschaft hat dem Problem eingehende Untersuchung zuteil werden lassen, wegen der nach wie vor offenen "P ungleich NP?"-Frage. Trotzdem ist kein polynomieller Algorithmus bekannt. Umso erfreulicher ist es, dass unser Berechnungsalgorithmus sich auf realistischen Beispielen bisher durchweg polynomiell verhielt, und lediglich bei eigens konstruierten Systemen ins Exponentielle ausriss. Fuer die Loesung des Problems, aequivalente bereits bekannte Zustaende aufzuspueren, schlagen wir mehrere Techniken vor und beschreiben ihre Leistungsfaehigkeit abhaengig von der Struktur der innewohnenden Symmetrie. Fuer duenne Symmetriegruppen (wenige symmetrische Transformationen) eignet sich eine Technik, bei der die Symmetrien der Reihe nach aus dem Erzeugendensystem generiert werden, und das symmetrische Bild des neuen Zustandes mit der Menge der bekannten Zustaende verglichen wird. Dabei koennen wir, abhaengig vom Ausgang einer solchen Ueberpruefung, die Generierung von Symmetrien unterdruecken, von denen aus vorhandenen Informationen klar ist, dass sie keinesfalls zum Erfolg fuehren. Dadurch kann eine erhebliche Effizienzsteigerung erzielt werden. Bei einer zweiten Technik iterieren wir die bekannten Zustaende, genauer gesagt, diejenigen Zustaende, die fuer eine die Symmetrie respektierende Hashfunktion denselben Wert liefert wie der neue Zustand, ob es eine Symmetrie gibt, die beide Zustaende ineinander ueberfuehrt. Das verbleibende Problem kann durch eine Adaption des Symmetrieberechnungsverfahrens geloest werden. Eine vorherige Berechnung des Erzeugendensystems kann entfallen. Die dritte vorgeschlagene Technik benutzt das Erzeugendensystem, um den neuen Zustand approximativ in einen kanonischen aequivalenten Zustand zu ueberfuehren. Diese Technik ist von allen beschriebenen Methoden die effizienteste, liefert aber groessere Zustandsraeume als die beiden anderen Techniken. Wir studieren die Vor- und Nachteile aller Techniken anhand mehrerer Beispielsysteme. Die dritte in der Arbeit behandelte Technik ist die Methode der Ueberdeckbarkeitsgraphen. Sie ist spezifisch fuer die ressourcenbasierte Systembeschreibungsform der Petrinetze. Sie diente urspruenglich zur Aufspuerung von Stellen im System, an denen sich unbeschraenkt viele Ressourcen ansammeln koennen. Formal ist ein Ueberdeckbarkeitsgraph eine endliche Abstraktion eines Systems mit bis zu unendlich vielen Zustaenden. Von nur wenigen Eigenschaften war bekannt, dass sie sich aus dem Ueberdeckbarkeitsgraphen ableiten lassen. Wir formulieren Regeln zur Auswertung von Ueberdeckbarkeitsgraphen, mit deren Hilfe es moeglich ist, eine Vielzahl von in temporaler Logik formulierten Eigenschaften aus dem Ueberdeckbarkeitsgraph abzuleiten. Diese Reglen sind inhaerent unvollstaendig, da bekannt ist, dass fuer viele Eigenschaften es Paare von Systemen gibt, die isomorphe Ueberdeckbarkeitsgraphen liefern, sich aber in bezug auf die Eigenschaft verschieden verhalten. Fuer universelle Eigenschaften des CTL-Fragments ACTL erhalten wir Bewahrungsresultate durch das Ausweisen einer Simulationsrelation zwischen dem originalen System und seinem Ueberdeckbarkeitsgraph. Fuer existentielle Eigenschaften basieren unsere Resultate auf einer Abschwaechung der Erfuellbarkeitsrelation ueber Zustaenden des Ueberdeckbarkeitsgraphen. Einem Zustand des Ueberdeckbarkeitsgraphen entsprechen divergierende Folgen von Zustaenden des Originalgraphen. Normalerweise schreibt man einem Zustand des Ueberdeckbarkeitsgraphen dann eine Eigenschaft zu, wenn alle Folgenglieder im Originalsystem die Eigenschaft besitzen. Wir arbeiten dagegen mit einem Begriff, wo Gueltigkeit der Eigenschaft nur fuer fast alle Folgenglieder gefordert wird. Eine letzte Gruppe von Techniken ist bisher in der Zustandsraumverifikation nicht eingestzt worden, aber aus der strukturellen Verifikation fuer Petrinetze bekannt. Zu einem Petrinetz kann eine ganzzahlige Inzidenzmatrix C gebildet werden, mit deren Hilfe ein linear-algebraischer Zusammenhang zwischen voneinander errichbaren Zustaenden hergestellt werden kann. Stellen- und Transitionsinvarianten sind Loesungen der durch C-T bzw. C definierten homogenen Gleichungssysteme. Dabei dienen Stelleninvarianten gewoehnlich einer Abschaetzung der Menge der erreichbaren Zustaende nach oben, mit daraus resultierenden Moeglichkeiten der Ableitung von Eigenschaften, waehrend Transitionsinvarianten Zyklen im Zustandsraum charakterisieren. Wir verwenden Stelleninvarianten zur Kompression von einzelnen Zustaenden. Durch Stelleninvarianten lassen sich einige Komponenten in einen funktionalen Zusammenhang zu den verbleibenden Komponenten stellen. Dadurch ist auch nach dem Streichen der funktional abhaengigen Stellen der Zustand noch eindeutig determiniert. Wir zeigen, dass bei der Konstruktion des Zustandsraumes ein durch die verbleibenden Stellen gebildeter "Fingerabdruck" ausreicht. Transitionsinvarianten verwenden wir dazu, eine Menge von Zustaenden so auszuzeichnen, dass jeder Zyklus im Zustandsraum mindestens einen ausgezeichneten Zustand enthaelt. Darufhin speichern wir noch noch ausgezeichnete Zustaende permanent, sparen also Speicherplatz. Fuer nicht ausgezeichnete Zustaende kann es passieren, dass sie mehrmals aufgesucht werden (auf verschiedene Weise aus Vorgaengerzustaenden entstehen). Weil sie nicht gespeichert sind, werden auch wiederholt ihre Nachfolgezustaende untersucht. Da in jedem Kreis mindestens ein ausgezeichneter, also permanent zu speichernder Zustand enthalten ist, entstehen durch diese wiederholte Berechnung keine Probleme in bezug auf Terminierung des Verfahrens, wohl aber erhebliche Laufzeiteinbussen. Wir schlagen Methoden zur Begrenzung der Laufzeiteinbussen um den Preis weiterer zu speichernder Zustaende vor. Fuer alle untersuchten Methoden studieren wir die Abhaengigkeit der Anwendbarkeit und Effizienz der Methode von dem der gegebenen impliziten Systembeschreibung zugrundeliegenden Paradigma. Wir untersuchen ebenfalls die Kompatibilitaet der Verfahren mit verschiedenen Strategien zur Generierung des Zustandsraumes (Tiefe zuerst, Breite zuerst, verteilt) und Moeglichkeiten der gemeinsamen Anwendung verschiedener Techniken. / Verification is the task of determining whether a (model of a) system holds a given behavioral property. State space verification comprises a class of computer aided verification techniques where the property is verified through exhaustive exploration of the reachable states of the system. Brute force implementations of state space verification are intractable, due to the well known state explosion problem. Explicit state space verification techniques explore the state space one state at a time, and rely usually on data structures where the size of the data structure increases monotonously with an increasing number of explored states. They alleviate state explosion by constructing a reduced state space that, by a mathematically founded construction, behaves like the original system with respect to the specified properties. Thereby, decrease of the number of states in the reduced system is the core issue of a reduction technique thus reducing the amount of memory required. An explicit state space verification technique comprises of - a theory that establishes whether, and how, certain properties can be preserved through a construction of a reduced state space; - a set of procedures to execute the actual construction efficiently. In this thesis, we contribute to several existing explicit state space verification techniques in either of these two respects. We extend the class of stubborn set methods (an instance of partial order reduction) by constructions that preserve previously unsupported classes of properties. Many existing constructions rely on the existence of "invisible" actions, i.e. actions whose effect does not immediately influence the verified property. We propose efficient constructions that can be applied without having such invisible actions, and prove that they preserve reachability properties as well as certain classes of more complex behavioral system properties. This way, so called "global" properties can now be approached with better stubborn set methods. We pick up a graph automorphism based approach to symmetry reduction and propose a set of construction algorithms that make this approach feasible. In difference to established symmetry techniques that rely on special "symmetry creating" data types, a broader range of symmetries can be handled with our approach thus obtaining smaller reduced state spaces. Coverability graph construction leads to a finite representation of an infinite state space of a Petri net by condensing diverging sequences of states to their limit. We prove rules to determine temporal logic properties of the original system from its coverability graph, far beyond the few properties known to be preserved so far. We employ the Petri net concept of linear algebraic invariants for compressing states as well as for leaving states out of explicit storage. Compression uses place invariants for replacing states by smaller fingerprints that still uniquely identify a state (unlike many hash compression techniques). For reducing the number of explicitly stored states, we rely on the capability of Petri net transition invariants to characterize cycles in the state space. For termination of an exhaustive exploration of a finite state space, it is sufficient to cover all cycles with explicitly stored states. Both techniques are easy consequences of well known facts about invariants. As a novel contribution, we observe that both techniques can be applied without computing an explicit representation of (a generating set for) the respective invariants. This speeds up the constructions considerably and saves a significant amount of memory. For all presented techniques, we illustrate their capabilities to reduce the complexity of state space reduction using a few academic benchmark examples. We address compatibility issues, i.e. the possibility to apply techniques in combination, or in connection with different strategies for exploring the reduced state space. We propose a scheme to distribute state space exploration on a cluster of workstations and discuss consequences for using this scheme for state space reduction. We collect observations concerning the impact of the choice of system description formalisms, and property specification languages, on the availability of explicit state space verification techniques.
223

Validation formelle des systèmes numériques critiques : génération de l'espace d'états de réseaux de Petri exécutés en synchrone / Formal validation of critical digital systems : generation of state space of Petri nets executed in synchronous

Merzoug, Ibrahim 15 January 2018 (has links)
La méthodologie HILECOP a été élaborée pour la conception formelle de systèmes numériques complexes critiques ; elle couvre donc l'intégralité du processus, allant de la modélisation à la génération de code pour l’implantation sur la cible matérielle (composant électronique de type FPGA), en passant par la validation formelle. Or, si le modèle formel, les réseaux de Petri en l'occurrence, est par essence asynchrone, il est néanmoins exécuté de manière synchrone sur la cible. De fait, les approches d'analyse usuelles ne sont pas adaptées au sens où elles construisent des graphes d'états non conformes à l'évolution d'états réelle au sein de la cible. Dans l'objectif de gagner en confiance quant à la validité des résultats de l’analyse formelle, ces travaux visent à capturer les caractéristiques dites non-fonctionnelles, à les réifier sur le modèle et enfin à considérer leur impact à travers l’analyse. En d’autres termes, l’objectif est d’améliorer l’expressivité du modèle et la pertinence de l'analyse, en considérant des aspects comme la synchronisation d'horloge, le parallélisme effectif, le risque de blocage induit par l'expression conjointe d'un événement (condition) et d'une fenêtre temporelle d'occurrence, sans omettre la gestion des exceptions. Pour traiter tous ces aspects, nous avons proposé une nouvelle méthode d'analyse pour les réseaux de Petri temporels généralisés étendus interprétés exécutés en synchrone, en les transformant vers un formalisme équivalent analysable. Ce formalisme est associé avec une sémantique formelle intégrant toutes les aspects particuliers de l'exécution et un algorithme de construction d'un graphe d'états spécifique : le Graphe de Comportement Synchrone. Nos travaux ont été appliqués à un cas industriel, plus précisément à la validation du comportement de la partie numérique d'un neuro-stimulateur. / The HILECOP methodology has been developed for the formal design of critical complex digital systems; it therefore covers the entire design process, ranging from modeling to code generation for implementation on the hardware target (FPGA type electronic component), via formal validation. However, if the formal model, the Petri nets in this case, is inherently asynchronous, it is nevertheless executed synchronously on the target. In fact, the usual analysis approaches are not adapted in the sense that they construct state graphs that do not conform to the real state evolution within the target. In order to gain confidence in the validity of the results of the formal analysis, this work aims to capture the so-called non-functional characteristics, to reify them on the model and finally to consider their impact through the analysis.In other words, the aim is to improve the expressiveness of the model and the relevance of the analysis, considering aspects such as clock synchronization, effective parallelism, the risk of blocking induced by the expression of an event (condition) and a time window of occurrence, without omitting the management of exceptions.To deal with all these aspects, we have proposed a new method of analysis for extended generalized synchronous executed time Petri nets, transforming them into an analysable equivalent formalism. This formalism is associated with a formal semantics integrating all the particular aspects of the execution and dédicated state space construction algorithm: the Synchronous Behavior Graph.Our work has been applied to an industrial case, more precisely to the validation of the behavior of the digital part of a neuro-stimulator.
224

Reconstrução de espaços de estados aeroelásticos por decomposição em valores singulares / Aeroelastic state space reconstruction by singular value decomposition

Vasconcellos, Rui Marcos Grombone de 13 September 2007 (has links)
Analisar fenômenos aeroelásticos não-lineares através de dados experimentais é uma poderosa ferramenta para a identificação e controle de comportamentos aeroelásticos adversos. A modelagem matemática de sistemas aeroelásticos não-lineares não é trivial, fato que muitas vezes leva a admissão de simplificações, afastando o modelo da realidade. Desta forma, a análise de sistemas dinâmicos sem a necessidade de um modelo, feita através da análise de séries temporais obtidas de experimentos, pode fornecer melhores resultados. Alguns métodos de análise de séries temporais, como o método da defasagem, para reconstrução do espaço de estados, são sensíveis ao ruído, inevitavelmente presente em qualquer série temporal experimental. Este trabalho apresenta a técnica da decomposição em valores singulares (SVD), que reconstrói o espaço de estados eliminando o ruído presente na série temporal em um único processo. O método SVD é aplicado em séries temporais aeroelásticas, obtidas experimentalmente de um modelo de asa ensaiado em túnel de vento. Com os espaços de estados reconstruídos, é feita uma análise qualitativa do sistema aeroelástico, a evolução dos atratores obtidos com a variação de alguns parâmetros é apresentada. Comparações com o método da defasagem são realizadas com a aplicação dos métodos a uma série temporal aeroelástica do experimento. Os resultados mostram que a técnica (SVD) é mais confiável que o método da defasagem, os atratores obtidos revelam a ocorrência de bifurcações e comportamentos complexos, possivelmente caóticos. / Nonlinear aeroelastic phenomena analysis by using experimental data is a powerful tool for identification and control of adverse aeroelastic behaviors. Mathematical models for nonlinear aeroelastic systems are not trivial, by this, simplifications are assumed, thereby deviating from reality. Then, the analysis of dynamic systems without the need of a mathematical model, done by the analysis of experimental time series, may provide better results. However, methods of time series analysis, like the method of delays, for state space reconstruction are sensitive to noise, unavoidably present in experimental data. This work presents the application of singular value decomposition (SVD) that reconstructs the state space, eliminating noise present in the time series. The SVD method is applied in experimental aeroelastic time series, obtained from a wind tunnel wing model. With the reconstructed state spaces, qualitative analyses are done and the evolutions of the obtained attractors with parametric variation are presented. Comparisons with the method of delays are realized by applying MOD and SVD in a same experimental aeroelastic time series. The results show that the SVD method is more reliable than MOD and the obtained attractors reveal the occurrence of bifurcations and complex behavior, possibly chaotic.
225

Modelos macro-financeiros com o uso de fatores latentes do tipo Nelson-Siegel / Macro-financial models using Nelson-Siegel latent factors

Mariani, Lucas Argentieri 03 February 2015 (has links)
Usar ativos financeiros para extrair as expectativas de mercado para algumas variáveis macroeconômicas é uma prática comum na literatura de Macro-Finanças. Nessa dissertação utilizamos títulos brasileiros para extrairmos as expectativas tanto do câmbio quanto da inflação com o uso de fatores latentes do tipo Nelson-Siegel. No primeiro capítulo desenvolvemos um modelo que tenta incorporar expectativas do mercado financeiro com os fundamentos macroeconômicos dessa variável. O modelo desenvolvido aqui difere dos modelos anteriores ao permitir volatilidades condicionais que parecem ser muito importantes no mercado cambial. Os resultados encontrados aqui indicam que os modelos com os fatores latentes e as variáveis macroeconômicas tem um poder de previsão melhor do que os modelos puramente macroeconômicos. Além disso, parece haver uma relação entre as variáveis macroeconômicas e a curva de diferencial de juros entre os países. Já no segundo capítulo utilizamos o diferencial entre rendimentos dos títulos reais e nominais usadas como preditores da inflação. O modelo aqui apresentado faz uma decomposição desse diferencial de juros, em prêmios de risco e inflação implícita usando um modelo paramétrico baseado em condições de não-arbitragem. As estimações da de inflação implícita do modelo se mostram estimadores não viesados da inflação futura para horizontes mais curtos e carregam informação para horizontes mais longos. Além disso, mostram resultados superiores que o uso somente do diferencial / Use financial assets to extract market expectations for some macroeconomic variables is a common practice in Macro-Finance literature. In this dissertation we use Brazilian securities to extract the expectations of both the exchange rate as inflation using Nelson- Siegel factors. In the first chapter we developed a model that incorporates these financial market expectations with macroeconomic variables, which are the foundations of this variable. The model developed here differs from previous models by allowing conditional volatilities that seem to be very important in the foreign exchange market. The study findings indicate that the models with latent factors and macroeconomic variables has better preditive power than purely macroeconomic models. In addition,indicates that there is a relationship between macroeconomic variables and the interest rate differential curve between countries. In the second chapter we use the spread between real and nominal bonds used as predictors of inflation. The model presented here is a decomposition of this interest differential in risk premiums and implied inflation using a parametric model based on no-arbitrage conditions. Estimates of implied inflation are non biased estimators of future inflation for shorter horizons and carry information over longer horizons. In addition, the implied inflation has superior results than that only using the differential
226

Representation and interaction of sensorimotor learning processes

Sadeghi, Mohsen January 2018 (has links)
Human sensorimotor control is remarkably adept at utilising contextual information to learn and recall systematic sensorimotor transformations. Here, we investigate the motor representations that underlie such learning, and examine how motor memories acquired based on different contextual information interact. Using a novel three-dimensional robotic manipulandum, the 3BOT, we examined the spatial transfer of learning across various movement directions in a 3D environment, while human subjects performed reaching movements under velocity-dependent force field. The obtained pattern of generalisation suggested that the representation of dynamic learning was most likely defined in a target-based, rather than an extrinsic, coordinate system. We further examined how motor memories interact when subjects adapt to force fields applied in orthogonal dimensions. We found that, unlike opposing fields, learning two spatially orthogonal force fields led to the formation of separate motor memories, which neither interfered with nor facilitated each other. Moreover, we demonstrated a novel, more general aspect of the spontaneous recovery phenomenon using a two-dimensional force field task: when subjects learned two orthogonal force fields consecutively, in the following phase of clamped error feedback, the expression of adaptation spontaneously rotated from the direction of the second force field, towards the direction of the first force field. Finally, we examined the interaction of sensorimotor memories formed based on separate contextual information. Subjects performed reciprocating reaching and object manipulation tasks under two alternating contexts (movement directions), while we manipulated the dynamics of the task in each context separately. The results suggested that separate motor memories were formed for the dynamics of the task in different contexts, and that these motor memories interacted by sharing error signals to enhance learning. Importantly, the extent of interaction was not fixed between the context-dependent motor memories, but adaptively changed according to the task dynamics to potentially improve overall performance. Together, our experimental and theoretical results add to the understanding of mechanisms that underlie sensorimotor learning, and the way these mechanisms interact under various tasks and different dynamics.
227

Crescimento econômico e restrição externa no Brasil: uma análise a partir da hipótese de Thirlwall

Silveira, Eduarda Martins Correa da 27 February 2015 (has links)
Submitted by Maicon Juliano Schmidt (maicons) on 2015-06-16T14:20:53Z No. of bitstreams: 1 Eduarda Martins Correa da Silveira.pdf: 825671 bytes, checksum: 02c3fcea0957cd9bb91507ffbd8c96be (MD5) / Made available in DSpace on 2015-06-16T14:20:53Z (GMT). No. of bitstreams: 1 Eduarda Martins Correa da Silveira.pdf: 825671 bytes, checksum: 02c3fcea0957cd9bb91507ffbd8c96be (MD5) Previous issue date: 2015-02-27 / CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / O objetivo principal desta dissertação foi verificar se o balanço de pagamentos é uma limitação para o crescimento econômico brasileiro, no período que compreende os anos de 1995 até 2013, considerando o arcabouço teórico de Thirlwall (1979). Para o alcance desse objetivo, foram estimadas as funções demanda por importações e exportações através de dois modelos econométricos: vetorial de correção de erros (VAR/VEC) e modelo estrutural em formato de estado de espaço para o período 1995-2013. As funções demanda por exportações e importações também foram estimadas por meio do modelo estrutural em formato de estado de espaço para o período 2001-2013, com a intenção de verificar o impacto da elevação dos preços das commodities e o aumento na demanda por esses bens nos parâmetros calculados. Pela análise, para esse período, nota-se que o processo de commoditização da pauta de exportações brasileira aprofundou o problema da restrição externa brasileira. Na estimação da função demanda por exportações, utilizando o modelo VAR/VEC, foi incluída uma variável que representou o preço das commodities. Os resultados empíricos deste trabalho confirmam que o balanço de pagamentos é uma restrição ao crescimento econômico brasileiro, dado tanto pela razão entre as elasticidades-renda das exportações e importações, como também pela baixa sensibilidade das exportações ao câmbio real. Logo, o ajuste da balança comercial via alterações suaves da taxa de câmbio tem pouca eficácia para o caso brasileiro. Além disso, as exportações são mais sensíveis aos preços das commodities do que à taxa de câmbio real. / The main objective of the present dissertation was to verify if the balance of payments was a limitation to Brazilian economic growth, in the period of the years 1995 to 2013, considering the Thirwall's Law (1979). In order to achieve this goal, export and import demand functions were estimated by two econometric models: vector error correction (VAR/VEC) and structural state space model for the period of 1995-2013. The export and import demand functions were also estimated by the structural state space model for the period of 2001-2013, with the intention of verifying the impact of the commodities price increase and the increase in the demand for these goods in the estimated parameters. According to the analysis of this period, it has been noticed that commoditization process in the Brazilian exports agenda has increased the problem of Brazilian external constraint. In the estimation of the export demand function, using the VAR/VEC model, it was included a variable which represented commodities price. The empiric results of this paper confirm that the balance of payments is a constraint to the Brazilian economic growth, given the ratio between exports and imports income elasticities and, also, the exports low sensitivity to the real exchange. Thus, the adjustment of the balance of trade by soft alterations in the exchange rate have little efficiency for the Brazilian case. Furthermore, the exports are more sensitive to the commodities price than to the real exchange rate.
228

Achieving shrinkage in a time-varying parameter model framework

Bitto, Angela, Frühwirth-Schnatter, Sylvia January 2019 (has links) (PDF)
Shrinkage for time-varying parameter (TVP) models is investigated within a Bayesian framework, with the aim to automatically reduce time-varying Parameters to staticones, if the model is overfitting. This is achieved through placing the double gamma shrinkage prior on the process variances. An efficient Markov chain Monte Carlo scheme is devel- oped, exploiting boosting based on the ancillarity-sufficiency interweaving strategy. The method is applicable both to TVP models for univariate a swell as multivariate time series. Applications include a TVP generalized Phillips curve for EU area inflation modeling and a multivariate TVP Cholesky stochastic volatility model for joint modeling of the Returns from the DAX-30index.
229

Estimando o PIB mensal do Rio Grande do Sul : uma abordagem de espaço de estados

Baggio, Giovani January 2017 (has links)
Considerando a importância de uma medida de alta frequência para o PIB do Rio Grande do Sul, o principal indicador de atividade econômica do estado, este trabalho foi dividido em três objetivos. O primeiro foi a estimação de uma série com frequência mensal para o PIB real do Rio Grande do Sul entre janeiro de 2002 e março de 2017, dado que o mesmo só é contabilizado em frequência trimestral. Para tanto, foi utilizado um modelo em espaço de estados que permite a estimação e nowcast do PIB mensal, utilizando séries coincidentes como fonte de informação para a interpolação dos dados trimestrais do PIB, em linha com Bernanke, Gertler e Watson (1997), Mönch e Uhlig (2005) e Issler e Notini (2016). O segundo objetivo foi comparar a série estimada com um indicador de atividade calculado pelo Banco Central do Brasil para o estado, o Índice de Atividade Econômica Regional (IBCR-RS), tanto em termos metodológicos como na capacidade em antecipar as variações do PIB trimestral antes de sua divulgação (nowcasting). O terceiro objetivo foi estabelecer a cronologia dos ciclos de expansão e recessão da economia gaúcha com o uso do algoritmo de Bry e Boschan (1971). Após a etapa de seleção das séries coincidentes e da estimação de diversos modelos de interpolação, foi escolhido para gerar a série mensal do PIB o modelo que utiliza somente a produção industrial como variável auxiliar, tendo este apresentado o melhor ajuste. A comparação do PIB mensal interpolado com o IBCR-RS mostrou que, além da vantagem computacional a favor do método proposto neste trabalho, a imposição da disciplina de que as variações do PIB mensal estimado devem ser exatamente iguais às do PIB trimestral faz com que a dinâmica de curto e longo prazo das variáveis sejam idênticas, o que não ocorre com o IBCR-RS. A cronologia dos pontos de inflexão da atividade econômica apontou três períodos recessivos na economia gaúcha desde janeiro de 2002: jun/2003 a abr/2005 (23 meses e queda acumulada de 8,79%); abr/2011 a abr/2012 (13 meses e queda acumulada de 9,47%); e jun/2013 a nov/2016 (42 meses e queda acumulada de 10,41%), sendo o encerramento deste último apontado somente com a inclusão dos resultados estimados pelo modelo para o segundo trimestre de 2017. Finalmente, os resultados do exercício de nowcasting do PIB mostraram desempenho superior do método proposto frente ao IBCR-RS em termos de antecipação do resultado do PIB de um trimestre a frente, tomando como base as medidas de MAE (erro absoluto médio, em inglês) e MSE (erro quadrático médio, em inglês), comumente usadas nesse intuito. / Giving the importance of a high frequency measure for Rio Grande do Sul’s GDP, the main indicator of economic activity of the state, this work was divided into three objectives. The first one was the estimation of monthly frequency series for Rio Grande do Sul’s real GDP between January/2002 and March/2017, since it is only accounted in quarterly basis. Therefore, we used a State-Space model that enables to estimate and nowcast the monthly GDP, using coincident series as a source of information for the interpolation of quarterly GDP data, in line with Bernanke, Gertler e Watson (1997), Mönch e Uhlig (2005) and Issler e Notini (2016). The second objective was to compare the estimated series with an activity indicator calculated by the Central Bank of Brazil for the state, the Regional Economic Activity Index (IBCR-RS), both in methodological terms and in the capability to anticipate the quarterly GDP release (nowcasting). The third objective was to establish the chronology of the cycles of expansion and recession of the economy of Rio Grande do Sul using the algorithm of Bry e Boschan (1971). After the selection of the coincident series and the estimation of several interpolation models, the chosen model to generate the monthly GDP series uses only the industrial production as an auxiliary variable, and this one presented the best fit. The comparison of the monthly GDP interpolated with the IBCR-RS showed that, in addition to the computational advantage in favor of the method proposed in this work, the imposition of the discipline that the estimated monthly GDP changes must be exactly the same as the quarterly GDP makes the short-term and long-term dynamics of the variables are identical, which is not the case with IBCR-RS. The chronology of the turning points of the economic activity pointed to three recessive periods in the economy of Rio Grande do Sul since January 2002: June/2003 to April/2005 (23 months and accumulated drop of 8.79%); April/2011 to April/2012 (13 months and accumulated fall of 9.47%); and June/2013 to November/2016 (42 months and 10.41% accumulated decrease), with the latter one closing only with the inclusion of the results estimated by the model for the second quarter of 2017. Finally, results for GDP’s nowcasting showed superior performance of the proposed method compared to the IBCR-RS in terms of anticipating quarter-to-quarter GDP results, based on the measures of MAE (absolute mean error) and MSE (mean square error), commonly used for this purpose.
230

Inclusão do efeito da frequência nas equações de estado de linhas bifásicas : análise no domínio do tempo /

Yamanaka, Fábio Norio Razé. January 2009 (has links)
Orientador: Sérgio Kurokawa / Banca: Afonso José do Prado / Banca: Lourenço Matias / Resumo: O objetivo deste projeto é o desenvolvimento de um modelo de linha de transmissão bifásica diretamente no domínio do tempo, que leve em consideração o efeito da freqüência sobre seus parâmetros longitudinais, utilizando os conceitos de variáveis de estado. Os parâmetros longitudinais, variáveis em relação à freqüência, serão aproximados por funções racionais, cujos pólos e resíduos deverão ser determinados por meio do algoritmo vector fitting. Em seguida, as funções racionais que descrevem o comportamento dos parâmetros longitudinais serão associadas com um circuito elétrico equivalente, que será inserido em cada um dos circuitos π, constituindo uma grande quantidade de cascata de circuitos π. O modelo será utilizado para a realização de simulações de transitórios resultantes das operações de manobras e chaveamentos que ocorrem em uma linha bifásica com plano de simetria vertical. Os resultados serão comparados com os resultados obtidos com programas computacionais do tipo EMTP (cascata de circuitos π inserida no EMTP). Ao término do projeto teremos a nossa disposição um modelo de linha de transmissão que não necessita do uso de simuladores do tipo EMTP. / Abstract: The objective of this work is to implement a computational model of two-phase transmission line in time domain taking into account its frequency dependent longitudinal parameters. The line is represented through a cascade of π circuits and the frequency dependence of the longitudinal parameters is approximated by a rational functions that can be associated with an equivalent circuit representation and this equivalent circuit is inserted in each π circuit. After that the cascade is described through state equations. Validating the model, a frequency dependent two-phase line is represented by a cascade of π circuits. The model will be use for typical switching transients in a two-phase transmission line with a vertical symmetrical plan. The simulations were carried out using state space techniques and an EMTP program (in this case, the cascade was inserted in the EMTP program). It is observed that the simulation results obtained with state space representation are in agreement with those results obtained with EMTP. / Mestre

Page generated in 0.0692 seconds