• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 70
  • 18
  • 7
  • 5
  • 3
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 132
  • 61
  • 17
  • 15
  • 14
  • 13
  • 11
  • 10
  • 9
  • 9
  • 9
  • 8
  • 8
  • 8
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
91

Domain-Centered Product Line Testing

Lackner, Hartmut 11 July 2017 (has links)
Die Ansprüche von Kunden an neue (Software-)Produkte wachsen stetig. Produkte sollen genau auf die einzelnen Kundenwünsche zugeschnitten sein, sodass der Kunde genau die Funktionalität erhält und bezahlt die er benötigt. Hersteller reagieren auf diese gestiegenen Ansprüche mit immer mehr Varianten in denen sie ihre Produkte ihren Kunden anbieten. Die Variantenvielfalt hat in solchem Maß zugenommen, dass selbst in Massen gefertigte Produkte heute als Unikate produziert werden können. Neue Methoden wie Produktlinienentwicklung unterstützen die Entwicklung solcher variantenreicher Systeme. Während der Aufwand für die Entwicklung neuer Varianten nun sinkt, profitiert die Qualitätssicherung nicht vom Effizienzgewinn der Entwicklung. Im Gegenteil: Insbesondere beim Test wird zunächst jede Variante wie ein einzelnes Produkt behandelt. Bei variantenreichen Systemen ist dies aufwandsbedingt jedoch nicht mehr möglich. Die in dieser Arbeit vorgestellten Testentwurfsmethoden berücksichtigen die Variantenvielfalt in besonderem Maße. Bisher wurden, nach einer Stichprobenauswahl zur Reduktion des Testaufwands, die Testfälle auf Basis der konkreten Produkte entworfen. Statt nun auf Basis konkreter Produkte werden in dieser Arbeit zwei Ansätze vorgestellt, die die Phase des Testentwurfs auf die Produktlinienebene heben. Die bei Anwendung dieser Methoden entstehenden Testfälle enthalten, je nach Inhalt, Freiheitsgrade bzgl. ihrer Anforderungen an eine Variante, sodass ein Testfall auf ein oder mehrere Varianten angewendet wird. Ausgehend von solchen Testfällen werden in dieser Arbeit neue Kriterien zur Stichprobenauswahl entwickelt. Mit diesen Kriterien kann der Umfang der Stichprobe, aber auch Eigenschaften der zu testenden Varianten bzgl. eines gegebenes Testziel optimiert werden. So ist es möglich, z.B. sehr wenige oder sehr unterschiedliche Varianten zum Test auszuwählen. Insgesamt werden in dieser Arbeit fünf Kriterien definiert und auf ihr Fehleraufdeckungspotenzial untersucht. Zu diesem Zweck werden neue Bewertungskriterien zur Fehleraufdeckungswahrscheinlichkeit von Produktlinientests etabliert. Somit ist erstmalig eine quantitative sowie qualitative Bewertung von Produktlinientests möglich. Die Ergebnisse der vorgestellten Methoden und Auswahlkriterien werden sowohl untereinander evaluiert, als auch konventionellen Testmethoden für Produktliniensysteme gegenübergestellt. An vier Beispielen unterschiedlicher Gro{\"ss}e werden die in dieser Arbeit vorgestellten Methoden evaluiert. / Consumer expectations of (software-)products are growing continuously. They demand products that fit their exact needs, so they pay only for necessary functionalities. Producers react to those demands by offering more variants of a product. Product customization has reached a level where classically mass produced goods, like cars, can be configured to unique items. New paradigms facilitate the engineering of such variant-rich systems and reduce costs for development and production. While development and production became more efficient, quality assurance suffers from treating each variant as a distinct product. In particular, test effort is affected, since each variant must be tested sufficiently prior to production. For variant-rich systems this testing approach is not feasible anymore. The methods for test design presented in this thesis overcome this issue by integrating variability into the test design process. The resulting test cases include requirements for variants, which must be fulfilled to execute the test successfully. Hence multiple variants may fulfill these requirements, each test case may be applicable to more than only one variant. Having test cases with requirements enables sampling subsets of variants for the purpose of testing. Under the assumption that each test case must be executed once, variants can be sampled to meet predefined test goals, like testing a minimal or diverse subset of variants. In this thesis, five goals are defined and evaluated by assessing the tests for their fault detection potential. For this purpose, new criteria for assessing the fault detection capability of product line tests are established. These criteria enable quantitative as well as qualitative assessment of such test cases for the first time. The results of the presented methods are compared with each other and furthermore with state of the art methods for product line testing. This comparison is carried out on four examples of different sizes, from small to industry-grade.
92

Entrepreneurs' strategic decision making

Böwe, Sabrina 16 April 2012 (has links)
Wie beeinflusst das gleichzeitige Auftreten von strategischer und umfeldbedingter Unsicherheit das Entscheidungsverhalten? Unterscheiden sich Unternehmer in dieser Hinsicht von Anderen? Die vorliegende Dissertation behandelt diese Fragen und untersucht das Koordinationsverhalten bei dualer Unsicherheit. In vier ökonomischen Experimenten wird das Entscheidungsverhalten von Unternehmern und Nicht-Unternehmern vergleichend analysiert. Die betrachteten Entscheidungssituationen beinhalten Investitionsentscheidungen in Forschung und Entwicklung sowie verschiedene Aspekte des Wettbewerbs und von Markteintrittsentscheidungen. / How do people make decisions when simultaneously facing strategic and environmental uncertainty? Do entrepreneurs differ from others in this regards? This dissertation addresses these questions by investigating coordination behavior under dual uncertainty. Four economic experiments have been conducted comparing the behavior of entrepreneurs and non-entrepreneurs in settings that contain investment decisions into research and development and different aspects of competition and market entry decisions.
93

Model-based testing of dynamic component systems

Haschemi, Siamak 22 July 2015 (has links)
Die Arbeit widmet sich der Frage, ob sich die etablierte Technik des modellbasierten Testens (MBT) auf eine spezielle Art von Software-Komponentensystemen, den dynamischen Komponentensystemen (DCS), anwenden lässt. DCS bieten die besondere Eigenschaft, dass sich die Komposition der Komponenteninstanzen zur Laufzeit ändern kann, da in solchen Systemen jede Komponenteninstanz einen Lebenszyklus aufweist. Damit ist es möglich, im laufenden Betrieb einzelne Komponenten im Softwaresystem zu aktualisieren oder dem System neue hinzuzufügen. Derartige Eingriffe führen dazu, dass die von den Komponenteninstanzen bereitgestellte Funktionalität jederzeit eingeschränkt oder unverfügbar werden kann. Diese Eigenschaft der DCS macht die Entwicklung von Komponenten schwierig, da diese in ihrem potentiellen Verhalten darauf vorbereitet werden müssen, dass die von ihnen jeweils benötigte und genutzte Funktionalität nicht ständig verfügbar ist. Ziel dieser Dissertation ist es nun, einen systematischen Testansatz zu entwickeln, der es erlaubt, bereits während der Entwicklung von DCS-Komponenten Toleranzaussagen bzgl. ihrer dynamischen Verfügbarkeit treffen zu können. Untersucht wird, inwieweit bestehende MBT-Ansätze bei entsprechender Anpassung für den neuen Testansatz übernommen werden können. Durch die in der Dissertation entwickelten Ansätze sowie deren Implementierung und Anwendung in einer Fallstudie wird gezeigt, dass eine systematische Testfallgenerierung für dynamische Komponentensysteme mit Hilfe der Anwendung und Anpassung von modellbasierten Testtechnologien erreicht werden kann. / This dissertation devotes to the question whether the established technique of model based testing (MBT) can be applied to a special type of software component systems called dynamic component systems (DCSs). DCSs have the special characteristic that they support the change of component instance compositions during runtime of the system. In these systems, each component instance exhibits an own lifecycle. This makes it possible to update existing, or add new components to the system, while it is running. Such changes cause that functionality provided by the component instances may become restricted or unavailable at any time. This characteristic of DCSs makes the development of components difficult because required and used functionality is not available all the time. The goal of this dissertation is to develop a systematic testing approach which allows to test a component’s tolerance to dynamic availability during development time. We analyze, to what extend existing MBT approaches can be reused or adapted. The approaches of this dissertation has been implemented in a software prototype. This prototype has been used in a case study and it has been showed, that systematic test generation for DCSs can be done with the help of MBT.
94

Bruchpunktschätzung bei der Ratingklassenbildung / Rating Classification via Split-Point Estimation

Tillich, Daniel 18 December 2013 (has links) (PDF)
Ratingsysteme sind ein zentraler Bestandteil der Kreditrisikomodellierung. Neben der Bonitätsbeurteilung auf der Ebene der Kreditnehmer und der Risikoquantifizierung auf der Ebene der Ratingklassen spielt dabei die Bildung der Ratingklassen eine wesentliche Rolle. Die Literatur zur Ratingklassenbildung setzt auf modellfreie, in gewisser Weise willkürliche Optimierungsverfahren. Ein Ziel der vorliegenden Arbeit ist es, stattdessen ein parametrisches statistisches Modell zur Bildung der Ratingklassen einzuführen. Ein geeignetes Modell ist im Bereich der Bruchpunktschätzung zu finden. Dieses Modell und die in der mathematischen Literatur vorgeschlagenen Parameter- und Intervallschätzer werden in der vorliegenden Arbeit dargestellt und gründlich diskutiert. Dabei wird Wert auf eine anwendungsnahe und anschauliche Formulierung der mathematisch-statistischen Sachverhalte gelegt. Anschließend wird die Methodik der Bruchpunktschätzung auf einen konkreten Datensatz angewendet und mit verschiedenen anderen Kriterien zur Ratingklassenbildung verglichen. Hier erweist sich die Bruchpunktschätzung als vorteilhaft. Aufbauend auf der empirischen Untersuchung wird abschließend weiterer Forschungsbedarf abgeleitet. Dazu werden insbesondere Konzepte für den Mehrklassenfall und für abhängige Daten entworfen. / Rating systems are a key component of credit risk modeling. In addition to scoring at borrowers’ level and risk quantification at the level of rating classes, the formation of the rating classes plays a fundamental role. The literature on rating classification uses in a way arbitrary optimization methods. Therefore, one aim of this contribution is to introduce a parametric statistical model to form the rating classes. A suitable model can be found in the area of split-point estimation. This model and the proposed parameter and interval estimators are presented and thoroughly discussed. Here, emphasis is placed on an application-oriented and intuitive formulation of the mathematical and statistical issues. Subsequently, the methodology of split-point estimation is applied to a specific data set and compared with several other criteria for rating classification. Here, split-point estimation proves to be advantageous. Finally, further research questions are derived on the basis of the empirical study. In particular, concepts for the case of more than two classes and for dependent data are sketched.
95

Determination of actinide elements in environmental samples by ICP-MS

Truscott, Jason Bedford January 2000 (has links)
Methods for the determination of the actinide elements in water, biological, soil and sediment samples have been developed using on-line solid phase extraction and high performance liquid chromatography (HPLC) coupled with inductively coupled plasma mass spectrometry (ICP-MS). Initial applications utilised a commercially available resin, namely TRU-Spec resin, for efficient removal of the matrix prior to elution of uranium and thorium analytes. Comparative analyses of reference materials and natural water samples from Plymouth and Dartmoor demonstrated significant improvement in precision and speed of analysis by using TRU-Spec coupled to ICP-MS compared with alpha spectrometry. Further applications of the TRU-Spec resin for the determination of the transuranic actinide elements neptunium, plutonium and americium, resulted in the successful determination of 239Pu and 237Np in biological reference materials. Detection limits were 700, 850, and 600 attograms (ag) for 237Np, 233Pu, and 241Am, respectively, for a 0.5 ml sample injection, and better than 200 ag/g with 50 ml pre-concentration when sector field (SF) ICP-MS was used. A method for the selective sequential elution of uranium and plutonium was also developed to facilitate the determination of 239Pu without interference due to the 238U1H+ polyatomic ion, caused by high concentrations of 238U in sediment samples. Investigations were performed into the use of a polymeric substrate, which was dynamically coated with chelating dyes such as xylenol orange and 4-(2-pyridylazo) resorcinol, and a silica substrate coated with permanently bonded iminodiacetic acid. The latter was used for the successful determination of uranium and thorium in certified reference material waters. However, the column was found to have a high affinity for iron, making it unsuitable for the determination of the actinides in soil and sediment samples. Subsequently, a polystyrene substrate which was dynamically coated with dipicolinic acid was used for HPLC coupled with SF-ICP-MS. Using this column it was possible to separate the various actinides from each other and from the matrix. In particular, it was possible to separate plutonium and uranium to facilitate interference-free determination of the former. The column also exhibited some selectivity for different oxidation states of Np, Pu and U. Two oxidation states each for plutonium and neptunium were found, tentatively identified as Np(V) and Pu(III) eluting at the solvent front, and Np(IV) and Pu(IV) eluting much later. Detection limits were 12, 8, and 4 fg for 237Np, 239Pu, and 241Am, respectively, for a 0.5 ml injection, and the system was successfully used for the determination of 239Pu in water, biological and soil reference materials.
96

Comunicabilidad en los delitos especiales, intervención del extraneus en el delito de malversación de caudales públicos del art. 233 del Código Penal

Conejeros Figueroa, René January 2017 (has links)
Memoria (licenciado en ciencias jurídicas y sociales) / El delito de peculado o malversación de caudales públicos del art. 233 del Código Penal, constituye un delito que protege atentados contra la función pública. Este delito cometido por un funcionario público, infringe el principio de probidad administrativa, y lesiona el aspecto patrimonial del Estado. El injusto de esta figura delictiva, se caracteriza por que el funcionario a cargo de los fondos, y que se encuentra en una posición jurídica de conservación respecto de éstos, infringe este deber cuando los sustrae o consiente en que otro los sustraiga. La doctrina ha considerado que este delito constituiría un delito especial, ya que restringe el círculo de autores a los sujetos que posean una cualificación especial de empleados o funcionarios públicos. Sin embargo, se discute si esta cualificación especial constituye un elemento fundante del delito o sólo es una circunstancia agravante del injusto. Una posición reciente en la literatura nacional, adopta la doctrina de los delitos de infracción de deber, y señala que este delito se caracterizaría por ser de tipo. Se plantea por la doctrina nacional la discusión sobre el tratamiento penal de la participación de terceros extraneus en este delito, en cuanto al título de imputación penal aplicable, y el grado de participación imputable. El Código Penal no contiene una norma expresa al respecto, por lo que la doctrina se ha dividido frente a este tema, ofreciendo tres posiciones definibles. La primera sostiene que la calidad especial del sujeto activo se comunica al extraneus, otra postura mayoritaria señala que el sujeto no cualificado será autor del delito común o residual del delito de peculado, y una tercera postura señala que no puede castigarse al sujeto no cualificado como autor del delito especial. La postura de este trabajo, de acuerdo a una revisión de las soluciones que ofrece la doctrina nacional, apoya la tesis de la intervención del extraneus en delitos especiales, sólo bajo la hipótesis de participación accesoria. / 29/05/2018
97

Zertifizierende verteilte Algorithmen

Völlinger, Kim 22 October 2020 (has links)
Eine Herausforderung der Softwareentwicklung ist, die Korrektheit einer Software sicherzustellen. Testen bietet es keine mathematische Korrektheit. Formale Verifikation ist jedoch oft zu aufwändig. Laufzeitverifikation steht zwischen den beiden Methoden. Laufzeitverifikation beantwortet die Frage, ob ein Eingabe-Ausgabe-Paar korrekt ist. Ein zertifizierender Algorithmus überzeugt seinen Nutzer durch ein Korrektheitsargument zur Laufzeit. Dafür berechnet ein zertifizierender Algorithmus für eine Eingabe zusätzlich zur Ausgabe noch einen Zeugen – ein Korrektheitsargument. Jeder zertifizierende Algorithmus besitzt ein Zeugenprädikat: Ist dieses erfüllt für eine Eingabe, eine Ausgabe und einen Zeugen, so ist das Eingabe-Ausgabe-Paar korrekt. Ein simpler Algorithmus, der das Zeugenprädikat für den Nutzer entscheidet, ist ein Checker. Die Korrektheit des Checkers ist folglich notwendig für den Ansatz und die formale Instanzverifikation, bei der wir Checker verifizieren und einen maschinen-geprüften Beweis für die Korrektheit eines Eingabe-Ausgabe-Paars zur Laufzeit gewinnen. Zertifizierende sequentielle Algorithmen sind gut untersucht. Verteilte Algorithmen, die auf verteilten Systemen laufen, unterscheiden sich grundlegend von sequentiellen Algorithmen: die Ausgabe ist über das System verteilt oder der Algorithmus läuft fortwährend. Wir untersuchen zertifizierende verteilte Algorithmen. Unsere Forschungsfrage ist: Wie können wir das Konzept zertifizierender sequentieller Algorithmen so auf verteilte Algorithmen übertragen, dass wir einerseits nah am ursprünglichen Konzept bleiben und andererseits die Gegebenheiten verteilter Systeme berücksichtigen? Wir stellen eine Methode der Übertragung vor. Die beiden Ziele abwägend entwickeln wir eine Klasse zertifizierender verteilter Algorithmen, die verteilte Zeugen berechnen und verteilte Checker besitzen. Wir präsentieren Fallstudien, Entwurfsmuster und ein Framework zur formalen Instanzverifikation. / A major problem in software engineering is to ensure the correctness of software. Testing offers no mathematical correctness. Formal verification is often too costly. Runtime verification stands between the two methods. Runtime verification answers the question whether an input-output pair is correct. A certifying algorithm convinces its user at runtime by offering a correctness argument. For each input, a certifying algorithm computes an output and additionally a witness. Each certifying algorithm has a witness predicate – a predicate with the property: being satisfied for an input, output and witness implies the input-output pair is correct. A simple algorithm deciding the witness predicate for the user is a checker. Hence, the checker’s correctness is crucial to the approach and motivates formal instance verification where we verify checkers and obtain machine-checked proofs for the correctness of an input-output pair at runtime. Certifying sequential algorithms are well-established. Distributed algorithms, designed to run on distributed systems, behave fundamentally different from sequential algorithms: their output is distributed over the system or they even run continuously. We investigate certifying distributed algorithms. Our research question is: How can we transfer the concept of certifying sequential algorithms to distributed algorithms such that we are in line with the original concept but also adapt to the conditions of distributed systems? In this thesis, we present a method to transfer the concept: Weighing up both sometimes conflicting goals, we develop a class of certifying distributed algorithms that compute distributed witnesses and have distributed checkers. We offer case studies, design patterns and a framework for formal instance verification. Additionally, we investigate other methods to transfer the concept of certifying algorithms to distributed algorithms.
98

Around the Langevin Monte Carlo algorithm : extensions and applications / Autour de l'algorithme du Langevin : extensions et applications

Brosse, Nicolas 12 June 2019 (has links)
Cette thèse porte sur le problème de l'échantillonnage en grande dimension et est basée sur l'algorithme de Langevin non ajusté (ULA).Dans une première partie, nous proposons deux extensions d'ULA et fournissons des garanties de convergence précises pour ces algorithmes. ULA n'est pas applicable lorsque la distribution cible est à support compact; grâce à une régularisation de Moreau Yosida, il est néanmoins possible d'échantillonner à partir d'une distribution suffisamment proche de la distribution cible. ULA diverge lorsque les queues de la distribution cible sont trop fines; en renormalisant correctement le gradient, cette difficulté peut être surmontée.Dans une deuxième partie, nous donnons deux applications d'ULA. Nous fournissons un algorithme pour estimer les constantes de normalisation de densités log concaves à partir d'une suite de distributions dont la variance augmente graduellement. En comparant ULA avec la diffusion de Langevin, nous développons une nouvelle méthode de variables de contrôle basée sur la variance asymptotique de la diffusion de Langevin.Dans une troisième partie, nous analysons Stochastic Gradient Langevin Dynamics (SGLD), qui diffère de ULA seulement dans l'estimation stochastique du gradient. Nous montrons que SGLD, appliqué avec des paramètres habituels, peut être très éloigné de la distribution cible. Cependant, avec une technique appropriée de réduction de variance, son coût calcul peut être bien inférieur à celui d'ULA pour une précision similaire. / This thesis focuses on the problem of sampling in high dimension and is based on the unadjusted Langevin algorithm (ULA).In a first part, we suggest two extensions of ULA and provide precise convergence guarantees for these algorithms. ULA is not feasible when the target distribution is compactly supported; thanks to a Moreau Yosida regularization, it is nevertheless possible to sample from a probability distribution close enough to the distribution of interest. ULA diverges when the tails of the target distribution are too thin; by taming appropriately the gradient, this difficulty can be overcome.In a second part, we give two applications of ULA. We provide an algorithm to estimate normalizing constants of log concave densities based on a sequence of distributions with increasing variance. By comparison of ULA with the Langevin diffusion, we develop a new control variates methodology based on the asymptotic variance of the Langevin diffusion.In a third part, we analyze Stochastic Gradient Langevin Dynamics (SGLD), which differs from ULA only in the stochastic estimation of the gradient. We show that SGLD, applied with usual parameters, may be very far from the target distribution. However, with an appropriate variance reduction technique, its computational cost can be much lower than ULA for the same accuracy.
99

Essays on Modern Econometrics and Machine Learning

Keilbar, Georg 16 June 2022 (has links)
Diese Dissertation behandelt verschiedene Aspekte moderner Ökonometrie und Machine Learnings. Kapitel 2 stellt einen neuen Schätzer für die Regressionsparameter in einem Paneldatenmodell mit interaktiven festen Effekten vor. Eine Besonderheit unserer Methode ist die Modellierung der factor loadings durch nichtparametrische Funktionen. Wir zeigen die root-NT-Konvergenz sowie die asymptotische Normalverteilung unseres Schätzers. Kapitel 3 betrachtet die rekursive Schätzung von Quantilen mit Hilfe des stochastic gradient descent (SGD) Algorithmus mit Polyak-Ruppert Mittelwertbildung. Der Algorithmus ist rechnerisch und Speicher-effizient verglichen mit herkömmlichen Schätzmethoden. Unser Fokus ist die Untersuchung des nichtasymptotischen Verhaltens, indem wir eine exponentielle Wahrscheinlichkeitsungleichung zeigen. In Kapitel 4 stellen wir eine neue Methode zur Kalibrierung von conditional Value-at-Risk (CoVaR) basierend auf Quantilregression mittels Neural Networks vor. Wir modellieren systemische Spillovereffekte in einem Netzwerk von systemrelevanten Finanzinstituten. Eine Out-of-Sample Analyse zeigt eine klare Verbesserung im Vergleich zu einer linearen Grundspezifikation. Im Vergleich mit bestehenden Risikomaßen eröffnet unsere Methode eine neue Perspektive auf systemisches Risiko. In Kapitel 5 modellieren wir die gemeinsame Dynamik von Kryptowährungen in einem nicht-stationären Kontext. Um eine Analyse in einem dynamischen Rahmen zu ermöglichen, stellen wir eine neue vector error correction model (VECM) Spezifikation vor, die wir COINtensity VECM nennen. / This thesis focuses on different aspects of the union of modern econometrics and machine learning. Chapter 2 considers a new estimator of the regression parameters in a panel data model with unobservable interactive fixed effects. A distinctive feature of the proposed approach is to model the factor loadings as a nonparametric function. We show that our estimator is root-NT-consistent and asymptotically normal, as well that it reaches the semiparametric efficiency bound under the assumption of i.i.d. errors. Chapter 3 is concerned with the recursive estimation of quantiles using the stochastic gradient descent (SGD) algorithm with Polyak-Ruppert averaging. The algorithm offers a computationally and memory efficient alternative to the usual empirical estimator. Our focus is on studying the nonasymptotic behavior by providing exponentially decreasing tail probability bounds under minimal assumptions. In Chapter 4 we propose a novel approach to calibrate the conditional value-at-risk (CoVaR) of financial institutions based on neural network quantile regression. We model systemic risk spillover effects in a network context across banks by considering the marginal effects of the quantile regression procedure. An out-of-sample analysis shows great performance compared to a linear baseline specification, signifying the importance that nonlinearity plays for modelling systemic risk. A comparison to existing network-based risk measures reveals that our approach offers a new perspective on systemic risk. In Chapter 5 we aim to model the joint dynamics of cryptocurrencies in a nonstationary setting. In particular, we analyze the role of cointegration relationships within a large system of cryptocurrencies in a vector error correction model (VECM) framework. To enable analysis in a dynamic setting, we propose the COINtensity VECM, a nonlinear VECM specification accounting for a varying system-wide cointegration exposure.
100

A Historical, Literary, and Musical Analysis of Francis Poulenc’s <i>Dialogues des Carmélites</i>

Lowther, Gail Elizabeth 29 July 2010 (has links)
No description available.

Page generated in 0.0298 seconds