• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 42
  • 6
  • 5
  • Tagged with
  • 53
  • 46
  • 37
  • 22
  • 22
  • 22
  • 15
  • 9
  • 9
  • 8
  • 7
  • 7
  • 7
  • 7
  • 7
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Bilevel programming: reformulations, regularity, and stationarity

Zemkoho, Alain B. 12 June 2012 (has links)
We have considered the bilevel programming problem in the case where the lower-level problem admits more than one optimal solution. It is well-known in the literature that in such a situation, the problem is ill-posed from the view point of scalar objective optimization. Thus the optimistic and pessimistic approaches have been suggested earlier in the literature to deal with it in this case. In the thesis, we have developed a unified approach to derive necessary optimality conditions for both the optimistic and pessimistic bilevel programs, which is based on advanced tools from variational analysis. We have obtained various constraint qualifications and stationarity conditions depending on some constructive representations of the solution set-valued mapping of the follower’s problem. In the auxiliary developments, we have provided rules for the generalized differentiation and robust Lipschitzian properties for the lower-level solution setvalued map, which are of a fundamental interest for other areas of nonlinear and nonsmooth optimization. Some of the results of the aforementioned theory have then been applied to derive stationarity conditions for some well-known transportation problems having the bilevel structure.
42

Simultanes Routen- und Verkehrsmittelwahlmodell

Vrtic, Milenko 02 April 2004 (has links)
Bei verkehrspolitischen und infrastrukturellen Massnahmen folgen als wesentliche Nachfrageveränderungen vor allem Routen- und Verkehrsmittelwahleffekte. Mit der Anwendung der sequentiellen Routen- und Verkehrsmittelwahlmodelle, ist bei solchen Massnahmen aus verschiedenen Gründen eine konsistente und gesamthafte Gleichgewichtslösung nicht möglich. Das Ziel dieser Untersuchung war, ein konsistentes und verfeinertes Verfahren zu entwickeln, mit dem die Routen- und Verkehrsmittelwahl simultan bzw. in einem Schritt als eine Entscheidung berechnet werden kann. Neben dem Gleichgewicht bei der Verteilung der Verkehrsnachfrage auf die Alternativen, war die konsistente Schätzung der Modellparameter für die Bewertung von Einflussfaktoren bei den Entscheidungen hier eine weitere wichtige Anforderung. Das Modell ist in der Lage, ein realitätsentsprechendes Verhalten der Verkehrsteilnehmer, sowohl bei schwach, als auch bei stark belasteten Strassennetzen, zu beschreiben. Die unterschiedliche Wahrnehmung der Reisekosten der Verkehrsteilnehmer und die Netzüberbelastungen werden durch ein stochastisches Nutzergleichgewicht abgebildet. Das entwickelte Verfahren ermöglicht es: - die Nachfrageaufteilung mit einem konsistenten Gleichgewicht zwischen Verkehrsangebot und Verkehrsnachfrage zu berechnen. Dabei wird ein Gleichgewicht nicht nur innerhalb des Strassen- oder Schienennetzes, sondern zwischen allen verfügbaren Alternativen (unabhängig vom Verkehrsmittel) gesucht. - durch die iterative Kalibration der Modellparameter und die Nachfrageaufteilung ein konsistentes Gleichgewicht zwischen den geschätzten Modellparametern für die Nutzenfunktion und der Nachfrageaufteilung auf die vorhandenen Alternativen (Routen) zu berechnen. - mit einem stochastischen Nutzergleichgwicht die unterschiedliche Wahrnehmung der Nutzen bzw. der generalisierten Kosten der Verkehrsteilnehmer bei der Nachfrageaufteilung zu berücksichtigen. - die Auswirkungen von Angebotsveränderungen auf die Verkehrsmittelwahl und Routenwahl durch simultane Modellierung der Entscheidungen konsistent und ohne Rückkoppelungschritte zu berechnen.
43

Adaptive Estimation using Gaussian Mixtures

Pfeifer, Tim 25 October 2023 (has links)
This thesis offers a probabilistic solution to robust estimation using a novel adaptive estimator. Reliable state estimation is a mandatory prerequisite for autonomous systems interacting with the real world. The presence of outliers challenges the Gaussian assumption of numerous estimation algorithms, resulting in a potentially skewed estimate that compromises reliability. Many approaches attempt to mitigate erroneous measurements by using a robust loss function – which often comes with a trade-off between robustness and numerical stability. The proposed approach is purely probabilistic and enables adaptive large-scale estimation with non-Gaussian error models. The introduced Adaptive Mixture algorithm combines a nonlinear least squares backend with Gaussian mixtures as the measurement error model. Factor graphs as graphical representations allow an efficient and flexible application to real-world problems, such as simultaneous localization and mapping or satellite navigation. The proposed algorithms are constructed using an approximate expectation-maximization approach, which justifies their design probabilistically. This expectation-maximization is further generalized to enable adaptive estimation with arbitrary probabilistic models. Evaluating the proposed Adaptive Mixture algorithm in simulated and real-world scenarios demonstrates its versatility and robustness. A synthetic range-based localization shows that it provides reliable estimation results, even under extreme outlier ratios. Real-world satellite navigation experiments prove its robustness in harsh urban environments. The evaluation on indoor simultaneous localization and mapping datasets extends these results to typical robotic use cases. The proposed adaptive estimator provides robust and reliable estimation under various instances of non-Gaussian measurement errors.
44

A Novel Approach for Cancelation of Nonaligned Inter Spreading Factor Interference in LoRa Systems

Zhang, Qiaohan, Bizon, Ivo, Kumar, Atul, Martinez, Ana Belen, Chafii, Marwa, Fettweis, Gerhard 22 April 2024 (has links)
Long Range (LoRa) has become a key enabler technology for low power wide area networks. However, due to its ALOHA-based medium access scheme, LoRa has to cope with collisions that limit the capacity and network scalability. Collisions between randomly overlapped signals modulated with different spreading factors (SFs) result in inter-SF interference, which increases the packet loss likelihood when signal-to-interference ratio (SIR) is low. This issue cannot be resolved by channel coding since the probability of error distance is not concentrated around the adjacent symbol. In this paper, we analytically model this interference, and propose an interference cancellation method based on the idea of segmentation of the received signal. This scheme has three steps. First, the SF of the interference signal is identified, then the equivalent data symbol and complex amplitude of the interference are estimated. Finally, the estimated interference signal is subtracted from the received signal before demodulation. Unlike conventional serial interference cancellation (SIC), this scheme can directly estimate and reconstruct the non-aligned inter-SF interference without synchronization. Simulation results show that the proposed method can significantly reduce the symbol error rate (SER) under low SIR compared with the conventional demodulation. Moreover, it also shows high robustness to fractional sample timing offset (STO) and carrier frequency offset (CFO) of interference. The presented results clearly show the effectiveness of the proposed method in terms of the SER performance.
45

Hazard functions and macroeconomic dynamics

Yao, Fang 24 January 2011 (has links)
In dieser Arbeit werden die Folgen der Calvo-Annahme in dynamischen makroökonomischen Modellen untersucht. Dafür wird die Calvo-Annahme unter Anwendung des Konzepts der statistischen Hazardfunktion verallgemeinert. Ich untersuche zwei mögliche Anwendungen dieses Ansatzes innerhalb von DSGE-Modellen. Im ersten Artikel zeige ich, dass der Zugewinn an Handhabbarkeit, der aus der Calvo-Annahme für Neu-Keynesianische Modelle folgt, mit unerwünschten Folgen in Bezug auf die Inflationsdynamiken einher geht. Der zweite Artikel schätzt die aggregierte Hazardfunktion unter Verwendung des theoretischen Rahmens des ersten Artikels. Es zeigt sich, dass die Annahme einer konstanten Hazardfunktion, die aus der Calvo-Annahme folgt, von den Daten eindeutig abgelehnt wird. Im dritten Artikel analysiere ich die Implikationen der empirisch geschätzten Hazardfunktion für die Persistenz von Inflation und die Geldpolitik. Die Untersuchungen zeigen, dass mittels der empirisch plausiblen aggregierten Hazardfunktion Zeitreihen simuliert werden können, die mit der Persistenz der inflatorischen Lücke im US Verbraucherpreisindex konsistent sind. Anhand dieser Ergebnisse komme ich zu dem Schluss, dass die Hazardfunktion eine entscheidende Rolle für die dynamischen Eigenschaften von Inflation spielt. Der letzte Artikel wendet den selben Modellierungsansatz auf ein Real-Business-Cycle Model mit rigidem Arbeitsmarkt an. Unter Verwendung eines allgemeineren stochastischen Anpassungsprozess stelle ich fest, dass die Arbeitsmarktdynamiken von einem Parameter beinflusst werden, der das Monotonieverhalten der Hazardfunktion bestimmt. Insbesondere steigt die Volatilität des Beschäftigungsniveaus, wohingegen dessen Persistenz mit zunehmendem Parameterwert abnimmt. / The Calvo assumption (Calvo, 1983) is widely used in the macroeconomic literature to model market frictions that limit the ability of economic agents to re-optimize their control variables. In spite of its virtues, the Calvo assumption also implies singular adjustment behavior at the firm level as well as a restrictive aggregation mechanism for the whole economy. In this study, I examine implications of the Calvo assumption for macroeconomic dynamics. To do so, I extend the Calvo assumption to a more general case based on the concept of the statistical hazard function. Two applications of this approach are studied in the DSGE framework. In the first essay, I apply this approach to a New Keynesian model, and demonstrate that tractability gained from the Calvo pricing assumption is costly in terms of inflation dynamics. The second essay estimates aggregate price reset hazard function using the theoretical framework constructed in the first essay, and shows that the constant hazard function implied by the Calvo assumption is strongly rejected by the aggregate data. In the third essay, I further explore implications of the empirically based hazard function for inflation persistence and monetary policy. I find that the empirically plausible aggregate price reset hazard function can generate simulated data that are consistent with inflation gap persistence found in the US CPI data. Based on these results, I conclude that the price reset hazard function plays a crucial role for generating inflation dynamics. The last essay applies the same modeling approach to a RBC model with employment rigidity. I find that, when introducing a more general stochastic adjustment process, the employment dynamics vary with a parameter, which determines the monotonic property of the hazard function. In particular, the volatility of employment is increasing, but the persistence is decreasing in the value of the parameter.
46

Drift estimation for jump diffusions

Mai, Hilmar 08 October 2012 (has links)
Das Ziel dieser Arbeit ist die Entwicklung eines effizienten parametrischen Schätzverfahrens für den Drift einer durch einen Lévy-Prozess getriebenen Sprungdiffusion. Zunächst werden zeit-stetige Beobachtungen angenommen und auf dieser Basis eine Likelihoodtheorie entwickelt. Dieser Schritt umfasst die Frage nach lokaler Äquivalenz der zu verschiedenen Parametern auf dem Pfadraum induzierten Maße. Wir diskutieren in dieser Arbeit Schätzer für Prozesse vom Ornstein-Uhlenbeck-Typ, Cox-Ingersoll-Ross Prozesse und Lösungen linearer stochastischer Differentialgleichungen mit Gedächtnis im Detail und zeigen starke Konsistenz, asymptotische Normalität und Effizienz im Sinne von Hájek und Le Cam für den Likelihood-Schätzer. In Sprungdiffusionsmodellen ist die Likelihood-Funktion eine Funktion des stetigen Martingalanteils des beobachteten Prozesses, der im Allgemeinen nicht direkt beobachtet werden kann. Wenn nun nur Beobachtungen an endlich vielen Zeitpunkten gegeben sind, so lässt sich der stetige Anteil der Sprungdiffusion nur approximativ bestimmen. Diese Approximation des stetigen Anteils ist ein zentrales Thema dieser Arbeit und es wird uns auf das Filtern von Sprüngen führen. Der zweite Teil dieser Arbeit untersucht die Schätzung der Drifts, wenn nur diskrete Beobachtungen gegeben sind. Dabei benutzen wir die Likelihood-Schätzer aus dem ersten Teil und approximieren den stetigen Martingalanteil durch einen sogenannten Sprungfilter. Wir untersuchen zuerst den Fall endlicher Aktivität und zeigen, dass die Driftschätzer im Hochfrequenzlimes die effiziente asymptotische Verteilung erreichen. Darauf aufbauend beweisen wir dann im Falle unendlicher Sprungaktivität asymptotische Effizienz für den Driftschätzer im Ornstein-Uhlenbeck Modell. Im letzten Teil werden die theoretischen Ergebnisse für die Schätzer auf endlichen Stichproben aus simulierten Daten geprüft und es zeigt sich, dass das Sprungfiltern zu einem deutlichen Effizienzgewinn führen. / The problem of parametric drift estimation for a a Lévy-driven jump diffusion process is considered in two different settings: time-continuous and high-frequency observations. The goal is to develop explicit maximum likelihood estimators for both observation schemes that are efficient in the Hájek-Le Cam sense. The likelihood function based on time-continuous observations can be derived explicitly for jump diffusion models and leads to explicit maximum likelihood estimators for several popular model classes. We consider Ornstein-Uhlenbeck type, square-root and linear stochastic delay differential equations driven by Lévy processes in detail and prove strong consistency, asymptotic normality and efficiency of the likelihood estimators in these models. The appearance of the continuous martingale part of the observed process under the dominating measure in the likelihood function leads to a jump filtering problem in this context, since the continuous part is usually not directly observable and can only be approximated and the high-frequency limit. In the second part of this thesis the problem of drift estimation for discretely observed processes is considered. The estimators are constructed from discretizations of the time-continuous maximum likelihood estimators from the first part, where the continuous martingale part is approximated via a thresholding technique. We are able to proof that even in the case of infinite activity jumps of the driving Lévy process the estimator is asymptotically normal and efficient under weak assumptions on the jump behavior. Finally, the finite sample behavior of the estimators is investigated on simulated data. We find that the maximum likelihood approach clearly outperforms the least squares estimator when jumps are present and that the efficiency gap between both techniques becomes even more severe with growing jump intensity.
47

Essays on macroeconomic theory as a guide to economic policy

Ried, Stefan 15 October 2009 (has links)
Die vorliegende Dissertation zu makroökonomischen Themen beinhaltet einen einleitenden Literaturüberblick, drei eigenständige und voneinander unabhängige Kapitel sowie einen technischen Anhang. In Kapitel zwei wird ein Zwei-Länder Modell einer Währungsunion betrachtet, in dem die gemeinsame Zentralbank die Wohlfahrt der gesamten Währungsunion maximieren will, während die zwei fiskalpolitischen Akteure vergleichbare, aber minimal abweichende länderspezifische Verlustfunktionen zu minimieren suchen. Das Konkurrenzverhalten dieser drei Institutionen wird in sieben spieltheoretischen Szenarien analysiert. Beim Vergleich einer homogenen mit einer heterogenen Währungsunion lassen sich für letztere deutlich höhere Wohlfahrtsverluste relativ zum sozialen Optimum feststellen. Die Szenarien mit den geringsten Wohlfahrtsverlusten sind Kooperation aller drei Institutionen und eine Stackelberg-Führerschaft der Zentralbank. Kapitel drei untersucht, inwieweit das Verhältnis von Immobilienpreise zum Bruttoinlandsprodukt als langfristig konstant und nur auf Grund von Produktivitätsschocks von seinem Mittelwert abweichend angesehen werden kann. Hierzu wird ein Zwei-Sektoren RBC-Modell für den Immobiliensektor und einen Konsumgütersektor erstellt. Es wird gezeigt, dass ein antizipierter, zukünftiger Schock auf das Produktivitätswachstum im Konsumgütersektor eine sofortige, deutliche Erhöhung der Immobilienpreise relativ zum Bruttoinlandsprodukt zur Folge hat. In Kapitel vier wird gefragt, ob ein typisches Neukeynesianisches Modell "sechs große Rätsel der internationalen Makroökonomie" erklären kann. Die sechs Rätsel werden in Bedingungen für erste und zweite Momente übersetzt und fünf wesentliche Modellparameter geschätzt. Das Ergebnis ist erstaunlich gut: unter anderem können die empirischen Beobachtungen zur Heimatpräferenz wiedergegeben und die Schwankungsbreite des realen Wechselkurses deutlich erhöht werden. Handelskosten sind für dieses Ergebnis ein wesentlicher Faktor. / This dissertation consists of an introductory chapter with an extended literature review, three chapters on individual and independent research topics, and an appendix. Chapter 2 uses a two-country model with a central bank maximizing union-wide welfare and two fiscal authorities minimizing comparable, but slightly different country-wide losses. The rivalry between the three authorities is analyzed in seven static games. Comparing a homogeneous with a heterogeneous monetary union, welfare losses relative to the social optimum are found to be significantly larger in a heterogeneous union. The best-performing scenarios are cooperation between all authorities and monetary leadership. The goal of Chapter 3 is to investigate whether or not it is possible to explain the house price to GDP ratio and the house price to stock price ratio as being generally constant, deviating from its respective mean only because of shocks to productivity? Building a two-sector RBC model for residential and non-residential capital, it is shown that an anticipated future shock to productivity growth in the non-residential sector leads to an immediate large increase in house prices relative to GDP. In Chapter 4, it is asked whether a typical New Keynesian Open Economy Model is able to explain "Six Major Puzzles in International Macroeconomics". After translating the six puzzles into moment conditions for the model, I estimate five parameters to fit the moment conditions implied by the data. Given the simplicity of the model, its fit is surprisingly good: among other things, the home bias puzzles can easily be replicated, the exchange rate volatility is formidably increased and the exchange rate correlation pattern is relatively close to realistic values. Trade costs are one important ingredient for this finding.
48

KARTOTRAK, integrated software solution for contaminated site characterization

Wagner, Laurent 03 November 2015 (has links) (PDF)
Kartotrak software allows optimal waste classification and avoids unnecessary remediation. It has been designed for those - site owners, safety authorities or contractors, involved in environmental site characterization projects - who need to locate and estimate contaminated soil volumes confidently.
49

Estimating and Correcting the Effects of Model Selection Uncertainty / Estimating and Correcting the Effects of Model Selection Uncertainty

Nguefack Tsague, Georges Lucioni Edison 03 February 2006 (has links)
No description available.
50

Comparative Analysis of Behavioral Models for Adaptive Learning in Changing Environments

Marković, Dimitrije, Kiebel, Stefan J. 16 January 2017 (has links) (PDF)
Probabilistic models of decision making under various forms of uncertainty have been applied in recent years to numerous behavioral and model-based fMRI studies. These studies were highly successful in enabling a better understanding of behavior and delineating the functional properties of brain areas involved in decision making under uncertainty. However, as different studies considered different models of decision making under uncertainty, it is unclear which of these computational models provides the best account of the observed behavioral and neuroimaging data. This is an important issue, as not performing model comparison may tempt researchers to over-interpret results based on a single model. Here we describe how in practice one can compare different behavioral models and test the accuracy of model comparison and parameter estimation of Bayesian and maximum-likelihood based methods. We focus our analysis on two well-established hierarchical probabilistic models that aim at capturing the evolution of beliefs in changing environments: Hierarchical Gaussian Filters and Change Point Models. To our knowledge, these two, well-established models have never been compared on the same data. We demonstrate, using simulated behavioral experiments, that one can accurately disambiguate between these two models, and accurately infer free model parameters and hidden belief trajectories (e.g., posterior expectations, posterior uncertainties, and prediction errors) even when using noisy and highly correlated behavioral measurements. Importantly, we found several advantages of Bayesian inference and Bayesian model comparison compared to often-used Maximum-Likelihood schemes combined with the Bayesian Information Criterion. These results stress the relevance of Bayesian data analysis for model-based neuroimaging studies that investigate human decision making under uncertainty.

Page generated in 0.0323 seconds