Spelling suggestions: "subject:"abschätzung"" "subject:"dieschätzung""
31 |
Observation error model selection by information criteria vs. normality testingLehmann, Rüdiger 17 October 2016 (has links) (PDF)
To extract the best possible information from geodetic and geophysical observations, it is necessary to select a model of the observation errors, mostly the family of Gaussian normal distributions. However, there are alternatives, typically chosen in the framework of robust M-estimation. We give a synopsis of well-known and less well-known models for observation errors and propose to select a model based on information criteria. In this contribution we compare the Akaike information criterion (AIC) and the Anderson Darling (AD) test and apply them to the test problem of fitting a straight line. The comparison is facilitated by a Monte Carlo approach. It turns out that the model selection by AIC has some advantages over the AD test.
|
32 |
MINESTIS, the route to resource estimates: Presentation of 3D geomodeling software, held at IAMG 2015 in FreibergWagner, Laurent 03 November 2015 (has links)
Minestis software allows geological domain modeling and resource estimation through an efficient and simplified geostatistics-based workflow. It has been designed for all those, geologists, mining engineers or auditors, for whom quick production of quality models is at the heart of their concerns.
|
33 |
Observation error model selection by information criteria vs. normality testingLehmann, Rüdiger January 2015 (has links)
To extract the best possible information from geodetic and geophysical observations, it is necessary to select a model of the observation errors, mostly the family of Gaussian normal distributions. However, there are alternatives, typically chosen in the framework of robust M-estimation. We give a synopsis of well-known and less well-known models for observation errors and propose to select a model based on information criteria. In this contribution we compare the Akaike information criterion (AIC) and the Anderson Darling (AD) test and apply them to the test problem of fitting a straight line. The comparison is facilitated by a Monte Carlo approach. It turns out that the model selection by AIC has some advantages over the AD test.
|
34 |
Adaptive and efficient quantile estimationTrabs, Mathias 07 July 2014 (has links)
Die Schätzung von Quantilen und verwandten Funktionalen wird in zwei inversen Problemen behandelt: dem klassischen Dekonvolutionsmodell sowie dem Lévy-Modell in dem ein Lévy-Prozess beobachtet wird und Funktionale des Sprungmaßes geschätzt werden. Im einem abstrakteren Rahmen wird semiparametrische Effizienz im Sinne von Hájek-Le Cam für Funktionalschätzung in regulären, inversen Modellen untersucht. Ein allgemeiner Faltungssatz wird bewiesen, der auf eine große Klasse von statistischen inversen Problem anwendbar ist. Im Dekonvolutionsmodell beweisen wir, dass die Plugin-Schätzer der Verteilungsfunktion und der Quantile effizient sind. Auf der Grundlage von niederfrequenten diskreten Beobachtungen des Lévy-Prozesses wird im nichtlinearen Lévy-Modell eine Informationsschranke für die Schätzung von Funktionalen des Sprungmaßes hergeleitet. Die enge Verbindung zwischen dem Dekonvolutionsmodell und dem Lévy-Modell wird präzise beschrieben. Quantilschätzung für Dekonvolutionsprobleme wird umfassend untersucht. Insbesondere wird der realistischere Fall von unbekannten Fehlerverteilungen behandelt. Wir zeigen unter minimalen und natürlichen Bedingungen, dass die Plugin-Methode minimax optimal ist. Eine datengetriebene Bandweitenwahl erlaubt eine optimale adaptive Schätzung. Quantile werden auf den Fall von Lévy-Maßen, die nicht notwendiger Weise endlich sind, verallgemeinert. Mittels äquidistanten, diskreten Beobachtungen des Prozesses werden nichtparametrische Schätzer der verallgemeinerten Quantile konstruiert und minimax optimale Konvergenzraten hergeleitet. Als motivierendes Beispiel von inversen Problemen untersuchen wir ein Finanzmodell empirisch, in dem ein Anlagengegenstand durch einen exponentiellen Lévy-Prozess dargestellt wird. Die Quantilschätzer werden auf dieses Modell übertragen und eine optimale adaptive Bandweitenwahl wird konstruiert. Die Schätzmethode wird schließlich auf reale Daten von DAX-Optionen angewendet. / The estimation of quantiles and realated functionals is studied in two inverse problems: the classical deconvolution model and the Lévy model, where a Lévy process is observed and where we aim for the estimation of functionals of the jump measure. From a more abstract perspective we study semiparametric efficiency in the sense of Hájek-Le Cam for functional estimation in regular indirect models. A general convolution theorem is proved which applies to a large class of statistical inverse problems. In particular, we consider the deconvolution model, where we prove that our plug-in estimators of the distribution function and of the quantiles are efficient. In the nonlinear Lévy model based on low-frequent discrete observations of the Lévy process, we deduce an information bound for the estimation of functionals of the jump measure. The strong relationship between the Lévy model and the deconvolution model is given a precise meaning. Quantile estimation in deconvolution problems is studied comprehensively. In particular, the more realistic setup of unknown error distributions is covered. Under minimal and natural conditions we show that the plug-in method is minimax optimal. A data-driven bandwidth choice yields optimal adaptive estimation. The concept of quantiles is generalized to the possibly infinite Lévy measures by considering left and right tail integrals. Based on equidistant discrete observations of the process, we construct a nonparametric estimator of the generalized quantiles and derive minimax convergence rates. As a motivating financial example for inverse problems, we empirically study the calibration of an exponential Lévy model for asset prices. The estimators of the generalized quantiles are adapted to this model. We construct an optimal adaptive quantile estimator and apply the procedure to real data of DAX-options.
|
35 |
The Role of Shadow Banking in the Monetary Transmission MechanismMazelis, Falk Henry 29 June 2018 (has links)
Diese Doktorarbeit besteht aus drei Aufsätzen, in welchen die Reaktion von Finanzinstitutionen auf Geldpolitik analysiert wird. In dem ersten Aufsatz finde ich anhand eines Bayesian VAR, dass eine Erhöhung des Leitzinses zu einer zusätzlichen Kreditvergabe in Nichtbanken (NBFI) führt. Banken verleihen wie bereits bekannt weniger. Der Grund für die gegensätzliche Bewegung liegt in der unterschiedliche Art der Finanzierung. Dieser Befund legt nahe, dass die Existenz von NBFI die Volatilität der aggregierten Kreditvergabe zu geldpolitischen Schocks verringern könnte. Zusätzlich bietet die Analyse einen Erklärungsansatz für die Beobachtung, dass sich die Kreditvergabe seit der Finanzkrise stockend entwickelt hat.
Im zweiten Aufsatz knüpfe ich an diese empirische Untersuchung an, indem ich ein theoretisches Modell mit unterschiedlichen Arten von Firmenfinanzierung entwerfe. Haushalte müssen sich zwischen festverzinsichlichen und erfolgsbedingten Sparmöglichkeiten entscheiden. Auf Grundlage des Modells von Bernanke, Gertler und Gilchrist (1999) mikrofundiere ich die Entscheidung über Unternehmensgründung in Form von Eigenkapitalinvestitionen.
Im dritten Aufsatz entwickele ich ein geschätztes DSGE Modell mit Finanzierungsfriktionen, welches in der Lage ist, die empirischen Ergebnisse zu replizieren. Ich untersuche, wie sich die Regulierung von Schattenbanken auf eine Volkswirtschaft am ZLB auswirkt. Konsumvolatilität wird reduziert, wenn Schattenbankenkredite stattdessen von Banken vergeben werden. Alternativ dazu führt die Behandlung von Schattenbanken wie Investment Fonds dazu, dass eine Volkswirtschaft am ZLB eine mildere Rezession und einen schnelleren Austritt erlebt. Der Grund liegt darin, dass ein Nachfrageschock, der die Volkswirtschaft zum ZLB bringt, eine Reaktion hervorruft, die vergleichbar mit geldpolitischen Schocks ist, da am ZLB keine Möglichkeit der Leitzinsverringerung besteht. / This thesis consists of three essays that analyze the reaction of financial institutions to monetary policy. In the first essay, I use a Bayesian VAR to show that an increase in the monetary policy rate raises credit intermediation by non-bank financial institutions (NBFI). As is well known, credit intermediation by banks is reduced. The movement in opposite directions is explained by the difference in funding. This finding suggests that the existence of NBFI may decrease aggregate volatility following monetary policy shocks.
Following this evidence, I construct a theoretical model that includes different types of funding in the second essay. Households face a savings choice between state contingent (equity) and non-state contingent (debt) assets. I use the financial accelerator model of Bernanke, Gertler and Gilchrist (1999) as a basis and microfound the decision by which new net worth in entrepreneurs is created. A Bayesian estimation suggests a change in the survival rate of entrepreneurs, affecting impulse responses. The analysis suggests that models that use the financial accelerator should include endogenous firm entry if variables regarding household portfolios or shocks directly affecting firm net worth are considered.
In the third essay, I develop an estimated monetary DSGE model with funding market frictions that is able to replicate the empirical facts. In a counterfactual exercise I study how the regulation of shadow banks affects an economy at the ZLB. Consumption volatility is reduced when shadow bank assets are directly held by commercial banks. Alternatively, regulating shadow banks like investment funds results in a milder recession during, and a quicker escape from, the ZLB. The reason is that a recessionary demand shock that moves the economy to the ZLB has similar effects to a monetary tightening due to the inability to reduce the policy rate below zero.
|
36 |
Central limit theorems and confidence sets in the calibration of Lévy models and in deconvolutionSöhl, Jakob 03 May 2013 (has links)
Zentrale Grenzwertsätze und Konfidenzmengen werden in zwei verschiedenen, nichtparametrischen, inversen Problemen ähnlicher Struktur untersucht, und zwar in der Kalibrierung eines exponentiellen Lévy-Modells und im Dekonvolutionsmodell. Im ersten Modell wird eine Geldanlage durch einen exponentiellen Lévy-Prozess dargestellt, Optionspreise werden beobachtet und das charakteristische Tripel des Lévy-Prozesses wird geschätzt. Wir zeigen, dass die Schätzer fast sicher wohldefiniert sind. Zu diesem Zweck beweisen wir eine obere Schranke für Trefferwahrscheinlichkeiten von gaußschen Zufallsfeldern und wenden diese auf einen Gauß-Prozess aus der Schätzmethode für Lévy-Modelle an. Wir beweisen gemeinsame asymptotische Normalität für die Schätzer von Volatilität, Drift und Intensität und für die punktweisen Schätzer der Sprungdichte. Basierend auf diesen Ergebnissen konstruieren wir Konfidenzintervalle und -mengen für die Schätzer. Wir zeigen, dass sich die Konfidenzintervalle in Simulationen gut verhalten, und wenden sie auf Optionsdaten des DAX an. Im Dekonvolutionsmodell beobachten wir unabhängige, identisch verteilte Zufallsvariablen mit additiven Fehlern und schätzen lineare Funktionale der Dichte der Zufallsvariablen. Wir betrachten Dekonvolutionsmodelle mit gewöhnlich glatten Fehlern. Bei diesen ist die Schlechtgestelltheit des Problems durch die polynomielle Abfallrate der charakteristischen Funktion der Fehler gegeben. Wir beweisen einen gleichmäßigen zentralen Grenzwertsatz für Schätzer von Translationsklassen linearer Funktionale, der die Schätzung der Verteilungsfunktion als Spezialfall enthält. Unsere Ergebnisse gelten in Situationen, in denen eine Wurzel-n-Rate erreicht werden kann, genauer gesagt gelten sie, wenn die Sobolev-Glattheit der Funktionale größer als die Schlechtgestelltheit des Problems ist. / Central limit theorems and confidence sets are studied in two different but related nonparametric inverse problems, namely in the calibration of an exponential Lévy model and in the deconvolution model. In the first set-up, an asset is modeled by an exponential of a Lévy process, option prices are observed and the characteristic triplet of the Lévy process is estimated. We show that the estimators are almost surely well-defined. To this end, we prove an upper bound for hitting probabilities of Gaussian random fields and apply this to a Gaussian process related to the estimation method for Lévy models. We prove joint asymptotic normality for estimators of the volatility, the drift, the intensity and for pointwise estimators of the jump density. Based on these results, we construct confidence intervals and sets for the estimators. We show that the confidence intervals perform well in simulations and apply them to option data of the German DAX index. In the deconvolution model, we observe independent, identically distributed random variables with additive errors and we estimate linear functionals of the density of the random variables. We consider deconvolution models with ordinary smooth errors. Then the ill-posedness of the problem is given by the polynomial decay rate with which the characteristic function of the errors decays. We prove a uniform central limit theorem for the estimators of translation classes of linear functionals, which includes the estimation of the distribution function as a special case. Our results hold in situations, for which a square-root-n-rate can be obtained, more precisely, if the Sobolev smoothness of the functionals is larger than the ill-posedness of the problem.
|
37 |
Bilevel programmingZemkoho, Alain B. 25 June 2012 (has links) (PDF)
We have considered the bilevel programming problem in the case where the lower-level problem admits more than one optimal solution. It is well-known in the literature that in such a situation, the problem is ill-posed from the view point of scalar objective optimization. Thus the optimistic and pessimistic approaches have been suggested earlier in the literature to deal with it in this case. In the thesis, we have developed a unified approach to derive necessary optimality conditions for both the optimistic and pessimistic bilevel programs, which is based on advanced tools from variational analysis. We have obtained various constraint qualifications and stationarity conditions depending on some constructive representations of the solution set-valued mapping of the follower’s problem. In the auxiliary developments, we have provided rules for the generalized differentiation and robust Lipschitzian properties for the lower-level solution setvalued map, which are of a fundamental interest for other areas of nonlinear and nonsmooth optimization.
Some of the results of the aforementioned theory have then been applied to derive stationarity conditions for some well-known transportation problems having the bilevel structure.
|
38 |
Bandwidth Selection in Nonparametric Kernel Estimation / Bandweitenwahl bei nichtparametrischer KernschätzungSchindler, Anja 29 September 2011 (has links)
No description available.
|
39 |
Memory Processes in Frequency Judgment: The impact of pre-experimental frequencies and co-occurrences on frequency estimates.Renkewitz, Frank 22 March 2004 (has links)
Contemporary theories on frequency processing have been developed in different sub-disciplines of psychology and have shown remarkable discrepancies. Thus, in judgment and decision making, frequency estimates on serially encoded events are mostly traced back to the availability heuristic (Tversky & Kahneman, 1973). Evidence for the use of this heuristic comes from several popular demonstrations of biased frequency estimates. In the area of decision making, these demonstrations led to the conclusion that frequency judgments were generally error-prone. On the other hand, in memory literature detailed computational memory models are used to explain frequency estimates. Although these models to some degree differ evidently in their specific representational assumptions, they all arrive at the basic prediction that frequency estimates should usually be quite accurate but regressed. This prediction was confirmed in numerous studies. However, up to now there have been no systematic efforts in memory literature to identify factors that cause biases in frequency judgments and to explain the demonstrations of erroneous estimates in the area of decision making.
The two studies presented in this thesis pursue the questions whether memory models are able to explain errors in frequency judgments and to generate new predictions about biasing factors. In the focus of the first series of experiments is the "famous-names effect": If participants are presented with a list of names of female and male persons, then the frequency of that sex is overestimated that was represented with more famous names on the list. As more famous names are additionally recalled better, this effect was usually explained with the availability heuristic. An alternative account was suggested within the framework of the associationist-model PASS (Sedlmeier, 1999) and the multiple-trace model MINERVA-DM (Dougherty et al., 1999). According to this, the effect is primarily caused by the different pre-experimental frequencies of famous and non-famous names. If this is correct, the famous-names effect should generalize to any stimulus material. This hypothesis was tested in four experiments. The predictions of the memory models were compared with the predictions of a recall-estimate version of the availability heuristic (e.g. Watkins & LeCompte, 1991). Contrary to the predictions of all tested approaches, the participants were mostly able to judge the frequencies of the presented categories approximately correctly. The results indicate furthermore that systematic biases only occurred if the participants based their judgments at least partially on the recall-estimate strategy. However, as the participants only did this in exceptional cases the entire result pattern is explained best within a multiple strategy perspective (Brown, 2002). A re-analysis of the data from all four experiments suggests that the size of the sample of retrieved exemplars is the crucial factor for the (additional) use of the recall-estimate strategy.
In the second study new predictions about the influence of associations on frequency estimates are derived from the PASS-model and tested. In two experiments words that were either strongly or weakly associated with each other were presented to the participants. Predictions of the PASS model for the frequency estimates about this stimulus material were gained by means of simulations. In a first step PASS acquired associations between the stimulus words from a large text corpus. Subsequently, the model encoded the experimental study lists. PASS expects higher frequency judgments for associated than for non-associated words. The size of this effect should be independent of the actual presentation frequencies of the words. Finally, the model expects that the frequencies of associated words are discriminated slightly worse than the frequencies of non-associated words. These predictions were largely confirmed in both experiments. The decision times required by the participants to generate their estimates indicate here that they did not base their judgments on the recall-estimate strategy. The results thus strengthen the assumption that the encoding and representation of frequency information are based on associative learning. / Aktuelle Theorien zur Häufigkeitsverarbeitung wurden in unterschiedlichen Teilgebieten der Psychologie entwickelt und weisen erstaunliche Diskrepanzen auf. So werden Häufigkeitsschätzungen über seriell enkodierte Ereignisse in der Urteils- und Entscheidungsforschung zumeist auf die Verfügbarkeitsheuristik (Tversky & Kahneman, 1973) zurückgeführt. Evidenz für die Verwendung dieser Heuristik stammt aus einigen populären Demonstrationen fehlerhafter Häufigkeitsschätzungen. Diese Demonstrationen führten in der Entscheidungsforschung zu der Schlussfolgerung, dass Häufigkeitsurteile generell fehleranfällig seien. Demgegenüber wurden in der Gedächtnispsychologie detaillierte, computerimplementierte Gedächtnismodelle benutzt, um Häufigkeitsschätzungen zu erklären. Obwohl sich diese Modelle in ihren spezifischen Repräsentationsannahmen zum Teil deutlich unterscheiden, kommen sie alle zu der grundlegenden Vorhersage, dass Häufigkeitsschätzungen in der Regel recht genau, aber regrediert sein sollten. Diese Vorhersage wurde in zahlreichen Untersuchungen bestätigt. In der gedächtnispsychologischen Forschung hat es jedoch bisher kein systematisches Bemühen gegeben, Faktoren, die zu Verzerrungen in Häufigkeitsschätzungen führen, zu identifizieren und die Demonstrationen fehlerhafter Schätzungen aus der Entscheidungsforschung zu erklären.
Die zwei in der vorliegenden Arbeit präsentierten Studien verfolgen die Fragestellung, inwieweit Gedächtnismodelle in der Lage sind, Fehler in Häufigkeitsurteilen zu erklären und neue Vorhersagen über verzerrende Faktoren zu generieren. Im Mittelpunkt der ersten Serie von Experimenten steht dabei der "Famous-Names Effekt": Nach der Präsentation einer Liste mit Namen weiblicher und männlicher Personen wird die Häufigkeit desjenigen Geschlechts überschätzt, das mit berühmteren Namen auf der Liste vertreten war. Da berühmtere Namen zudem besser erinnert werden, wurde dieser Effekt gewöhnlich auf die Verfügbarkeitsheuristik zurückgeführt. Eine Alternativerklärung wurde sowohl im Rahmen des assoziationistischen PASS-Modells (Sedlmeier, 1999) als auch innerhalb des Exemplarmodells MINERVA-DM (Dougherty et al., 1999) vorgeschlagen. Demnach wird der Effekt primär durch die unterschiedliche prä-experimentelle Häufigkeit berühmter und nicht-berühmter Namen verursacht. Ist diese Annahme korrekt, so sollte der Famous-Names Effekt auch auf anderes Stimulusmaterial generalisieren. Diese Hypothese wurde in vier Experimenten überprüft. Dabei wurden die Vorhersagen der Gedächtnismodelle mit den Vorhersagen einer "Recall-Estimate" Version der Verfügbarkeitsheuristik (z. B. Watkins & LeCompte, 1991) verglichen. Entgegen den Vorhersagen aller getesteten Ansätze waren die Teilnehmer in der Regel in der Lage, die Häufigkeit der verwendeten Kategorien recht gut einzuschätzen. Die Ergebnisse sprechen zudem dafür, dass systematische Fehler in den Häufigkeitsurteilen nur dann auftraten, wenn sich die Teilnehmer bei der Generierung ihrer Schätzungen zumindest teilweise auf die Recall-Estimate Strategie stützten. Da die Teilnehmer dies jedoch nur in Ausnahmefällen taten, kann das gesamte Ergebnismuster am besten innerhalb einer "Multiple Strategy Perspective" (Brown, 2002) erklärt werden. Eine Reanalyse der Daten aus allen vier Experimenten legt dabei die Schlussfolgerung nahe, dass die Stichprobengröße erinnerter Exemplare ausschlaggebend für die (zusätzliche) Verwendung der Recall-Estimate Strategie ist.
In der zweiten Studie werden neuartige Vorhersagen über den Einfluss von Assoziationen auf Häufigkeitsschätzungen aus dem PASS-Modell abgeleitet und getestet. In zwei Experimenten wurden den Teilnehmern Wörter präsentiert, die untereinander entweder stark oder schwach assoziiert waren. Die Vorhersagen des PASS-Modells über die Häufigkeitsschätzungen zu diesem Stimulusmaterial wurden mit Hilfe von Simulationen gewonnen. In einem ersten Simulationsschritt erwarb PASS aus großen Textkorpora Assoziationen zwischen den Stimuluswörtern. Anschließend enkodierte das Modell die experimentellen Stimuluslisten. PASS erwartet, dass assoziierte Wörter höhere Schätzungen erhalten als nicht-assoziierte Wörter. Die Größe dieses Effekts sollte von der Präsentationshäufigkeit der Wörter unabhängig sein. Schließlich erwartet das Modell, dass die Häufigkeit assoziierter Wörter geringfügig schlechter diskriminiert wird als die Häufigkeit nicht-assoziierter Wörter. Diese Vorhersagen wurden in beiden Experimenten weitgehend bestätigt. Die Verwendung einer Recall-Estimate Strategie konnte dabei mit Hilfe von Reaktionszeitmessungen ausgeschlossen werden. Die Ergebnisse stützen damit die Annahme, dass die Enkodierung und Repräsentation von Häufigkeitsinformation auf assoziativem Lernen basiert.
|
40 |
Fahrzeugnahe Methoden zur Diagnose von Degradationsvorgängen an automobilen PEM-BrennstoffzellenaggregatenHartung, Ingmar 11 June 2018 (has links)
In dieser Arbeit werden drei voneinander unabhängige Verfahren zur Diagnose von Alterungsvorgängen an automobilen Polymer-Elektrolyt-Membran-Brennstoffzellen-Stapeln und -Aggregaten entwickelt. Gemeinsam ermöglichen diese Methoden ein tieferes Verständnis für die elektrochemischen Schadensmechanismen und stellen Mittel zu deren Reduktion zur Verfügung. Die erste Methode behebt die an Stapeln auftretenden Probleme konventioneller Zyklovoltammetrie mittels gezielter Modifikation der Spannungstransienten. Dieses Vorgehen ermöglicht die exakte und sehr zuverlässig reproduzierbare Bestimmung von Wasserstoff- Crossoverstrom, Doppelschichtkapazität und aktiver Katalysator-Oberfläche im Stapel und stellt damit eine neue Art der Alterungsdiagnose an Stapeln dar. Der Zweck der zweiten Methode ist es, die systematische Entwicklung einer schonenden Betriebsstrategie für Luft-/Luft-Starts auf Aggregate-Ebene zu ermöglichen. Hierfür wird eine Reihe von Referenzelektroden in ein Fahrzeug-Aggregat eingebracht, um die im Stapel während des Starts ablaufenden elektrochemischen Vorgänge örtlich und zeitlich aufgelöst beobachten zu können. Auf diese Weise werden zwei Startprozeduren analysiert und bzgl. ihrer Eignung verglichen. Beim dritten Verfahren handelt es sich um eine Parameterschätzung, die die modellbasierte Diagnose und Regelung von schwer zu messenden Zustandsgrößen zum Ziel hat. Der echtzeitfähige Algorithmus schätzt die aktive Katalysator-Oberfläche, die Gaszusam- mensetzungen auf Anode und Kathode sowie den rezirkulierten Volumenstrom mittels verschiedener Modelle für Stapel und Systemkomponenten.:(1) Einleitung
(2) Aufbau und elektrochemische Limitierungen von PEM-Brennstoffzellen
(3) Aufbau von automobilen PEM-Brennstoffzellenaggregaten
(4) Eine Übersicht bekannter Diagnosemethoden für PEM-Brennstoffzellen
(5) In-situ-Charakterisierung von PEM-Brennstoffzellenstapeln
(6) Bewertungsmethode für Startprozeduren von PEM-Brennstoffzellenaggregaten
(7) Online-Diagnose mittels gekoppelter Echtzeit-Parameterschätzung
(8) Zusammenfassung und Ausblick / This thesis presents three newly developed methods for the diagnosis of deterioration in automotive polymer electrolyte membrane fuel cell stacks and systems. The combination of these methods allows for a more comprehensive understanding of electrochemical degradation processes and provides means for their mitigation.
The first technique aims at the elimination of problems associated with the application of conventional cyclic voltammetry on fuel cell stacks. This is achieved by specific modification of the voltage transients. The procedure enables the precise and highly reproducible measurement of the hydrogen crossover current, double layer capacity and
the electrochemically active surface area within the stack and thus represents a completely new kind of stack diagnosis method. The intention of the second method is to facilitate the purposeful development of damage mitigating air-/air-startup operating strategies on system level. To that intent, a number of dynamic hydrogen reference electrodes are positioned within the stack of a vehicle system, which allows for locally and temporally resolved observation of the electrochemical
processes. Using this method, two startup procedures are analysed and compared with regard to their suitability. The third technique is an online parameter estimation aiming at the model based diagnosis and control of quantities, which can only be measured with difficulty. The algorithm estimates the electrochemically active surface area, the gas compositions on anode and cathode and the recirculated volumetric flow using various models for stack and system components. With these three methods, all relevant parameters for the intrinsical quantification of the degradation of each single cell within the stack can be precisely quantified. The methods thus enable a direct observation of the deterioration of the fuel cell and contribute to a further increase in durability as well as faster and more efficient development processes.:(1) Einleitung
(2) Aufbau und elektrochemische Limitierungen von PEM-Brennstoffzellen
(3) Aufbau von automobilen PEM-Brennstoffzellenaggregaten
(4) Eine Übersicht bekannter Diagnosemethoden für PEM-Brennstoffzellen
(5) In-situ-Charakterisierung von PEM-Brennstoffzellenstapeln
(6) Bewertungsmethode für Startprozeduren von PEM-Brennstoffzellenaggregaten
(7) Online-Diagnose mittels gekoppelter Echtzeit-Parameterschätzung
(8) Zusammenfassung und Ausblick
|
Page generated in 0.0256 seconds