• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 42
  • 6
  • 5
  • Tagged with
  • 53
  • 46
  • 37
  • 22
  • 22
  • 22
  • 15
  • 9
  • 9
  • 8
  • 7
  • 7
  • 7
  • 7
  • 7
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Simultanes Routen- und Verkehrsmittelwahlmodell

Vrtic, Milenko 18 April 2004 (has links) (PDF)
Bei verkehrspolitischen und infrastrukturellen Massnahmen folgen als wesentliche Nachfrageveränderungen vor allem Routen- und Verkehrsmittelwahleffekte. Mit der Anwendung der sequentiellen Routen- und Verkehrsmittelwahlmodelle, ist bei solchen Massnahmen aus verschiedenen Gründen eine konsistente und gesamthafte Gleichgewichtslösung nicht möglich. Das Ziel dieser Untersuchung war, ein konsistentes und verfeinertes Verfahren zu entwickeln, mit dem die Routen- und Verkehrsmittelwahl simultan bzw. in einem Schritt als eine Entscheidung berechnet werden kann. Neben dem Gleichgewicht bei der Verteilung der Verkehrsnachfrage auf die Alternativen, war die konsistente Schätzung der Modellparameter für die Bewertung von Einflussfaktoren bei den Entscheidungen hier eine weitere wichtige Anforderung. Das Modell ist in der Lage, ein realitätsentsprechendes Verhalten der Verkehrsteilnehmer, sowohl bei schwach, als auch bei stark belasteten Strassennetzen, zu beschreiben. Die unterschiedliche Wahrnehmung der Reisekosten der Verkehrsteilnehmer und die Netzüberbelastungen werden durch ein stochastisches Nutzergleichgewicht abgebildet. Das entwickelte Verfahren ermöglicht es: - die Nachfrageaufteilung mit einem konsistenten Gleichgewicht zwischen Verkehrsangebot und Verkehrsnachfrage zu berechnen. Dabei wird ein Gleichgewicht nicht nur innerhalb des Strassen- oder Schienennetzes, sondern zwischen allen verfügbaren Alternativen (unabhängig vom Verkehrsmittel) gesucht. - durch die iterative Kalibration der Modellparameter und die Nachfrageaufteilung ein konsistentes Gleichgewicht zwischen den geschätzten Modellparametern für die Nutzenfunktion und der Nachfrageaufteilung auf die vorhandenen Alternativen (Routen) zu berechnen. - mit einem stochastischen Nutzergleichgwicht die unterschiedliche Wahrnehmung der Nutzen bzw. der generalisierten Kosten der Verkehrsteilnehmer bei der Nachfrageaufteilung zu berücksichtigen. - die Auswirkungen von Angebotsveränderungen auf die Verkehrsmittelwahl und Routenwahl durch simultane Modellierung der Entscheidungen konsistent und ohne Rückkoppelungschritte zu berechnen.
22

Memory Processes in Frequency Judgment: The impact of pre-experimental frequencies and co-occurrences on frequency estimates.

Renkewitz, Frank 12 August 2004 (has links) (PDF)
Contemporary theories on frequency processing have been developed in different sub-disciplines of psychology and have shown remarkable discrepancies. Thus, in judgment and decision making, frequency estimates on serially encoded events are mostly traced back to the availability heuristic (Tversky & Kahneman, 1973). Evidence for the use of this heuristic comes from several popular demonstrations of biased frequency estimates. In the area of decision making, these demonstrations led to the conclusion that frequency judgments were generally error-prone. On the other hand, in memory literature detailed computational memory models are used to explain frequency estimates. Although these models to some degree differ evidently in their specific representational assumptions, they all arrive at the basic prediction that frequency estimates should usually be quite accurate but regressed. This prediction was confirmed in numerous studies. However, up to now there have been no systematic efforts in memory literature to identify factors that cause biases in frequency judgments and to explain the demonstrations of erroneous estimates in the area of decision making. The two studies presented in this thesis pursue the questions whether memory models are able to explain errors in frequency judgments and to generate new predictions about biasing factors. In the focus of the first series of experiments is the "famous-names effect": If participants are presented with a list of names of female and male persons, then the frequency of that sex is overestimated that was represented with more famous names on the list. As more famous names are additionally recalled better, this effect was usually explained with the availability heuristic. An alternative account was suggested within the framework of the associationist-model PASS (Sedlmeier, 1999) and the multiple-trace model MINERVA-DM (Dougherty et al., 1999). According to this, the effect is primarily caused by the different pre-experimental frequencies of famous and non-famous names. If this is correct, the famous-names effect should generalize to any stimulus material. This hypothesis was tested in four experiments. The predictions of the memory models were compared with the predictions of a recall-estimate version of the availability heuristic (e.g. Watkins & LeCompte, 1991). Contrary to the predictions of all tested approaches, the participants were mostly able to judge the frequencies of the presented categories approximately correctly. The results indicate furthermore that systematic biases only occurred if the participants based their judgments at least partially on the recall-estimate strategy. However, as the participants only did this in exceptional cases the entire result pattern is explained best within a multiple strategy perspective (Brown, 2002). A re-analysis of the data from all four experiments suggests that the size of the sample of retrieved exemplars is the crucial factor for the (additional) use of the recall-estimate strategy. In the second study new predictions about the influence of associations on frequency estimates are derived from the PASS-model and tested. In two experiments words that were either strongly or weakly associated with each other were presented to the participants. Predictions of the PASS model for the frequency estimates about this stimulus material were gained by means of simulations. In a first step PASS acquired associations between the stimulus words from a large text corpus. Subsequently, the model encoded the experimental study lists. PASS expects higher frequency judgments for associated than for non-associated words. The size of this effect should be independent of the actual presentation frequencies of the words. Finally, the model expects that the frequencies of associated words are discriminated slightly worse than the frequencies of non-associated words. These predictions were largely confirmed in both experiments. The decision times required by the participants to generate their estimates indicate here that they did not base their judgments on the recall-estimate strategy. The results thus strengthen the assumption that the encoding and representation of frequency information are based on associative learning. / Aktuelle Theorien zur Häufigkeitsverarbeitung wurden in unterschiedlichen Teilgebieten der Psychologie entwickelt und weisen erstaunliche Diskrepanzen auf. So werden Häufigkeitsschätzungen über seriell enkodierte Ereignisse in der Urteils- und Entscheidungsforschung zumeist auf die Verfügbarkeitsheuristik (Tversky & Kahneman, 1973) zurückgeführt. Evidenz für die Verwendung dieser Heuristik stammt aus einigen populären Demonstrationen fehlerhafter Häufigkeitsschätzungen. Diese Demonstrationen führten in der Entscheidungsforschung zu der Schlussfolgerung, dass Häufigkeitsurteile generell fehleranfällig seien. Demgegenüber wurden in der Gedächtnispsychologie detaillierte, computerimplementierte Gedächtnismodelle benutzt, um Häufigkeitsschätzungen zu erklären. Obwohl sich diese Modelle in ihren spezifischen Repräsentationsannahmen zum Teil deutlich unterscheiden, kommen sie alle zu der grundlegenden Vorhersage, dass Häufigkeitsschätzungen in der Regel recht genau, aber regrediert sein sollten. Diese Vorhersage wurde in zahlreichen Untersuchungen bestätigt. In der gedächtnispsychologischen Forschung hat es jedoch bisher kein systematisches Bemühen gegeben, Faktoren, die zu Verzerrungen in Häufigkeitsschätzungen führen, zu identifizieren und die Demonstrationen fehlerhafter Schätzungen aus der Entscheidungsforschung zu erklären. Die zwei in der vorliegenden Arbeit präsentierten Studien verfolgen die Fragestellung, inwieweit Gedächtnismodelle in der Lage sind, Fehler in Häufigkeitsurteilen zu erklären und neue Vorhersagen über verzerrende Faktoren zu generieren. Im Mittelpunkt der ersten Serie von Experimenten steht dabei der "Famous-Names Effekt": Nach der Präsentation einer Liste mit Namen weiblicher und männlicher Personen wird die Häufigkeit desjenigen Geschlechts überschätzt, das mit berühmteren Namen auf der Liste vertreten war. Da berühmtere Namen zudem besser erinnert werden, wurde dieser Effekt gewöhnlich auf die Verfügbarkeitsheuristik zurückgeführt. Eine Alternativerklärung wurde sowohl im Rahmen des assoziationistischen PASS-Modells (Sedlmeier, 1999) als auch innerhalb des Exemplarmodells MINERVA-DM (Dougherty et al., 1999) vorgeschlagen. Demnach wird der Effekt primär durch die unterschiedliche prä-experimentelle Häufigkeit berühmter und nicht-berühmter Namen verursacht. Ist diese Annahme korrekt, so sollte der Famous-Names Effekt auch auf anderes Stimulusmaterial generalisieren. Diese Hypothese wurde in vier Experimenten überprüft. Dabei wurden die Vorhersagen der Gedächtnismodelle mit den Vorhersagen einer "Recall-Estimate" Version der Verfügbarkeitsheuristik (z. B. Watkins & LeCompte, 1991) verglichen. Entgegen den Vorhersagen aller getesteten Ansätze waren die Teilnehmer in der Regel in der Lage, die Häufigkeit der verwendeten Kategorien recht gut einzuschätzen. Die Ergebnisse sprechen zudem dafür, dass systematische Fehler in den Häufigkeitsurteilen nur dann auftraten, wenn sich die Teilnehmer bei der Generierung ihrer Schätzungen zumindest teilweise auf die Recall-Estimate Strategie stützten. Da die Teilnehmer dies jedoch nur in Ausnahmefällen taten, kann das gesamte Ergebnismuster am besten innerhalb einer "Multiple Strategy Perspective" (Brown, 2002) erklärt werden. Eine Reanalyse der Daten aus allen vier Experimenten legt dabei die Schlussfolgerung nahe, dass die Stichprobengröße erinnerter Exemplare ausschlaggebend für die (zusätzliche) Verwendung der Recall-Estimate Strategie ist. In der zweiten Studie werden neuartige Vorhersagen über den Einfluss von Assoziationen auf Häufigkeitsschätzungen aus dem PASS-Modell abgeleitet und getestet. In zwei Experimenten wurden den Teilnehmern Wörter präsentiert, die untereinander entweder stark oder schwach assoziiert waren. Die Vorhersagen des PASS-Modells über die Häufigkeitsschätzungen zu diesem Stimulusmaterial wurden mit Hilfe von Simulationen gewonnen. In einem ersten Simulationsschritt erwarb PASS aus großen Textkorpora Assoziationen zwischen den Stimuluswörtern. Anschließend enkodierte das Modell die experimentellen Stimuluslisten. PASS erwartet, dass assoziierte Wörter höhere Schätzungen erhalten als nicht-assoziierte Wörter. Die Größe dieses Effekts sollte von der Präsentationshäufigkeit der Wörter unabhängig sein. Schließlich erwartet das Modell, dass die Häufigkeit assoziierter Wörter geringfügig schlechter diskriminiert wird als die Häufigkeit nicht-assoziierter Wörter. Diese Vorhersagen wurden in beiden Experimenten weitgehend bestätigt. Die Verwendung einer Recall-Estimate Strategie konnte dabei mit Hilfe von Reaktionszeitmessungen ausgeschlossen werden. Die Ergebnisse stützen damit die Annahme, dass die Enkodierung und Repräsentation von Häufigkeitsinformation auf assoziativem Lernen basiert.
23

Identification in Financial Models with Time-Dependent Volatility and Stochastic Drift Components

Krämer, Romy 15 June 2007 (has links) (PDF)
Die vorliegende Arbeit beschäftigt sich mit der Parameteridentifikation in finanzmathematischen Modellen, welche sich durch eine zeitabhängige Volatilitätsfunktion und stochastische Driftkomponente auszeichnen. Als Referenzmodell wird eine Variante des Bivariaten Ornstein-Uhlenbeck-Modells betrachtet. Ziel ist es, die zeitabhängige Volatilitätsfunktion sowohl in der Vergangenheit als auch für ein kleines zukünftiges Zeitintervall zu identifizieren. Weiterhin sollen einige reellwertige Parameter, welche die stochastische Drift beschreiben, bestimmt werden. Dabei steht nicht die Anpassung des betrachteten Modells an reale Aktienpreisdaten im Vordergrund sondern eine mathematische Untersuchung der Chancen und Risiken der betrachteten Schätzverfahren. Als Daten können Aktienpreise und Optionspreise beobachtet werden. Aus hochfrequenten Aktienpreisdaten wird mittels Wavelet-Projektion die (quadrierte) Volatilitätsfunktion auf einem vergangenen Zeitintervall geschätzt. Mit der so bestimmten Volatilitätsfunktion und einigen Aktienpreisen können anschließend die reellwertigen Parameter mit Hilfe der Maximum-Likelihood-Methode bestimmt werden, wobei die Likelihoodfunktion mit Hilfe des Kalman Filters berechnet werden kann. Die Identifikation der Volatilitätsfunktion (oder abgeleiteter Größen) auf dem zukünftigen Zeitintervall aus Optionspreisen führt auf ein inverses Problem des Option Pricings, welches in ein äußeres nichtlineares und ein inneres lineares Problem zerlegt werden kann. Das innere Problem (die Identifikation einer Ableitung) ist ein Standardbeispielfür ein inkorrektes inverses Problem, d.h. die Lösung dieses Problems hängt nicht stetig von den Daten ab. Anhand von analytischen Untersuchungen von Nemytskii-Operatoren und deren Inversen wird in der Arbeit gezeigt, dass das äußere Problem gut gestellt aber in einigen Fällen schlecht konditioniert ist. Weiterhin wird ein Algorithmus für die schnelle Lösung des äußeren Problems unter Einbeziehung der Monotonieinformationen vorgeschlagen. Alle in der Arbeit diskutierten Verfahren werden anhand von numerischen Fallstudien illustriert.
24

Bruchpunktschätzung bei der Ratingklassenbildung / Rating Classification via Split-Point Estimation

Tillich, Daniel 18 December 2013 (has links) (PDF)
Ratingsysteme sind ein zentraler Bestandteil der Kreditrisikomodellierung. Neben der Bonitätsbeurteilung auf der Ebene der Kreditnehmer und der Risikoquantifizierung auf der Ebene der Ratingklassen spielt dabei die Bildung der Ratingklassen eine wesentliche Rolle. Die Literatur zur Ratingklassenbildung setzt auf modellfreie, in gewisser Weise willkürliche Optimierungsverfahren. Ein Ziel der vorliegenden Arbeit ist es, stattdessen ein parametrisches statistisches Modell zur Bildung der Ratingklassen einzuführen. Ein geeignetes Modell ist im Bereich der Bruchpunktschätzung zu finden. Dieses Modell und die in der mathematischen Literatur vorgeschlagenen Parameter- und Intervallschätzer werden in der vorliegenden Arbeit dargestellt und gründlich diskutiert. Dabei wird Wert auf eine anwendungsnahe und anschauliche Formulierung der mathematisch-statistischen Sachverhalte gelegt. Anschließend wird die Methodik der Bruchpunktschätzung auf einen konkreten Datensatz angewendet und mit verschiedenen anderen Kriterien zur Ratingklassenbildung verglichen. Hier erweist sich die Bruchpunktschätzung als vorteilhaft. Aufbauend auf der empirischen Untersuchung wird abschließend weiterer Forschungsbedarf abgeleitet. Dazu werden insbesondere Konzepte für den Mehrklassenfall und für abhängige Daten entworfen. / Rating systems are a key component of credit risk modeling. In addition to scoring at borrowers’ level and risk quantification at the level of rating classes, the formation of the rating classes plays a fundamental role. The literature on rating classification uses in a way arbitrary optimization methods. Therefore, one aim of this contribution is to introduce a parametric statistical model to form the rating classes. A suitable model can be found in the area of split-point estimation. This model and the proposed parameter and interval estimators are presented and thoroughly discussed. Here, emphasis is placed on an application-oriented and intuitive formulation of the mathematical and statistical issues. Subsequently, the methodology of split-point estimation is applied to a specific data set and compared with several other criteria for rating classification. Here, split-point estimation proves to be advantageous. Finally, further research questions are derived on the basis of the empirical study. In particular, concepts for the case of more than two classes and for dependent data are sketched.
25

Identification in Financial Models with Time-Dependent Volatility and Stochastic Drift Components

Krämer, Romy 31 May 2007 (has links)
Die vorliegende Arbeit beschäftigt sich mit der Parameteridentifikation in finanzmathematischen Modellen, welche sich durch eine zeitabhängige Volatilitätsfunktion und stochastische Driftkomponente auszeichnen. Als Referenzmodell wird eine Variante des Bivariaten Ornstein-Uhlenbeck-Modells betrachtet. Ziel ist es, die zeitabhängige Volatilitätsfunktion sowohl in der Vergangenheit als auch für ein kleines zukünftiges Zeitintervall zu identifizieren. Weiterhin sollen einige reellwertige Parameter, welche die stochastische Drift beschreiben, bestimmt werden. Dabei steht nicht die Anpassung des betrachteten Modells an reale Aktienpreisdaten im Vordergrund sondern eine mathematische Untersuchung der Chancen und Risiken der betrachteten Schätzverfahren. Als Daten können Aktienpreise und Optionspreise beobachtet werden. Aus hochfrequenten Aktienpreisdaten wird mittels Wavelet-Projektion die (quadrierte) Volatilitätsfunktion auf einem vergangenen Zeitintervall geschätzt. Mit der so bestimmten Volatilitätsfunktion und einigen Aktienpreisen können anschließend die reellwertigen Parameter mit Hilfe der Maximum-Likelihood-Methode bestimmt werden, wobei die Likelihoodfunktion mit Hilfe des Kalman Filters berechnet werden kann. Die Identifikation der Volatilitätsfunktion (oder abgeleiteter Größen) auf dem zukünftigen Zeitintervall aus Optionspreisen führt auf ein inverses Problem des Option Pricings, welches in ein äußeres nichtlineares und ein inneres lineares Problem zerlegt werden kann. Das innere Problem (die Identifikation einer Ableitung) ist ein Standardbeispielfür ein inkorrektes inverses Problem, d.h. die Lösung dieses Problems hängt nicht stetig von den Daten ab. Anhand von analytischen Untersuchungen von Nemytskii-Operatoren und deren Inversen wird in der Arbeit gezeigt, dass das äußere Problem gut gestellt aber in einigen Fällen schlecht konditioniert ist. Weiterhin wird ein Algorithmus für die schnelle Lösung des äußeren Problems unter Einbeziehung der Monotonieinformationen vorgeschlagen. Alle in der Arbeit diskutierten Verfahren werden anhand von numerischen Fallstudien illustriert.
26

Behavior-specific proprioception models for robotic force estimation: a machine learning approach

Berger, Erik 21 August 2018 (has links)
Robots that support humans in physically demanding tasks require accurate force sensing capabilities. A common way to achieve this is by monitoring the interaction with the environment directly with dedicated force sensors. Major drawbacks of such special purpose sensors are the increased costs and the reduced payload of the robot platform. Instead, this thesis investigates how the functionality of such sensors can be approximated by utilizing force estimation approaches. Most of today’s robots are equipped with rich proprioceptive sensing capabilities where even a robotic arm, e.g., the UR5, provides access to more than hundred sensor readings. Following this trend, it is getting feasible to utilize a wide variety of sensors for force estimation purposes. Human proprioception allows estimating forces such as the weight of an object by prior experience about sensory-motor patterns. Applying a similar approach to robots enables them to learn from previous demonstrations without the need of dedicated force sensors. This thesis introduces Behavior-Specific Proprioception Models (BSPMs), a novel concept for enhancing robotic behavior with estimates of the expected proprioceptive feedback. A main methodological contribution is the operationalization of the BSPM approach using data-driven machine learning techniques. During a training phase, the behavior is continuously executed while recording proprioceptive sensor readings. The training data acquired from these demonstrations represents ground truth about behavior-specific sensory-motor experiences, i.e., the influence of performed actions and environmental conditions on the proprioceptive feedback. This data acquisition procedure does not require expert knowledge about the particular robot platform, e.g., kinematic chains or mass distribution, which is a major advantage over analytical approaches. The training data is then used to learn BSPMs, e.g. using lazy learning techniques or artificial neural networks. At runtime, the BSPMs provide estimates of the proprioceptive feedback that can be compared to actual sensations. The BSPM approach thus extends classical programming by demonstrations methods where only movement data is learned and enables robots to accurately estimate forces during behavior execution.
27

Least Squares Estimation in Multiple Change-Point Models

Mauer, René 07 September 2018 (has links)
Change-point analysis is devoted to the detection and estimation of the time of structural changes within a data set of time-ordered observations. In this thesis, we estimate simultaneously multiple change-points by the least squares method and examine asymptotic properties of such estimators. Using argmin theorems, we prove weak and strong consistency under different moment conditions and investigate convergence in distribution. The identification of the limit variable allows us to derive an asymptotic confidence region for the unknown parameters. Based on a simulation study we evaluate these results.
28

Bruchpunktschätzung bei der Ratingklassenbildung

Tillich, Daniel 09 July 2013 (has links)
Ratingsysteme sind ein zentraler Bestandteil der Kreditrisikomodellierung. Neben der Bonitätsbeurteilung auf der Ebene der Kreditnehmer und der Risikoquantifizierung auf der Ebene der Ratingklassen spielt dabei die Bildung der Ratingklassen eine wesentliche Rolle. Die Literatur zur Ratingklassenbildung setzt auf modellfreie, in gewisser Weise willkürliche Optimierungsverfahren. Ein Ziel der vorliegenden Arbeit ist es, stattdessen ein parametrisches statistisches Modell zur Bildung der Ratingklassen einzuführen. Ein geeignetes Modell ist im Bereich der Bruchpunktschätzung zu finden. Dieses Modell und die in der mathematischen Literatur vorgeschlagenen Parameter- und Intervallschätzer werden in der vorliegenden Arbeit dargestellt und gründlich diskutiert. Dabei wird Wert auf eine anwendungsnahe und anschauliche Formulierung der mathematisch-statistischen Sachverhalte gelegt. Anschließend wird die Methodik der Bruchpunktschätzung auf einen konkreten Datensatz angewendet und mit verschiedenen anderen Kriterien zur Ratingklassenbildung verglichen. Hier erweist sich die Bruchpunktschätzung als vorteilhaft. Aufbauend auf der empirischen Untersuchung wird abschließend weiterer Forschungsbedarf abgeleitet. Dazu werden insbesondere Konzepte für den Mehrklassenfall und für abhängige Daten entworfen.:1. Einleitung 2. Ratingsystem 3. Bruchpunktschätzung 4. Anwendung 5. Zusammenfassung und Ausblick / Rating systems are a key component of credit risk modeling. In addition to scoring at borrowers’ level and risk quantification at the level of rating classes, the formation of the rating classes plays a fundamental role. The literature on rating classification uses in a way arbitrary optimization methods. Therefore, one aim of this contribution is to introduce a parametric statistical model to form the rating classes. A suitable model can be found in the area of split-point estimation. This model and the proposed parameter and interval estimators are presented and thoroughly discussed. Here, emphasis is placed on an application-oriented and intuitive formulation of the mathematical and statistical issues. Subsequently, the methodology of split-point estimation is applied to a specific data set and compared with several other criteria for rating classification. Here, split-point estimation proves to be advantageous. Finally, further research questions are derived on the basis of the empirical study. In particular, concepts for the case of more than two classes and for dependent data are sketched.:1. Einleitung 2. Ratingsystem 3. Bruchpunktschätzung 4. Anwendung 5. Zusammenfassung und Ausblick
29

Efficient In-Database Maintenance of ARIMA Models

Rosenthal, Frank, Lehner, Wolfgang 25 January 2023 (has links)
Forecasting is an important analysis task and there is a need of integrating time series models and estimation methods in database systems. The main issue is the computationally expensive maintenance of model parameters when new data is inserted. In this paper, we examine how an important class of time series models, the AutoRegressive Integrated Moving Average (ARIMA) models, can be maintained with respect to inserts. Therefore, we propose a novel approach, on-demand estimation, for the efficient maintenance of maximum likelihood estimates from numerically implemented estimators. We present an extensive experimental evaluation on both real and synthetic data, which shows that our approach yields a substantial speedup while sacrificing only a limited amount of predictive accuracy.
30

MINESTIS, the route to resource estimates

Wagner, Laurent 03 November 2015 (has links) (PDF)
Minestis software allows geological domain modeling and resource estimation through an efficient and simplified geostatistics-based workflow. It has been designed for all those, geologists, mining engineers or auditors, for whom quick production of quality models is at the heart of their concerns.

Page generated in 0.0544 seconds