1 |
Asymptotischer Vergleich höherer Ordnung adaptiver linearer Schätzer in RegressionsmodellenIlouga, Pierre Emmanuel 20 April 2001 (has links)
Das Hauptanliegen dieser Arbeit ist der asymptotische Vergleich verschiedener nichtparametrischer adaptiver Schätzer des Mittelwertvektors in einer Regressionssituation mit wachsender Anzahl von Wiederholungen an festen Versuchspunkten. Da die adaptiven Schätzer nicht mehr linear in den Beobachtungen sind, wird ihre mittleren quadratischen Fehler durch ihre Risiken höherer Ordnung approximiert und dadurch wird ein Vergleich unter Annahme normalverteilter Beobachtungsfehlern ermöglicht. Es wird gezeigt, daß der Plug-In Schätzer des unbekannten Mittelwertvektors in dritter Ordnung besser ist als die anderen adaptiven Schätzer und, daß die mit Hilfe der Full Cross-validation Idee konstruierte Schätzer des Mittelwertvektors besser ist als die Schätzung mit Cross-validation, falls die unbekannte Regressionsfunktion "unglatt" ist. In speziellen Situationen ist die Full Cross-validation Adaptation besser als die Adaptationen mit Hilfe der in der Arbeit betrachteten "automatischen" Kriterien. Es wird außerdem einen Schätzer des Mittelwertvektors mit einer Plug-In Idee konstruiert, dessen Risiken zweiter Ordnung kleiner sind als die Risiken zweiter Ordnung der anderen adaptiven Schätzer. Wenn aber eine Vermutung vorliegt, daß die unbekannte Regressionsfunktion "sehr glatt" ist, wird bewiesen daß der Projektionsschätzer den kleinsten mittleren quadratischen Fehler liefert. / The main objective of this thesis is the asymptotic comparison of various nonparametric adaptive estimators of the mean vector in a regression situation with increasing number of replications at fixed design points. Since the adaptive estimators are no longer linear in the observations, one approximates their mean square errors by their heigher order risks and a comparison under the assumption of normal distributed errors of the observations will be enabled. It is shown that the Plug-In estimators of the unknown mean vector is better in third order than the others adaptive estimators and that the estimator defined with the full cross-validation idea is better than the estimator with cross-validation, if the unknown regression function is "non smooth". In some special situations, the full cross-validation adaptation will be better than the adaptations using a minimizer of the "automatic" criteria considered in this thesis. Additionally, an estimator of the mean vector is proposed, whose second order risk is smaller than the second order risks of the other adaptive estimators. If however one presumes that the unknown regression function is "very smooth", then it is shown that the projection estimator gives the smallest mean square error.
|
Page generated in 0.0766 seconds