• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1
  • Tagged with
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Estimation non-paramétrique d'une densité k-monotone: Une nouvelle théorie de distribution asymptotique.

Balabdaoui, Fadoua 26 April 2004 (has links) (PDF)
Nous considérons l'estimation non-paramétrique d'une densité k-monotone définie sur (0,∞), pour un entier k > 0 donné, via les méthodes de maximum de vraisemblance et des moindres carrés qu'on note respectivement par MLE et LSE.<br /><br />Dans l'introduction, nous présentons tout d'abord la motivation principale derrière ce problème et nous faisons l'effort d'inclure dans le cadre général de notre travail les résultats asymptotiques qui étaient déjà établis pour les cas spéciaux k=1 et k=2.<br /> <br />Ensuite, nous nous penchons sur l'étude des propriétés des MLE et LSE d'une densité k-monotone g_0 dans le cas où on dispose de n observations indépendantes générées de g_0. Notre étude asymptotique est locale, c'est-à-dire que nous nous intéressons uniquement aux propriétés asymptotiques des estimateurs et de leur dérivées à un point fixe, x_0. Sous certaines hypothèses que nous précisons, nous établissons d'abord les bornes inférieures minimax pour l'estimation des dérivées g^{(j)}_0(x_0), j=0,...,k-1. Les bornes obtenues indiquent que n^{-(k-j)/(2k+1)} est la vitesse de convergence optimale de n'importe quel estimateur non-paramétrique de g^{(j)}_0(x_0). Sous les mêmes hypothèses et si une certaine conjecture est vraie, nous démontrons que cette vitesse optimale est atteinte dans le cas des MLE et LSE.<br /><br />Pour compléter la théorie asymptotique des estimateurs et de leur dérivées au point x_0, nous passons à la dérivation de leurs distributions limites lorsque la taille de l'échantillon n tend vers l'infini. Il s'avère que ces distributions dépendent d'un processus stochastique bien particulier défini sur l'ensemble des réels R. On note ce processus par H_k Le 3ème chapitre est consacré essentiellement à l'existence et à l'unicité de H_k, ainsi qu'à sa caractérisation. Nous démontrons que si Y_k est la primitive (k-1)-ème d'un mouvement Brownien + k!/(2k)! t^{2k}, alors H_k reste au-dessus (au-dessous) de Y_k lorsque k est pair (impair). Un simple changement de variable suffit pour reconnaître que nos résultats comprennent les cas spéciaux k=1 et k=2 où le problème se réduit à l'estimation d'une densité décroissante et d'une densité décroissante et convexe respectivement. Pour ces cas-là, la théorie asymptotique des MLE et LES a été déjà établie.<br /><br />L'aspect algorithmique fait l'objet du 4ème chapitre. Les algorithmes de Splines itératifs (Iterative Spline algorithms) sont développés et implémentés afin de calculer les estimateurs et aussi pour obtenir une approximation du processus limite sur n'importe quel compact dans R. Ces algorithmes exploitent essentiellement la structure 'splineuse' des MLE, LSE et H_k, et se basent ainsi sur la suppression et l'addition itératives des noeuds de certains Splines aléatoires.

Page generated in 0.0473 seconds