Spelling suggestions: "subject:"unimodal"" "subject:"bimodale""
1 |
Une classe d'intervalles bayésiens pour des espaces de paramètres restreintsGhashim, Ehssan January 2013 (has links)
Ce mémoire traite d'une méthode bayésienne, analysée par Marchand et Strawderman (2013), pour la construction d'intervalles bayésiens pour des modèles de densités continues avec contrainte sur l'espace des paramètres Θ. Notamment, on obtiendra une classe d'intervalles bayésiens Iπ0,α(.), associés à la troncature d'une loi a priori non informative π0 et générés par une fonction de distribution α(.), avec une probabilité de recouvrement bornée inférieurement par 1-α/1+α. Cette classe inclut la procédure HPD donnée par Marchand et Strawderman (2006) dans le cas où la densité sous-jacente d'un pivot est symétrique. Plusieurs exemples y illustrent la théorie étudiée. Finalement, on présentera de nouveaux résultats pour la probabilité de recouvrement des intervalles bayésiens appartenant à la classe étudiée pour des densités log-concaves. Ces résultats établissent la borne inférieure à 1- 3α/2 et généralisent les résultats de Marchand et al.(2008) tenant sous une hypothèse de symétrie.
|
2 |
Das fQ-SystemScheffner, Axel. Unknown Date (has links)
Universiẗat, Diss., 1998--Dortmund. / Dateiformat: PDF.
|
3 |
Une classe d'intervalles bay??siens pour des espaces de param??tres restreintsGhashim, Ehssan January 2013 (has links)
Ce m??moire traite d'une m??thode bay??sienne, analys??e par Marchand et Strawderman (2013), pour la construction d'intervalles bay??siens pour des mod??les de densit??s continues avec contrainte sur l'espace des param??tres ??. Notamment, on obtiendra une classe d'intervalles bay??siens I??0,??(.), associ??s ?? la troncature d'une loi a priori non informative ??0 et g??n??r??s par une fonction de distribution ??(.), avec une probabilit?? de recouvrement born??e inf??rieurement par 1-??/1+??. Cette classe inclut la proc??dure HPD donn??e par Marchand et Strawderman (2006) dans le cas o?? la densit?? sous-jacente d'un pivot est sym??trique. Plusieurs exemples y illustrent la th??orie ??tudi??e. Finalement, on pr??sentera de nouveaux r??sultats pour la probabilit?? de recouvrement des intervalles bay??siens appartenant ?? la classe ??tudi??e pour des densit??s log-concaves. Ces r??sultats ??tablissent la borne inf??rieure ?? 1- 3??/2 et g??n??ralisent les r??sultats de Marchand et al.(2008) tenant sous une hypoth??se de sym??trie.
|
4 |
Régression isotonique itérée / Iterative isotonic regressionJégou, Nicolas 23 November 2012 (has links)
Ce travail se situe dans le cadre de la régression non paramétrique univariée. Supposant la fonction de régression à variation bornée et partant du résultat selon lequel une telle fonction se décompose en la somme d’une fonction croissante et d’une fonction décroissante, nous proposons de construire et d’étudier un nouvel estimateur combinant les techniques d’estimation des modèles additifs et celles d’estimation sous contraintes de monotonie. Plus précisément, notreméthode consiste à itérer la régression isotonique selon l’algorithme backfitting. On dispose ainsià chaque itération d’un estimateur de la fonction de régression résultant de la somme d’une partiecroissante et d’une partie décroissante.Le premier chapitre propose un tour d’horizon des références relatives aux outils cités à l’instant. Le chapitre suivant est dédié à l’étude théorique de la régression isotonique itérée. Dans un premier temps, on montre que, la taille d’échantillon étant fixée, augmenter le nombre d’itérations conduit à l’interpolation des données. On réussit à identifier les limites des termes individuels de la somme en montrant l’égalité de notre algorithme avec celui consistant à itérer la régressionisotonique selon un algorithme de type réduction itérée du biais. Nous établissons enfin la consistance de l’estimateur.Le troisième chapitre est consacré à l’étude pratique de l’estimateur. Comme augmenter le nombre d’itérations conduit au sur-ajustement, il n’est pas souhaitable d’itérer la méthode jusqu’à la convergence. Nous examinons des règles d’arrêt basées sur des adaptations de critères usuellement employés dans le cadre des méthodes linéaires de lissage (AIC, BIC,...) ainsi que des critères supposant une connaissance a priori sur le nombre de modes de la fonction de régression. Il en ressort un comportement intéressant de la méthode lorsque la fonction de régression possède des points de rupture. Nous appliquons ensuite l’algorithme à des données réelles de type puces CGH où la détection de ruptures est d’un intérêt crucial. Enfin, une application à l’estimation des fonctions unimodales et à la détection de mode(s) est proposée / This thesis is part of non parametric univariate regression. Assume that the regression function is of bounded variation then the Jordan’s decomposition ensures that it can be written as the sum of an increasing function and a decreasing function. We propose and analyse a novel estimator which combines the isotonic regression related to the estimation of monotonefunctions and the backfitting algorithm devoted to the estimation of additive models. The first chapter provides an overview of the references related to isotonic regression and additive models. The next chapter is devoted to the theoretical study of iterative isotonic regression. As a first step we show that increasing the number of iterations tends to reproduce the data. Moreover, we manage to identify the individual limits by making a connexion with the general property of isotonicity of projection onto convex cones and deriving another equivalent algorithm based on iterative bias reduction. Finally, we establish the consistency of the estimator.The third chapter is devoted to the practical study of the estimator. As increasing the number of iterations leads to overfitting, it is not desirable to iterate the procedure until convergence. We examine stopping criteria based on adaptations of criteria usually used in the context of linear smoothing methods (AIC, BIC, ...) as well as criteria assuming the knowledge of thenumber of modes of the regression function. As it is observed an interesting behavior of the method when the regression function has breakpoints, we apply the algorithm to CGH-array data where breakopoints detections are of crucial interest. Finally, an application to the estimation of unimodal functions is proposed
|
5 |
Régression isotonique itéréeJégou, Nicolas 23 November 2012 (has links) (PDF)
Ce travail se situe dans le cadre de la régression non paramétrique univariée. Supposant la fonction de régression à variation bornée et partant du résultat selon lequel une telle fonction se décompose en la somme d'une fonction croissante et d'une fonction décroissante, nous proposons de construire et d'étudier un nouvel estimateur combinant les techniques d'estimation des modèles additifs et celles d'estimation sous contraintes de monotonie. Plus précisément, notreméthode consiste à itérer la régression isotonique selon l'algorithme backfitting. On dispose ainsià chaque itération d'un estimateur de la fonction de régression résultant de la somme d'une partiecroissante et d'une partie décroissante.Le premier chapitre propose un tour d'horizon des références relatives aux outils cités à l'instant. Le chapitre suivant est dédié à l'étude théorique de la régression isotonique itérée. Dans un premier temps, on montre que, la taille d'échantillon étant fixée, augmenter le nombre d'itérations conduit à l'interpolation des données. On réussit à identifier les limites des termes individuels de la somme en montrant l'égalité de notre algorithme avec celui consistant à itérer la régressionisotonique selon un algorithme de type réduction itérée du biais. Nous établissons enfin la consistance de l'estimateur.Le troisième chapitre est consacré à l'étude pratique de l'estimateur. Comme augmenter le nombre d'itérations conduit au sur-ajustement, il n'est pas souhaitable d'itérer la méthode jusqu'à la convergence. Nous examinons des règles d'arrêt basées sur des adaptations de critères usuellement employés dans le cadre des méthodes linéaires de lissage (AIC, BIC,...) ainsi que des critères supposant une connaissance a priori sur le nombre de modes de la fonction de régression. Il en ressort un comportement intéressant de la méthode lorsque la fonction de régression possède des points de rupture. Nous appliquons ensuite l'algorithme à des données réelles de type puces CGH où la détection de ruptures est d'un intérêt crucial. Enfin, une application à l'estimation des fonctions unimodales et à la détection de mode(s) est proposée
|
Page generated in 0.0414 seconds