• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 9
  • 1
  • 1
  • Tagged with
  • 11
  • 11
  • 5
  • 4
  • 4
  • 4
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Risque avec normalisation aléatoire et test adaptatif dans le modèle additif.

Chiabrando, Fabien 03 July 2008 (has links) (PDF)
Cette thèse est consacrée à l'amélioration de l'estimation d'une fonction ou signal f, par le biais d'une approche voisine à l'approche minimax. Cette démarche est motivée par la construction de régions de confiance, pour f, plus fines que celle obtenues via l'approche d'estimation dans le cadre minimax. En effet, nous nous intéressons ici à estimer des fonctions de plusieurs variables (on notera d leur nombre) pouvant être intégrées en pratique dans des modèles économiques, biologiques et autres domaines pouvant mettre en jeu un nombre conséquent de critères quantitatifs. De manière générale et contrairement au problème paramétrique, lorsque la valeur du paramètre d est grande, l'efficacité des résultats minimax s'en ressent. Ce phénomène est connu au sein de la communauté statistique sous le nom de "malédiction de la dimension" (curse of dimensionality).<br /><br />Afin de ne pas pénaliser l'estimation en grande dimension ou de manière générale dans des modèles où l'approche minimax n'est pas satisfaisante (sur des espaces fonctionnels trop massifs), Lepski a developpé une approche alternative. Celle-ci se base sur l'idée simple d'adapter la méthode d'estimation en fonction des résultats de tests d'hypothèses 'accélératrices'. Cette démarche utilise des résultats issus de la théorie des tests afin d'envisager une estimation adaptative. Elle va nous amener à introduire le concept de risque avec normalisation aléatoire. Ainsi nous nous consacrerons par la suite à résoudre deux types de problèmes statistiques fortement reliés
2

Régression isotonique itérée / Iterative isotonic regression

Jégou, Nicolas 23 November 2012 (has links)
Ce travail se situe dans le cadre de la régression non paramétrique univariée. Supposant la fonction de régression à variation bornée et partant du résultat selon lequel une telle fonction se décompose en la somme d’une fonction croissante et d’une fonction décroissante, nous proposons de construire et d’étudier un nouvel estimateur combinant les techniques d’estimation des modèles additifs et celles d’estimation sous contraintes de monotonie. Plus précisément, notreméthode consiste à itérer la régression isotonique selon l’algorithme backfitting. On dispose ainsià chaque itération d’un estimateur de la fonction de régression résultant de la somme d’une partiecroissante et d’une partie décroissante.Le premier chapitre propose un tour d’horizon des références relatives aux outils cités à l’instant. Le chapitre suivant est dédié à l’étude théorique de la régression isotonique itérée. Dans un premier temps, on montre que, la taille d’échantillon étant fixée, augmenter le nombre d’itérations conduit à l’interpolation des données. On réussit à identifier les limites des termes individuels de la somme en montrant l’égalité de notre algorithme avec celui consistant à itérer la régressionisotonique selon un algorithme de type réduction itérée du biais. Nous établissons enfin la consistance de l’estimateur.Le troisième chapitre est consacré à l’étude pratique de l’estimateur. Comme augmenter le nombre d’itérations conduit au sur-ajustement, il n’est pas souhaitable d’itérer la méthode jusqu’à la convergence. Nous examinons des règles d’arrêt basées sur des adaptations de critères usuellement employés dans le cadre des méthodes linéaires de lissage (AIC, BIC,...) ainsi que des critères supposant une connaissance a priori sur le nombre de modes de la fonction de régression. Il en ressort un comportement intéressant de la méthode lorsque la fonction de régression possède des points de rupture. Nous appliquons ensuite l’algorithme à des données réelles de type puces CGH où la détection de ruptures est d’un intérêt crucial. Enfin, une application à l’estimation des fonctions unimodales et à la détection de mode(s) est proposée / This thesis is part of non parametric univariate regression. Assume that the regression function is of bounded variation then the Jordan’s decomposition ensures that it can be written as the sum of an increasing function and a decreasing function. We propose and analyse a novel estimator which combines the isotonic regression related to the estimation of monotonefunctions and the backfitting algorithm devoted to the estimation of additive models. The first chapter provides an overview of the references related to isotonic regression and additive models. The next chapter is devoted to the theoretical study of iterative isotonic regression. As a first step we show that increasing the number of iterations tends to reproduce the data. Moreover, we manage to identify the individual limits by making a connexion with the general property of isotonicity of projection onto convex cones and deriving another equivalent algorithm based on iterative bias reduction. Finally, we establish the consistency of the estimator.The third chapter is devoted to the practical study of the estimator. As increasing the number of iterations leads to overfitting, it is not desirable to iterate the procedure until convergence. We examine stopping criteria based on adaptations of criteria usually used in the context of linear smoothing methods (AIC, BIC, ...) as well as criteria assuming the knowledge of thenumber of modes of the regression function. As it is observed an interesting behavior of the method when the regression function has breakpoints, we apply the algorithm to CGH-array data where breakopoints detections are of crucial interest. Finally, an application to the estimation of unimodal functions is proposed
3

Régression isotonique itérée

Jégou, Nicolas 23 November 2012 (has links) (PDF)
Ce travail se situe dans le cadre de la régression non paramétrique univariée. Supposant la fonction de régression à variation bornée et partant du résultat selon lequel une telle fonction se décompose en la somme d'une fonction croissante et d'une fonction décroissante, nous proposons de construire et d'étudier un nouvel estimateur combinant les techniques d'estimation des modèles additifs et celles d'estimation sous contraintes de monotonie. Plus précisément, notreméthode consiste à itérer la régression isotonique selon l'algorithme backfitting. On dispose ainsià chaque itération d'un estimateur de la fonction de régression résultant de la somme d'une partiecroissante et d'une partie décroissante.Le premier chapitre propose un tour d'horizon des références relatives aux outils cités à l'instant. Le chapitre suivant est dédié à l'étude théorique de la régression isotonique itérée. Dans un premier temps, on montre que, la taille d'échantillon étant fixée, augmenter le nombre d'itérations conduit à l'interpolation des données. On réussit à identifier les limites des termes individuels de la somme en montrant l'égalité de notre algorithme avec celui consistant à itérer la régressionisotonique selon un algorithme de type réduction itérée du biais. Nous établissons enfin la consistance de l'estimateur.Le troisième chapitre est consacré à l'étude pratique de l'estimateur. Comme augmenter le nombre d'itérations conduit au sur-ajustement, il n'est pas souhaitable d'itérer la méthode jusqu'à la convergence. Nous examinons des règles d'arrêt basées sur des adaptations de critères usuellement employés dans le cadre des méthodes linéaires de lissage (AIC, BIC,...) ainsi que des critères supposant une connaissance a priori sur le nombre de modes de la fonction de régression. Il en ressort un comportement intéressant de la méthode lorsque la fonction de régression possède des points de rupture. Nous appliquons ensuite l'algorithme à des données réelles de type puces CGH où la détection de ruptures est d'un intérêt crucial. Enfin, une application à l'estimation des fonctions unimodales et à la détection de mode(s) est proposée
4

Impact à court terme de la pollution atmosphérique sur la santé en Wallonie :utilité d’une approche multivariable

Collart, Philippe 30 June 2017 (has links)
De nombreuses études ont mis en évidence les effets à court terme entre la pollution atmosphérique et l’état de santé. Les principaux polluants de l’air sont les particules en suspension, le dioxyde d’azote, l’ozone et le dioxyde de soufre. Ils sont produits essentiellement par le trafic routier et les industries. La température est également associée à la santé cardiovasculaire ou respiratoire et elle peut aussi avoir un effet modificateur sur l’association entre la pollution atmosphérique et événements sanitaires. Les effets à court terme de la pollution atmosphérique peuvent être immédiats, décalés ou cumulés. Le décalage entre exposition et effet sanitaire peut être d’un à plusieurs jours. En général, on observe des effets immédiats pour les maladies cardiovasculaires et des effets légèrement décalés pour les maladies respiratoires. Les maladies cardiovasculaires sont la première cause de mortalité dans les pays industrialisés. Les facteurs de risque de ces maladies sont liés à la fois à l’environnement, aux comportements et aux caractéristiques génétiques des individus. Une association entre pollution atmosphérique, principalement les particules en suspension et le NO2, et morbi-mortalité a été mise en évidence pour les maladies cardiovasculaires suivantes :les accidents vasculaires cérébraux (AVC), les troubles du rythme et l’infarctus du myocarde (IDM). Le but de cette thèse est d’évaluer l’impact à court terme de la pollution atmosphérique sur la santé cardiovasculaire ainsi que sur la mortalité non traumatique en Wallonie et en Belgique tout en vérifiant si des effets immédiats, décalés ou cumulés peuvent être observés en fonction des sensibilités différentielles des sujets exposés. / Doctorat en Santé Publique / info:eu-repo/semantics/nonPublished
5

Plans d'expérience pour mélanges à deux niveaux et facteurs externes

Hanna, Hanen 16 December 2010 (has links) (PDF)
Les plans d'expérience pour mélanges traitent des cas où les propriétés du mélange sont dépendantes uniquement des proportions de ses composants. Dans un systèmes de mélanges à deux niveaux chaque composant principal (CP) est lui-même un sous-mélange de composants secondaires (CS). Ces systèmes sont classés en: mélanges de type A: les proportions des CP sont fixées et celles des CS sont variables, mélanges de type B: les proportions des CP et des CS sont toutes variables. Afin d'analyser les deux types de mélanges on propose des modèles additifs. Ce type de modèles est bien adapté pour l'expérimentation avec de nombreux composants car le nombre de paramètres est très inférieur au nombre de paramètres des modèles multiplicatifs proposés dans la littérature. On construit des plans vérifiant deux hypothèses, l'une d'orthogonalité à l'intérieur de chaque groupe de CS et l'autre d'équilibre entre sous-mélanges de CS par couple de CP. Pour la classe des plans orthogonaux-équilibré (OE) on déduit l'optimalité uniforme des plans composés de sous-mélanges purs. L'identification entre les plans orthogonaux factoriels et les corps purs permet d'obtenir des plans de taille restreinte pour certaines configurations de mélanges. L'identification entre les sous-mélanges purs et les expériences axiales est aussi établie, ceci donne une méthode pour la construction de plans OE où les proportions des CS et celles des CP sont non nulles. La modélisation conjointe de mélanges et facteurs externes est aussi considérée en utilisant des polynômes d'ordre un et des fractions orthogonales construites à partir d'un plan factoriel composé du rassemblement de CS, CP et facteur externe.
6

Estimation par sélection de modèle en régression hétéroscédastique

Gendre, Xavier 15 June 2009 (has links) (PDF)
Cette thèse s'inscrit dans les domaines de la statistique non-asymptotique et de la théorie statistique de la sélection de modèle. Son objet est la construction de procédures d'estimation de paramètres en régression hétéroscédastique. Ce cadre reçoit un intérêt croissant depuis plusieurs années dans de nombreux champs d'application. Les résultats présentés reposent principalement sur des inégalités de concentration et sont illustrés par des applications à des données simulées.<br /><br />La première partie de cette thèse consiste dans l'étude du problème d'estimation de la moyenne et de la variance d'un vecteur gaussien à coordonnées indépendantes. Nous proposons une méthode de choix de modèle basée sur un critère de vraisemblance pénalisé. Nous validons théoriquement cette approche du point de vue non-asymptotique en prouvant des majorations de type oracle du risque de Kullback de nos estimateurs et des vitesses de convergence uniforme sur les boules de Hölder.<br /><br />Un second problème que nous abordons est l'estimation de la fonction de régression dans un cadre hétéroscédastique à dépendances connues. Nous développons des procédures de sélection de modèle tant sous des hypothèses gaussiennes que sous des conditions de moment. Des inégalités oracles non-asymptotiques sont données pour nos estimateurs ainsi que des propriétés d'adaptativité. Nous appliquons en particulier ces résultats à l'estimation d'une composante dans un modèle de régression additif.
7

Analyse statistique d'une base de translocations réciproques et modélisation du risque de survenue d'un enfant malformé

Cans, Christine 22 April 1994 (has links) (PDF)
.
8

Processus empiriques, estimation non paramétrique et données censurées.

Viallon, Vivian 01 December 2006 (has links) (PDF)
La théorie des processus empiriques joue un rôle central en statistique, puisqu'elle concerne l'ensemble des résultats limites généraux se rapportant aux échantillons aléatoires. En particulier, des lois uniformes du logarithme ont permis d'aborder de manière systématique la convergence en norme sup des estimateurs à noyau. Dans cette thèse, nous obtenons premièrement des lois fonctionnelles uniformes du logarithme pour les incréments du processus des quantiles normé, qui permettent d'établir des propriétés nouvelles des estimateurs basés sur les k-plus proches voisins. Le même type de résultat est ensuite obtenu pour les incréments du processus empirique de Kaplan-Meier, conduisant naturellement à des lois du logarithme uniformes pour des estimateurs de la densité et du taux de mortalité en présence de censure à droite. Dans le cas de la régression multivariée, des lois analogues sont obtenues pour des estimateurs à noyau, notamment dans le cas censuré. Enfin, nous développons un estimateur non paramétrique de la régression sous l'hypothèse du modèle additif dans le cas de censure à droite, permettant de se défaire du fléau de la dimension. Cet estimateur repose essentiellement sur la méthode d'intégration marginale.
9

Contributions à l'inférence statistique dans les modèles de régression partiellement linéaires additifs / Contributions to the statistical inference in partially linear additive regression model

Chokri, Khalid 21 November 2014 (has links)
Les modèles de régression paramétrique fournissent de puissants outils pour la modélisation des données lorsque celles-ci s’y prêtent bien. Cependant, ces modèles peuvent être la source d’importants biais lorsqu’ils ne sont pas adéquats. Pour éliminer ces biais de modélisation, des méthodes non paramétriques ont été introduites permettant aux données elles mêmes de construire le modèle. Ces méthodes présentent, dans le cas multivarié, un handicap connu sous l’appellation de fléau de la dimension où la vitesse de convergence des estimateurs est une fonction décroissante de la dimension des covariables. L’idée est alors de combiner une partie linéaire avec une partie non-linéaire, ce qui aurait comme effet de réduire l’impact du fléau de la dimension. Néanmoins l’estimation non-paramétrique de la partie non-linéaire, lorsque celle-ci est multivariée, est soumise à la même contrainte de détérioration de sa vitesse de convergence. Pour pallier ce problème, la réponse adéquate est l’introduction d’une structure additive de la partie non-linéaire de son estimation par des méthodes appropriées. Cela permet alors de définir des modèles de régression partièllement linéaires et additifs. L’objet de la thèse est d’établir des résultats asymptotiques relatifs aux divers paramètres de ce modèle (consistance, vitesses de convergence, normalité asymptotique et loi du logarithme itéré) et de construire aussi des tests d’hypothèses relatives à la structure du modèle, comme l’additivité de la partie non-linéaire, et à ses paramètres. / Parametric regression models provide powerful tools for analyzing practical data when the models are correctly specified, but may suffer from large modelling biases when structures of the models are misspecified. As an alternative, nonparametric smoothing methods eases the concerns on modelling biases. However, nonparametric models are hampered by the so-called curse of dimensionality in multivariate settings. One of the methods for attenuating this difficulty is to model covariate effects via a partially linear structure, a combination of linear and nonlinear parts. To reduce the dimension impact in the estimation of the nonlinear part of the partially linear regression model, we introduce an additive structure of this part which induces, finally, a partially linear additive model. Our aim in this work is to establish some limit results pertaining to various parameters of the model (consistency, rate of convergence, asymptotic normality and iterated logarithm law) and to construct some hypotheses testing procedures related to the model structure, as the additivity of the nonlinear part, and to its parameters.
10

Estimation et sélection pour les modèles additifs et application à la prévision de la consommation électrique / Estimation and selection in additive models and application to load demand forecasting

Thouvenot, Vincent 17 December 2015 (has links)
L'électricité ne se stockant pas aisément, EDF a besoin d'outils de prévision de consommation et de production efficaces. Le développement de nouvelles méthodes automatiques de sélection et d'estimation de modèles de prévision est nécessaire. En effet, grâce au développement de nouvelles technologies, EDF peut étudier les mailles locales du réseau électrique, ce qui amène à un nombre important de séries chronologiques à étudier. De plus, avec les changements d'habitude de consommation et la crise économique, la consommation électrique en France évolue. Pour cette prévision, nous adoptons ici une méthode semi-paramétrique à base de modèles additifs. L'objectif de ce travail est de présenter des procédures automatiques de sélection et d'estimation de composantes d'un modèle additif avec des estimateurs en plusieurs étapes. Nous utilisons du Group LASSO, qui est, sous certaines conditions, consistant en sélection, et des P-Splines, qui sont consistantes en estimation. Nos résultats théoriques de consistance en sélection et en estimation sont obtenus sans nécessiter l'hypothèse classique que les normes des composantes non nulles du modèle additif soient bornées par une constante non nulle. En effet, nous autorisons cette norme à pouvoir converger vers 0 à une certaine vitesse. Les procédures sont illustrées sur des applications pratiques de prévision de consommation électrique nationale et locale.Mots-clés: Group LASSO, Estimateurs en plusieurs étapes, Modèle Additif, Prévision de charge électrique, P-Splines, Sélection de variables / French electricity load forecasting encounters major changes since the past decade. These changes are, among others things, due to the opening of electricity market (and economical crisis), which asks development of new automatic time adaptive prediction methods. The advent of innovating technologies also needs the development of some automatic methods, because we have to study thousands or tens of thousands time series. We adopt for time prediction a semi-parametric approach based on additive models. We present an automatic procedure for covariate selection in a additive model. We combine Group LASSO, which is selection consistent, with P-Splines, which are estimation consistent. Our estimation and model selection results are valid without assuming that the norm of each of the true non-zero components is bounded away from zero and need only that the norms of non-zero components converge to zero at a certain rate. Real applications on local and agregate load forecasting are provided.Keywords: Additive Model, Group LASSO, Load Forecasting, Multi-stage estimator, P-Splines, Variables selection

Page generated in 0.059 seconds