• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 15
  • 3
  • Tagged with
  • 18
  • 18
  • 13
  • 11
  • 5
  • 5
  • 4
  • 4
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Utilisation de modèles à direction révélatrice unique pour les modèles de durée

Bouaziz, Olivier 24 December 2010 (has links) (PDF)
Dans cette thèse, nous introduisons des méthodes de réduction de la dimension en présence de censures. Plus précisément, nous utilisons des modèles à direction révélatrice unique nous permettant de palier au fléau de la dimension. En particulier, ces modèles ont l'avantage de généraliser les modèles classiques qui reposent sur des hypothèses parfois difficiles à vérifier en pratique. C'est pourquoi dans une première partie, nous présentons un modèle à direction révélatrice unique portant sur la densité conditionnelle, tandis que dans une deuxième partie nous étudions un modèle de régression portant sur le processus de comptage des évènements récurrents. Nous utilisons alors à chaque fois un modèle à direction révélatrice unique, plus général que le modèle de Cox. Par ailleurs, dans ces deux contextes, nos procédures d'estimation prennent en compte les problèmes d'estimation dans les queues de distribution dûs à l'estimateur de Kaplan-Meier. Nos méthodes d'estimation nous permettent également de choisir les paramètres introduits dans notre modèle à partir des données.
2

Les champs aléaotoires à longue mémoire

Lavancier, Frédéric 12 December 2005 (has links) (PDF)
Nous étudions des champs aléatoires sur le réseau Z^d. Ils sont supposés stationnaires, du second ordre et à longue mémoire, propriété due à la non sommabilité de leur fonction de covariance. Contrairement aux travaux antérieurs, leur longue mémoire peut être non isotrope. Lorsque ces champs sont linéaires, nous obtenons la convergence fonctionnelle de leurs sommes partielles. A partir de ce résultat, nous proposons une procédure pour tester la faible dépendance contre la forte dépendance d'un champ. Nous montrons par ailleurs la dégénérescence asymptotique du processus empirique de champs à longue mémoire ; les applications concernent notamment la convergence des U-statistiques. Nous étudions enfin certaines formes quadratiques de champs à longue mémoire. Cela nous permet d'obtenir en application la loi limite des covariances empiriques et constitue une première étape dans l'étude de l'estimateur de Whittle des paramètres de longue mémoire d'un champ.
3

Lois fonctionnelles limites uniformes pour les accroissements généralisésdu procesus empirique. Lois fonctionnelle limites de type Chung-Mogulskii pour le processus empirique uniforme local

Varron, Davit 14 December 2004 (has links) (PDF)
Nous appelons accroissements généralisés du processus empirique l'estimateur à noyau de la densité centré sur R^d pour lequel le noyau varie dans une classe de fonctions G. Ceci définit des processus stochastiques indéxés par G. Nous étudions le comportement limite de ces trajectoires aléatoires en considérant une suite de taille de fenêtre h_n qui tend vers 0. Nous donnons des résultats limites fonctionnels lorsque h_n vérifie les conditions de Csörgö-Révész-Stute, puis lorsque h_n vérifie les conditions d'Erdös-Renyi. Nous étudions également quelques comportements au second ordre dans les lois limites fonctionnelles standard du logarithme itéré pour le processus empirique uniforme local.
4

Etude du processus empirique composé

Maumy, Myriam 02 December 2002 (has links) (PDF)
On établit d'abord une approximation forte du processus empirique composé par une combinaison linéaire d'un pont brownien et d'un processus de Wiener.Ensuite le module d'oscillation du processus empirique composé est étudié et en particulier on établit une loi limite sur le comportement des oscillations de ce processus.Une loi fonctionnelle est démontrée pour le processus empirique composé indexé par des intervalles. Enfin on établit une nouvelle démonstration de la loi du logarithme itéré pour l'estimateur non paramétrique de la régression par la méthode des noyaux.
5

Estimation par Minimum de Contraste Régulier et Heuristique de Pente en Sélection de Modèles

Saumard, Adrien 22 October 2010 (has links) (PDF)
Cette thèse est consacrée à l'étude théorique d'une méthode de calibration automatique des pénalités en sélection de modèles. Cette méthode se base sur une heuristique, appelée "heuristique de pente", qui stipule l'existence d'une pénalité minimale telle que la solution optimale du problème de pénalisation vaut deux fois celle-ci. En pratique, on estime la pénalité optimale en estimant préalablement la pénalité minimale, caractérisée par un changement brutal dans le comportement de la procédure de sélection de modèles autour de ce seuil de pénalisation. L'analyse théorique du phénomène de pente se base sur un contrôle à la constante près des déviations de l'excès de risque et de l'excès de risque empirique des estimateurs considérés, mesurant respectivement leur performance en prédiction et leur performance empirique. Ceci suggère en premier lieu, une forte spécification de la structure du problème étudié. Nous validons l'heuristique de pente dans un cadre général qui s'articule autour d'une notion nouvelle en M-estimation, que nous appelons "contraste régulier", et nous développons une méthodologie de preuve inédite, permettant de traiter à la fois la question des bornes supérieures et des bornes inférieures de déviation des excès de risque à modèle fixé. Nous retrouvons ainsi la plupart des résultats déjà connus sur l'heuristique de pente. En effet, nous donnons trois exemples d'estimation par minimum de contraste régulier, à savoir la régression par moindres carrés sur des modèles linéaires, l'estimation de la densité par moindres carrés sur des modèles affines et l'estimation de la densité par maximum de vraisemblance sur des ensembles convexes. Ceci nous permet d'étendre les résultats précédemment établis dans le cas de la régression à des modèles plus généraux et de valider l'heuristique de pente pour un risque non quadratique en considérant le cas de l'estimation par maximum de vraisemblance. Enfin, notre méthodologie de preuve fournit des pistes précises de recherche pour des situations non régulières, comme on en trouve en classification ou plus généralement en théorie de l'apprentissage statistique.
6

Processus empiriques pour l'inférence dans le modèle de survie à risques non proportionnels / Empirical processes for inference in the non-proportional hazards model

Chauvel, Cecile 01 December 2014 (has links)
Nous nous intéressons à des processus empiriques particuliers pour l'inférence dans le modèle à risques non proportionnels. Ce modèle permet au coefficient de régression de varier avec le temps et généralise le modèle à risques proportionnels très utilisé pour modéliser des données de survie. Le processus du score standardisé que nous étudions est une somme séquentielle des résidus standardisés du modèle. Le processus est considéré en présence d'une covariable dans le modèle, avant d'être étendu au cas de multiples covariables pouvant être corrélées. Le plan du manuscrit se décompose en trois parties. Dans un premier temps, nous établissons les propriétés limites du processus sous le modèle et sous un modèle mal spécifié. Dans une deuxième partie, nous utilisons les résultats de convergence du processus pour dériver des tests de la valeur du paramètre du modèle. Nous montrons qu'un des tests proposés est asymptotiquement équivalent au test de référence du log-rank pour comparer les fonctions de survie de plusieurs groupes de patients. Nous construisons des tests plus puissants que le test du log-rank sous certaines alternatives. Enfin, dans la dernière partie, nous étudions comment lier prédiction et adéquation dans le modèle à risques non proportionnels. Nous proposons une méthode de construction d'un modèle bien ajusté en maximisant sa capacité prédictive. Aussi, nous introduisons un test d'adéquation du modèle à risques proportionnels. Les performances des méthodes proposées, qu'il s'agisse des tests sur le paramètre ou de l'adéquation du modèle, sont comparées à des méthodes de référence par des simulations. Les méthodes sont illustrées sur des données réelles. / In this thesis, we focus on particular empirical processes on which we can base inference in the non-proportional hazards model. This time-varying coefficient model generalizes the widely used proportional hazards model in the field of survival analysis. Our focus is on the standardized score process that is a sequential sum of standardized model-based residuals. We consider first the process with one covariate in the model, before looking at its extension for multiple and possibly correlated covariates. The outline of the manuscript is composed of three parts. In the first part, we establish the limit properties of the process under the model as well as under a misspecified model. In the second part, we use these convergence results to derive tests for the value of the model parameter. We show that one proposed test is asymptotically equivalent to the log-rank test, which is a benchmark for comparing survival experience of two or more groups. We construct more powerful tests under some alternatives. Finally, in the last part, we propose a methodology linking prediction and goodness of fit in order to construct models. The resulting models will have a good fit and will optimize predictive ability. We also introduce a goodness-of-fit test of the proportional hazards model. The performances of our methods, either tests for the parameter value or goodness-of-fit tests, are compared to standard methods via simulations. The methods are illustrated on real life datasets.
7

Méthodes de sondage pour les données massives / Sampling methods for big data

Rebecq, Antoine 15 February 2019 (has links)
Cette thèse présente trois parties liées à la théorie des sondages. La première partie présente deux résultats originaux de sondages qui ont eu des applications pratiques dans des enquêtes par sondage de l'Insee. Le premier article présente un théorème autorisant un plan de sondage stratifié constituant un compromis entre la dispersion des poids et l'allocation de précision optimale pour une variable d'intérêt spécifique. Les données d’enquête sont souvent utilisées pour estimer nombre de totaux ou modèles issus de variables exclues du design. La précision attendue pour ces variables est donc faible, mais une faible dispersion des poids permet de limiter les risques qu'une estimation dépendant d'une de ces variables ait une très mauvaise précision. Le second article concerne le facteur de repondération dans les estimateurs par calage. On propose un algorithme efficace capable de calculer les facteurs de poids les plus rapprochés autour de 1 tels qu'une solution au problème de calage existe. Cela permet de limiter les risques d'apparition d'unités influentes, particulièrement pour l'estimation sur des domaines. On étudie par simulations sur données réelles les propriétés statistiques des estimateurs obtenus. La seconde partie concerne l'étude des propriétés asymptotique des estimateurs sur données issues de sondage. Celles-ci sont difficiles à étudier en général. On présente une méthode originale qui établit la convergence faible vers un processus gaussien pour le processus empirique d'Horvitz-Thompson indexé par des classes de fonction, pour de nombreux algorithmes de sondage différents utilisés en pratique. Dans la dernière partie, on s'intéresse à des méthodes de sondage pour des données issues de graphes, qui ont des applications pratiques lorsque les graphes sont de taille telles que leur exploitation informatique est coûteuse. On détaille des algorithmes de sondage permettant d'estimer des statistiques d'intérêt pour le réseaux. Deux applications, à des données de Twitter puis à des données simulées, concluent cette partie. / This thesis presents three different parts with ties to survey sampling theory. In the first part, we present two original results that led to practical applications in surveys conducted at Insee (French official statistics Institute). The first chapter deals with allocations in stratified sampling. We present a theorem that proves the existence of an optimal compromise between the dispersion of the sampling weights and the allocation yielding optimal precision for a specific variable of interest. Survey data are commonly used to compute estimates for variables that were not included in the survey design. Expected precision is poor, but a low dispersion of the weights limits risks of very high variance for one or several estimates. The second chapter deals with reweighting factors in calibration estimates. We study an algorithm that computes the minimal bounds so that the calibration estimators exist, and propose an efficient way of resolution. We also study the statistical properties of estimates using these minimal bounds. The second part studies asymptotic properties of sampling estimates. Obtaining asymptotic guarantees is often hard in practice. We present an original method that establishes weak convergence for the Horvitz-Thompson empirical process indexed by a class of functions for a lot of sampling algorithms used in practice. In the third and last part, we focus on sampling methods for populations that can be described as networks. They have many applications when the graphs are so big that storing and computing algorithms on them are very costly. Two applications are presented, one using Twitter data, and the other using simulated data to establish guidelines to design efficient sampling designs for graphs.
8

Contribution à l'étude du processus empirique de copule

Zari, Tarek 03 May 2010 (has links) (PDF)
Cette thèse traite des propriétés statistiques fines des processus empiriques de copules, éventuellement lissées, dans une optique d'approximations fortes. Lorsque les marges sont connues, nous avons établi une approximation forte du processus empirique bivarié de copules sur des pavés de [0,1]^2. Nous considérons ensuite un cadre plus général où la dimension d de la variable est supérieure à 2 et les marginales sont continues mais inconnues. Nous fournissons, par deux techniques différentes, des approximations fortes du processus empirique de copule par une suite de ponts Browniens attachés à paramètres, ou par une suite de processus de Kiefer attachés à (d+1)-paramètres. Ceci nous permettra d'obtenir des résultats asymptotiques pour le processus empirique de densité de copule, pour les statistiques de rang multivariées et pour le processus empirique de copule lissée ainsi que l'ordre de grandeur du module d'oscillation et la L.L.I du processus empirique de copule. Nous abordons le problème du test à deux échantillons; l'hypothèse nulle consiste en l'identité des deux copules sous-jacentes aux deux échantillons, simultanément avec l'hypothèse d'indépendance des marges. Deux hypothèses alternatives sont considérées, selon qu'on rejette la propriété d'indépendance. Nous proposons plusieurs statistiques de tests basées, essentiellement, sur les normes infinie ou L^2 de la différence entre les deux processus de copules empiriques sous-jacents (statistiques de type Kolmogorov-Smirnov et Cramer Von Mises). Sous l'hypothèse nulle, des bornes et vitesses de convergence presque sûres vers des processus gaussiens sont obtenues.
9

Puissance asymptotique des tests non paramétriques d'ajustement du type Cramer-Von Mises

Boukili Makhoukhi, Mohammed 21 June 2007 (has links) (PDF)
L'analyse statistique, prise au sens large, est centrée sur la description, et, lorsque les circonstances le permettent, la modélisation quantitative des phénomènes observés, pour peu que ces derniers possèdent une part d'incertitude, et donc, qu'ils soient soumis aux lois du hasard. Dans cette activité scientifique, le plus grand soin doit être apporté à la validation des hypothèses de modélisation, nécessaires à l'interprétation des résultats. Ce principe général s'applique d'ailleurs à toutes les sciences expérimentales, et tout aussi bien aux sciences humaines (en psychologie), qu'en économie, et dans bien d'autres disciplines. Une théorie scientifique repose, au départ, sur des hypothèses de modélisation, qui sont ensuite soumises à l'épreuve de l'expérimentation. Celle-ci est basée sur le recueil de données, dont il est nécessaire de décider la nature, compatible ou non, avec les modèles choisis, aboutissant, soit au rejet, soit à l'acceptation, de ces derniers. La statistique a développé, dans ce but, une technologie basée sur les tests d'hypothèses, dont nous nous abstiendrons de discuter dans mon mémoire de thèse les bases et les fondements. Dans cette thèse, nous avons abordé l'étude de certains tests d'ajustement (dits, en Anglais, tests of fit"), de nature paramétrique et non paramétrique. Les aspects techniques de ces tests d'hypothèses ont été abordés, dans le contexte particulier de notre étude pour les tests de type Cramer-Von Mises. On ne manquera pas de citer l'approche initialement utilisée pour les tests de type Kolmogorov-Smirnov. Enfin, l'ouvrage de Nikitin était une référence de base particulièrement adaptée à la nature de notre recherche. L'objectif principal de la thèse est d'évaluer la puissance asymptotique de certains tests d'ajustement, relevant de la catégorie générale des tests de Cramer-Von Mises. Nous avons évalué cette puissance, relativement à des suites convenables d'alternatives locales. Notre méthode utilise les développements de Karhunen-Loève d'un pont brownien pondéré. Notre travail avait pour objet secondaire de compléter des recherches récentes de P.Deheuvels et G.Martynov, qui ont donné l'expression des fonctions propres et valeurs propres des développements de Karhunen-Loève de certains ponts browniens pondérés à l'aide de fonctions de Bessel. Dans le premier temps, nous avons exposé les fondements des développements de Karhunen-Loève [D.K.L], ainsi que les applications qui en découlent en probabilités et statistiques. Le deuxième paragraphe de cette thèse a été consacré à un exposé de la composante de la théorie des tests d'hypothèses adaptée à la suite de notre mémoire. Dans ce même paragraphe, nous montrons l'intérêt qu'apporte une connaissance explicite des composantes d'un développement de Karhunen-Loève, en vue de l'évaluation de la puissance de tests d'ajustement basés sur les statistiques de type Cramer-Von Mises qui sont liées à ce D.K.L.
10

Processus empiriques, estimation non paramétrique et données censurées.

Viallon, Vivian 01 December 2006 (has links) (PDF)
La théorie des processus empiriques joue un rôle central en statistique, puisqu'elle concerne l'ensemble des résultats limites généraux se rapportant aux échantillons aléatoires. En particulier, des lois uniformes du logarithme ont permis d'aborder de manière systématique la convergence en norme sup des estimateurs à noyau. Dans cette thèse, nous obtenons premièrement des lois fonctionnelles uniformes du logarithme pour les incréments du processus des quantiles normé, qui permettent d'établir des propriétés nouvelles des estimateurs basés sur les k-plus proches voisins. Le même type de résultat est ensuite obtenu pour les incréments du processus empirique de Kaplan-Meier, conduisant naturellement à des lois du logarithme uniformes pour des estimateurs de la densité et du taux de mortalité en présence de censure à droite. Dans le cas de la régression multivariée, des lois analogues sont obtenues pour des estimateurs à noyau, notamment dans le cas censuré. Enfin, nous développons un estimateur non paramétrique de la régression sous l'hypothèse du modèle additif dans le cas de censure à droite, permettant de se défaire du fléau de la dimension. Cet estimateur repose essentiellement sur la méthode d'intégration marginale.

Page generated in 0.1082 seconds