Spelling suggestions: "subject:"adaptativité"" "subject:"adaptativity""
1 |
Adaptive modeling of plate structures / Modélisation adaptive des structuresBohinc, Uroš 05 May 2011 (has links)
L’objectif principal de la thèse est de répondre à des questions liées aux étapes clé d’un processus de l’adaptation de modèles de plaques. Comme l’adaptativité dépend des estimateurs d’erreurs fiables, une part importante du rapport est dédiée au développement des méthodes numériques pour les estimateurs d’erreurs aussi bien dues à la discrétisation qu’au choix du modèle. Une comparaison des estimateurs d’erreurs de discrétisation d’un point de vue pratique est présentée. Une attention particulière est prêtée a la méthode de résiduels équilibrés (en anglais, "equilibrated residual method"), laquelle est potentiellement applicable aux estimations des deux types d’erreurs, de discrétisation et de modèle.Il faut souligner que, contrairement aux estimateurs d’erreurs de discrétisation, les estimateurs d’erreur de modèle sont plus difficiles à élaborer. Le concept de l’adaptativité de modèles pour les plaques est implémenté sur la base de la méthode de résiduels équilibrés et de la famille hiérarchique des éléments finis de plaques. Les éléments finis dérivés dans le cadre de la thèse, comprennent aussi bien les éléments de plaques minces et que les éléments de plaques épaisses. Ces derniers sont formulés en s’appuyant sur une théorie nouvelle de plaque, intégrant aussi les effets d’étirement le long de l’épaisseur. Les erreurs de modèle sont estimées via des calculs élément par élément. Les erreurs de discrétisation et de modèle sont estimées d’une manière indépendante, ce qui rend l’approche très robuste et facile à utiliser. Les méthodes développées sont appliquées sur plusieurs exemples numériques. Les travaux réalisés dans le cadre de la thèse représentent plusieurs contributions qui visent l’objectif final de la modélisation adaptative, ou une procédure complètement automatique permettrait de faire un choix optimal du modèle de plaques pour chaque élément de la structure. / The primary goal of the thesis is to provide some answers to the questions related to the key steps in the process of adaptive modeling of plates. Since the adaptivity depends on reliable error estimates, a large part of the thesis is related to the derivation of computational procedures for discretization error estimates as well as model error estimates. A practical comparison of some of the established discretization error estimates is made. Special attention is paid to what is called equilibrated residuum method, which has a potential to be used both for discretization error and model error estimates. It should be emphasized that the model error estimates are quite hard to obtain, in contrast to the discretization error estimates. The concept of model adaptivity for plates is in this work implemented on the basis of equilibrated residuum method and hierarchic family of plate finite element models.The finite elements used in the thesis range from thin plate finite elements to thick plate finite elements. The latter are based on a newly derived higher order plate theory, which includes through the thickness stretching. The model error is estimated by local element-wise computations. As all the finite elements, representing the chosen plate mathematical models, are re-derived in order to share the same interpolation bases, the difference between the local computations can be attributed mainly to the model error. This choice of finite elements enables effective computation of the model error estimate and improves the robustness of the adaptive modeling. Thus the discretization error can be computed by an independent procedure.Many numerical examples are provided as an illustration of performance of the derived plate elements, the derived discretization error procedures and the derived modeling error procedure. Since the basic goal of modeling in engineering is to produce an effective model, which will produce the most accurate results with the minimum input data, the need for the adaptive modeling will always be present. In this view, the present work is a contribution to the final goal of the finite element modeling of plate structures: a fully automatic adaptive procedure for the construction of an optimal computational model (an optimal finite element mesh and an optimal choice of a plate model for each element of the mesh) for a given plate structure.
|
2 |
Estimation par sélection de modèle en régression hétéroscédastiqueGendre, Xavier 15 June 2009 (has links) (PDF)
Cette thèse s'inscrit dans les domaines de la statistique non-asymptotique et de la théorie statistique de la sélection de modèle. Son objet est la construction de procédures d'estimation de paramètres en régression hétéroscédastique. Ce cadre reçoit un intérêt croissant depuis plusieurs années dans de nombreux champs d'application. Les résultats présentés reposent principalement sur des inégalités de concentration et sont illustrés par des applications à des données simulées.<br /><br />La première partie de cette thèse consiste dans l'étude du problème d'estimation de la moyenne et de la variance d'un vecteur gaussien à coordonnées indépendantes. Nous proposons une méthode de choix de modèle basée sur un critère de vraisemblance pénalisé. Nous validons théoriquement cette approche du point de vue non-asymptotique en prouvant des majorations de type oracle du risque de Kullback de nos estimateurs et des vitesses de convergence uniforme sur les boules de Hölder.<br /><br />Un second problème que nous abordons est l'estimation de la fonction de régression dans un cadre hétéroscédastique à dépendances connues. Nous développons des procédures de sélection de modèle tant sous des hypothèses gaussiennes que sous des conditions de moment. Des inégalités oracles non-asymptotiques sont données pour nos estimateurs ainsi que des propriétés d'adaptativité. Nous appliquons en particulier ces résultats à l'estimation d'une composante dans un modèle de régression additif.
|
3 |
Composition Dynamique d'Informations dans le Cadre de la Communication Homme Machine – La problématique de la Pertinence dans la CHMVaudry, Christophe 16 December 2002 (has links) (PDF)
Dans le cadre d'activités de recherche, de sélection et de lecture de documents numériques, à des fins professionnelles ou personnelles, les utilisateurs sont souvent submergés par l'abondance des informations. Si ces informations arrivent, de plus, en flux continu, les utilisateurs peuvent se retrouver en surcharge de travail. Ce problème se pose de manière accrue en supervision industrielle.<br />Pour aider les utilisateurs à gérer cette surabondance d'information, l'approche proposée est un système prenant l'initiative d'adapter la présentation des informations afin de réduire les efforts nécessaires aux utilisateurs pour percevoir et interpréter ces dernières. La présentation des informations est, dans cette approche, le résultat d'un processus de traitement des informations, la (\it composition), réalisé par un agent, l'Agent Compositeur, qui cherche à coopérer avec les utilisateurs.<br />Après avoir introduit la problématique de l'adaptation de la présentation des informations dans le cadre de la supervision industrielle avec une application concernant la gestion d'un réseau de distribution électrique, un état des recherches concernant les modèles de l'opérateur en supervision, les interfaces adaptatives et les systèmes à initiative mixte est présenté. L'Agent Compositeur est guidé dans ses choix d'adaptation de la présentation par une propriété, la pertinence. Une définition et un modèle formel de la pertinence sont proposés. Ce modèle formel est utilisé pour effectuer une analyse critique du projet européen AMEBICA (Auto-adaptive Multimédia Environment Based on Intelligent Collaborating Agents) auquel nous avons participé et en proposer des améliorations.
|
4 |
Schémas d'adaptations algorithmiques sur les nouveaux supports d'éxécution parallèles / Algorithmic adaptations schemas on the new parallel platformsAchour, Sami 06 July 2013 (has links)
Avec la multitude des plates-formes parallèles émergentes caractérisées par une hétérogénéité sur le plan matériel (processeurs, réseaux, …), le développement d'applications et de bibliothèques parallèles performantes est devenu un défi. Une méthode qui se révèle appropriée pour relever ce défi est l'approche adaptative consistant à utiliser plusieurs paramètres (architecturaux, algorithmiques,…) dans l'objectif d'optimiser l'exécution de l'application sur la plate-forme considérée. Les applications adoptant cette approche doivent tirer avantage des méthodes de modélisation de performance pour effectuer leurs choix entre les différentes alternatives dont elles disposent (algorithmes, implémentations ou ordonnancement). L'usage de ces méthodes de modélisation dans les applications adaptatives doit obéir aux contraintes imposées par ce contexte, à savoir la rapidité et la précision des prédictions. Nous proposons dans ce travail, en premier lieu, un framework de développement d'applications parallèles adaptatives basé sur la modélisation théorique de performances. Ensuite, nous nous concentrons sur la tâche de prédiction de performance pour le cas des milieux parallèles et hiérarchiques. En effet, nous proposons un framework combinant les différentes méthodes de modélisation de performance (analytique, expérimentale et simulation) afin de garantir un compromis entre les contraintes suscités. Ce framework profite du moment d'installation de l'application parallèle pour découvrir la plate-forme d'exécution et les traces de l'application afin de modéliser le comportement des parties de calcul et de communication. Pour la modélisation de ces deux composantes, nous avons développé plusieurs méthodes s'articulant sur des expérimentations et sur la régression polynômiale pour fournir des modèles précis. Les modèles résultats de la phase d'installation seront utilisés (au moment de l'exécution) par notre outil de prédiction de performance de programmes MPI (MPI-PERF-SIM) pour prédire le comportement de ces derniers. La validation de ce dernier framework est effectuée séparément pour les différents modules, puis globalement pour le noyau du produit de matrices. / With the multitude of emerging parallel platforms characterized by their heterogeneity in terms of hardware components (processors, networks, ...), the development of performant applications and parallel libraries have become a challenge. A method proved suitable to face this challenge is the adaptive approach which uses several parameters (architectural, algorithmic, ...) in order to optimize the execution of the application on the target platform. Applications adopting this approach must take advantage of performance modeling methods to make their choice between the alternatives they have (algorithms, implementations or scheduling). The use of these modeling approaches in adaptive applications must obey the constraints imposed by the context, namely predictions speed and accuracy. We propose in this work, first, a framework for developing adaptive parallel applications based on theoretical modeling performance. Then, we focuse on the task of performance prediction for the case of parallel and hierarchical environments. Indeed, we propose a framework combining different methods of performance modeling (analytical, experimental and simulation) to ensure a balance between the constraints raised. This framework makes use of the installing phase of the application to discover the parallel platform and the execution traces of this application in order to model the behavior of two components namely computing kernels and pt/pt communications. For the modeling of these components, we have developed several methods based on experiments and polynomial regression to provide accurate models. The resulted models will be used at runtime by our tool for performance prediction of MPI programs (MPI-PERF-SIM) to predict the behavior of the latter. The validation of the latter framework is done separately for the different modules, then globally on the matrix product kernel.
|
5 |
Estimation adaptative pour les modèles de Markov cachés non paramétriques / Adaptative estimation for nonparametric hidden Markov modelsLehéricy, Luc 14 December 2018 (has links)
Dans cette thèse, j'étudie les propriétés théoriques des modèles de Markov cachés non paramétriques. Le choix de modèles non paramétriques permet d'éviter les pertes de performance liées à un mauvais choix de paramétrisation, d'où un récent intérêt dans les applications. Dans une première partie, je m'intéresse à l'estimation du nombre d'états cachés. J'y introduis deux estimateurs consistants : le premier fondé sur un critère des moindres carrés pénalisés, le second sur une méthode spectrale. Une fois l'ordre connu, il est possible d'estimer les autres paramètres. Dans une deuxième partie, je considère deux estimateurs adaptatifs des lois d'émission, c'est-à-dire capables de s'adapter à leur régularité. Contrairement aux méthodes existantes, ces estimateurs s'adaptent à la régularité de chaque loi au lieu de s'adapter seulement à la pire régularité. Dans une troisième partie, je me place dans le cadre mal spécifié, c'est-à-dire lorsque les observations sont générées par une loi qui peut ne pas être un modèle de Markov caché. J'établis un contrôle de l'erreur de prédiction de l'estimateur du maximum de vraisemblance sous des conditions générales d'oubli et de mélange de la vraie loi. Enfin, j'introduis une variante non homogène des modèles de Markov cachés : les modèles de Markov cachés avec tendances, et montre la consistance de l'estimateur du maximum de vraisemblance. / During my PhD, I have been interested in theoretical properties of nonparametric hidden Markov models. Nonparametric models avoid the loss of performance coming from an inappropriate choice of parametrization, hence a recent interest in applications. In a first part, I have been interested in estimating the number of hidden states. I introduce two consistent estimators: the first one is based on a penalized least squares criterion, and the second one on a spectral method. Once the order is known, it is possible to estimate the other parameters. In a second part, I consider two adaptive estimators of the emission distributions. Adaptivity means that their rate of convergence adapts to the regularity of the target distribution. Contrary to existing methods, these estimators adapt to the regularity of each distribution instead of only the worst regularity. The third part is focussed on the misspecified setting, that is when the observations may not come from a hidden Markov model. I control of the prediction error of the maximum likelihood estimator when the true distribution satisfies general forgetting and mixing assumptions. Finally, I introduce a nonhomogeneous variant of hidden Markov models : hidden Markov models with trends, and show that the maximum likelihood estimators of such models is consistent.
|
6 |
Investigations numériques multi-échelle et multi-niveau des problèmes de contact adhésif à l'échelle microscopique / Multiscale and multilevel numerical investigation of microscopic contact problemsDu, Shuimiao 05 October 2018 (has links)
L'objectif ultime de ce travail est de fournir des méthodologies robustes et efficaces sur le plan des calculs pour la modélisation et la résolution des problèmes de contact adhésifs basés sur le potentiel de Lennard-Jones (LJ). Pour pallier les pièges théoriques et numériques du modèle LJ liés à ses caractéristiques nondéfinies et non-bornées, une méthode d'adaptativité en modèle est proposée pour résoudre le problème purement-LJ comme limite d'une séquence de problèmes multiniveaux construits de manière adaptative. Chaque membre de la séquence consiste en une partition modèle entre le modèle microscopique LJ et le modèle macroscopique de Signorini. La convergence de la méthode d'adaptativité est prouvée mathématiquement sous certaines hypothèses physiques et réalistes. D'un autre côté, la méthode asymptotique numérique (MAN) est adaptée et utilisée pour suivre avec précision les instabilités des problèmes de contact à grande échelle et souples. Les deux méthodes sont incorporées dans le cadre multiéchelle Arlequin pour obtenir une résolution précise, tout en réduisant les coûts de calcul. Dans la méthode d'adaptativité en modèle, pour capturer avec précision la localisation des zones d'intérêt (ZDI), une stratégie en deux résolutions est suggérée : une résolution macroscopique est utilisée comme une première estimation de la localisation de la ZDI. La méthode Arlequin est alors utilisée pour obtenir une résolution microscopique en superposant des modèles locaux aux modèles globaux. En outre, dans la stratégie MAN, la méthode Arlequin est utilisée pour supprimer les oscillations numériques, améliorer la précision et réduire le coût de calcul. / The ultimate goal of this work is to provide computationally efficient and robust methodologies for the modelling and solution of a class of Lennard-Jones (LJ) potential-based adhesive contact problems. To alleviate theoretical and numerical pitfalls of the LJ model related to its non-defined and nonbounded characteristics, a model-adaptivity method is proposed to solve the pure-LJ problem as the limit of a sequence of adaptively constructed multilevel problems. Each member of the sequence consists of a model partition between the microscopic LJ model and the macroscopic Signorini model. The convergence of the model-adaptivity method is proved mathematically under some physical and realistic assumptions. On the other hand, the asymptotic numerical method (ANM) is adapted to track accurately instabilities for soft contact problems. Both methods are incorporated in the Arlequin multiscale framework to achieve an accurate resolution at a reasonable computational cost. In the model-adaptivity method, to capture accurately the localization of the zones of interest (ZOI), a two-step strategy is suggested: a macroscopic resolution is used as the first guess of the ZOI localization, then the Arlequin method is used there to achieve a fine scale resolution. In the ANM strategy, the Arlequin method is also used to suppress numerical oscillations and improve accuracy.
|
7 |
hp-Adaptive Simulation and Inversion of Magnetotelluric Measurements / Simulation et inversion des mesures magnétotelluriques par hp adaptabilitéAlvarez Aramberri, Julen 18 December 2015 (has links)
La magnéto-tellurique (MT) (Cagniard 1953, Tikhonov 1950) est une technique d'exploration de la Terre basée sur des mesures de champs électromagnétiques (EM). Une source naturelle (non artificielle) harmonique en temps et située dans l'ionosphère (Weaver 1994) produit un champ EM régi par les équations de Maxwell. Les champs électromagnétiques sont enregistrés par plusieurs récepteurs placés sur la surface de la Terre. Ces mesures sont utilisées pour produire une image du sous-sol à partir d'un procédé d'inversion utilisant des méthodes numériques. Nous utilisons la méthode hp-FEM résultant d'une extension du travail de Demkowicz 2005. Nous avons développé un logiciel qui résout, pour la première fois, le problème MT avec des éléments finis auto-adaptatifs. La méthode hp-FEM permet des raffinements locaux, à la fois en taille h et en ordre p sur les éléments, ce qui est un avantage notoire puisque la combinaison de ces deux types de critères permet de mieux capter la présence de singularités, fournissant ainsi des erreurs de discrétisation faible. C'est donc une méthode très précise dont la convergence est exponentielle (Gui and Babuska 1986, Babuska and Guo 1996). En raison des défis d'implémentation encore non résolus (Demkowicz et al. 2002) et de la complexité technique des calculs hp-FEM en 3D, nous nous limitons, dans ce travail, à des calculs en 1D et 2D.Le domaine de calcul est tronqué par un matériau absorbant (Perfectly Matched Layer PML, Berenger 1994), qui est conçu pour s'adapter automatiquement aux propriétés physiques des matériaux. En particulier, il s'ajuste efficacement à l'interface air-sol, où le contraste entre la conductivité des matériaux atteint jusqu'à seize ordres de grandeur. Dans cette thèse, nous présentons également des résultats préliminaires pour la mise en place d'une technique dimensionnelle adaptative plus connue sous le nom de DAM (Dimensionally Adaptive Method (DAM)). Lorsque la distribution de la résistivité du sous-sol dépend de multiples variables spatiales, une analyse correcte de la dimensionnalité (Ledo 2005, Martí et al. 2009, Weaver and Agarwal 2000) rend parfois possible de considérer les différentes régions avec des dimensions spatiales différentes. Par exemple, il est parfois possible d’interpréter la distribution comme une formation unidimensionnelle plus quelques hétérogénéités en 2D (ou 3D). Basée sur cette interprétation, la DAM tire profit d’une telle situation. Ainsi, l'idée principale de cette méthode est d'effectuer l'adaptativité sur la dimension spatiale en commençant par un problème de faible dimension et en utilisant les résultats obtenus pour minimiser le coût des problèmes de dimension supérieure. Nous commençons l'inversion avec un modèle 1D. Les résultats de ce problème d'inversion 1D sont utilisés comme information a priori sur les modèles de dimension supérieure. Un avantage fondamental de cette approche est que nous pouvons utiliser les solutions des problèmes de dimension inférieure précédemment calculées comme composantes du terme de régularisation associé à un problème de dimension supérieure afin d'augmenter la robustesse de l'inversion. Cette thèse propose également une analyse numérique rigoureuse de divers aspects des problèmes MT. En particulier, nous avons: (a) étudié l'effet de la source, (b) effectué une analyse fréquentielle de sensibilité, (c) illustré l'augmentation du taux de convergence lorsque l'adaptativité hp est employée, (d) séparé les effets 1D et 2D dans la solution numérique et (e) exploré l'intérêt de considérer différentes variables pour effectuer l'inversion. / The magnetotelluric (MT) method is a passive exploration technique that aims at estimating the resistivity distribution of the Earth's subsurface, and therefore at providing an image of it. This process is divided into two different steps. The first one consists in recording the data. In a second step, recorded measurements are analyzed by employing numerical methods. This dissertation focuses in this second task. We provide a rigorous mathematical setting in the context of the Finite Element Method (FEM) that helps to understand the MT problem and its inversion process. In order to recover a map of the subsurface based on 2D MT measurements, we employ for the first time in Mts a multi-goal oriented self adaptive hp-Finite Element Method (FEM). We accurately solve both the full formulation as well as a secondary field formulation where the primary field is given by the solution of a 1D layered media. To truncate the computational domain, we design a Perfectly Matched Layer (PML) that automatically adapts to high-contrast material properties that appear within the subsurface and on the air-ground interface. For the inversion process, we develop a first step of a Dimensionally Adaptive Method (DAM) by considering the dimension of the problem as a variable in the inversion. Additionally, this dissertation supplies a rigorous numerical analysis for the forward and inverse problems. Regarding the forward modelization, we perform a frequency sensitivity analysis, we study the effect of the source, the convergence of the hp-adaptivity, or the effect of the PML in the computation of the electromagnetic fields and impedance. As far as the inversion is concerned, we study the impact of the selected variable for the inversion process, the different information that each mode provides,and the gains of the DAM approach.
|
8 |
Schemes and Strategies to Propagate and Analyze Uncertainties in Computational Fluid Dynamics Applications / Schémas et stratégies pour la propagation et l’analyse des incertitudes dans la simulation d’écoulementsGeraci, Gianluca 05 December 2013 (has links)
Ce manuscrit présente des contributions aux méthodes de propagation et d’analyse d’incertitude pour des applications en Mécanique des Fluides Numérique. Dans un premier temps, deux schémas numériques innovantes sont présentées: une approche de type ”Collocation”, et une autre qui est basée sur une représentation de type ”Volumes Finis” dans l’espace stochastique. Dans les deux, l’élément clé est donné par l’introduction d’une représentation de type ”Multirésolution” dans l’espace stochastique. L’objectif est à la fois de réduire le nombre de dimensions et d’appliquer un algorithme d’adaptation de maillage qui puisse être utilisé dans l’espace couplé physique/stochastique pour des problèmes non-stationnaires. Pour finir, une stratégie d’optimisation robuste est proposée, qui est basée sur une analyse de décompositionde la variance et des moments statistiques d’ordre plus élevé. Dans ce cas, l’objectif est de traiter des problèmes avec un grand nombre d’incertitudes. / In this manuscript, three main contributions are illustrated concerning the propagation and the analysis of uncertainty for computational fluid dynamics (CFD) applications. First, two novel numerical schemes are proposed : one based on a collocation approach, and the other one based on a finite volume like representation in the stochastic space. In both the approaches, the key element is the introduction of anon-linear multiresolution representation in the stochastic space. The aim is twofold : reducing the dimensionality of the discrete solution and applying a time-dependent refinement/coarsening procedure in the combined physical/stochastic space. Finally, an innovative strategy, based on variance-based analysis, is proposed for handling problems with a moderate large number of uncertainties in the context of the robust design optimization. Aiming to make more robust this novel optimization strategies, the common ANOVA-like approach is also extended to high-order central moments (up to fourth order). The new approach is more robust, with respect to the original variance-based one, since the analysis relies on new sensitivity indexes associated to a more complete statistic description.
|
9 |
Filtres de Kalman réduits et efficaces pour l'assimilation de données en océanographieHoteit, Ibrahim 08 January 2001 (has links) (PDF)
Le filtre de Kalman étendu singulier évolutif (SEEK) et sa variante interpolée, appelée SEIK, ont été implémentés et testés avec succès dans plusieurs modèles océaniques. Cependant, ces deux filtres restent chers pour une océanographie opérationnelle. L'objectif principal de notre travail est de développer des formes dégradées des filtres SEEK et SEIK qui sont moins couteux mais aussi performants. Notre approche consiste essentiellement à simplifier l'évolution de la base de correction des filtres SEEK et SEIK, qui est la partie la plus chère de ces deux filtres. Pour améliorer les performances de nos filtres dans les périodes instables du modèle, nous introduisons tout d'abord les notions d'analyse EOFs locales et mixte dans le but d'augmenter la représentativité de la base de correction. Cela nous amène à construire une nouvelle variante du filtre SEEK avec une base de correction semi-évolutive partiellement locale. Nous présentons ensuite plusieurs schémas de réglage adaptatif des paramètres du filtre SEEK. Nous terminons enfin par une comparaison entre les performances des filtres SEEK et ROEK pour montrer l'intérêt de l'évolution de la base de correction, ce dernier étant aussi introduit pour compenser le caractère non-évolutif de la base EOFs locale. Nous avons implémenté tous nos filtres dans une configuration réaliste du modèle OPA dans l'océan Pacifique tropical. Leurs performances ont été étudiées avec des expériences jumelles. Le filtre SEIK est utilisé comme une référence pour la comparaison. Les résultats de ces expériences montrent que nos nouveaux filtres sont aussi performants que le filtre SEIK, mais peuvent être de 2 à 10 fois plus rapides.
|
10 |
Sélection de modèle par validation-croisée en estimation de la densité, régression et détection de rupturesCelisse, Alain 09 December 2008 (has links) (PDF)
L'objet de cette thèse est l'étude d'un certain type d'algorithmes de rééchantillonnage regroupés sous le nom de validation-croisée, et plus particulièrement parmi eux, du leave-p-out. Très utilisés en pratique, ces algorithmes sont encore mal compris d'un point de vue théorique, notamment sur un plan non-asymptotique. Notre analyse du leave-p-out s'effectue dans les cadres de l'estimation de densité et de la régression. Son objectif est de mieux comprendre la validation-croisée en fonction du cardinal $p$ de l'ensemble test dont elle dépend. D'un point de vue général, la validation-croisée est destinée à estimer le risque d'un estimateur. Dans notre cas, le leave-$p$-out n'est habituellement pas applicable en pratique, à cause d'une trop grande complexité algorithmique. Pourtant, nous parvenons à obtenir des formules closes (parfaitement calculables) de l'estimateur leave-p-out du risque, pour une large gamme d'estimateurs très employés. Nous envisageons le problème de la sélection de modèle par validation-croisée sous deux aspects. L'un repose sur l'estimation optimale du risque en termes d'un compromis biais-variance, ce qui donne lieu à une procédure d'estimation de densité basée sur un choix de $p$ entièrement fondé sur les données. Une application naturelle au problème des tests multiples est envisagée. L'autre aspect est lié à l'interprétation de l'estimateur validation-croisée comme critère pénalisé. Sur le plan théorique, la qualité de la procédure leave-$p$-out est garantie par des inégalités oracle ainsi qu'un résultat d'adaptativité dans le cadre de l'estimation de densité. Le problème de la détection de ruptures est également abordé au travers d'une vaste étude de simulations, basée sur des considérations théoriques. Sur cette base, nous proposons une procédure entièrement tournée vers le rééchantillonnage, permettant de traiter le cas difficile de données hétéroscédastiques avec une complexité algorithmique raisonnable.
|
Page generated in 0.0661 seconds