• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 20
  • 16
  • 3
  • Tagged with
  • 39
  • 39
  • 17
  • 15
  • 13
  • 11
  • 9
  • 9
  • 8
  • 6
  • 6
  • 6
  • 6
  • 6
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Approche spectrale pour l'interpolation à noyaux et positivité conditionnelle

Gauthier, Bertrand 12 July 2011 (has links) (PDF)
Nous proposons une approche spectrale permettant d'aborder des problèmes d'interpolation à noyaux dont la résolution numérique n'est pas directement envisageable. Un tel cas de figure se produit en particulier lorsque le nombre de données est infini. Nous considérons dans un premier temps le cadre de l'interpolation optimale dans les sous-espaces hilbertiens. Pour un problème donné, un opérateur intégral est défini à partir du noyau sous-jacent et d'une paramétrisation de l'ensemble des données basée sur un espace mesuré. La décomposition spectrale de l'opérateur est utilisée afin d'obtenir une formule de représentation pour l'interpolateur optimal et son approximation est alors rendu possible par troncature du spectre. Le choix de la mesure induit une fonction d'importance sur l'ensemble des données qui se traduit, en cas d'approximation, par une plus ou moins grande précision dans le rendu des données. Nous montrons à titre d'exemple comment cette approche peut être utilisée afin de rendre compte de contraintes de type "conditions aux limites" dans les modèles d'interpolation à noyaux. Le problème du conditionnement des processus gaussiens est également étudié dans ce contexte. Nous abordons enfin dans la dernière partie de notre manuscrit la notion de noyaux conditionnellement positifs. Nous proposons la définition générale de noyaux symétriques conditionnellement positifs relatifs à une espace de référence donné et développons la théorie des sous-espaces semi-hilbertiens leur étant associés. Nous étudions finalement la théorie de l'interpolation optimale dans cette classe d'espaces.
22

Sondages pour données fonctionnelles : construction de bandes de confiance asymptotiques et prise en compte d'information auxiliaire

Josserand, Etienne 12 October 2011 (has links) (PDF)
Lorsque des bases de données fonctionnelles sont trop grandes pour être observées de manière exhaustive, les techniques d'échantillonnage fournissent une solution efficace pour estimer des quantités globales simples, telles que la courbe moyenne, sans être obligé de stocker toutes les données. Dans cette thèse, nous proposons un estimateur d'Horvitz-Thompson de la courbe moyenne, et grâce à des hypothèses asymptotiques sur le plan de sondage nous avons établi un Théorème Central Limite Fonctionnel dans le cadre des fonctions continues afin d'obtenir des bandes de confiance asymptotiques. Pour un plan d'échantillonnage à taille fixe, nous montrons que le sondage stratifié peut grandement améliorer l'estimation comparativement au sondage aléatoire simple. De plus, nous étendons la règle d'allocation optimale de Neyman dans le contexte fonctionnel. La prise en compte d'information auxiliaire a été développée grâce à des estimateurs par modèle assisté, mais aussi en utilisant directement cette information dans les poids d'échantillonnage avec le sondage à probabilités inégales proportionnelles à la taille. Le cas des courbes bruitées est également étudié avec la mise en place d'un lissage par polynômes locaux. Pour sélectionner la largeur de la fenêtre de lissage, nous proposons une méthode de validation croisée qui tient compte des poids de sondage. Les propriétés de consistance de nos estimateurs sont établies, ainsi que la normalité asymptotique des estimateurs de la courbe moyenne. Deux méthodes de constructions des bandes de confiance sont proposées. La première utilise la normalité asymptotique de nos estimateurs en simulant un processus Gaussien conditionnellement à sa fonction de covariance afin d'en estimer la loi du sup. La seconde utilise des techniques de bootstrap en population finie qui ne nécessitent pas l'estimation de la fonction de covariance.
23

Sondages pour données fonctionnelles : construction de bandes de confiance asymptotiques et prise en compte d'information auxiliaire / Survey sampling for functionnal data : building asymptotic confidence bands and considering auxiliary information

Josserand, Etienne 12 October 2011 (has links)
Lorsque des bases de données fonctionnelles sont trop grandes pour être observées de manière exhaustive, les techniques d’échantillonnage fournissent une solution efficace pour estimer des quantités globales simples, telles que la courbe moyenne, sans être obligé de stocker toutes les données. Dans cette thèse, nous proposons un estimateur d’Horvitz-Thompson de la courbe moyenne, et grâce à des hypothèses asymptotiques sur le plan de sondage nous avons établi un Théorème Central Limite Fonctionnel dans le cadre des fonctions continues afin d’obtenir des bandes de confiance asymptotiques. Pour un plan d’échantillonnage à taille fixe, nous montrons que le sondage stratifié peut grandement améliorer l’estimation comparativement au sondage aléatoire simple. De plus, nous étendons la règle d’allocation optimale de Neyman dans le contexte fonctionnel. La prise en compte d’information auxiliaire a été développée grâce à des estimateurs par modèle assisté, mais aussi en utilisant directement cette information dans les poids d’échantillonnage avec le sondage à probabilités inégales proportionnelles à la taille. Le cas des courbes bruitées est également étudié avec la mise en place d’un lissage par polynômes locaux. Pour sélectionner la largeur de la fenêtre de lissage, nous proposons une méthode de validation croisée qui tient compte des poids de sondage. Les propriétés de consistance de nos estimateurs sont établies, ainsi que la normalité asymptotique des estimateurs de la courbe moyenne. Deux méthodes de constructions des bandes de confiance sont proposées. La première utilise la normalité asymptotique de nos estimateurs en simulant un processus Gaussien conditionnellement à sa fonction de covariance afin d’en estimer la loi du sup. La seconde utilise des techniques de bootstrap en population finie qui ne nécessitent pas l’estimation de la fonction de covariance. / When collections of functional data are too large to be exhaustively observed, survey sampling techniques provide an effective way to estimate global quantities such as the population mean function, without being obligated to store all the data. In this thesis, we propose a Horvitz–Thompson estimator of the mean trajectory, and with additional assumptions on the sampling design, we state a functional Central Limit Theorem and deduce asymptotic confidence bands. For a fixed sample size, we show that stratified sampling can greatly improve the estimation compared to simple random sampling. In addition, we extend Neyman’s rule of optimal allocation to the functional context. Taking into account auxiliary information has been developed with model-assisted estimators and weighted estimators with unequal probability sampling proportional to size. The case of noisy curves is also studied with the help local polynomial smoothers. To select the bandwidth, we propose a cross-validation criterion that takes into account the sampling weights. The consistency properties of our estimators are established, as well as asymptotic normality of the estimators of the mean curve. Two methods to build confidence bands are proposed. The first uses the asymptotic normality of our estimators by simulating a Gaussian process given estimated the covariance function in order to estimate the law of supremum. The second uses bootstrap techniques in a finite population that does not require to estimate the covariance function.
24

Uncertainty quantification on pareto fronts and high-dimensional strategies in bayesian optimization, with applications in multi-objective automotive design / Quantification d’incertitude sur fronts de Pareto et stratégies pour l’optimisation bayésienne en grande dimension, avec applications en conception automobile

Binois, Mickaël 03 December 2015 (has links)
Cette thèse traite de l’optimisation multiobjectif de fonctions coûteuses, aboutissant à laconstruction d’un front de Pareto représentant l’ensemble des compromis optimaux. En conception automobile, le budget d’évaluations est fortement limité par les temps de simulation numérique des phénomènes physiques considérés. Dans ce contexte, il est courant d’avoir recours à des « métamodèles » (ou modèles de modèles) des simulateurs numériques, en se basant notamment sur des processus gaussiens. Ils permettent d’ajouter séquentiellement des observations en conciliant recherche locale et exploration. En complément des critères d’optimisation existants tels que des versions multiobjectifs du critère d’amélioration espérée, nous proposons d’estimer la position de l’ensemble du front de Pareto avec une quantification de l’incertitude associée, à partir de simulations conditionnelles de processus gaussiens. Une deuxième contribution reprend ce problème à partir de copules. Pour pouvoir traiter le cas d’un grand nombre de variables d’entrées, nous nous basons sur l’algorithme REMBO. Par un tirage aléatoire directionnel, défini par une matrice, il permet de trouver un optimum rapidement lorsque seules quelques variables sont réellement influentes (mais inconnues). Plusieurs améliorations sont proposées, elles comprennent un noyau de covariance dédié, une sélection du domaine de petite dimension et des directions aléatoires mais aussi l’extension au casmultiobjectif. Enfin, un cas d’application industriel en crash a permis d’obtenir des gainssignificatifs en performance et en nombre de calculs requis, ainsi que de tester le package R GPareto développé dans le cadre de cette thèse. / This dissertation deals with optimizing expensive or time-consuming black-box functionsto obtain the set of all optimal compromise solutions, i.e. the Pareto front. In automotivedesign, the evaluation budget is severely limited by numerical simulation times of the considered physical phenomena. In this context, it is common to resort to “metamodels” (models of models) of the numerical simulators, especially using Gaussian processes. They enable adding sequentially new observations while balancing local search and exploration. Complementing existing multi-objective Expected Improvement criteria, we propose to estimate the position of the whole Pareto front along with a quantification of the associated uncertainty, from conditional simulations of Gaussian processes. A second contribution addresses this problem from a different angle, using copulas to model the multi-variate cumulative distribution function. To cope with a possibly high number of variables, we adopt the REMBO algorithm. From a randomly selected direction, defined by a matrix, it allows a fast optimization when only a few number of variables are actually influential, but unknown. Several improvements are proposed, such as a dedicated covariance kernel, a selection procedure for the low dimensional domain and of the random directions, as well as an extension to the multi-objective setup. Finally, an industrial application in car crash-worthiness demonstrates significant benefits in terms of performance and number of simulations required. It has also been used to test the R package GPareto developed during this thesis.
25

Étude de classes de noyaux adaptées à la simplification et à l’interprétation des modèles d’approximation. Une approche fonctionnelle et probabiliste. / Covariance kernels for simplified and interpretable modeling. A functional and probabilistic approach.

Durrande, Nicolas 09 November 2011 (has links)
Le thème général de cette thèse est celui de la construction de modèles permettantd’approximer une fonction f lorsque la valeur de f(x) est connue pour un certainnombre de points x. Les modèles considérés ici, souvent appelés modèles de krigeage,peuvent être abordés suivant deux points de vue : celui de l’approximation dans les espacesde Hilbert à noyaux reproduisants ou celui du conditionnement de processus gaussiens.Lorsque l’on souhaite modéliser une fonction dépendant d’une dizaine de variables, lenombre de points nécessaires pour la construction du modèle devient très important etles modèles obtenus sont difficilement interprétables. A partir de ce constat, nous avonscherché à construire des modèles simplifié en travaillant sur un objet clef des modèles dekrigeage : le noyau. Plus précisement, les approches suivantes sont étudiées : l’utilisation denoyaux additifs pour la construction de modèles additifs et la décomposition des noyauxusuels en sous-noyaux pour la construction de modèles parcimonieux. Pour finir, nousproposons une classe de noyaux qui est naturellement adaptée à la représentation ANOVAdes modèles associés et à l’analyse de sensibilité globale. / The framework of this thesis is the approximation of functions for which thevalue is known at limited number of points. More precisely, we consider here the so-calledkriging models from two points of view : the approximation in reproducing kernel Hilbertspaces and the Gaussian Process regression.When the function to approximate depends on many variables, the required numberof points can become very large and the interpretation of the obtained models remainsdifficult because the model is still a high-dimensional function. In light of those remarks,the main part of our work adresses the issue of simplified models by studying a key conceptof kriging models, the kernel. More precisely, the following aspects are adressed: additivekernels for additive models and kernel decomposition for sparse modeling. Finally, wepropose a class of kernels that is well suited for functional ANOVA representation andglobal sensitivity analysis.
26

Computing strategies for complex Bayesian models / Stratégies computationnelles pour des modèles Bayésiens complexes

Banterle, Marco 21 July 2016 (has links)
Cette thèse présente des contributions à la littérature des méthodes de Monte Carlo utilisé dans l'analyse des modèles complexes en statistique Bayésienne; l'accent est mis à la fois sur la complexité des modèles et sur les difficultés de calcul.Le premier chapitre élargit Delayed Acceptance, une variante computationellement efficace du Metropolis--Hastings, et agrandit son cadre théorique fournissant une justification adéquate pour la méthode, des limits pour sa variance asymptotique par rapport au Metropolis--Hastings et des idées pour le réglage optimal de sa distribution instrumentale.Nous allons ensuite développer une méthode Bayésienne pour analyser les processus environnementaux non stationnaires, appelées Expansion Dimension, qui considère le processus observé comme une projection depuis une dimension supérieure, où l'hypothèse de stationnarité pourrait etre acceptée. Le dernier chapitre sera finalement consacrée à l'étude des structures de dépendances conditionnelles par une formulation entièrement Bayésienne du modèle de Copule Gaussien graphique. / This thesis presents contributions to the Monte Carlo literature aimed toward the analysis of complex models in Bayesian Statistics; the focus is on both complexity related to complicate models and computational difficulties.We will first expand Delayed Acceptance, a computationally efficient variant ofMetropolis--Hastings, to a multi-step procedure and enlarge its theoretical background, providing proper justification for the method, asymptotic variance bounds relative to its parent MH kernel and optimal tuning for the scale of its proposal.We will then develop a flexible Bayesian method to analyse nonlinear environmentalprocesses, called Dimension Expansion, that essentially consider the observed process as a projection from a higher dimension, where the assumption of stationarity could hold.The last chapter will finally be dedicated to the investigation of conditional (in)dependence structures via a fully Bayesian formulation of the Gaussian Copula graphical model.
27

Compréhension de situation et estimation de risques pour les aides à la conduite préventives / Situation understanding and risk assessment framework for preventive driver assistance

Armand, Alexandre 31 May 2016 (has links)
Les nouvelles voitures sont pourvues d’aides à la conduite qui améliorent le confort et la sécurité. Bien que ces systèmes contribuent à la réduction des accidents de la route, leur déploiement montre que leurs performances sont encore limitées par leur faible compréhension de situation. Cela est principalement lié aux limites des capteurs de perception, et à la non prise en compte du contexte. Ces limites se traduisent par des détections de risques tardives, et donc en assistances sous forme d’alertes ou de freinages automatiques. Cette thèse se concentre sur l’introduction d’informations contextuelles dans le processus de décision des systèmes d’aides à la conduite. Le but est de détecter des risques plus tôt que les systèmes conventionnels, ainsi que d’améliorer la confiance qu’on peut avoir dans les informations générées.Le comportement d’un véhicule dépend de divers éléments tels que le réseau routier, les règles de la circulation, ainsi que de la cohabitation avec d’autres usagers de la route. Ces interactions se traduisent par une interdépendance forte entre chaque élément. De plus, bien que chaque conducteur doive suivre les mêmes règles de circulation, ils peuvent réagir de façon différente à une même situation. Cela implique qu’un même comportement peut être considéré comme sûr ou risqué, selon le conducteur. Ces informations doivent être prises en compte dans le processus de prise de décision des systèmes. Cette thèse propose un cadre qui combine les informations a priori contenues dans les cartes de navigation numériques avec l’information temps réel fournie par les capteurs de perception et/ou communications sans fil, pour permettre une meilleure compréhension de situation et ainsi mieux anticiper les risques. Ce principe est comparable aux tâches qu’un copilote doit accomplir. Ces travaux se répartissent en deux principales étapes : la compréhension de situation, et l’estimation des risques.L’étape de compréhension de situation consiste à donner du sens aux différentes observations réalisées par les capteurs de perception, en exploitant des informations a priori. Le but est de comprendre comment les entités perçues interagissent, et comment ces interactions contraignent le comportement du véhicule. Cette étape établit les relations spatio-temporelles entre les entités perçues afin d’évaluer leur pertinence par rapport au véhicule, et ainsi extraire les entités les plus contraignantes. Pour cela, une ontologie contenant des informations a priori sur la façon dont différentes entités de la route interagissent est proposée. Cette première étape a été testée en temps réel, utilisant des données enregistrées sur un véhicule évoluant en environnements contraints.L’étape de détection des risques s’appuie sur la situation perçue, et sur les signes annonciateurs de risques. Le cas d’usage choisi pour cette étude se concentre sur les intersections, puisqu’une grande majorité des accidents de la route y ont lieux. La manière de réagir d’un conducteur lorsqu’il se rapproche d’une intersection est apprise par des Processus Gaussiens. Cette connaissance à priori du conducteur est ensuite exploitée, avec les informations contextuelles, par un réseau Bayésien afin d’estimer si le conducteur semble interagir comme attendu avec l’intersection. L’approche probabiliste qui a été choisie permet de prendre en compte les incertitudes dont souffrent chacune des sources d’information. Des tests ont été réalisés à partir de données enregistrées à bord d’un véhicule afin de valider l’approche. Les résultats montrent qu’en prenant en compte les individualités des conducteurs, leurs actions sur le véhicule, ainsi que l’état du véhicule, il est possible de mieux estimer si le conducteur interagit comme attendu avec l’environnement, et donc d’anticiper les risques. Finalement, il est montré qu’il est possible de générer une assistance plus préventive que les systèmes d’aide à la conduite conventionnels. / Modern vehicles include advanced driving assistance systems for comfort and active safety features. Whilst these systems contribute to the reduction of road accidents, their deployment has shown that performance is constrained by their limited situation understanding capabilities. This is mainly due to perception constraints and by ignoring the context within which these vehicles evolve. It results in last minute risk assessment, and thus in curative assistance in the form of warning alerts or automatic braking. This thesis focuses on the introduction of contextual information into the decision processes of driving assistance systems. The overall purpose is to infer risk earlier than conventional driving assistance systems, as well as to enhance the level of trust on the information provided to drivers.Several factors govern the vehicle behaviour. These include the road network and traffic rules, as well as other road users such as vehicles and pedestrians with which the vehicle interacts. This results in strong interdependencies amongst all entities, which govern their behaviour. Further, whilst traffic rules apply equally to all participants, each driver interacts differently with the immediate environment, leading to different risk level for a given behaviour. This information must be incorporated within the decision-making processes of these systems. In this thesis, a framework is proposed that combines a priori information from digital navigation maps with real time information from on board vehicle sensors and/or external sources via wireless communications links, to infer a better situation understanding, which should enable to anticipate risks. This tenet is similar to the task of a co-pilot when using a priori notated road information. The proposed approach is constrained by using only data from close to production sensors. The framework proposed in this thesis consists of two phases, namely situation understanding and risk assessment.The situation understanding phase consists in performing a high level interpretation of all observations by including a priori information within the framework. The purpose is to understand how the perceived road entities interact, and how the interactions constrain the vehicle behaviour. This phase establishes the spatio-temporal relationships between the perceived entities to determine their relevance with respect to the subject vehicle motion, and then to identify which entities to be tracked. For this purpose, an ontology is proposed. It stores a priori information about the manner how different road entities relate and interact. This initial phase was tested in real time using data recorded on a passenger vehicle evolving in constrained environments.The risk assessment phase then looks into the perceived situation and into the manner how it becomes dangerous. To demonstrate the framework applicability, a use case applied to road intersections was chosen. Intersections are complex parts in the road network where different entities converge and most accidents occur. In order to detect risk situations, the manner how the driver reacts in a given situation is learned through Gaussian Processes. This knowledge about the driver is then used within a context aware Bayesian Network to estimate whether the driver is likely to interact as expected with the relevant entities or not. The probabilistic approach taken allows to take into consideration all uncertainties embedded in the observations. Field trials were performed using a passenger vehicle to validate the proposed approach. The results show that by incorporating drivers’ individualities and their actuations with the observation of the vehicle state, it is possible to better estimate whether the driver interacts as expected with the environment, and thus to anticipate risk. Further, it is shown that it is possible to generate assistance earlier than conventional safety systems.
28

Test d'ajustement d'un processus de diffusion ergodique à changement de régime

Gassem, Anis 07 July 2010 (has links) (PDF)
Nous considérons les tests d'ajustement de type Cramér-von Mises pour tester l'hypothèse que le processus de diffusion observé est un "switching diffusion", c'est-à-dire un processus de diffusion à changement de régime dont la dérive est de type signe. Ces tests sont basés sur la fonction de répartition empirique et la densité empirique. Il est montré que les distributions limites des tests statistiques proposés sont définis par des fonctionnelles de type intégrale des processus Gaussiens continus. Nous établissons les développements de Karhunen-Loève des processus limites correspondants. Ces développements nous permettent de simplifier le problème du calcul des seuils. Nous étudions le comportement de ces statistiques sous les alternatives et nous montrons que ces tests sont consistants. Pour traiter les hypothèses de base composite nous avons besoin de connaître le comportement asymptotique des estimateurs statistiques des paramètres inconnus, c'est pourquoi nous considérons le problème de l'estimation des paramètres pour le processus de diffusion à changement de régime. Nous supposons que le paramètre inconnu est à deux dimensions et nous décrivons les propriétés asymptotiques de l'estimateur de maximum de vraisemblance et de l'estimateur bayésien dans ce cas. L'utilisation de ces estimateurs nous ramène à construire les tests de type Cramér-von Mises correspondants et à étudier leurs distributions limites. Enfin, nous considérons deux tests de type Cramér-von Mises de processus de diffusion ergodiques dans le cas général. Il est montré que pour le choix de certaines des fonctions de poids ces tests sont asymptotiquement " distribution-free ". Pour certains cas particuliers, nous établissons les expressions explicites des distributions limites de ces statistiques par le calcul direct de la transformée de Laplace.
29

Approche spectrale pour l'interpolation à noyaux et positivité conditionnelle

Gauthier, Bertrand 12 July 2011 (has links) (PDF)
Nous proposons une approche spectrale permettant d'aborder des problèmes d'interpolation à noyaux dont la résolution numérique n'est pas directement envisageable. Un tel cas de figure se produit en particulier lorsque le nombre de données est infini. Nous considérons dans un premier temps le cadre de l'interpolation optimale dans les sous-espaces hilbertiens. Pour un problème donné, un opérateur intégral est défini à partir du noyau sous-jacent et d'une paramétrisation de l'ensemble des données basée sur un espace mesuré. La décomposition spectrale de l'opérateur est utilisée afin d'obtenir une formule de représentation pour l'interpolateur optimal et son approximation est alors rendu possible par troncature du spectre. Le choix de la mesure induit une fonction d'importance sur l'ensemble des données qui se traduit, en cas d'approximation, par une plus ou moins grande précision dans le rendu des données. Nous montrons à titre d'exemple comment cette approche peut être utilisée afin de rendre compte de contraintes de type "conditions aux limites" dans les modèles d'interpolation à noyaux. Le problème du conditionnement des processus gaussiens est également étudié dans ce contexte. Nous abordons enfin dans la dernière partie de notre manuscrit la notion de noyaux conditionnellement positifs. Nous proposons la définition générale de noyaux symétriques conditionnellement positifs relatifs à une espace de référence donné et développons la théorie des sous-espaces semi-hilbertiens leur étant associés. Nous étudions finalement la théorie de l'interpolation optimale dans cette classe d'espaces.
30

Méta-modèles adaptatifs pour l'analyse de fiabilité et l'optimisation sous contrainte fiabiliste

Dubourg, Vincent 05 December 2011 (has links) (PDF)
Cette thèse est une contribution à la résolution du problème d'optimisation sous contrainte de fiabilité. Cette méthode de dimensionnement probabiliste vise à prendre en compte les incertitudes inhérentes au système à concevoir, en vue de proposer des solutions optimales et sûres. Le niveau de sûreté est quantifié par une probabilité de défaillance. Le problème d'optimisation consiste alors à s'assurer que cette probabilité reste inférieure à un seuil fixé par les donneurs d'ordres. La résolution de ce problème nécessite un grand nombre d'appels à la fonction d'état-limite caractérisant le problème de fiabilité sous-jacent. Ainsi,cette méthodologie devient complexe à appliquer dès lors que le dimensionnement s'appuie sur un modèle numérique coûteux à évaluer (e.g. un modèle aux éléments finis). Dans ce contexte, ce manuscrit propose une stratégie basée sur la substitution adaptative de la fonction d'état-limite par un méta-modèle par Krigeage. On s'est particulièrement employé à quantifier, réduire et finalement éliminer l'erreur commise par l'utilisation de ce méta-modèle en lieu et place du modèle original. La méthodologie proposée est appliquée au dimensionnement des coques géométriquement imparfaites soumises au flambement.

Page generated in 0.4863 seconds