• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 68
  • 27
  • 5
  • Tagged with
  • 97
  • 51
  • 25
  • 23
  • 21
  • 18
  • 16
  • 16
  • 15
  • 15
  • 14
  • 14
  • 12
  • 12
  • 11
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Warping and sampling approaches to non-stationary gaussian process modelling. / Planification adaptative d'expériences et krigeage non stationnaire : application à la prise en compte des incertitudes dans les études mécaniques en sûreté nucléaire.

Marmin, Sebastien 12 December 2017 (has links)
Cette thèse traite de l'approximation de fonctions coûteuses à évaluer et présentant un comportement hétérogène selon les régions du domaine d'entrées. Dans beaucoup d’applications industrielles comme celles issues de la sûreté nucléaire et menées à l’IRSN, les codes de calcul de simulation physique ont des coûts numériques importants et leurs réponses sont alors approchées par un modèle. Les modèles par processus gaussien (PG) sont répandus pour construire des plans d'expériences au budget d'évaluations limité. Alors que les méthodes de planifications standard explorent le domaine en partant souvent d'une hypothèse de stationnarité et en utilisant des critères d'échantillonnages basés sur la variance, nous abordons sous deux aspects le problème d'adapter la planification d'expériences par PG aux fonctions à variations hétérogènes : d'une part sur la modélisation, en proposant une nouvelle famille de covariances (WaMI-GP) qui généralise deux noyaux existants (noyaux à indice multiple et noyaux à déformation tensorielle), et d'autre part sur la planification, en définissant et calculant de nouveaux critères d'échantillonnage à partir des dérivées du PG et dédiés à l'exploration de régions à grandes variations. Une analyse théorique de la nouvelle famille de PG ainsi que des expériences numériques montrent à la fois une certaine souplesse de modélisation et un nombre modéré de paramètres de modèle à estimer. Par ailleurs, un travail sur le couplage entre ondelettes et PG a conduit au développement d'un modèle non stationnaire, appelé ici wav-GP, qui utilise l'échelle locale pour approcher la dérivées de la déformation de manière itérative et non paramétrique. Les applications de wav-GP sur deux cas d'étude mécaniques fournissent des résultats prometteurs pour la prédiction de fonctions ayant un comportement hétérogène. D'autres part, nous formulons et calculons de nouveaux critères de variance qui reposent sur le champs de la norme du gradient du PG, et cela quelques soient les propriétés de (non) stationnarité du modèle. Les critères et les modèles sont comparés avec des méthodes de références sur des cas d'étude en ingénierie. Il en résulte que certains des critères par gradient proposés sont plus efficaces que les critères de variance plus conventionnels, mais qu'il est encore mieux de combiner le modèle WaMI-GP avec ces critères de variance. Ce modèle est souvent le plus compétitif dans des situations où les évaluations sont séquentielles et à nombre réduit. D'autres contributions s'inscrivant dans le thème de l'optimisation globale concernent en particulier le critère d'échantillonnage d'amélioration espérée (connu en anglais comme le critère d'expected improvement) et sa version multipoint pour l'évaluation en parallèle par paquet. Des formules analytiques et des approximations rapides sont établies pour une version généralisée du critère et pour son gradient. / This work deals with approximating expensive-to-evaluatefunctions exhibiting heterogeneous sensitivity to input perturbationsdepending on regions of the input space. Motivated by real test caseswith high computational costs coming mainly from IRSN nuclear safetystudies, we resort to surrogate models of the numerical simulatorsusing Gaussian processes (GP). GP models are popular for sequentialevaluation strategies in design of experiments under limited evaluationbudget. While it is common to make stationarity assumptions for theprocesses and use sampling criteria based on its variance forexploration, we tackle the problem of accommodating the GP-based designto the heterogeneous behaviour of the function from two angles: firstvia a novel class of covariances (WaMI-GP) that simultaneouslygeneralises existing kernels of Multiple Index and of tensorised warpedGP and second, by introducing derivative-based sampling criteriadedicated to the exploration of high variation regions. The novel GPclass is investigated both through mathematical analysis and numericalexperiments, and it is shown that it allows encoding muchexpressiveness while remaining with a moderate number of parameters tobe inferred. Moreover, exploiting methodological links between waveletsanalysis and non-stationary GP modelling, we propose a new non-stationary GP (Wav-GP) with non-parametric warping. The key point is aniterated estimation of the so-called local scale that approximates thederivative of the warping. Wav-GP is applied to two mechanical casestudies highlighting promising prediction performance. Independently ofnon-stationarity assumptions, we conduct derivations for new variance-based criteria relying on the norm of the GP gradient field. Criteriaand models are compared with state-of-the-art methods on engineeringtest cases. It is found on these applications that some of the proposedgradient-based criteria outperform usual variance-based criteria in thecase of a stationary GP model, but that it is even better to usevariance-based criteria with WaMI-GP, which dominates mostly for smalldesigns and in sequential set up. Other contributions in samplingcriteria address the problem of global optimisation, focusing on theexpected improvement criterion and its multipoint version for parallelbatch evaluations. Closed form formulas and fast approximations areestablished for a generalised version of the criterion and its gradient. Numerical experiments illustrate that the proposed approachesenable substantial computational savings.
32

Optimization by Simulation of an Environmental Surveillance Network : application to the Fight against Rice Pests in the Mekong Delta (Vietnam) / Optimisation par simulation de réseaux de surveillance environnementale : application à la lutte contre les insectes ravageurs du riz dans le delta du Mekong (Vietnam)

Truong Xuan, Viet 24 June 2014 (has links)
Un réseau de surveillance efficace est souvent un outil utile pour surveiller et évaluer les différents états d'un écosystème spécifique. Avec les informations fournies par le réseau, les prédictions peuvent être générés en utilisant des analyses spatio-temporelles approfondies, qui peuvent ensuite aider les décideurs et les parties prenantes. Écosystèmes dominés par les humains sont très dynamique et complexe, où la plupart des variables observées ont des interactions non-linéaires mutuelles. En outre, les impacts des activités humaines sur l'écosystème sont souvent rugueux, dans de nombreux cas, ils perturbent l'équilibre écologique. Par conséquent, la surveillance d'un écosystème devient un problème complexe et il n'est pas facile de proposer un réseau de surveillance optimal en utilisant les techniques traditionnelles. Les techniques d'optimisation traditionnelles ne parviennent pas souvent à tenir compte des évolutions de la réalité associée à ces écosystèmes.Un exemple d'une telle situation se trouve à la région du delta du Mékong du Vietnam, où les gestionnaires provinciaux de l'agriculture sont concernés par les invasions régulières des cicadelles brunes (Brown Plant Hoppers - BPH), un ravageur du riz particulièrement active, à cause des maladies qu'ils véhiculent et transmettent à la les rendements de riz. / An efficient surveillance network is an invaluable tool to monitor and assess the different states of a given ecosystem. With the information collected by such a network, predictions can be generated using thorough spatio-temporal analyses, which can then support decision makers and stakeholders. Human dominated ecosystems are highly dynamic and complex , where most of the observed variables have mutual non-linear interactions. In addition, the human activities have a considerable impact on almost all ecosystems they inhabit, where they tend to disrupt the ecological balance in short period of times. The surveillance of such ecosystems by different technical solutions is complex and dynamic where designing an “optimal” surveillance network, i.e., a network that would reflect an almost realtime situation of an ecosystem. Often traditional optimization techniques fail to reflect the evolutions of the reality associated with these ecosystems.An example of such a situation, is the Mekong Delta region of Vietnam, where the provincial agricultural managers are concerned with the regular invasions of Brown Plant Hoppers (BPH), a particularly active rice pest, because of the diseases they carry and transmit to the rice yields. Their biggest concern is having a constantly accurate account of the current distribution of BPH waves, since it is the basis of establishing different prevention strategies. The time frame is short for applying these strategies: at least one week is needed between the moment where a prediction of the density of BPH can be estimated by the experts and warnings are sent to farmers and other end users and the moment where a strategy can be efficiently applied. To improve the efficiency of the system, the Vietnamese government has established a light-trap network [1] [2] that can capture multiple kinds of insects, especially BPH, and which data (the density of insects per trap) is collected and analyzed daily. Maintaining this network in a good state of operation has become an important national program of the Ministry of Agriculture and Rural Development of Vietnam since 2006. Although the current light-trap network is considered as a necessity for supporting the fight against various plant pests, it has three restrictions: (1) it misses detailed accounts on the life cycle of the BPH, (2) the network has remained stable since its initial design and has not, therefore, completely adapted to the huge changes that the ecosystem of the Mekong Delta has undergone in the recent years especially due to limitations in management, and (3) the network itself is very sparsely distributed.
33

Optimisation de structures viscoplastiques par couplage entre métamodèle multi-fidélité et modèles réduits / Structural design optimization by coupling multi-fidelity metamodels and reduced-order models

Nachar, Stéphane 11 October 2019 (has links)
Les phases de conception et de validation de pièces mécaniques nécessitent des outils de calculs rapides et fiables, permettant de faire des choix technologiques en un temps court. Dans ce cadre, il n'est pas possible de calculer la réponse exacte pour l'ensemble des configurations envisageables. Les métamodèles sont alors couramment utilisés mais nécessitent un grand nombre de réponses, notamment dans le cas où celles-ci sont non-linéaires. Une solution est alors d'exploiter plusieurs sources de données de qualité diverses pour générer un métamodèle multi-fidélité plus rapide à calculer pour une précision équivalente. Ces données multi-fidélité peuvent être extraites de modèles réduits.Les travaux présentés proposent une méthode de génération de métamodèles multi-fidélité pour l'optimisation de structures mécaniques par la mise en place d'une stratégie d'enrichissement adaptatif des informations sur la réponse de la structure, par utilisation de données issues d'un solveur LATIN-PGD permettant de générer des données de qualités adaptées, et d'accélérer le calcul par la réutilisation des données précédemment calculées. Un grand nombre de données basse-fidélité sont calculées avant un enrichissement intelligent par des données haute-fidélité.Ce manuscrit présente les contributions aux métamodèles multi-fidélité et deux approches de la méthode LATIN-PGD avec la mise en place d'une stratégie multi-paramétrique pour le réemploi des données précédemment calculées. Une implémentation parallèle des méthodes a permis de tester la méthode sur trois cas-tests, pour des gains pouvant aller jusqu'à 37x. / Engineering simulation provides the best design products by allowing many design options to be quickly explored and tested, but fast-time-to-results requirement remains a critical factor to meet aggressive time-to-market requirements. In this context, using high-fidelity direct resolution solver is not suitable for (virtual) charts generation for engineering design and optimization.Metamodels are commonly considered to explore design options without computing every possibility, but if the behavior is nonlinear, a large amount of data is still required. A possibility is to use further data sources to generate a multi-fidelity surrogate model by using model reduction. Model reduction techniques constitute one of the tools to bypass the limited calculation budget by seeking a solution to a problem on a reduced order basis (ROB).The purpose of the present work is an online method for generating a multi-fidelity metamodel nourished by calculating the quantity of interest from the basis generated on-the-fly with the LATIN-PGD framework for elasto-viscoplastic problems. Low-fidelity fields are obtained by stopping the solver before convergence, and high-fidelity information is obtained with converged solution. In addition, the solver ability to reuse information from previously calculated PGD basis is exploited.This manuscript presents the contributions to multi-fidelity metamodels and the LATIN-PGD method with the implementation of a multi-parametric strategy. This coupling strategy was tested on three test cases for calculation time savings of more than 37x.
34

Vers une maîtrise des incertitudes en calculs des structures composites

Rollet, Yannis 26 September 2007 (has links) (PDF)
Les exigences de sécurité dans le domaine aéronautique imposent de tenir compte des diverses incertitudes affectant les structures, notamment la variabilité matériau. Malgré son essor la simulation numérique considère actuellement cette problématique de façon simplifiée, par exemple en usant d'abattements sur les valeurs de propriétés utilisées dans les calculs. Mais l'emploi accru des matériaux composites, par nature plus sensibles aux incertitudes, demande l'introduction de méthodes plus précises afin d'assurer une meilleure robustesse du dimensionnement. Pour cela, il a été développé une nouvelle démarche dite d'Analyse de Variabilité respectant certaines contraintes de la simulation numérique telle l'indépendance vis-à-vis du code de calcul (non-intrusivité) et la parcimonie des calculs. Face à la grande diversité des techniques de transport d'incertitudes, le choix a été fait de construire une démarche en s'appuyant sur les techniques de surfaces de réponses. Afin d'exploiter au mieux les diverses formes retenues (polynômes en les paramètres incertains, chaos polynomial, krigeage) pour construire l'approximation, la démarche a été rendue progressive. Des méthodes de validation croisée (leave-k-out, bootstrap) ont été utilisées pour évaluer la qualité de l'approximation. Ainsi, il est possible d'afficher une estimation des effets des incertitudes (par exemple sous la forme de barres d'erreur) mais également de quantifier la confiance dans cette estimation. La validation de la démarche s'est tout d'abord appuyée sur des exemples mathématiques, puis sur des situations mécaniques simples et analytiques. Les résultats obtenus montrent notamment une bonne cohérence vis-à-vis des simulations de Monte-Carlo pour un coût de calcul nettement inférieur. Les incertitudes considérées portent aussi bien sur des paramètres géométriques que matériau, avec notamment des caractéristiques propres aux composites (angles d'empilement, épaisseur des plis). L'application de la démarche à divers exemples (plaque multiperforée, assemblage boulonné,...) de calcul de structures par la méthode des éléments finis a souligné son applicabilité pour un surcoût de calcul raisonnable. Pour finir, le problème de la réduction des effets des incertitudes a été abordé sous des angles classiques comme la réduction des incertitudes d'entrée ou l'amélioration de la qualité des modèles utilisés. Enfin, une méthode plus originale, dite de consolidation de bases de données, utilisant les corrélations entre paramètres mesurés aux diverses échelles des composites a été proposée.
35

Utilisation des méthodes de Krigeage pour le dimensionnement en fatigue des structures éoliennes posées en mer. / Kriging based methods for the structural damage assessment of offshore wind turbines

Huchet, Quentin 13 December 2018 (has links)
Dans le contexte actuel de transition énergétique, les acteurs de la production électrique (dont EDF) s'orientent de plus en plus vers les technologies "bas carbone", permettant de développer leur mix énergétique et d'assurer une production toujours plus respectueuse de l'environnement. Parmi l'ensemble des alternatives progressivement industrialisées au cours de ces dernières décennies, l'énergie éolienne voit son développement s'accélérer. De nouveaux projets voient le jour, notamment avec le développement de parcs éoliens posés en mer le long des côtes françaises.Afin de garantir une sécurité maximale des installations vis-à-vis des défaillances mécaniques, les ingénieurs doivent mettre en place un ensemble de vérifications ayant pour but d'assurer l'intégrité structurelle pendant une durée de vie donnée. Cette étape, nécessaire à la certification et donc à l'industrialisation du projet, exige un investissement numérique important. Dans le cas particulier de l'estimation de l'endommagement à durée de vie, un ensemble complet d'analyses doit être effectué afin de simuler les réactions structurelles en différents points de la conception et ce, pour l'ensemble des conditions environnementales de chargement possibles (cas de charge). Au total, quelques milliers de simulations correspondant à l'ensemble des situations probables sont à prévoir pour la seule estimation de l'endommagement à durée de vie. De plus, la prise en compte des différents phénomènes physiques du problème (aérodynamique, hydrodynamique, mécanique élastique), ainsi que la considération des non-linéarités des réponses liées à l'asservissement de la turbine, impliquent l'utilisation de codes de résolution temporels et multi-physiques coûteux pour chacune des situations de chargement à simuler.Afin de réduire l'investissement lié à l'estimation de cet endommagement, l'utilisation de méthodes numériques de substitution (également appelées métamodèles) est une alternative prometteuse. Ces méthodologies ont montré leur efficacité dans divers domaines de l'ingénierie permettant d'approcher, par diverses hypothèses statistiques, la réponse de modèles numériques en ne considérant qu'un nombre réduit de simulations.Ce travail de thèse s'est focalisé sur le développement d'outils numériques pour le dimensionnement efficace des structures éoliennes en mer et plus particulièrement sur l'utilisation des métamodèles de Krigeage (ou méthode de régression par processus gaussien) pour l'estimation de l'endommagement mécanique. Sous certaines hypothèses, cette méthode de substitution se prête particulièrement bien à l'approximation des réponses de modèles physiques, notamment grâce à la mise en place facilitée d'architectures itératives d'enrichissement ("active learning strategy"). Deux domaines ont principalement été étudiés : l'estimation rapide des quantités d'endommagement structurel par le développement de la méthode "Adaptive Kriging for Damage Assessment" (AK-DA) et les possibilités d'utilisation de cette dernière dans le cadre d'études de la fiabilité conceptuelle au regard de la tenue à l'endommagement. L'applicabilité de ces méthodes a été illustrée via l'utilisation d'exemples numériques inspirés du contexte industriel et de ses contraintes. / The mechanical certification of wind turbine structures is required for the funding of newoffshore projects on the French coasts. In order to ensure a maximal safety level of installations,a series of structural analyzes are required by the certification bodies. Amongst all, thedamage based computations represent an important numerical effort for EDF. The presentedworks focus on the applicability and the performances of Kriging metamodels for the estimationof the lifetime cumulated damage of offshore wind turbine structures (AK-DA approach)and the damage based reliability assessment of new designs (AK-MCS/AK-DA coupling).
36

Nouvel algorithme d'optimisation bayésien utilisant une approche Monte-Carlo séquentielle. / New Bayesian optimization algorithm using a sequential Monte-Carlo approach

Benassi, Romain 19 June 2013 (has links)
Ce travail de thèse s'intéresse au problème de l'optimisation globale d'une fonction coûteuse dans un cadre bayésien. Nous disons qu'une fonction est coûteuse lorsque son évaluation nécessite l’utilisation de ressources importantes (simulations numériques très longues, notamment). Dans ce contexte, il est important d'utiliser des algorithmes d'optimisation utilisant un faible nombre d'évaluations de cette dernière. Nous considérons ici une approche bayésienne consistant à affecter à la fonction à optimiser un a priori sous la forme d'un processus aléatoire gaussien, ce qui permet ensuite de choisir les points d'évaluation de la fonction en maximisant un critère probabiliste indiquant, conditionnellement aux évaluations précédentes, les zones les plus intéressantes du domaine de recherche de l'optimum. Deux difficultés dans le cadre de cette approche peuvent être identifiées : le choix de la valeur des paramètres du processus gaussien et la maximisation efficace du critère. La première difficulté est généralement résolue en substituant aux paramètres l'estimateur du maximum de vraisemblance, ce qui est une méthode peu robuste à laquelle nous préférons une approche dite complètement bayésienne. La contribution de cette thèse est de présenter un nouvel algorithme d'optimisation bayésien, maximisant à chaque étape le critère dit de l'espérance de l'amélioration, et apportant une réponse conjointe aux deux difficultés énoncées à l'aide d'une approche Sequential Monte Carlo. Des résultats numériques, obtenus à partir de cas tests et d'applications industrielles, montrent que les performances de notre algorithme sont bonnes par rapport à celles d’algorithmes concurrents. / This thesis deals with the problem of global optimization of expensive-to-evaluate functions in a Bayesian framework. We say that a function is expensive-to-evaluate when its evaluation requires a significant amount of resources (e.g., very long numerical simulations).In this context, it is important to use optimization algorithms that can deal with a limited number of function evaluations. We consider here a Bayesian approach which consists in assigning a prior to the function, under the form of a Gaussian random process. The idea is then to choose the next evaluation points using a probabilistic criterion that indicates, conditional on the previous evaluations, the most interesting regions of the research domain for the optimizer. Two difficulties in this approach can be identified: the choice of the Gaussian process prior and the maximization of the criterion. The first problem is usually solved by using a maximum likelihood approach, which turns out to be a poorly robust method, and to which we prefer a fully Bayesian approach. The contribution of this work is the introduction of a new Bayesian optimization algorithm, which maximizes the Expected Improvement (EI) criterion, and provides an answer to both problems thanks to a Sequential Monte Carlo approach. Numerical results on benchmark tests show good performances of our algorithm compared to those of several other methods of the literature.
37

Optimisation de fonctions coûteuses<br />Modèles gaussiens pour une utilisation efficace du budget d'évaluations : théorie et pratique industrielle

Villemonteix, Julien 10 December 2008 (has links) (PDF)
Cette thèse traite d'une question centrale dans de nombreux problèmes d'optimisation, en particulier<br />en ingénierie. Comment optimiser une fonction lorsque le nombre d'évaluations autorisé est très limité au regard de la dimension et de la complexité du problème ? Par exemple, lorsque le budget d'évaluations est limité par la durée des simulations numériques du système à optimiser, il n'est pas rare de devoir optimiser trente paramètres avec moins<br />de cent évaluations. Ce travail traite d'algorithmes d'optimisation spécifiques à ce contexte pour lequel la plupart des méthodes classiques sont inadaptées.<br />Le principe commun aux méthodes proposées est d'exploiter les propriétés des processus gaussiens et du krigeage pour construire une approximation peu coûteuse de la fonction à optimiser. Cette approximation est ensuite utilisée pour choisir itérativement les évaluations à réaliser. Ce choix est dicté par un critère d'échantillonnage qui combine recherche locale, à proximité des résultats prometteurs, et recherche globale, dans les zones non explorées. La plupart des critères proposés dans la littérature, tel celui de l'algorithme EGO (pour Efficient Global Optimization), cherchent à échantillonner la fonction là où l'apparition d'un optimum est jugée la plus probable. En comparaison, l'algorithme IAGO (pour Informational Approach to Global Optimization), principale contribution de nos travaux, cherche à maximiser la quantité d'information apportée, sur la position de l'optimum, par l'évaluation réalisée. Des problématiques industrielles ont guidé l'organisation de ce mémoire, qui se destine à la communauté de l'optimisation<br />tout comme aux praticiens confrontés à des fonctions à l'évaluation coûteuse. Aussi les applications industrielles y tiennent-elles une place importante tout comme la mise en place de l'algorithme IAGO. Nous détaillons non seulement le cas standard de l'optimisation d'une fonction réelle, mais aussi la prise en compte de contraintes, de<br />bruit sur les résultats des évaluations, de résultats d'évaluation du gradient, de problèmes multi-objectifs, ou encore d'incertitudes de fabrication significatives.
38

Contributions au traitement des incertitudes en modélisation numérique : propagation d'ondes en milieu aléatoire et analyse statistique d'expériences simulées

Iooss, Bertrand 21 January 2009 (has links) (PDF)
Le présent document constitue mon mémoire d'habilitation à diriger des recherches. Il retrace mon activité scientifique de ces douze dernières années, depuis ma thèse jusqu'aux travaux réalisés en tant qu'ingénieur-chercheur du CEA Cadarache. Les deux chapitres qui structurent ce document correspondent à deux domaines de recherche relativement différents mais se référant tous les deux au traitement des incertitudes dans des problèmes d'ingénierie. Le premier chapitre établit une synthèse de mes travaux sur la propagation d'ondes hautes fréquences en milieu aléatoire. Il concerne plus spécifiquement l'étude des fluctuations statistiques des temps de trajet des ondes acoustiques en milieu aléatoire et/ou turbulent. Les nouveaux résultats obtenus concernent principalement l'introduction de l'anisotropie statistique des champs de vitesse lors de la dérivation des expressions des moments des temps en fonction de ceux du champ de vitesse des ondes. Ces travaux ont été essentiellement portés par des besoins en géophysique (exploration pétrolière et sismologie). Le second chapitre aborde le domaine de l'utilisation des techniques probabilistes pour prendre en compte les incertitudes des variables d'entrée d'un modèle numérique. Les principales applications que j'évoque dans ce chapitre relèvent du domaine de l'ingénierie nucléaire qui offre une grande variété de problématiques d'incertitude à traiter. Tout d'abord, une synthèse assez complète est réalisée sur les méthodes statistiques d'analyse de sensibilité et d'exploration globale de modèles numériques. La construction et l'exploitation d'un métamodèle (fonction mathématique peu coûteuse se substituant à un code de calcul coûteux) sont ensuite illustrées par mes travaux sur le modèle processus gaussien (krigeage). Deux thématiques complémentaires sont finalement abordées : l'estimation de quantiles élevés de réponses de codes de calcul et l'analyse de codes de calcul stochastiques. Une conclusion met en perspective ces travaux dans le contexte plus général de la simulation numérique et de l'utilisation de modèles prédictifs dans l'industrie.
39

Modélisation comportementale de systèmes non-linéaires multivariables par méthodes à noyaux et applications

Vazquez, Emmanuel 12 May 2005 (has links) (PDF)
Les méthodes de prédiction linéaire de processus aléatoires, ou krigeage, et les méthodes de régression régularisée par une norme d'espace hilbertien à noyau reproduisant (splines, approximation par fonctions de base radiales, régression à vecteurs de support, etc.) constituent deux approches fondamentales de modélisation comportementale de systèmes non-linéaires. Les liens mathématiques entre ces deux approches ont été mentionnés à plusieurs reprises dans le passé. Fort peu exploités, ces liens n'en restent pas moins fondamentaux puisqu'ils permettent par exemple de comprendre comment formuler le problème de régression régularisée pour l'approximation de fonctions à valeurs vectorielles (cas des systèmes multivariables dits MIMO). Dans les deux approches, le choix du noyau est essentiel car il conditionne la qualité des modèles. Les principaux résultats théoriques sont issus de travaux en statistiques. Bien que de type asymptotique, ils ont des conséquences pratiques importantes rappelées et illustrées dans cette étude. Les noyaux considérés habituellement forment une famille restreinte offrant relativement peu de souplesse. Ceci nous a suggéré de développer des méthodes assemblant un noyau à partir d'un grand nombre de noyaux élémentaires. Elles ont permis d'obtenir des résultats satisfaisants notamment sur un problème test classique issu du domaine de la prédiction de séries chronologiques. Enfin, ce travail s'attache à montrer comment utiliser les méthodes de régression à noyaux à travers la présentation de problèmes réels. Le choix de noyau est abordé en pratique. La prise en compte d'informations disponibles a priori par utilisation du krigeage intrinsèque (régression semi-régularisée) est illustrée. Finalement, des éléments de planification d'expériences sont discutés.
40

Approche statistique pour l'optimisation des stratégies d'analyses techniques basées sur des seuils

Ryazanova Oleksiv, Marta 03 December 2008 (has links) (PDF)
Cette thèse propose des approches probabilistes pour améliorer et optimiser un des instruments les plus populaires de l'analyse technique, les bandes de trading. Les parties I et II se concentrent sur l'optimisation des composantes des bandes de trading: ligne centrale (représentée par la moyenne mobile) et lignes des bandes. La partie III est dédiée à l'amélioration du processus de prise de décision. Dans la partie I on propose d'utiliser le krigeage, une approche géostatistique, pour l'optimisation des poids des moyennes mobiles. Le krigeage permet d'obtenir l'estimateur optimal, qui incorpore les caractéristiques statistiques des données. Contrairement aux méthodes classiques, qui sont utilisées en finance, celle ci peut être appliquée aux données échantillonnées à maille régulière ou irrégulière. La partie II propose une méthode, basée sur la transformation des données en une variable normale, qui permet de définir les valeurs extrêmes et en conséquence les valeurs des bandes sans imposition de contraintes sur la distribution des résidus. Enfin, la partie III présente l'application des méthodes de krigeage disjonctif , une autre méthode géostatistique, pour les décision plus informative sur le timing et le type de position. Le krigeage disjonctif permet d'estimer les probabilités que certain seuils seront atteints dans le futur. Les résultats expérimentaux prouvent que les techniques proposées sont prometteuses et peuvent être utilisées en pratique.

Page generated in 0.4116 seconds