• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 68
  • 27
  • 5
  • Tagged with
  • 97
  • 51
  • 25
  • 23
  • 21
  • 18
  • 16
  • 16
  • 15
  • 15
  • 14
  • 14
  • 12
  • 12
  • 11
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Optimisation de la tête d'extrusion pour la fabrication de pièces thermoplastiques

Lebaal, Nadhir 15 June 2007 (has links) (PDF)
Au cours de cette étude, différents aspects d'optimisation ont été abordés. L'objectif de nos travaux de recherches est d'homogénéiser la répartition des vitesses à la sortie des filières, par la maîtrise et l'optimisation des paramètres géométrique et opératoires. Dans cette étude l'optimisation a été effectuée en utilisant un logiciel commercial Rem3D®, basé sur la méthode des éléments finis.<br />Une procédure d'optimisation, basée sur la méthode de surface de réponse, a été proposée. Celle-ci nous a permis de résoudre un problème d'optimisation implicite dont l'évaluation des fonctions est très coûteuse en temps de calcul. Pour cela, toutes les fonctions sont écrites sous une forme explicite en utilisant soit l'approximation diffuse ou l'interpolation Krigeage. Compte tenu de la présence des contraintes non linéaires, un algorithme itératif de type SQP, a été utilisé. Pour localiser l'optimum global avec précision et à moindre coût, une procédure d'échantillonnage auto adaptatif de l'espace de recherche a été appliquée et plusieurs stratégies permettant de réactualiser les approximations et le point initial ont été adoptées.<br />Dans la première étape l'objectif était d'identifier le comportement rhéologique d'une matière plastique en production. La comparaison avec des mesures en rhéométrie capillaire nous a permis de vérifier la pertinence des paramètres rhéologique obtenus par optimisation.<br />Les résultats de trois autres applications mettent en évidence l'intérêt de l'optimisation des paramètres géométriques et opératoires du procédé d'extrusion.<br />Une filière optimisée numériquement pour une gamme différente de polymère a été réalisée et une comparaison expérimentale a permis de valider toute la procédure de simulation et d'optimisation mise en place. Les résultats expérimentaux et de simulations montrent une bonne homogénéisation de la répartition des vitesses à la sortie de la filière optimale pour une gamme très large de débits et pour différents polymères.
22

SURFACES DE REPONSE PAR KRIGEAGE POUR L'OPTIMISATION DE FORMES AERODYNAMIQUES.

Laurenceau, Julien 26 June 2008 (has links) (PDF)
Les simulations numériques RANS, utilisées en aérodynamique pour évaluer la performance d'une forme, sont coûteuses en temps de calcul. Comme une optimisation nécessite l'étude de plusieurs dizaines de formes différentes, ce coût limite le champ des problèmes envisageables. <br />Un nouvel optimiseur basé sur des surfaces de réponse construites par une méthode de Krigeage est proposé. A un surcout modéré, la solution obtenue est meilleure. De plus, cet optimiseur semble aussi capable de traiter des problèmes de grande dimension en interpolant le vecteur gradient aux points de construction du Krigeage. <br />En optimisation multidisciplinaire, les surfaces de réponse sont largement employées pour échanger facilement des données entre différentes disciplines. Ainsi, une approche d'optimisation bi-niveau avec couplage fluide/structure par surface de réponse est étudiée. L'application considérée traite de l'intégration d'une installation motrice (positionnement) sur un avion de transport civil.
23

Fonctions-spline homogènes à plusieurs variables

Duchon, Jean 08 February 1980 (has links) (PDF)
On présente certains outils mathématiques pour l'étude des fonctions Spline à plusieurs variables.
24

Simulation conditionnelle de modèles isofactoriels

Emery, Xavier 02 1900 (has links)
Cette thèse vise à développer des algorithmes de simulation conditionnelle de fonctions aléatoires à lois bivariables isofactorielles, c'est-à-dire telles qu'il existe une base de fonctions (facteurs) sans corrélations spatiales croisées. Les lois isofactorielles réalisent un compromis entre deux exigences souvent difficiles à concilier: d'une part, elles forment une vaste classe de modèles et permettent de s'adapter à la description de nombreux phénomènes; d'autre part, l'inférence statistique du modèle repose sur un faible nombre de paramètres. La première partie de la thèse met en relief les limitations et les approximations commises par une technique réputée "passe-partout": l'algorithme séquentiel, qui consiste à simuler les sites de l'espace les uns après les autres dans un ordre aléatoire, en estimant en chaque site la distribution de probabilité conditionnelle de la valeur inconnue par un krigeage d'indicatrices ou par un krigeage disjonctif. La seconde partie propose des modèles nouveaux et des algorithmes adaptés à leur simulation et au conditionnement à des données expérimentales. Plusieurs outils structuraux sont introduits et étudiés pour mener l'inférence des lois bivariables, notamment le madogramme, les variogrammes d'ordre inférieur à deux et les variogrammes d'indicatrices. Les concepts et méthodes sont finalement appliqués à un ensemble de données minières (accumulations en or et argent dans un gisement chilien en veine) caractérisées par une très forte dissymétrie des histogrammes.
25

Étude de classes de noyaux adaptées à la simplification et à l'interprétation des modèles d'approximation. Une approche fonctionnelle et probabiliste.

Durrande, Nicolas 09 November 2011 (has links) (PDF)
Le thème général de cette thèse est celui de la construction de modèles permettantd'approximer une fonction f lorsque la valeur de f(x) est connue pour un certainnombre de points x. Les modèles considérés ici, souvent appelés modèles de krigeage,peuvent être abordés suivant deux points de vue : celui de l'approximation dans les espacesde Hilbert à noyaux reproduisants ou celui du conditionnement de processus gaussiens.Lorsque l'on souhaite modéliser une fonction dépendant d'une dizaine de variables, lenombre de points nécessaires pour la construction du modèle devient très important etles modèles obtenus sont difficilement interprétables. A partir de ce constat, nous avonscherché à construire des modèles simplifié en travaillant sur un objet clef des modèles dekrigeage : le noyau. Plus précisement, les approches suivantes sont étudiées : l'utilisation denoyaux additifs pour la construction de modèles additifs et la décomposition des noyauxusuels en sous-noyaux pour la construction de modèles parcimonieux. Pour finir, nousproposons une classe de noyaux qui est naturellement adaptée à la représentation ANOVAdes modèles associés et à l'analyse de sensibilité globale.
26

Nouvel algorithme d'optimisation bayésien utilisant une approche Monte-Carlo séquentielle.

Benassi, Romain 19 June 2013 (has links) (PDF)
Ce travail de thèse s'intéresse au problème de l'optimisation globale d'une fonction coûteuse dans un cadre bayésien. Nous disons qu'une fonction est coûteuse lorsque son évaluation nécessite l'utilisation de ressources importantes (simulations numériques très longues, notamment). Dans ce contexte, il est important d'utiliser des algorithmes d'optimisation utilisant un faible nombre d'évaluations de cette dernière. Nous considérons ici une approche bayésienne consistant à affecter à la fonction à optimiser un a priori sous la forme d'un processus aléatoire gaussien, ce qui permet ensuite de choisir les points d'évaluation de la fonction en maximisant un critère probabiliste indiquant, conditionnellement aux évaluations précédentes, les zones les plus intéressantes du domaine de recherche de l'optimum. Deux difficultés dans le cadre de cette approche peuvent être identifiées : le choix de la valeur des paramètres du processus gaussien et la maximisation efficace du critère. La première difficulté est généralement résolue en substituant aux paramètres l'estimateur du maximum de vraisemblance, ce qui est une méthode peu robuste à laquelle nous préférons une approche dite complètement bayésienne. La contribution de cette thèse est de présenter un nouvel algorithme d'optimisation bayésien, maximisant à chaque étape le critère dit de l'espérance de l'amélioration, et apportant une réponse conjointe aux deux difficultés énoncées à l'aide d'une approche Sequential Monte Carlo. Des résultats numériques, obtenus à partir de cas tests et d'applications industrielles, montrent que les performances de notre algorithme sont bonnes par rapport à celles d'algorithmes concurrents.
27

Analyse statistique d'expériences simulées : Modélisation adaptative de réponses non régulières par krigeage et plans d'expériences, Application à la quantification des incertitudes en ingénierie des réservoirs pétroliers

Scheidt, Céline 25 September 2006 (has links) (PDF)
La quantification des incertitudes est essentielle à la bonne maîtrise de la production des réservoirs pétroliers. Ce problème est complexe car l'impact des paramètres incertains sur la production est souvent non-régulier. Du fait du coût important d'une simulation numérique d'écoulement, les méthodes traditionnelles d'analyse de risque sont basées sur un modèle approché du modèle d'écoulement. Ce modèle, construit à partir de plans d'expériences supposant un comportement polynomial de la réponse, ignore les non-régularités. L'objectif de cette thèse est la mise en place d'un formalisme de modélisation de réponses non-régulières. Nous proposons de construire des plans évolutifs afin d'intégrer graduellement les non-régularités. Cette approche est inspirée conjointement de méthodes géostatistiques et de plans d'expériences. En partant d'une surface de réponse initiale, la méthodologie consiste à déterminer itérativement de nouvelles simulations afin d'enrichir le dispositif expérimental et ainsi améliorer l'approximation de la réponse. Différents critères d'ajout de simulations sont proposés. Nous préconisons l'intégration de l'information apportée par les extrema et les points de dérivée partielle nulle de l'approximation. De plus, l'ajout d'information fictive par points pilotes permet une optimisation de la prédictivité de l'approximation ainsi que la détermination de nouveaux points candidats à la simulation. Cette méthodologie originale d'ajustement de surfaces complexes a montré son efficacité, en terme de modélisation comme en terme de réduction du nombre de simulations, notamment pour une quantification d'incertitudes pour deux cas de réservoir pétrolier.
28

Étude de classes de noyaux adaptées à la simplification et à l'interprétation des modèles d'approximation. Une approche fonctionnelle et probabiliste.

Durrande, Nicolas 09 November 2001 (has links) (PDF)
Le thème général de cette thèse est celui de la construction de modèles permettant d'approximer une fonction f lorsque la valeur de f(x) est connue pour un certain nombre de points x. Les modèles considérés ici, souvent appelés modèles de krigeage, peuvent être abordés suivant deux points de vue : celui de l'approximation dans les espaces de Hilbert à noyaux reproduisants ou celui du conditionnement de processus gaussiens. Lorsque l'on souhaite modéliser une fonction dépendant d'une dizaine de variables, le nombre de points nécessaires pour la construction du modèle devient très important et les modèles obtenus sont difficilement interprétables. A partir de ce constat, nous avons cherché à construire des modèles simplifiés en travaillant sur un objet clef des modèles de krigeage : le noyau. Plus précisement, les approches suivantes sont étudiées : l'utilisation de noyaux additifs pour la construction de modèles additifs et la décomposition des noyaux usuels en sous-noyaux pour la construction de modèles parcimonieux. Pour finir, nous proposons une classe de noyaux qui est naturellement adaptée à la représentation ANOVA des modèles associés et à l'analyse de sensibilité globale.
29

Kriging-based black-box global optimization : analysis and new algorithms / Optimisation Globale et processus Gaussiens : analyse et nouveaux algorithmes

Mohammadi, Hossein 11 April 2016 (has links)
L’«Efficient Global Optimization» (EGO) est une méthode de référence pour l’optimisation globale de fonctions «boites noires» coûteuses. Elle peut cependant rencontrer quelques difficultés, comme le mauvais conditionnement des matrices de covariance des processus Gaussiens (GP) qu’elle utilise, ou encore la lenteur de sa convergence vers l’optimum global. De plus, le choix des paramètres du GP, crucial car il contrôle la famille des fonctions d’approximation utilisées, mériterait une étude plus poussée que celle qui en a été faite jusqu’à présent. Enfin, on peut se demander si l’évaluation classique des paramètres du GP est la plus appropriée à des fins d’optimisation. \\Ce travail est consacré à l'analyse et au traitement des différentes questions soulevées ci-dessus.La première partie de cette thèse contribue à une meilleure compréhension théorique et pratique de l’impact des stratégies de régularisation des processus Gaussiens, développe une nouvelle technique de régularisation, et propose des règles pratiques. Une seconde partie présente un nouvel algorithme combinant EGO et CMA-ES (ce dernier étant un algorithme d’optimisation globale et convergeant). Le nouvel algorithme, nommé EGO-CMA, utilise EGO pour une exploration initiale, puis CMA-ES pour une convergence finale. EGO-CMA améliore les performances des deux algorithmes pris séparément. Dans une troisième partie, l’effet des paramètres du processus Gaussien sur les performances de EGO est soigneusement analysé. Finalement, un nouvel algorithme EGO auto-adaptatif est présenté, dans une nouvelle approche où ces paramètres sont estimés à partir de leur influence sur l’efficacité de l’optimisation elle-même. / The Efficient Global Optimization (EGO) is regarded as the state-of-the-art algorithm for global optimization of costly black-box functions. Nevertheless, the method has some difficulties such as the ill-conditioning of the GP covariance matrix and the slow convergence to the global optimum. The choice of the parameters of the GP is critical as it controls the functional family of surrogates used by EGO. The effect of different parameters on the performance of EGO needs further investigation. Finally, it is not clear that the way the GP is learned from data points in EGO is the most appropriate in the context of optimization. This work deals with the analysis and the treatment of these different issues. Firstly, this dissertation contributes to a better theoretical and practical understanding of the impact of regularization strategies on GPs and presents a new regularization approach based on distribution-wise GP. Moreover, practical guidelines for choosing a regularization strategy in GP regression are given. Secondly, a new optimization algorithm is introduced that combines EGO and CMA-ES which is a global but converging search. The new algorithm, called EGO-CMA, uses EGO for early exploration and then CMA-ES for final convergence. EGO-CMA improves the performance of both EGO and CMA-ES. Thirdly, the effect of GP parameters on the EGO performance is carefully analyzed. This analysis allows a deeper understanding of the influence of these parameters on the EGO iterates. Finally, a new self-adaptive EGO is presented. With the self-adaptive EGO, we introduce a novel approach for learning parameters directly from their contribution to the optimization.
30

Objective Bayesian analysis of Kriging models with anisotropic correlation kernel / Analyse bayésienne objective des modèles de krigeage avec noyau de corrélation anisotrope

Muré, Joseph 05 October 2018 (has links)
Les métamodèles statistiques sont régulièrement confrontés au manque de données qui engendre des difficultés à estimer les paramètres. Le paradigme bayésien fournit un moyen élégant de contourner le problème en décrivant la connaissance que nous avons des paramètres par une loi de probabilité a posteriori au lieu de la résumer par une estimation ponctuelle. Cependant, ce paradigme nécessite de définir une loi a priori adéquate, ce qui est un exercice difficile en l'absence de jugement d'expert. L'école bayésienne objective propose des priors par défaut dans ce genre de situation telle que le prior de référence de Berger-Bernardo. Un tel prior a été calculé par Berger, De Oliveira and Sansó [2001] pour le modèle de krigeage avec noyau de covariance isotrope. Une extension directe au cas des noyaux anisotropes poserait des problèmes théoriques aussi bien que pratiques car la théorie de Berger-Bernardo ne peut s'appliquer qu'à un jeu de paramètres ordonnés. Or dans ce cas de figure, tout ordre serait nécessairement arbitraire. Nous y substituons une solution bayésienne objective fondée sur les posteriors de référence conditionnels. Cette solution est rendue possible par une théorie du compromis entre lois conditionnelles incompatibles. Nous montrons en outre qu'elle est compatible avec le krigeage trans-gaussien. Elle est appliquée à un cas industriel avec des données non-stationnaires afin de calculer des Probabilités de Détection de défauts (POD de l'anglais Probability Of Detection) par tests non-destructifs dans les tubes de générateur de vapeur de centrales nucléaires. / A recurring problem in surrogate modelling is the scarcity of available data which hinders efforts to estimate model parameters. The Bayesian paradigm offers an elegant way to circumvent the problem by describing knowledge of the parameters by a posterior probability distribution instead of a pointwise estimate. However, it involves defining a prior distribution on the parameter. In the absence of expert opinion, finding an adequate prior can be a trying exercise. The Objective Bayesian school proposes default priors for such can be a trying exercise. The Objective Bayesian school proposes default priors for such situations, like the Berger-Bernardo reference prior. Such a prior was derived by Berger, De Oliveira and Sansó [2001] for the Kriging surrogate model with isotropic covariance kernel. Directly extending it to anisotropic kernels poses theoretical as well as practical problems because the reference prior framework requires ordering the parameters. Any ordering would in this case be arbitrary. Instead, we propose an Objective Bayesian solution for Kriging models with anisotropic covariance kernels based on conditional reference posterior distributions. This solution is made possible by a theory of compromise between incompatible conditional distributions. The work is then shown to be compatible with Trans-Gaussian Kriging. It is applied to an industrial case with nonstationary data in order to derive Probability Of defect Detection (POD) by non-destructive tests in steam generator tubes of nuclear power plants.

Page generated in 0.0379 seconds