• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 68
  • 27
  • 5
  • Tagged with
  • 97
  • 51
  • 25
  • 23
  • 21
  • 18
  • 16
  • 16
  • 15
  • 15
  • 14
  • 14
  • 12
  • 12
  • 11
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Modélisation thermo-mécanique et fiabilité des échangeurs réacteurs en carbure de silicium / Thermo-mechanical modeling and reliability of silicon carbide based heat exchanger reactor

Boniface, Benjamin 09 December 2010 (has links)
Les échangeurs réacteurs intensifiés (ERI) sont des échangeurs de chaleur utilisés comme réacteurs chimiques afin d'intensifier les procédés de synthèse. L'ERI étudié dans ce travail est composé de plaques en carbure de silicium, lui conférant ainsi des propriétés thermiques et chimiques importantes. En contrepartie, l'utilisation du SiC accentue les risques de rupture fragile, à ajouter aux risques principaux associés aux ERI qui sont les fuites de fluide et l'emballement thermique de la réaction. L'intensification des procédés représente un gain important en terme de productivité, de sécurité et d'impact environnemental, à condition de maîtriser la conception et la mise en œuvre de l'ERI. L'objectif de ce travail est de proposer une démarche d'étude adaptée à ce type de produit en général, et d'optimiser la conception de cet ERI en particulier. Pour cela, les modèles thermo-chimique et thermo-mécanique de l'ERI sont développés puis utilisés dans une étude mécano-fiabiliste, notamment au moyen à la méthode AK-MCS basée sur l'interpolation par krigeage de la fonction de performance. / Intensified heat exchanger reactors (ERI) are heat exchangers used as chemical reactors for process intensification. The ERI studied in this work is composed of silicon carbide (SiC) based plates, giving it interesting thermal and chemical properties. In return, the use of SiC increases the brittle fracture risk, in addition of the main risks that are leaking fluid and thermal runaway reaction. The process intensification represents a significant gain in productivity, safety and environmental impact, provided that the design and the implementation procedure of the ERI are optimized. The objective of this work is to propose a process of study suited to this type of product in general, and to optimize the design of this ERI in particular. For this, the thermo-chemical and thermo-mechanical models are developed and used in a mechano-reliability study, notably using the AK-MCS method based on kriging interpolation of the performance function.
12

Krigeage et cokrigeage, méthodes d’interpolation spatiale pour les systèmes d’information géographique

Mangapi, Augustin Assonga January 1994 (has links)
Résumé: Tel que le notent si bien Oliver et al. (1990), la plupart des méthodes d’interpolation classiques sont basées sur les modèles des méthodes numériques différents des modèles probabilistes de variation spatiale. Les distributions des variables des données spatiales se comportent plus comme des variables aléatoires et la théorie des variables régionalisées comporte un ensemble de méthodes stochastiques pour les analyser. Le krigeage et le cokrigeage, basés sur cette théorie, expriment les variations spatiales de variables en termes de variogrammes et ils minimisent les erreurs de prédiction qui sont elles-mêmes estimées. Appliquées aux données des variables pédologiques des champs de la Station de recherches de Lennoxville, les méthodes ou techniques d’interpolation de la géostatistique: les krigeages et cokrigeages ordinaires, universels et par bloc, ainsi dénommées, sont explorées et comparées en vue d’en identifier la méthode appropriée intégrable dans un système d’information géographique, pour obtenir l’optimum de la modélisation, la présentation et celui de l’analyse spatiale. Les valeurs krigées et cokrigées des techniques choisies sont obtenues à l’aide de l’algorithme Cokri (Marcotte, 1991, 1993) et sont comparées aux valeurs initiales dont elles en sont les estimations. Des tests de similarité appliqués à ces données et résultats attestent la similarité de leurs distributions respectives. En d’autres termes, les types de krigeage et de cokrigeage examinés bénéficient de la même homogénéité des données qui est vérifiée par des outils de comparaison visuels et des traitements géostatistiques. De plus l’utilisation de ces méthodes donne des erreurs minimes proches de la réalité. Ainsi, selon la nature spécifique des données spatiales, en l’occurence les données homogènes sans structure spatiale particulière cachée, un estimateur linéaire simple ou la moyenne arithmétique de ces données, suffit pour représenter les variables étudiées.||Abstract: As Oliver et al. (1990) pointed it out so well, most of iraditional methods of interpolation are based on numerical method models as distinct from stochastic models of spatial variation. Spatially distributed data behave more like random variables, however, and regionalized variable theory provides a set of stochastic methods for analyzing them. Kriging and cokriging, based on that theory, depend on expressing spatial variation of the property in terms of variograms, and they minimize the prediction erros which are themselves estimated. Used on pedological parameters data, oridinary, universai and block krigings and cokrigings, geostatistical interpolation methods or techniques, are expiored and compared in order to identify the appropriate method which can be integrated into a Geographic Information System to provide optimum modelting, presentation and spatial analysis. Kriged and cokriged values are obtained by Cokri algorithm (Marcotte, 1991, 1993), and are compared to estimated initial data. Similarity tests applied to these data and values show that their respective distributions are similar. In othe words, the examined kriging and cokriging types perfom equally well. They ail take advantage of the data homogeneity, verified by visual comparison and geostatiatical tools or techniques, for providing doser minimum error terms. Thus, according to the special nature of spatial data, namely the homogeneous ones without a hiden particular spatial structure, a simple linear estimator, such as the data arithmetical mean, is sufficient for representing die variables under consideration.
13

Méthodes d'interpolation à noyaux pour l'approximation de fonctions type boîte noire coûteuses

Barbillon, Pierre 22 November 2010 (has links) (PDF)
Cette thèse se place dans le cadre des expériences simulées auxquelles on a recours lorsque des expériences physiques ne sont pas réalisables. Une expérience simulée consiste à évaluer une fonction déterministe type boîte-noire coûteuse qui décrit un modèle physique. Les entrées de ce modèle, entachées d'incertitude, forment un vecteur aléatoire. Cela implique que les sorties que nous souhaitons étudier sont aléatoires. Une technique standard pour rendre possibles de nombreux traitements statistiques, est de remplacer la fonction type boîte-noire par un métamodèle d'évaluation quasi-instantanée l'approchant. Nous nous concentrons plus particulièrement sur les métamodèles d'interpolateurs à noyaux dont nous étudions la construction et l'utilisation. Dans ce cadre, une première contribution est la proposition d'une définition plus générale de noyau conditionnellement positif qui permet une vraie généralisation du concept de noyau défini positif et des théorèmes associés. Nous donnons ensuite, dans une deuxième contribution, un algorithme de construction de plans d'expérience dans des domaines éventuellement non hypercubiques suivant un critère maximin pertinent pour ces métamodèles. Dans une troisième contribution, nous traitons un problème statistique inverse en utilisant un métamodèle d'interpolateurs à noyaux dans un algorithme stochastique EM puisque le modèle liant les entrées aux sorties est de type boîte-noire coûteux. Enfin, nous proposons aussi, dans la dernière contribution, l'utilisation d'un tel métamodèle pour développer deux stratégies d'estimation et de majoration de probabilités d'événements rares dépen\-dant d'une fonction type boîte-noire coûteuse.
14

Méthodes stochastiques de modélisation de données : application à la reconstruction de données non régulières. / Stochastic methods of data modeling : application to the reconstruction of non-regular data

Buslig, Leticia 06 October 2014 (has links)
Pas de résumé / Pas de résumé
15

Modeling and simulation of flows over and through fibrous porous media / Modélisation et simulation d'un écoulement autour d'une paroi poreuse et fibreuse

Luminari, Nicola 19 March 2018 (has links)
Toute surface naturelle est par essence non lisse, elle est constituée de rugosités plus ou moins régulières et / ou de structures mobiles d’échelles variées. D’un point de vue mécanique des fluides, ces surfaces naturelles proposent des meilleures performances aérodynamiques en terme de réduction de traînée, d’augmentation de la portance ou de contrôle du décollement lorsqu’elles couvrent des corps en mouvement. Cela a été notament prouvé pour des écoulements de couches limites ou de sillage, autour de corps épais. La simulation numérique d’écoulements aux échelles microscopiques autour des surfaces « naturelles » demeure de nos jours encore hors de portée. En conséquence, la thèse a pour objet d’étudier la modélisation du glissement apparent de l’écoulement sur ce genre de surface, modélisée comme un milieu poreux, appliquant la théorie de la moyenne-volumique de Whitaker. Ce modèle mathématique permet globalement de représenter en moyenne les détails de la micro-structure de ses surfaces, tout en conservant une description satisfaisante des phénomènes physiques induits par l’écoulement. Le premier chapitre de ce manuscrit dresse un panorama des efforts antérieurs portant sur la modélisation de ces surfaces en précisant les résultats les plus importants issus de la littérature. Le deuxième chapitre présente la dérivation mathématique des équations de Navier- Stokes en moyenne volumique (VANS en anglais) dans un milieu poreux. Dans le troisième chapitre est étudiée la stabilité de l’écoulement à l’interface entre un fluide libre et un milieu poreux, constitué d'une série de cylindres rigides. La présence de cette couche poreuse est traitée par un terme de traînée dans les équations du fluide. On montre que l'ajout de ce terme réduit les taux d’amplification de l’instabilité de Kelvin-Helmholtz sur toute la gamme des nombre d’onde et ainsi augmente la longueur d’onde du mode le plus amplifié. Dans ce même contexte a été calculée la différence entre un modèle isotrope et une approche tensorielle pour le terme de traînée, afin de déterminer l’approche la plus consistante pour une étude de stabilité de ce type d’écoulement. Cela a mené à la conclusion que le modèle le plus pertinent est celui utilisant le tenseur de perméabilité apparent. Dans le chapitre suivant le tenseur de perméabilité apparent est identifié sur la base d’une centaine de simulations numériques directes, pour un milieu poreux tridimensionnel constitué de cylindres rigides, où le problème de fermeture est abordé par la méthode VANS. Dans ces configurations ce tenseur varie en fonction de quatre paramètres : le nombre de Reynolds, la porosité et l’orientation du gradient moyen de pression définie par deux angles d’Euler. Cette paramétrisation permet de capturer les effets tridimensionnels locaux. Cette base de données ainsi constituée a permis de créer, une approche de type kriging, un métamodèle comportemental pour estimer toutes les composantes du tenseur de perméabilité apparente. Dans le cinquième chapitre sont menées des simulations des équations VANS à l’échelle macroscopique après implémentation du méta-modèle qui autorise des temps de calcul raisonnables. La validation de l’approche à l’échelle macroscopique est effectuée sur un écoulement dans une cavité fermé couverte d’une couche poreuse et une comparaison avec les résultats d’un DNS très précise, homogénéisés a posteriori montre un très bon accord et démontre la pertinence de la démarche. L’étape suivante a consisté en l’étude du contrôle du décollement pour un écoulement autour d’une bosse poreuse par cette même approche VANS macroscopique. Enfin des conclusions générales et des directions de recherche possibles sont présentées dans le dernier chapitre. / Any natural surface is in essence non-smooth, consisting of more or less regular roughness and/or mobile structures of different scales. From a fluid mechanics point of view, these natural surfaces offer better aerodynamic performances when they cover moving bodies, in terms of drag reduction, lift enhancement or control of boundary layer separation; this has been shown for boundary layer or wake flows around thick bodies. The numerical simulation of microscopic flows around "natural" surfaces is still out of reach today. Therefore, the goal of this thesis is to study the modeling of the apparent flow slip occurring on this kind of surfaces, modeled as a porous medium, applying Whitaker's volume averaging theory. This mathematical model makes it possible to capture details of the microstructure while preserving a satisfactory description of the physical phenomena which occur. The first chapter of this manuscript provides an overview of previous efforts to model these surfaces, detailing the most important results from the literature. The second chapter presents the mathematical derivation of the volume-averaged Navier-Stokes equations (VANS) in a porous medium. In the third chapter the flow stability at the interface between a free fluid and a porous medium, formed by a series of rigid cylinders, is studied. The presence of this porous layer is treated by including a drag term in the fluid equations. It is shown that the presence of this term reduces the rates of amplification of the Kelvin-Helmholtz instability over the whole range of wavenumbers, thus leading to an increase of the wavelength of the most amplified mode. In this same context, the difference between the isotropic model and a tensorial approach for the drag term has been evaluated, to determine the most consistent approach to study these flow instabilities. This has led to the conclusion that the model that uses the apparent permeability tensor is the most relevant one. In the following chapter, based on this last result, the apparent permeability tensor, based on over one hundred direct numerical simulations carried out over microscopic unit cells, has been identified for a three-dimensional porous medium consisting of rigid cylinders. In these configurations the tensor varies according to four parameters: the Reynolds number, the porosity and the direction of the average pressure gradient, defined by two Euler angles. This parameterization makes it possible to capture local three-dimensional effects. This database has been set up to create, based on a kriging-type approach, a behavioral metamodel for estimating all the components of the apparent permeability tensor. In the fifth chapter, simulations of the VANS equations are carried out on a macroscopic scale after the implementation of the metamodel, to get reasonable computing times. The validation of the macroscopic approach is performed on a closed cavity flow covered with a porous layer and a comparison with the results of a very accurate DNS, homogenized a posteriori, has shown a very good agreement and has demonstrated the relevance of the approach. The next step has been the study of the passive control of the separation of the flow past a hump which is placed on a porous wall, by the same macroscopic VANS approach. Finally, general conclusions and possible directions of research in the field are presented in the last chapter.
16

Caractérisation thermomécanique, modélisation et optimisation fiabiliste des packages électroniques / Thermomechanical characterization, modeling and reliability optimization of electronic packages

Bendaou, Omar 07 November 2017 (has links)
Lors du fonctionnement des packages électroniques, ceux ci sont exposés à diverses sollicitations d'ordres thermiques et mécaniques. De même, la combinaison de ces sources de contraintes constitue l'origine de la quasi majorité des défaillances des packages électroniques. Pour s'assurer de la bonne résistance des packages électroniques, les fabricants pratiquent des tests de fiabilité et des analyses de défaillance avant toute commercialisation. Toutefois, les essais expérimentaux, lors de la phase de conception et de l'élaboration des prototypes, s'avèrent contraignants en termes de temps et de ressources matérielles. En revanche, la simulation numérique à l'aide de la méthode des éléments finis constitue une option alternative en termes de temps et de ressources. Les objectifs dévolus aux travaux de recherche visent à élaborer quatre modèles éléments finis en 3D, validés/calibrés par des essais expérimentaux, intégrant les recommandations JEDEC (1) en vue de : - Procéder à la caractérisation thermique et thermomécanique des packages électroniques ; - Et prédire la durée de vie en fatigue thermique des joints de brasures et ce, en lieu et place de la caractérisation expérimentale normalisée. Or, la mise en œuvre des modèles éléments finis présente certains inconvénients liés aux incertitudes au niveau de la géométrie, des propriétés matériaux, les conditions aux limites ou les charges. Ceux ci ont une influence sur le comportement thermique et thermomécanique des systèmes électroniques. D'où la nécessité de formuler le problème en termes probabilistes et ce, dans le but de mener une étude de fiabilité et d’optimisation des packages électroniques. Pour remédier au temps de calcul énorme généré par les méthodes d’analyse de fiabilité classiques, nous avons développé des méthodologies spécifiques à cette problématique, via des méthodes d’approximation basées sur le krigeage avancé,qui nous ont permis de bâtir un modèle de substitution, qui rallie efficacité et précision. Par conséquent, une analyse de fiabilité a été menée avec exactitude et dans un temps extrêmement court, via les méthodes de simulation Monte Carlo et FORM/SORM, couplées avec le modèle de krigeage avancé. Ensuite, l’analyse de fiabilité a été associée dans le processus d’optimisation, en vue d’améliorer la performance et la fiabilité de la conception structurelle des packages électroniques. A la fin, nous avons procédé à l’applicabilité des dites méthodologies d’analyse de fiabilité aux quatre modèles éléments finis ainsi développés. Il résulte que les analyses de fiabilité menées se sont avérées très utiles pour prédire les effets des incertitudes liées aux propriétés matériaux. De même, l’analyse d’optimisation de fiabilité ainsi réalisée nous a permis d’améliorer la performance et la fiabilité de la conception structurelle des packages électroniques. (1) JEDEC (Joint Electron Device Engineering Council) est un organisme de normalisation des semi-conducteurs. / During operation, electronic packages are exposed to various thermal and mechanical solicitations. These solicitations combined are the source for most of electronic package failures. To ensure electronic packages robustness, manufacturers perform reliability testing and failure analysis prior to any commercialization. However, experimental tests, during design phase and prototypes development, are known to be constraining in terms of time and material resources. This research aims to develop four finite element models in 3D, validated/calibrated by experimental tests, integrating JEDEC recommendations to : - Perform electronic packages thermal and thermomechanical characterization ; - Predict the thermal fatigue life of solder joints in place of the standardized experimental characterization.However, implementation of the finite element model has some disadvantages related to uncertainties at the geometry, material properties, boundary conditions or loads. These uncertainties influence thermal and electronic systems thermomechanical behavior. Hence the need to formulate the problem in probabilistic terms, in order to conduct a reliability study and a electronic packages reliability based design optimization.To remedy the enormous computation time generated by classical reliability analysis methods, we developed methodologies specific to this problem, using approximation methods based on advanced kriging, which allowed us to build a substitution model, combining efficiency and precision. Therefore reliability analysis can be performed accurately and in a very short time with Monte Carlo simulation (MCS) and FORM / SORM methods coupled with the advanced model of kriging. Reliability analysis was associated in the optimization process, to improve the performance and electronic packages structural design reliability. In the end, we applied the reliability analysis methodologies to the four finite element models developed. As a result, reliability analysis proved to be very useful in predicting uncertainties effects related to material properties. Similarly, reliability optimization analysis performed out has enabled us to improve the electronic packages structural design performance and reliability. In the end, we applied the reliability analysis methodologies to the four finite element models developed. As a result, reliability analysis proved to be very useful in predicting uncertainties effects related to material properties. Similarly, reliability optimization analysis performed out has enabled us to improve the electronic packages structural design performance and reliability.
17

Étude de l'exposition des personnes aux ondes électromagnétiques en environnement complexe

Jawad, Ourouk 22 October 2014 (has links) (PDF)
Actuellement, les technologies sans fil sont omniprésentes dans les lieux de vie, de travail ou detransport de la population. Les recherches en dosimétrie numérique non-ionisante ont connu desavancées considérables notamment grâce à la capacité de calcul croissante des ordinateurs. Cesdernières années, la prise en compte de la variabilité dans la dosimétrie est devenue un enjeumajeur. Les sources de variabilité sont nombreuses, parmi elles, les conditions d'exposition aurayonnement électromagnétique peuvent induire des doses absorbées très différentes.La modélisation de canal de propagation en environnement intérieur a permis d'avoir uneconnaissance précise des conditions d'exposition d'un corps humain plongé dans cet environnement.Les modèles stochastiques montrent le caractère statistique de l'exposition des corpshumains. Cette thèse a pour but de développer une méthode statistique du calcul de la doseabsorbée par le corps et d'adapter le modèle de canal stochastique à la dosimétrie.L'étude statistique de l'exposition a révélé la nécessité d'obtenir les valeurs de Débit d'AbsorptionSpécifique corps entier dans le cas d'expositions à une onde plane pour tous les anglesd'incidence possibles. Compte tenu des temps de calcul particulièrement long en dosimétrie, uneméthode d'interpolation efficace, le krigeage, des valeurs de Débit d'Absorption Spécifique a étémise en œuvre. La méthode du krigeage permet alors d'obtenir les valeurs de Débit d'AbsorptionSpécifique pour tous les angles d'incidences et donc de calculer les deux premiers momentsdu Débit d'Absorption Spécifique.L'analyse de sensibilité aux paramètres du canal des moments du Débit d'Absorption Spécifiquea permis de connaître l'impact de chacun de ces paramètres. Le modèle de canal a pu être simplifié et donc adapté à la dosimétrie tout en quantifiant l'erreur d'approximation qu'implique cette simplification.Cette thèse répond à l'enjeu de la prise en compte de la variabilité en dosimétrie dans un environnementcomplexe et les outils mis en œuvre ouvrent la voie de l'étude de l'exposition danstous les environnements complexes. / info:eu-repo/semantics/nonPublished
18

Krigeage pour la conception de turbomachines : grande dimension et optimisation multi-objectif robuste / Kriging for turbomachineries conception : high dimension and multi-objective robust optimization

Ribaud, Mélina 17 October 2018 (has links)
Dans le secteur de l'automobile, les turbomachines sont des machines tournantes participant au refroidissement des moteurs des voitures. Leur performance dépend de multiples paramètres géométriques qui déterminent leur forme. Cette thèse s'inscrit dans le projet ANR PEPITO réunissant industriels et académiques autour de l'optimisation de ces turbomachines. L'objectif du projet est de trouver la forme du ventilateur maximisant le rendement en certains points de fonctionnement. Dans ce but, les industriels ont développé des codes CFD (computational fluid dynamics) simulant le fonctionnement de la machine. Ces codes sont très coûteux en temps de calcul. Il est donc impossible d'utiliser directement le résultat de ces simulations pour conduire une optimisation.Par ailleurs, lors de la construction des turbomachines, on observe des perturbations sur les paramètres d'entrée. Elles sont le reflet de fluctuations des machines de production. Les écarts observés sur la forme géométrique finale de la turbomachine peuvent provoquer une perte de performance conséquente. Il est donc nécessaire de prendre en compte ces perturbations et de procéder à une optimisation robuste à ces fluctuations. Dans ce travail de thèse, nous proposons des méthodes basées sur du krigeage répondant aux deux principales problématiques liées à ce contexte de simulations coûteuses :• Comment construire une bonne surface de réponse pour le rendement lorsqu'il y a beaucoup de paramètres géométriques ?• Comment procéder à une optimisation du rendement efficace tout en prenant en compte les perturbations des entrées ?Nous répondons à la première problématique en proposant plusieurs algorithmes permettant de construire un noyau de covariance pour le krigeage adapté à la grande dimension. Ce noyau est un produit tensoriel de noyaux isotropes où chacun de ces noyaux est lié à un sous groupe de variables d'entrée. Ces algorithmes sont testés sur des cas simulés et sur une fonction réelle. Les résultats montrent que l'utilisation de ce noyau permet d'améliorer la qualité de prédiction en grande dimension. Concernant la seconde problématique, nous proposons plusieurs stratégies itératives basées sur un co-krigeage avec dérivées pour conduire l'optimisation robuste. A chaque itération, un front de Pareto est obtenu par la minimisation de deux objectifs calculés à partir des prédictions de la fonction coûteuse. Le premier objectif représente la fonction elle-même et le second la robustesse. Cette robustesse est quantifiée par un critère estimant une variance locale et basée sur le développement de Taylor. Ces stratégies sont comparées sur deux cas tests en petite et plus grande dimension. Les résultats montrent que les meilleures stratégies permettent bien de trouver l'ensemble des solutions robustes. Enfin, les méthodes proposées sont appliquées sur les cas industriels propres au projet PEPITO. / The turbomachineries are rotary machines used to cool down the automotive engines. Their efficiency is impacted by a high number of geometric parameters that describe the shape.My thesis is fully funded by the ANR project PEPITO where industrials and academics collaborate. The aim of this project is to found the turbomachineries shape that maximizes the efficiency.That is why, industrials have developed numerical CFD (Computational fluid dynamics) codes that simulate the work of turbomachineries. However, the simulations are time-consuming. We cannot directly use the simulations provided to perform the optimization.In addition, during the production line, the input variables are subjected to perturbations. These perturbations are due to the production machineries fluctuations. The differences observed in the final shape of the turbomachinery can provoke a loss of efficiency. These perturbations have to be taken into account to conduct an optimization robust to the fluctuations. In this thesis, since the context is time consuming simulations we propose kriging based methods that meet the requirements of industrials. The issues are: • How can we construct a good response surface for the efficiency when the number of input variables is high?• How can we lead to an efficient optimization on the efficiency that takes into account the inputs perturbations?Several algorithms are proposed to answer to the first question. They construct a covariance kernel adapted to high dimension. This kernel is a tensor product of isotropic kernels in each subspace of input variables. These algorithms are benchmarked on some simulated case and on a real function. The results show that the use of this kernel improved the prediction quality in high dimension. For the second question, seven iterative strategies based on a co-kriging model are proposed to conduct the robust optimization. In each iteration, a Pareto front is obtained by the minimization of two objective computed from the kriging predictions. The first one represents the function and the second one the robustness. A criterion based on the Taylor theorem is used to estimate the local variance. This criterion quantifies the robustness. These strategies are compared in two test cases in small and higher dimension. The results show that the best strategies have well found the set of robust solutions. Finally, the methods are applied on the industrial cases provided by the PEPITO project.
19

Optimisation auto-adaptative en environnement d’analyse multidisciplinaire via les modèles de krigeage combinés à la méthode PLS / Self-adaptive optimization of multidisciplinary analysis environment via Kriging models combined with the PLS method

Bouhlel, Mohamed Amine 26 January 2016 (has links)
Les turbomachines aéronautiques sont composées de plusieurs roues aubagées dont la fonction estde transférer l’énergie de l’air au rotor. Les roues aubagées des modules compresseur et turbine sontdes pièces particulièrement sensibles car elles doivent répondre à des impératifs de performanceaérodynamique, de tenue mécanique, de tenue thermique et de performance acoustique. L’optimisation aéro-méca-acoustique ou aéro-thermo-mécanique des aubages consiste à chercher, pourun ensemble de formes aérodynamiques paramétrées (par plusieurs dizaines de variables), celleassurant le meilleur compromis entre la performance aérodynamique du moteur et la satisfactionde plusieurs dizaines de contraintes souvent contradictoires. Cette thèse introduit une méthode d’optimisation basée sur les métamodèles et adaptée à la grande dimension pour répondre à la problématique industrielle des aubages. Les contributions de cettethèse portent sur deux aspects : le développement de modèles de krigeage, et l’adaptation d’unestratégie d’optimisation pour la gestion du grand nombre de variables et de contraintes.La première partie de ce travail traite des modèles de krigeage. Nous avons proposé une nouvelleformulation du noyau de covariance permettant de réduire le nombre de paramètres du modèleafin d’accélérer sa construction. Une des limitations connues du modèle de krigeage concernel’estimation de ses paramètres. Cette estimation devient de plus en plus difficile lorsque nousaugmentons la dimension du phénomène à approcher. En particulier, la base de données nécessitedavantage de points et par conséquent la matrice de covariance du modèle du krigeage est de plusen plus coûteuse à inverser. Notre approche consiste à réduire le nombre de paramètres à estimer en utilisant la méthode de régression des moindres carrés partiels (PLS pour Partial Least Squares). Cette méthode de réduction dimensionnelle fournit des informations sur la relation linéaire entre les variables d’entrée et la variable de sortie. Ces informations ont été intégrées dans les noyaux du modèle de krigeage tout en conservant les propriétés de symétrie et de positivité des noyaux. Grâce à cette approche, la construction de ces nouveaux modèles appelés KPLS est très rapide étant donné le faible nombre de paramètres nécessaires à estimer. La validation de ces modèles KPLS sur des cas test académiques ou industriels a démontré leur qualité de prédiction équivalente voire même meilleure que celle des modèles de krigeage classiques. Dans le cas de noyaux de covariance de type exponentiel, laméthode KPLS peut être utilisée pour initialiser les paramètres du krigeage classique, afin d’accélérerla convergence de l’estimation des paramètres du modèle. La méthode résultante, notée KPLS+K, a permis d’améliorer la qualité des modèles dans le cas de fonctions fortement multimodales. La deuxième contribution de la thèse a consisté à développer une stratégie d’optimisation globale sous contraintes pour la grande dimension, en s’appuyant sur les modèles KPLS ou les modèlesKPLS+K. En effet, nous avons étendu la méthode d’optimisation auto-adaptative connue dans lalittérature sous le nom "Efficient Global Optimisation, EGO" pour gérer les problèmes d’optimisationsous contraintes en grande dimension. Différents critères d’enrichissement adaptatifs ont pu êtreexplorés. Cette stratégie a permis de retrouver l’optimum global sur des problèmes académiquesjusqu’à la dimension 50. La méthode proposée a été confrontée à deux types de problèmes industriels, le cas test MOPTA issu de l’industrie automobile (124 variables d’entrée et 68 fonctions contraintes) et le cas test Snecma des aubes de turbomachines (50 variables d’entrée et 31 fonctions contraintes). Les résultats ont permis de montrer la validité de la démarche ainsi que les limites de la méthode pour une application dans un cadre industriel. / Aerospace turbomachinery consists of a plurality of blades. Their main function is to transfer energybetween the air and the rotor. The bladed disks of the compressor are particularly important becausethey must satisfy both the requirements of aerodynamic performance and mechanical resistance.Mechanical and aerodynamic optimization of blades consists in searching for a set of parameterizedaerodynamic shape that ensures the best compromise solution between a set of constraints.This PhD introduces a surrogate-based optimization method well adapted to high-dimensionalproblems. This kind of high-dimensional problem is very similar to the Snecma’s problems. Ourmain contributions can be divided into two parts : Kriging models development and enhancementof an existing optimization method to handle high-dimensional problems under a large number ofconstraints. Concerning Kriging models, we propose a new formulation of covariance kernel which is able toreduce the number of hyper-parameters in order to accelerate the construction of the metamodel.One of the known limitations of Kriging models is about the estimation of its hyper-parameters.This estimation becomes more and more difficult when the number of dimension increases. Inparticular, the initial design of experiments (for surrogate modelling construction) requires animportant number of points and therefore the inversion of the covariance matrix becomes timeconsuming. Our approach consists in reducing the number of parameters to estimate using the Partial LeastSquares regression method (PLS). This method provides information about the linear relationshipbetween input and output variables. This information is integrated into the Kriging model kernelwhile maintaining the symmetry and the positivity properties of the kernels. Thanks to this approach,the construction of these new models called KPLS is very fast because of the low number of newparameters to estimate. When the covariance kernel used is of an exponential type, the KPLS methodcan be used to initialize parameters of classical Kriging models, to accelerate the convergence of theestimation of parameters. The final method, called KPLS+K, allows to improve the accuracy of themodel for multimodal functions. The second main contribution of this PhD is to develop a global optimization method to tacklehigh-dimensional problems under a large number of constraint functions thanks to KPLS or KPLS+Kmethod. Indeed, we extended the self adaptive optimization method called "Efficient Global Optimization,EGO" for high-dimensional problems under constraints. Several enriching criteria have been tested. This method allows to estimate known global optima on academic problems up to 50 inputvariables. The proposed method is tested on two industrial cases, the first one, "MOPTA", from the automotiveindustry (with 124 input variables and 68 constraint functions) and the second one is a turbineblade from Snecma company (with 50 input variables and 31 constraint functions). The results showthe effectiveness of the method to handle industrial problems.We also highlight some importantlimitations.
20

Modélisation des comportements extrêmes en ingénierie

Piera-Martinez, Miguel 29 September 2008 (has links) (PDF)
La complexité d'un système et les approximations de modélisation qui en résultent, le caractère aléatoire des perturbations externes ainsi que la dispersion des paramètres de conception autour de leur valeur nominale sont autant de raisons qui amènent à remettre en cause les approches déterministes qui supposent une connaissance parfaite du système et de son environnement. La n´ecessité de concevoir des systèmes robustes nous conduit à élaborer des modèles statistiques qui permettent de gérer les incertitudes, et en particulier l'apparition de valeurs extrêmes à la sortie des systèmes. La modélisation des valeurs extrêmes et la protection d'un système vis-à-vis de ces évènements revêt un intérêt particulier, puisque ces valeurs extrêmes peuvent correspondre à des violations du cahier des charges, voire à des destructions du système. L'objectif de ce mémoire est de mettre en place des outils pour étudier les performances d'un dispositif lorsqu'il est sollicité à la limite du fonctionnement normalement prévu. Une valeur extrême est en général un évènement rare qui nécessite a priori de faire un grand nombre d'expériences avant d'être observé. Cependant, de telles expériences, ou les simulations qui sont de plus en plus utilisées pour les remplacer, sont souvent coûteuses. Il est donc souhaitable de caractériser les valeurs extrêmes à partir d'un petit nombre d'expériences ou de simulations. Concrètement, nous étudions la modélisation des queues de probabilité, l'estimation d'une faible probabilité de défaillance et l'estimation du pire cas de fonctionnement d'un système.

Page generated in 0.4202 seconds