• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 436
  • 319
  • 40
  • 1
  • 1
  • 1
  • Tagged with
  • 785
  • 383
  • 133
  • 133
  • 126
  • 124
  • 117
  • 105
  • 101
  • 92
  • 91
  • 78
  • 77
  • 77
  • 74
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
201

Multi-period, multi-product production planning in an uncertain manufacturing environment

Zanjani, Masoumeh Kazemi 16 April 2018 (has links)
Les travaux de cette thèse portent sur la planification de la production multi-produits, multi-périodes avec des incertitudes de la qualité de la matière première et de la demande. Un modèle de programmation stochastique à deux étapes avec recours est tout d'abord proposé pour la prise en compte de la non-homogénéité de la matière première, et par conséquent, de l'aspect aléatoire des rendements de processus. Ces derniers sont modélisés sous forme de scénarios décrits par une distribution de probabilité stationnaire. La méthodologie adoptée est basée sur la méthode d'approximation par moyenne d'échantillonnage. L'approche est appliquée pour planifier la production dans une unité de sciage de bois et le modèle stochastique est validé par simulation de Monte Carlo. Les résultats numériques obtenus dans le cas d'une scierie de capacité moyenne montrent la viabilité de notre modèle stochastique, en comparaison au modèle équivalent déterministe. Ensuite, pour répondre aux préoccupations du preneur de décision en matière de robustesse, nous proposons deux modèles d'optimisation robuste utilisant chacun une mesure de variabilité du niveau de service différente. Un cadre de décision est développé pour choisir parmi les deux modèles d'optimisation robuste, en tenant compte du niveau du risque jugé acceptable quand à la variabilité du niveau de service. La supériorité de l'approche d'optimisation robuste, par rapport à la programmation stochastique, est confirmée dans le cas d'une usine de sciage de bois. Finalement, nous proposons un modèle de programmation stochastique qui tient compte à la fois du caractère aléatoire de la demande et du rendement. L'incertitude de la demande est modélisée par un processus stochastique dynamique qui est représenté par un arbre de scénarios. Des scénarios de rendement sont ensuite intégrés dans chaque noeud de l'arbre de scénarios de la demande, constituant ainsi un arbre hybride de scénarios. Nous proposons un modèle de programmation stochastique multi-étapes qui utilise un recours complet pour les scénarios de la demande et un recours simple pour les scénarios du rendement. Ce modèle est également appliqué au cas industriel d'une scierie et les résultats numériques obtenus montrent la supériorité du modèle stochastique multi- étapes, en comparaison avec le modèle équivalent déterministe et le modèle stochastique à deux étapes.
202

A quality control tool for HDR prostate brachytherapy based on patient-specific geometry and stochastic frontier analysis

Moosavi Askari, Reza 28 October 2019 (has links)
Cette étude porte sur le développement d’un outil de contrôle qualité basé sur l’expérience, dérivé du concept de frontière stochastique en économie et s’appuyant sur des connaissances géométriques spécifiques au patient pour améliorer la qualité des traitements de curiethérapie à haut débit de dose pour le cancer de la prostate. Cent plans cliniques de curiethérapie à haut débit de dose de la prostate ont été utilisés dans cette étude, dans laquelle l’échographie transrectale était la seule modalité d’imagerie. Une fraction unique de 15 Gy a était prescrite à tous ces patients. Un algorithme de recuit simulé de planification inverse a été appliqué pour réaliser tous les plans et Oncentra Prostate a été employé comme système d’imagerie et de planification du traitement en temps réel. Les recommandations relatives aux paramètres de dose de la société américaine de curiethérapie pour la cible et les organes à risque ont été suivies. Les relations entre les paramètres géométriques et les paramètres dosimétriques d’intérêt sont examinées. Les paramètres géométriques sont liés aux dimensions anatomiques des patients et ceux associés aux cathéters. Pour déterminer les paramètres géométriques dominants dans un modèle de frontière stochastique donné, les relations monotones entre les paramètres géométriqueset les paramètres dosimétriques d’intérêt sont mesurées avec une approche non paramétrique, à savoir le coefficient de corrélation de Spearman. Ensuite, une recherche de force brute est effectuée pour un modèle donné dans lequel différents modèles, incluant toutes les combinaisons possibles des paramètres géométriques dominantes, sont optimisés. L’optimisation est accomplie en utilisant une méthode de vraisemblance maximale implémentée dans le progiciel de calcul statistique R, avec son algorithme de recuit simulée généralisée. Le test du rapport de vraisemblance et sa valeur-p correspondante sont utilisés pour comparer la signification statistique de l’ajout de nouveaux paramètres géométriques aux modèles. Un modèle de production pour la cible et un modèle de coût pour chacun des organes à risque sont développés pour le traitement par curiethérapie à haut débit de dose guidé par l’échographie transrectale. De plus, pour valider si chacun des modèles développés est universel, nous l’appliquons à une autre catégorie de traitement de la curiethérapie à haut débit de dose, dans laquelle la tomodensitométrie était utilisée comme modalité d’imagerie plutôt que de l’échographie transrectale. Ainsi, une nouvelle cohorte de cent plans cliniques curiethérapie à haut débit de dose guidés par la tomodensitométrie est prise en compte. Un modèle de frontière stochastique de production pour la cible et trois modèles de coût pour les organes à risque basés sur la tomodensitométrie sont développés. Enfin, les modèles intégrés de la tomodensitométrie et de l’échographie transrectale sont comparés. / This thesis focuses on developing an experience-based quality control (QC) tool, derived from the concept of stochastic frontier (SF) analysis in economics and based on patient-specific geometric knowledge to improve the quality of the high-dose-rate brachytherapy (HDR-BT) treatment for prostate cancer. One hundred clinical HDR prostate BT plans, using the transrectal ultrasound (TRUS) asthe only imaging modality, all treated with a single fraction of 15 Gy, and made using Inverse PlanningSimulated Annealing (IPSA) algorithm, are studied. Also, Oncentra Prostate system is employed as the real-time 3D prostate imaging and treatment planning system. American Brachytherapy Society dose parameter recommendations for target and organs at risk (OARs) were followed. Relationships between all the different geometric parameters (GPs) and the four dosimetric parameters (DPs) V100 of the prostate, V75 of the bladder and rectum, and D10 of the urethra were examined. Geometricinformation of the patients and catheters are considered as different GPs. To find the dominant GPs in a given SF model, monotonic relationships between the GPs and DPs of interest are measured using a nonparametric approach: the Spearman correlation coefficient. Then, to determine the optimal SF model for each of the target production SF, and the OARs cost SF models, brute-force searches are performed. Different SF models including all the possible combinations of the dominant GPs in the SF model under study are optimized. Optimization is done using a maximum likelihood method implemented in the statistical computing package R, along with its Generalized Simulated Annealing algorithm. The likelihood ratio test and its corresponding p-value are used to compare the statistical significance of adding new GPs to SF models. A production SF (PSF) model for the target, and a costSF (CSF) model for each of the bladder, rectum, and urethra are developed for TRUS-guided HDR-BTtreatment. The difference between the dose value of a plan obtained by IPSA and the one predicted by an SF model is explored. Additionally, to verify if each of the models developed for the TRUS-guided category of the HDR-BT treatment for prostate is universal, we apply it on another category of HDR-BT treatment, in which computed tomography (CT) was used as the imaging modality. So, a different cohort of one hundred clinical CT-guided HDR-BT plans is taken into consideration. A target production SF and three OARs cost SF models are developed for the CT-based plans. Subsequently, the built-in SF models for the TRUS-based and CT-based plans are compared.
203

Optimization of storage and picking systems in warehouses

Fernandes Da Costa Silva, Allyson 28 March 2022 (has links)
La croissance du commerce électronique exige une hausse des performances des systèmes d'entreposage, qui sont maintenant repensés pour faire face à un volume massif de demandes à être satisfait le plus rapidement possible. Le système manuel et le système à robots mobile (SRM) sont parmi les plus utilisés pour ces activités. Le premier est un système centré sur l'humain pour réaliser des opérations complexes que les robots actuels ne peuvent pas effectuer. Cependant, les nouvelles générations de robots autonomes mènent à un remplacement progressif par le dernier pour augmenter la productivité. Quel que soit le système utilisé, plusieurs problèmes interdépendants doivent être résolus pour avoir des processus de stockage et de prélèvement efficaces. Les problèmes de stockage concernent les décisions d'où stocker les produits dans l'entrepôt. Les problèmes de prélèvement incluent le regroupement des commandes à exécuter ensemble et les itinéraires que les cueilleurs et les robots doivent suivre pour récupérer les produits demandés. Dans le système manuel, ces problèmes sont traditionnellement résolus à l'aide de politiques simples que les préparateurs peuvent facilement suivre. Malgré l'utilisation de robots, la même stratégie de solution est répliquée aux problèmes équivalents trouvés dans le SRM. Dans cette recherche, nous étudions les problèmes de stockage et de prélèvement rencontrés lors de la conception du système manuel et du SRM. Nous développons des outils d'optimisation pour aider à la prise de décision pour mettre en place leurs processus, en améliorant les mesures de performance typiques de ces systèmes. Certains problèmes traditionnels sont résolus avec des techniques améliorées, tandis que d'autres sont intégrés pour être résolus ensemble au lieu d'optimiser chaque sous-système de manière indépendante. Nous considérons d'abord un système manuel avec un ensemble connu de commandes et intégrons les décisions de stockage et de routage. Le problème intégré et certaines variantes tenant compte des politiques de routage communes sont modélisés mathématiquement. Une métaheuristique générale de recherche de voisinage variable est présentée pour traiter des instances de taille réelle. Des expériences attestent de l'efficience de la métaheuristique proposée par rapport aux modèles exacts et aux politiques de stockage communes. Lorsque les demandes futures sont incertaines, il est courant d'utiliser une stratégie de zonage qui divise la zone de stockage en zones et attribue les produits les plus demandés aux meilleures zones. Les tailles des zones sont à déterminer. Généralement, des dimensions arbitraires sont choisies, mais elles ignorent les caractéristiques de l'entrepôt et des demandes. Nous abordons le problème de dimensionnement des zones pour déterminer quels facteurs sont pertinents pour choisir de meilleures tailles de zone. Les données générées à partir de simulations exhaustives sont utilisées pour trainer quatre modèles de régression d'apprentissage automatique - moindres carrés ordinaire, arbre de régression, forêt aléatoire et perceptron multicouche - afin de prédire les dimensions optimales des zones en fonction de l'ensemble de facteurs pertinents identifiés. Nous montrons que tous les modèles entraînés suggèrent des dimensions sur mesure des zones qui performent meilleur que les dimensions arbitraires couramment utilisées. Une autre approche pour résoudre les problèmes de stockage pour le système manuel et pour le SRM considère les corrélations entre les produits. L'idée est que les produits régulièrement demandés ensemble doivent être stockés près pour réduire les coûts de routage. Cette politique de stockage peut être modélisée comme une variante du problème d'affectation quadratique (PAQ). Le PAQ est un problème combinatoire traditionnel et l'un des plus difficiles à résoudre. Nous examinons les variantes les plus connues du PAQ et développons une puissante métaheuristique itérative de recherche tabou mémétique en parallèle capable de les résoudre. La métaheuristique proposée s'avère être parmi les plus performantes pour le PAQ et surpasse considérablement l'état de l'art pour ses variantes. Les SRM permettent de repositionner facilement les pods d'inventaire pendant les opérations, ce qui peut conduire à un processus de prélèvement plus économe en énergie. Nous intégrons les décisions de repositionnement des pods à l'attribution des commandes et à la sélection des pods à l'aide d'une stratégie de prélèvement par vague. Les pods sont réorganisés en tenant compte du moment et de l'endroit où ils devraient être demandés au futur. Nous résolvons ce problème en utilisant la programmation stochastique en tenant compte de l'incertitude sur les demandes futures et suggérons une matheuristique de recherche locale pour résoudre des instances de taille réelle. Nous montrons que notre schéma d'approximation moyenne de l'échantillon est efficace pour simuler les demandes futures puisque nos méthodes améliorent les solutions trouvées lorsque les vagues sont planifiées sans tenir compte de l'avenir. Cette thèse est structurée comme suit. Après un chapitre d'introduction, nous présentons une revue de la littérature sur le système manuel et le SRM, et les décisions communes prises pour mettre en place leurs processus de stockage et de prélèvement. Les quatre chapitres suivants détaillent les études pour le problème de stockage et de routage intégré, le problème de dimensionnement des zones, le PAQ et le problème de repositionnement de pod. Nos conclusions sont résumées dans le dernier chapitre. / The rising of e-commerce is demanding an increase in the performance of warehousing systems, which are being redesigned to deal with a mass volume of demands to be fulfilled as fast as possible. The manual system and the robotic mobile fulfillment system (RMFS) are among the most commonly used for these activities. The former is a human-centered system that handles complex operations that current robots cannot perform. However, newer generations of autonomous robots are leading to a gradual replacement by the latter to increase productivity. Regardless of the system used, several interdependent problems have to be solved to have efficient storage and picking processes. Storage problems concern decisions on where to store products within the warehouse. Picking problems include the batching of orders to be fulfilled together and the routes the pickers and robots should follow to retrieve the products demanded. In the manual system, these problems are traditionally solved using simple policies that pickers can easily follow. Despite using robots, the same solution strategy is being replicated to the equivalent problems found in the RMFS. In this research, we investigate storage and picking problems faced when designing manual and RMFS warehouses. We develop optimization tools to help in the decision-making process to set up their processes and improve typical performance measures considered in these systems. Some classic problems are solved with improved techniques, while others are integrated to be solved together instead of optimizing each subsystem sequentially. We first consider a manual system with a known set of orders and integrate storage and routing decisions. The integrated problem and some variants considering common routing policies are modeled mathematically. A general variable neighborhood search metaheuristic is presented to deal with real-size instances. Computational experiments attest to the effectiveness of the metaheuristic proposed compared to the exact models and common storage policies. When future demands are uncertain, it is common to use a zoning strategy to divide the storage area into zones and assign the most-demanded products to the best zones. Zone sizes are to be determined. Commonly, arbitrary sizes are chosen, which ignore the characteristics of the warehouse and the demands. We approach the zone sizing problem to determine which factors are relevant to choosing better zone sizes. Data generated from exhaustive simulations are used to train four machine learning regression models - ordinary least squares, regression tree, random forest, and multilayer perceptron - to predict the optimal zone sizes given the set of relevant factors identified. We show that all trained models suggest tailor-made zone sizes with better picking performance than the arbitrary ones commonly used. Another approach to solving storage problems, both in the manual and RMFS, considers the correlations between products. The idea is that products constantly demanded together should be stored closer to reduce routing costs. This storage policy can be modeled as a quadratic assignment problem (QAP) variant. The QAP is a traditional combinatorial problem and one of the hardest to solve. We survey the most traditional QAP variants and develop a powerful parallel memetic iterated tabu search metaheuristic capable of solving them. The proposed metaheuristic is shown to be among the best performing ones for the QAP and significantly outperforms the state-of-the-art for its variants. The RMFS allows easy repositioning of inventory pods during operations that can lead to a more energy-efficient picking process. We integrate pod repositioning decisions with order assignment and pod selection using a wave picking strategy such that pods are parked after being requested considering when and where they are expected to be requested next. We solve this integrated problem using stochastic programming considering the uncertainty about future demands and suggest a local search matheuristic to solve real-size instances. We show that our sample average approximation scheme is effective to simulate future demands since our methods improve solutions found when waves are planned without considering the future demands. This thesis is structured as follows. After an introductory chapter, we present a literature review on the manual and RMFS, and common decisions made to set up their storage and picking processes. The next four chapters detail the studies for the integrated storage and routing problem, the zone sizing problem, the QAP, and the pod repositioning problem. Our findings are summarized in the last chapter.
204

The impact of oil price variations : a DSGE Model for the Canadian Economy

Rousseau-Morel, Jean-Philippe 18 April 2018 (has links)
Nous analysons les impacts de chocs reliés au prix du pétrole en utilisant un modèle dynamique stochastique d' équilibre général pour l'économie canadienne (DSGE). Les mouvements dans le prix du pétrole, modélisé comme une variable exogène, affectent l'économie à travers une variation de l'utilisation du capital. Les simulations du modèle suite à des chocs reliés au pétrole sont utilisée pour analyser leurs impacts sur les variables macroéconomiques. Un choc positif sur le prix mondial du pétrole augmente immédiatement la valeur du dollar canadien. Le choc crée également un effet de richesse pour les ménages canadiens et haussent leurs salaires. Bien que le choc diminue les exportations, l'effet de richesse augmente la consommation et la production de biens intermédiaires. Étant donné l'effet sur le taux de change, le choc augmente également les importations de biens.
205

Three essays in empirical asset pricing

Tédongap, Roméo January 2008 (has links)
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal.
206

Essays on numerically efficient inference in nonlinear and non-Gaussian state space models, and commodity market analysis.

Djegnéné, Gbowan Barnabé 06 1900 (has links)
The first two articles build procedures to simulate vector of univariate states and estimate parameters in nonlinear and non Gaussian state space models. We propose state space speci fications that offer more flexibility in modeling dynamic relationship with latent variables. Our procedures are extension of the HESSIAN method of McCausland[2012]. Thus, they use approximation of the posterior density of the vector of states that allow to : simulate directly from the state vector posterior distribution, to simulate the states vector in one bloc and jointly with the vector of parameters, and to not allow data augmentation. These properties allow to build posterior simulators with very high relative numerical efficiency. Generic, they open a new path in nonlinear and non Gaussian state space analysis with limited contribution of the modeler. The third article is an essay in commodity market analysis. Private firms coexist with farmers' cooperatives in commodity markets in subsaharan african countries. The private firms have the biggest market share while some theoretical models predict they disappearance once confronted to farmers cooperatives. Elsewhere, some empirical studies and observations link cooperative incidence in a region with interpersonal trust, and thus to farmers trust toward cooperatives. We propose a model that sustain these empirical facts. A model where the cooperative reputation is a leading factor determining the market equilibrium of a price competition between a cooperative and a private firm / Les deux premiers articles élaborent des procédures de simulation du vecteur d'état et d'estimation des paramètres dans des modèles espace-états non linéaires et non-Gaussiens. Nous proposons des spécifi cations des modèles espace-états qui offrent plus de flexibilité dans la modélisation des relations dynamiques avec variables latentes. Les procédures d'estimation des paramètres dans ces modèles sont une extension de la méthode HESSIAN de McCausland[2012]. Ainsi, elles utilisent une approximation de la densité à posteriori du vecteur d'état qui permet de : simuler directement de la loi à posteriori du vecteur d'état, de simuler en seul bloc le vecteur d'état et de le simuler conjointement avec le vecteur de paramètres, et de ne pas admettre l'introduction d'inconnues additionnelles. Ces propriétés permettent d'obtenir des simulateurs à posteriori avec une efficacité numérique relative très élevée. Les procédures d'estimation élaborées sont génériques. Elles ouvrent ainsi une voie pour une analyse des modèles espace-états non linéaires et non-Gaussiens sans une grande contribution du modélisateur. Le troisième article est une contribution dans l'analyse des marchés agricoles. Les firmes privées coexistent avec les coopératives de fermiers dans les marchés agricoles en Afrique subsaharienne. Les firmes privées accaparent les plus grandes parts de marché, alors que certains modèles théoriques prédisent leur disparition une fois confrontées aux coopératives agricoles. Par ailleurs, certaines observations et études empiriques lient la forte incidence d'une coopérative dans une région à la confiance interpersonnelle entre les personnes de cette région, et par conséquent la confiance de ces personnes envers les coopératives existantes. Nous proposons un modèle théorique qui cadre mieux avec ces observations empiriques. Un modèle où la réputation de la coopérative est un facteur déterminant de l'équilibre de marché dans la compétition sur le prix à la livraison entre celle-ci et une firme privée.
207

Optimisation de Lois de Gestion Énergétiques des Véhicules Hybrides

Granato, Giovanni 10 December 2012 (has links) (PDF)
L'objectif de ce travail consiste à appliquer des techniques de contrôle optimal pour améliorer la performance des lois de gestion d'énergie. Plus précisément, les techniques étudiées sont les solutions de viscosité de l'équation de Hamilton-Jacobi, des méthodes level-set pour l'étude de l'atteignabilité, la programmation dynamique stochastique, la programmation dynamique stochastique duale et les contraintes en probabilité. En premier lieu, ce document débute avec la présentation des outils techniques et modèles nécessaires à l'étude de l'optimisation des lois de gestion d'énergie au sein des véhicules hybrides. En deuxième lieu, nous regardons la synthèse des lois de gestion d'énergie en prenant compte des incertitudes dans le profil de vitesse du véhicule. Dans un premier moment, cette étude porte sur l'utilisation de la programmation dynamique stochastique. Dans un second moment, la programmation dynamique stochastique duale est analysée. Ensuite, nous introduisons une formulation du problème de contrôle optimal avec des contraintes en probabilités, visant la synthèse de lois plus flexibles. En troisième lieu, des résultats théoriques sur l'étude de l'atteignabilité des systèmes hybrides sont démontrés. L'ensemble des états atteignables est caractérisé par une fonction valeur. Nous démontrons ensuite que cette fonction valeur est l'unique solution d'un système d'inégalités quasi-variationnelles dans le sens de la viscosité. Aussi, nous montrons la convergence d'une classe de schémas numériques permettant le calcul de cette fonction valeur. Visant à approfondir l'étude sur l'atteignabilité, nous nous intéressons à une formulation de la dynamique hybride en temps discret, ce qui amène à l'utilisation d'un algorithme directement basé sur la programmation dynamique pour caractériser la fonction valeur. Finalement, nous
208

Three essays in empirical asset pricing

Tédongap, Roméo January 2008 (has links)
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal
209

Analyse de structures à dimension stochastique élevée : application aux toitures bois sous sollicitation sismique

Riahi, Hassen 08 April 2013 (has links) (PDF)
Le problème de la dimension stochastique élevée est récurrent dans les analyses probabilistes des structures. Il correspond à l'augmentation exponentielle du nombre d'évaluations du modèle mécanique lorsque le nombre de paramètres incertains est élevé. Afin de pallier cette difficulté, nous avons proposé dans cette thèse, une approche à deux étapes. La première consiste à déterminer la dimension stochastique efficace, en se basant sur une hiérarchisation des paramètres incertains en utilisant les méthodes de criblage. Une fois les paramètres prépondérants sur la variabilité de la réponse du modèle identifiés, ils sont modélisés par des variables aléatoires et le reste des paramètres est fixé à leurs valeurs moyennes respectives, dans le calcul stochastique proprement dit. Cette tâche fut la deuxième étape de l'approche proposée, dans laquelle la méthode de décomposition de la dimension est utilisée pour caractériser l'aléa de la réponse du modèle, par l'estimation des moments statistiques et la construction de la densité de probabilité. Cette approche permet d'économiser jusqu'à 90% du temps de calcul demandé par les méthodes de calcul stochastique classiques. Elle est ensuite utilisée dans l'évaluation de l'intégrité d'une toiture à ossature bois d'une habitation individuelle installée sur un site d'aléa sismique fort. Dans ce contexte, l'analyse du comportement de la structure est basée sur un modèle éléments finis, dans lequel les assemblages en bois sont modélisés par une loi anisotrope avec hystérésis et l'action sismique est représentée par huit accélérogrammes naturels fournis par le BRGM. Ces accélérogrammes permettent de représenter différents types de sols selon en se référant à la classification de l'Eurocode 8. La défaillance de la toiture est définie par l'atteinte de l'endommagement, enregistré dans les assemblages situés sur les éléments de contreventement et les éléments d'anti-flambement, d'un niveau critique fixé à l'aide des résultats des essais. Des analyses déterministes du modèle éléments finis ont montré que la toiture résiste à l'aléa sismique de la ville du Moule en Guadeloupe. Les analyses probabilistes ont montré que parmi les 134 variables aléatoires représentant l'aléa dans le comportement non linéaire des assemblages, 15 seulement contribuent effectivement à la variabilité de la réponse mécanique ce qui a permis de réduire la dimension stochastique dans le calcul des moments statistiques. En s'appuyant sur les estimations de la moyenne et de l'écart-type on a montré que la variabilité de l'endommagement dans les assemblages situés dans les éléments de contreventement est plus importante que celle de l'endommagement sur les assemblages situés sur les éléments d'anti-flambement. De plus, elle est plus significative pour les signaux les plus nocifs sur la structure.
210

Étude d'un problème d'optimisation en aéroélasticité avec incertitudes

Arnaud, Rémi 10 April 2014 (has links) (PDF)
La recherche en optimisation est un secteur crucial pour les constructeurs aéronautiques. La performance des appareils est un élément déterminant dans la compétition commerciale qui oppose les principaux manufacturiers du marché. L'incorporation de plus en plus massive des matériaux composites dans les avions de ligne dans les années 2000 illustre le désir des constructeurs de réduire la masse de leurs appareils pour en diminuer la consommation de kérozène. Parallèlement, la sécurité est devenue au fil des années une préoccupation majeure pour l'ensemble des acteurs. Cependant, l'emploi massif de matériaux composites, dont les propriétés physiques sont très intéressantes pour les constructeurs mais qui sont conçus avec une marge de tolérance pour des raisons de coût, induit des variations indésirables dans la structure, des incertitudes. Outre ces matériaux, d'autres éléments non prévisibles sont susceptibles de perturber la structure de l'appareil. Le modèle d'un avion en avant-projet est toujours amené à évoluer pour répondre aux évolutions des exigences du constructeur, mais des études de faisabilité doivent être menées avant que la structure ne soit totalement définie, afin de s'assurer de la viabilité du modèle. Des éléments non pris en compte dans la structure, comme les câbles, peuvent également avoir une influence non négligeable sur le comportement global de l'appareil. Ces incertitudes ont un impact non négligeable sur la stabilité de la structure en vol. Des études ont commencé à incorporer cet aspect incertain dans les processus d'optimisation, mais généralement en adaptant les algorithmes existants et sans exploiter la nature incertaine des problèmes. Afin de tenir compte de l'aspect incertain, on se propose de représenter ces incertitudes par des variables aléatoires et d'exploiter des outils théoriques développés dans d'autres domaines, notamment les outils des mathématiques financières.

Page generated in 0.0376 seconds