• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 436
  • 318
  • 40
  • 1
  • 1
  • 1
  • Tagged with
  • 784
  • 383
  • 133
  • 133
  • 126
  • 124
  • 117
  • 105
  • 101
  • 91
  • 91
  • 78
  • 77
  • 77
  • 74
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Etude d'un problème d'optimisation en aéroélasticité avec incertitudes / Optimization of an aeroelastic system with uncertainties

Arnaud, Rémi 10 April 2014 (has links)
La recherche en optimisation est un secteur crucial pour les constructeurs aéronautiques. La performance des appareils est un élément déterminant dans la compétition commerciale qui oppose les principaux manufacturiers du marché. L'incorporation de plus en plus massive des matériaux composites dans les avions de ligne dans les années 2000 illustre le désir des constructeurs de réduire la masse de leurs appareils pour en diminuer la consommation de kérosène. Parallèlement, la sécurité est devenue au fil des années une préoccupation majeure pour l'ensemble des acteurs. Cependant, l'emploi massif de matériaux composites, dont les propriétés physiques sont très intéressantes pour les constructeurs mais qui sont conçus avec une marge de tolérance pour des raisons de coût, induit des variations indésirables dans la structure, des incertitudes. Outre ces matériaux, d'autres éléments non prévisibles sont susceptibles de perturber la structure de l'appareil. Le modèle d'un avion en avant-projet est toujours amené à évoluer pour répondre aux évolutions des exigences du constructeur, mais des études de faisabilité doivent être menées avant que la structure ne soit totalement définie, afin de s'assurer de la viabilité du modèle. Des éléments non pris en compte dans la structure, comme les câbles, peuvent également avoir une influence non négligeable sur le comportement global de l'appareil. Ces incertitudes ont un impact non négligeable sur la stabilité de la structure en vol. Des études ont commencé à incorporer cet aspect incertain dans les processus d'optimisation, mais généralement en adaptant les algorithmes existants et sans exploiter la nature incertaine des problèmes. Afin de tenir compte de l'aspect incertain, on se propose de représenter ces incertitudes par des variables aléatoires et d'exploiter des outils théoriques développés dans d'autres domaines, notamment les outils des mathématiques financières. / Research in optimization is a fundamental field for aircraft manufacturers. The performance of airplanes is a crucial element in the commercial competition that pit main aircraft manufacturers against each other. Since 2000, composite materials have been more and more used in aircraft design. This shows the manufacturers' desire to reduce the airplane weight to diminish kerosene consumption. At the same time, safety has become a major concern for all the parties involved. But the use of composite materials, which are designed with a margin of tolerance on the physical properties to cut cost, causes unwanted variations in the structure. Other factors in the airplane design could also disrupt the overall structure of the final product. An airplane model is intended to be modified according to the manufacturer's wishes and their evolution, but feasibility studies must be carried out before the structural design is complete, in order to make sure that the model is viable. Elements which are not modeled in the structure, e.g. cables, can affect the overall behavior of the airplane. These uncertainties have a non-negligible influence on the stability of the structure during flights. Some studies have started to take into account these uncertainties in the optimization process, but they usually consist in adapting existing deterministic algorithms, without regard for the inherent uncertainty of the problem. In order to take uncertainty into account, we propose to represent these uncertainties by random variables and to use theoretical tools that are used in other domains, such as financial mathematics.
42

Équations d'évolution stochastiques locales et non locales dans des problèmes de transition de phase. / Local and Nonlocal Stochastic Evolution Equations in Phase Transition Problems.

El kettani, Perla 27 November 2018 (has links)
Le but de cette thèse est de développer des méthodes de démonstration d’existence et d’unicité de solutions d’équations d’évolution stochastiques locales ou non locales dans les problèmes de transition de phase. Au chapitre 1, nous étudions un problème à valeur initiale pour une ´équation de réaction-diffusion stochastique non locale avec des conditions aux limites de Neumann homogènes dans un ouvert borné de ℝn de frontière suffisamment régulière. On considère le cas d’un opérateur elliptique non linéaire assez général et on suppose que le bruit est additif et induit par un processus Q-Wiener. Le problème déterministe modélise la séparation de phases dans des alliages binaires. La démonstration d’existence de la solution du problème stochastique est basée sur un changement de fonction qui fait intervenir la solution de l’équation de la chaleur stochastique avec un terme de diffusion non linéaire. On est ainsi conduit à l'étude d’un problème sans terme de bruit, ce qui facilite l’application de la méthode de monotonie pour identifier la limite des termes non linéaires. Au chapitre 2, nous démontrons l’existence et l’unicité de la solution d’un système de champ de phase stochastique avec des bruits multiplicatifs induits par des processus Q-Wiener. Les problèmes de champ de phase sont utilisés pour d´écrire des modèles où deux phases distinctes interviennent comme par exemple l’eau et la glace. Dans ce but, nous appliquons la méthode de Galerkin et nous établissons des estimations a priori pour la solution approchée. Nous nous appuyons ensuite sur la méthode de monotonie stochastique pour identifier la limite du terme non linéaire. Finalement, au chapitre 3, nous démontrons l’existence et l’unicité d’une solution trajectorielle en dimension d’espace d ≤ 6 pour l’équation d’Allen-Cahn non locale stochastique avec un bruit multiplicatif induit par un processus Q-Wiener. La présence d’une variable supplémentaire empêche l’application des théorèmes de compacité usuels utilisés dans les problèmes déterministes. C’est ce qui nous amène à appliquer la méthode de compacité stochastique. / The aim of this thesis is to develop methods for proving the existence and uniqueness of solutionsof local and nonlocal stochastic evolution equations in phase transition problems. In chapter 1, we studyan initial value problem for a nonlocal stochastic reaction-diffusion equation with homogeneous Neumannboundary conditions in an open bounded set of ℝn, with a smooth boundary. We consider the case of ageneral nonlinear elliptic operator and we suppose that the noise is additive and induced by a Q-Wiener process.The deterministic problem with a linear diffusion term is used to model phase separation in a binarymixture. The proof of existence for the stochastic problem is based on a change of function which involvesthe solution of the stochastic heat equation with a nonlinear diffusion term. We obtain a problem withoutthe noise term. This simplifies the application of the monotonicity method, which we use to identify thelimit of the nonlinear terms. In chapter 2, we prove the existence and uniqueness of the solution for a phasefield problem with multiplicative noises induced by Q-Wiener processes. This problem models for instancethe process of melting and solidification. To that purpose we apply the Galerkin method and derive a prioriestimates for the approximate solutions. The last step is to identify the limit of the nonlinear terms whichwe do by the so-called stochastic monotonicity method. Finally, in chapter 3, we prove the existence anduniqueness of a pathwise solution in space dimension up to 6 for the stochastic nonlocal Allen-Cahn equationwith a multiplicative noise induced by a Q-Wiener process. The usual compactness method for deterministicproblems cannot be applied in a stochastic context because of the additional probability variable. Therefore,we apply the stochastic compactness method.
43

New Results on Stochastic Geometry Modeling of Cellular Networks : Modeling, Analysis and Experimental Validation / Nouveaux résultats sur la modélisation des réseaux cellulaires basée sur la géométrie stochastique : analyse des performances et validation expérimentale

Lu, Wei 16 December 2015 (has links)
L'hétérogénéité et l’irrégularité croissante des déploiements des réseaux sans fil de nouvelles générations soulèvent des défis importants dans l’évaluation de performances de ces réseaux. Les modèles classiques s’appuyant sur des modèles hexagonaux pour décrire les emplacements géographiques des nœuds de transmission sont difficilement adaptables à ces réseaux. Dans ce contexte, il a été proposé un nouveau paradigme de modélisation des réseaux sans fil qui s’appuie sur les processus ponctuels de Poisson (PPP), et de manière générale sur la géométrie stochastique. L'analyse, au travers de ces outils mathématiques, présente une complexité indépendante de la taille du réseau, et permet d’estimer avec précision des quantités pratiques liées aux performances des réseaux cellulaires. Cette thèse a porté sur la faisabilité mathématique de l'approche fondée sur les PPP en proposant de nouvelles méthodes mathématiques d’approximations justes incorporant des modèles de propagation du canal radio. Dans un premier temps, un nouveau cadre mathématique, considéré comme une approche Equivalent-in-Distribution (EiD), a été proposée pour le calcul exact de la probabilité d'erreur dans les réseaux cellulaires. L'approche proposée, s’appuyant donc sur la géométrie aléatoire et des modèles spatiaux, montre une complexité faible en terme d’évaluation numérique et est applicable à un grand nombre de configurations MIMO pour lesquelles nous considérons différentes techniques de modulation et techniques de récupération du signal. Dans un deuxième temps, nous étudions les performances des réseaux cellulaires en présence de relais, où trois processus ponctuels de Poisson modélisent respectivement les nœuds relais, les stations de base, et les terminaux mobiles. Pour ce modèle, nous avons considéré des critères souples d'association. Le cadre mathématique proposé et les résultats associés ont montré que les performances dépendent fortement des exposants des fonctions d’atténuation sur les deux premiers sauts sans fil. Nous montrons aussi qu’une mauvaise configuration du réseau peut amener à des gains négligeables de l’utilisation de cette technique. Enfin, nous considérons la modélisation des réseaux cellulaires au travers d’un PPP et d’un modèle unifié d'atténuation de signal généralisée qui prend en compte deux types de liaisons physiques : line-of-sight (LOS) et non-line-of-sight (NLOS). Un modèle de complexité réduite décrivant les propriétés de la liaison radio a aussi été proposée et permet de prendre en compte dans nos calculs un grand nombre de modèle radio proposés dans la littérature. Les résultats montrent, entre autres, qu’une densité optimale pour le déploiement des BS existe lorsque les liens LOS/NLOS sont classés en fonction de leur charge. Nous comparons nos résultats, s’appuyant donc sur un PPP pour modéliser la position des stations de bases et notre modèle de canal radio, avec des simulations de Monte Carlo décrivant des déploiements réels de stations de bases et un modèle de type blocages de construction empiriques. Une bonne correspondance est observée. / The increasing heterogeneity and irregular deployment of the emerging wireless networks give enormous challenges to the conventional hexagonal model for abstracting the geographical locations of wireless transmission nodes. Against this backdrop, a new network paradigm by modeling the wireless nodes as a Poisson Point Process (PPP), leveraging on the mathematical tools of stochastic geometry for tractable mathematical analysis, has been proposed with the capability of fairly accurately estimating the performance of practical cellular networks. This dissertation investigated the mathematical tractability of the PPP-based approach by proposing new mathematical methodologies, fair approximations incorporating practical channel propagation models. First, a new mathematical framework, which is referred to as an Equivalent-in-Distribution (EiD)-based approach, has been proposed for computing exact error probability of cellular networks based on random spatial networks. The proposed approach is easy to compute and is shown to be applicable to a bunch of MIMO setups where the modulation techniques and signal recovery techniques are explicitly considered. Second, the performance of relay-aided cooperative cellular networks, where the relay nodes, the base stations, and the mobile terminals are modeled according to three independent PPPs, has been analyzed by assuming flexible cell association criteria. It is shown from the mathematical framework that the performance highly depends on the path-loss exponents of one-hop and two-hop links, and the relays provide negligible gains on the performance if the system is not adequately designed. Third, the PPP modeling of cellular networks with unified signal attenuation model is generalized by taking into account the effect of line-of-sight (LOS) and non-line-of-sight (NLOS) channel propagation. A tractable yet accurate link state model has been proposed to estimate other models available in the literature. It is shown that an optimal density for the BSs deployment exists when the LOS/NLOS links are classified in saturate load cellular networks. In addition, the Monte Carlo simulation results of the real BSs deployments with empirical building blockages are compared with those with PPP distributed BSs with the proposed link state approximation at the end of this dissertation as supplementary material. In general, a good matching is observed.
44

Stochastic optimization problems : decomposition and coordination under risk / Problèmes d'optimisation stochastique : décomposition et coordination avec risque

Gérard, Henri 26 October 2018 (has links)
Nous considérons des problèmes d'optimisation stochastique et de théorie des jeux avec des mesures de risque. Dans une première partie, nous mettons l'accent sur la cohérence temporelle. Nous commençons par prouver une équivalence entre cohérence temporelle et l'existence d'une formule imbriquée pour des fonctions. Motivés par des exemples bien connus dans les mesures de risque, nous étudions trois classes de fonctions: les fonctions invariantes par translation, les transformées de Fenchel-Moreau et les fonctions supremum. Ensuite, nous étendons le concept de cohérence temporelle à la cohérence entre joueurs, en remplaçant le temps séquentiel par un ensemble non ordonné et les fonctions par des relations binaires. Enfin, nous montrons comment la cohérence entre joueurs est liée à des formes de décomposition séquentielles et parallèles en optimisation. Dans une seconde partie, nous étudions l'impact des mesures de risque sur la multiplicité des équilibres dans les problèmes de jeux dynamiques dans les marchés complets et incomplets. Nous concevons un exemple où l'introduction de mesures de risque conduit à l'existence de trois équilibres au lieu d'un dans le cas risque neutre. Nous analysons la capacité de deux algorithmes différents à trouver les différents équilibres. Nous discutons des liens entre la cohérence des joueurs et les problèmes d'équilibre dans les jeux. Dans une troisième partie, nous étudions l'optimisation robuste pour l'apprentissage automatique. En utilisant des mesures de risque convexes, nous fournissons un cadre unifié et proposons un algorithme adapté couvrant trois ensembles d'ensembles d'ambiguïté étudiés dans la littérature / We consider stochastic optimization and game theory problems with risk measures. In a first part, we focus on time consistency. We begin by proving an equivalence between time consistent mappings and the existence of a nested formula. Motivated by well-known examples in risk measures, we investigate three classes of mappings: translation invariant, Fenchel-Moreau transform and supremum mappings. Then, we extend the concept of time consistency to player consistency, by replacing the sequential time by any unordered set and mappings by any relations. Finally, we show how player consistency relates to sequential and parallel forms of decomposition in optimization. In a second part, we study how risk measures impact the multiplicity of equilibria in dynamic game problems in complete and incomplete markets. We design an example where the introduction of risk measures leads to the existence of three equilibria instead of one in the risk neutral case. We analyze the ability of two different algorithms to recover the different equilibria. We discuss links between player consistency and equilibrium problems in games. In a third part, we study distribution ally robust optimization in machine learning. Using convex risk measures, we provide a unified framework and propose an adapted algorithm covering three ambiguity sets discussed in the literature
45

Élaboration de métriques basées sur la géométrie pour la planification de traitements en radiothérapie par modulation d’intensité à l’aide de l’analyse de frontières stochastiques

Gagné, Marie-Chantal 23 April 2018 (has links)
La radiothérapie par modulation d’intensité est une technique avancée de traitement du cancer qui utilise de nombreux faisceaux de photons dont les intensités sont modulées. Avec cette méthode, des compromis entre la couverture de la zone à traiter et la sauvegarde des organes à risque sont nécessaires et dépendent du planificateur. Pour accélérer, uniformiser et accroître la qualité des planifications futures, le présent mémoire propose des métriques basées sur la géométrie spécifique des patients. Pour ce faire, une étude rétrospective a été conduite. Certains indices dosimétriques d’intérêt ont été mis en relation avec des paramètres géométriques simples. Un modèle de frontières stochastiques a été adapté pour déterminer les frontières inférieures des distributions par une méthode de maximisation de la vraisemblance. La validité de la méthode a été testée. L’impact de l’implantation en clinique d’une métrique simple en ORL a finalement été évalué.
46

Sustainable supply chain network design integrating logistics outsourcing decisions in the context of uncertainties

Ameknassi, Lhoussaine 24 April 2018 (has links)
Les fournisseurs de services logistiques (3PLs) possèdent des potentialités pour activer les pratiques de développement durables entre les différents partenaires d’une chaîne logistique (Supply Chain SC). Il existe un niveau optimal d'intégration des 3PLs en tant que fournisseurs, pour s’attendre à des performances opérationnelles élevées au sein de toute la SC. Ce niveau se traduit par la distinction des activités logistiques à externaliser de celles à effectuer en interne. Une fois que les activités logistiques externalisés sont stratégiquement identifiées, et tactiquement dimensionnées, elles doivent être effectuées par des 3PLs appropriés afin d’endurer les performances économiques ; sociales ; et environnementales de la SC. La présente thèse développe une approche holistique pour concevoir une SC durable intégrant les 3PLs, dans un contexte incertain d’affaires et politique de carbone. Premièrement, une approche de modélisation stochastique en deux étapes est suggérée pour optimiser à la fois le niveau d'intégration des 3PLs, et le niveau d'investissement en technologies sobres au carbone, et ce dans le contexte d’une SC résiliente aux changements climatiques. Notre SC est structurée de façon à capturer trois principales préoccupations du Supply Chain Management d’une entreprise focale FC (e. g. le fabricant) : Sécurité d’approvisionnement, Segmentation de distribution, et Responsabilité élargie des producteurs. La première étape de l'approche de modélisation suggère un plan stochastique basé sur des scenarios plus probables, afin de capturer les incertitudes inhérentes à tout environnement d’affaires (e. g. la fluctuation de la demande des différents produits ; la qualité et la quantité de retour des produits déjà utilisés ; et l’évolution des différents coûts logistiques en fonction du temps). Puis, elle propose un modèle de programmation stochastique bi-objectif, multi-période, et multi-produit. Le modèle de programmation quadratique, et non linéaire consiste à minimiser simultanément le coût logistique total espéré, et les émissions de Gaz à effet de Serre de la SC fermée. L'exécution du modèle au moyen d'un algorithme basé sur la méthode Epsilon-contraint conduit à un ensemble de configurations Pareto optimales d’une SC dé- carbonisée, avant tout investissement en technologie sobre au carbone. Chacune de ces configurations sépare les activités logistiques à externaliser de celles à effectuer en interne. La deuxième étape de l'approche de modélisation permet aux décideurs de choisir la meilleure configuration de la SC parmi les configurations Pareto optimales identifiées. Le concept de Prix du Carbone Interne est utilisé pour établir un plan stochastique du prix de carbone, dans le cadre d'un régime de déclaration volontaire du carbone. Nous proposons un ensemble des technologies sobres au carbone, dans le domaine de transport des marchandises, disposées à concourir pour contrer les politiques incertaines de carbone. Un modèle stochastique combinatoire, et linéaire est développé pour minimiser le coût total espéré, sous contraintes de l’abattement du carbone; limitation du budget, et la priorité attribuée pour chaque Technologie Réductrice de carbone (Low Carbone Reduction LCR). L'injection de chaque solution Pareto dans le modèle, et la résolution du modèle conduisent à sélectionner la configuration de la SC, la plus résiliente aux changements climatiques. Cette configuration définit non seulement le plan d'investissement optimal en LCR, mais aussi le niveau optimal d’externalisation de la logistique dans la SC. Deuxièmement, une fois que les activités logistiques à externaliser sont stratégiquement définies et tactiquement dimensionnées, elles ont besoin d’être effectuées par des 3PL appropriées, afin de soutenir la FC à construire une SC durable et résiliente. Nous suggérons DEA-QFD / Fuzzy AHP- Conception robuste de Taguchi : Une approche intégrée & robuste, pour sélectionner les 3PL candidats les plus efficients. Les critères durables et les risques liés à l’environnement d’affaires, sont identifiés, classés et ordonnés. Le Déploiement de la Fonction Qualité (QFD) est renforcé par le Processus Hiérarchique Analytique (AHP), et par la logique floue pour déterminer avec consistance l'importance relative de chaque facteur de décision, et ce, conformément aux besoins logistiques réels, et stratégies d'affaires de la FC. L’Analyse d’Enveloppement des Données (DEA) Data Envelopment Analysis conduit à limiter la liste des candidats, uniquement à ceux d’efficiences comparables, et donc excluant tout candidat moins efficient. La technique de conception robuste Taguchi permet de réaliser un plan d'expérience qui détermine un candidat idéal nommé 'optimum de Taguchi' ; un Benchmark pour comparer les 3PLs candidats. Par suite, le 3PL le plus efficient est celui le plus proche de cet optimum. Nous conduisons actuellement une étude de cas d’une entreprise qui fabrique et commercialise les fours à micro-ondes pour valider la modélisation stochastique en deux étapes. Certains aspects concernant l’application de l’approche sont reportés. Enfin, un exemple de sélection d’un 3PL durable pour s’occuper de la logistique inverse est fourni, pour démontrer l'applicabilité de l'approche intégrée & robuste, et montrer sa puissance par rapport aux approches populaires de sélection. / The Third-Party Logistics service providers (3PLs) have the potentialities to activate sustainable practices between different partners of a Supply Chain (SC). There exists an optimal level of integrating 3PLs as suppliers of a Focal Company within the SC, to expect for high operational performances. This level leads to distinguish all the logistics activities to outsource from those to perform in-house. Once the outsourced logistics activities are strategically identified, and tactically dimensioned, they need to be performed by appropriate 3PLs to sustain economic, social and environmental performances of the SC. The present thesis develops a holistic approach to design a sustainable supply chain integrating 3PLs, in the context of business and carbon policy uncertainties. First, a two-stage stochastic modelling approach is suggested to optimize both the level of 3PL integration, and of Low Carbon Reduction LCR investment within a climate change resilient SC. Our SC is structured to capture three main SC management issues of the Focal Company FC (e.g. The manufacturer) : Security of Supplies; Distribution Segmentation; and Extended Producer Responsibility. The first-stage of the modelling approach suggests a stochastic plan based scenarios capturing business uncertainties, and proposes a two-objective, multi-period, and multi-product programming model, for minimizing simultaneously, the expected logistics total cost, and the Green House Gas GHG emissions of the whole SC. The run of the model by means of a suggested Epsilon-constraint algorithm leads to a set of Pareto optimal decarbonized SC configurations, before any LCR investment. Each one of these configurations distinguishes the logistics activities to be outsourced, from those to be performed in-house. The second-stage of the modelling approach helps the decision makers to select the best Pareto optimal SC configuration. The concept of internal carbon price is used to establish a stochastic plan of carbon price in the context of a voluntary carbon disclosure regime, and we propose a set of LCR technologies in the freight transportation domain ready to compete for counteracting the uncertain carbon policies. A combinatory model is developed to minimize the total expected cost, under the constraints of; carbon abatement, budget limitation, and LCR investment priorities. The injection of each Pareto optimal solution in the model, and the resolution lead to select the most efficient climate resilient SC configuration, which defines not only the optimal plan of LCR investment, but the optimal level of logistics outsourcing within the SC as well. Secondly, once the outsourced logistics are strategically defined they need to be performed by appropriate 3PLs for supporting the FC to build a Sustainable SC. We suggest the DEA-QFD/Fuzzy AHP-Taguchi Robust Design: a robust integrated selection approach to select the most efficient 3PL candidates. Sustainable criteria, and risks related to business environment are identified, categorized, and ordered. Quality Function Deployment (QFD) is reinforced by Analytic Hierarchic Process (AHP), and Fuzzy logic, to consistently determine the relative importance of each decision factor according to the real logistics needs, and business strategies of the FC. Data Envelopment Analysis leads to shorten the list of candidates to only those of comparative efficiencies. The Taguchi Robust Design technique allows to perform a plan of experiment, for determining an ideal candidate named ‘optimum of Taguchi’. This benchmark is used to compare the remainder 3Pls candidates, and the most efficient 3PL is the closest one to this optimum.We are currently conducting a case study of a company that manufactures and markets microwave ovens for validating the two-stage stochastic approach, and certain aspects of its implementation are provided. Finally, an example of selecting a sustainable 3PL, to handle reverse logistics is given for demonstrating the applicability of the integrated & robust approach, and showing its power compared to popular selection approaches. Keywords:Third Party Logistics; Green Supply Chain design; Stochastic Multi-Objective Optimization; Carbon Pricing; Taguchi Robust Design.
47

Allocation stratégique d'actifs et ALM pour les régimes de retraite

Faleh, Alaeddine 13 May 2011 (has links) (PDF)
La présente thèse s'intéresse aux modèles d'allocation stratégiques d'actifs et à leurs applications pour la gestion des réserves financières des régimes de retraite par répartition, en particulier ceux partiellement provisionnés. L'étude de l'utilité des réserves pour un système par répartition et a fortiori de leur gestion reste un sujet peu exploré. Les hypothèses classiques sont parfois jugées trop restrictives pour décrire l'évolution complexe des réserves. De nouveaux modèles et de nouveaux résultats sont développés à trois niveaux : la génération de scénarios économiques (GSE), les techniques d'optimisation numérique et le choix de l'allocation stratégique optimale dans un contexte de gestion actif-passif (ALM). Dans le cadre de la génération de scénarios économiques et financiers, certains indicateurs de mesure de performance du GSE ont été étudiés. Par ailleurs, des améliorations par rapport à ce qui se pratique usuellement lors de la construction du GSE ont été apportées, notamment au niveau du choix de la matrice de corrélation entre les variables modélisées. Concernant le calibrage du GSE, un ensemble d'outils permettant l'estimation de ses différents paramètres a été présenté. Cette thèse a également accordé une attention particulière aux techniques numériques de recherche de l'optimum, qui demeurent des questions essentielles pour la mise en place d'un modèle d'allocation. Une réflexion sur un algorithme d'optimisation globale d'une fonction non convexe et bruitée a été développée. L'algorithme permet de moduler facilement, au moyen de deux paramètres, la réitération de tirages dans un voisinage des points solutions découverts, ou à l'inverse l'exploration de la fonction dans des zones encore peu explorées. Nous présentons ensuite des techniques novatrices d'ALM basées sur la programmation stochastique. Leur application a été développée pour le choix de l'allocation stratégique d'actifs des régimes de retraite par répartition partiellement provisionnés. Une nouvelle méthodologie pour la génération de l'arbre des scénarios a été adoptée à ce niveau. Enfin, une étude comparative du modèle d'ALM développé avec celui basé sur la stratégie Fixed-Mix a été effectuée. Différents tests de sensibilité ont été par ailleurs mis en place pour mesurer l'impact du changement de certaines variables clés d'entrée sur les résultats produits par notre modèle d'ALM.
48

Influence des fluctuations sur l'échantillonnage et la quantification dans le système visuel

Duchêne, Cédric 19 July 2007 (has links) (PDF)
De récentes études tendent à montrer que les réseaux de neurones biologiques exploitent le bruit et les non-linéarités pour favoriser les processus de traitements de l'information. Cette thèse s'articule autour de cette thématique; elle tente de mettre à jour des liens entre des opérations de traitement du signal susceptibles d'apparaitre au sein du système visuel et les facteurs aléatoires qui y sont sous-jacents.<br /><br />Une description du système visuel et de ses différentes sources de bruits est réalisée dans le premier chapitre. Nous étudions dans le chapitre 2, le lien possible entre l'échantillonnage si particulier de la rétine et les mouvements incontrôlables et incessants de l'œil, les micro-mouvements. A l'aide de modèles simples de rétine et pour des fluctuations de diverses natures nous montrons que la ressemblance entre la scène projetée sur la rétine et la scène réelle peut être améliorée par des micro-mouvements aléatoires.<br /><br />Dans le chapitre 3, on s'intéresse à un problème récurent dans les systèmes naturels tel que le processus visuel : le test d'hypothèse binaire en milieu bruité. En particulier, nous caractérisons qu'elle peut être l'influence du bruit interne sur les performances de détection des premières couches de neurones du système visuel. Pour prendre en compte le bruit interne observé dans les réseaux de neurones biologiques, nous proposons de réaliser l'étude autour de quantifieurs stochastiques, quantifieurs dont les seuils sont soumis à des fluctuations aléatoires. Là encore, on observe que le bruit injecté dans le modèle permet d'accroitre les performances de détection en diminuant la probabilité d'erreur.
49

Asymmetry risk, state variables and stochastic discount factor specification in asset pricing models

Chabi-Yo, Fousseni January 2004 (has links)
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
50

Résilience et vulnérabilité dans le cadre de la théorie de la viabilité et des systèmes dynamiques stochastiques contrôlés / Resilience and vulnerability in the framework of viability theory and stochastic controlled dynamical systems

Rougé, Charles Jacques Jean 17 December 2013 (has links)
Cette thèse propose des définitions mathématiques des concepts de résilience et de vulnérabilité dans le cadre des systèmes dynamiques stochastiques contrôlés, et en particulier celui de la viabilité stochastique en temps discret. Elle s’appuie sur les travaux antérieurs définissant la résilience dans le cadre de la viabilité pour des dynamiques déterministes. Les définitions proposées font l’hypothèse qu’il est possible de distinguer des aléas usuels, inclus dans la dynamique, et des événements extrêmes ou surprenants dont on étudie spécifiquement l’impact. La viabilité stochastique et la fiabilité ne mettent en jeu que le premier type d’aléa, et s’intéressent à l’évaluation de la probabilité de sortir d’un sous-ensemble de l’espace d’état dans lequel les propriétés d’intérêt du système sont satisfaites. La viabilité stochastique apparaît ainsi comme une branche de la fiabilité. Un objet central en est le noyau de viabilité stochastique, qui regroupe les états contrôlables pour que leur probabilité de garder les propriétés sur un horizon temporel défini soit supérieure à un seuil donné. Nous proposons de définir la résilience comme la probabilité de revenir dans le noyau de viabilité stochastique après un événement extrême ou surprenant. Nous utilisons la programmation dynamique stochastique pour maximiser la probabilité d’être viable ainsi que pour optimiser la probabilité de résilience à un horizon temporel donné. Nous proposons de définir ensuite la vulnérabilité à partir d’une fonction de dommage définie sur toutes les trajectoires possibles du système. La distribution des trajectoires définit donc une distribution de probabilité des dommages et nous définissons la vulnérabilité comme une statistique sur cette distribution. Cette définition s’applique aux deux types d’aléas définis précédemment. D’une part, en considérant les aléas du premier type, nous définissons des ensembles tels que la vulnérabilité soit inférieure à un seuil, ce qui généralise la notion de noyau de viabilité stochastique. D’autre part, après un aléa du deuxième type, la vulnérabilité fournit des indicateurs qui aident à décrire les trajectoires de retour (en considérant que seul l’aléa de premier type intervient). Des indicateurs de vulnérabilité lié à un coût ou au franchissement d’un seuil peuvent être minimisés par la programmation dynamique stochastique. Nous illustrons les concepts et outils développés dans la thèse en les appliquant aux indicateurs pré-existants de fiabilité et de vulnérabilité, utilisés pour évaluer la performance d’un système d’approvisionnement en eau. En particulier, nous proposons un algorithme de programmation dynamique stochastique pour minimiser un critère qui combine des critères de coût et de sortie de l’ensemble de contraintes. Les concepts sont ensuite articulés pour décrire la performance d’un réservoir. / This thesis proposes mathematical definitions of the resilience and vulnerability concepts, in the framework of stochastic controlled dynamical system, and particularly that of discrete time stochastic viability theory. It relies on previous works defining resilience in the framework of deterministic viability theory. The proposed definitions stem from the hypothesis that it is possible to distinguish usual uncertainty, included in the dynamics, from extreme or surprising events. Stochastic viability and reliability only deal with the first kind of uncertainty, and both evaluate the probability of exiting a subset of the state space in which the system’s properties are verified. Stochastic viability thus appears to be a branch of reliability theory. One of its central objects is the stochastic viability kernel, which contains all the states that are controllable so their probability of keeping the properties over a given time horizon is greater than a threshold value. We propose to define resilience as the probability of getting back to the stochastic viability kernel after an extreme or surprising event. We use stochastic dynamic programming to maximize both the probability of being viable and the probability of resilience at a given time horizon. We propose to then define vulnerability from a harm function defined on every possible trajectory of the system. The trajectories’ probability distribution implies that of the harm values and we define vulnerability as a statistic over this latter distribution. This definition is applicable with both the aforementioned uncertainty sources. On one hand, considering usual uncertainty, we define sets such that vulnerability is below a threshold, which generalizes the notion of stochastic viability kernel. On the other hand, after an extreme or surprising event, vulnerability proposes indicators to describe recovery trajectories (assuming that only usual uncertainty comes into play then). Vulnerability indicators related to a cost or to the crossing of a threshold can be minimized thanks to stochastic dynamic programming. We illustrate the concepts and tools developed in the thesis through an application to preexisting indicators of reliability and vulnerability that are used to evaluate the performance of a water supply system. We focus on proposing a stochastic dynamic programming algorithm to minimize a criterion that combines criteria of cost and of exit from the constraint set. The concepts are then articulated to describe the performance of a reservoir.

Page generated in 0.0698 seconds