Spelling suggestions: "subject:"méthodes dde simulation"" "subject:"méthodes dee simulation""
71 |
Analyse de la dynamique des peuplements mixtes de sapin baumier et d'épinette rouge après coupe partielle : contraintes et méthodologies statistiquesFortin, Mathieu 21 December 2018 (has links)
Des éléments de la dynamique des peuplements mixtes de sapin baumier et d’épinette rouge après coupe partielle ont été étudiés sur une base statistique, afin de déterminer dans quelle mesure ils pourraient contribuer au phénomène de raréfaction de l’épinette rouge. L’étude visait principalement à identifier les changements structurels et à quantifier la croissance tant à l’échelle du peuplement que des tiges individuelles. Pour ce faire, les données de deux dispositifs de suivi ont été utilisées : l’Aire d’observation de la rivière Ouareau (Parc national du Mont-Tremblant) et la Forêt expérimentale du lac Édouard (Parc national de la Mauricie). Chacun de ces dispositifs disposent d’un réseau de placettes permanentes dont les mesures s’étendent sur un horizon de plus de 50 ans après une coupe partielle. Des méthodologies statistiques ont été proposées afin de formuler des inférences statistiques adaptées à la nature des données disponibles. L’analyse de la croissance s’est faite à partir d’un modèle linéaire incluant des effets aléatoires (à l’échelle de la tige individuelle) et d’un modèle non linéaire comportant une structure de covariance (à l’échelle du peuplement) afin de tenir compte de l’hétéroscédasticité des données et de l’autocorrélation des erreurs. Les changements structurels ont été analysés à l’aide d’un modèle linéaire généralisé puisque la variable dépendante n’était pas une variable continue, mais plutôt une fréquence. Pour tenir compte de l’effet dû aux placettes, des effets aléatoires ont été ajoutés au modèle. Finalement, une matrice de transition à deux niveaux a été construite sur la base de distributions discrètes dont les paramètres sont estimés par la méthode du maximum de vraisemblance. L’utilisation de distributions discrètes offre ainsi des résultats plus cohérents par rapport à l’approche traditionnelle. À l’échelle des tiges individuelles, les résultats de ces analyses démontrent que les différences quant à la croissance en diamètre sont relativement faibles. Le recrutement et la mortalité sont en fait des facteurs beaucoup plus importants dans l’évolution de ces peuplements après coupe partielle. À l’échelle du peuplement, ils induisent une variabilité importante dans l’évolution de la surface terrière du sapin baumier, de sorte que l’épinette rouge apparaît comme une essence beaucoup plus stable. La durée et l’importance de l’ouverture de la canopée après coupe partielle sont des éléments critiques qui déterminent l’abondance du recrutement du sapin baumier. Pour maintenir la proportion d’épinette rouge et une distribution diamétrale irrégulière, les coupes partielles de faible intensité comme le jardinage par pied d’arbre sont indiquées.
|
72 |
Primary school buildings renovation in cold climates : optimizing window size and opening for thermal comfort, indoor air quality and energy performanceDarvishi Alamdari, Pourya 13 December 2023 (has links)
Dans les bâtiments scolaires existants, la ventilation naturelle constitue souvent l'unique solution pour le contrôle de la qualité de l'air intérieur et le confort thermique. Cependant, de nombreuses études montrent que les salles de classe sont insuffisamment ventilées et entrainent des problèmes de qualité de l'environnement intérieur. Plusieurs études ont été menées sous différents climats, mais peu dans des climats très froids où l'usage de la ventilation naturelle peut entraîner une surconsommation énergétique. Cette recherche vise à étudier l'impact de la ventilation naturelle sur le confort thermique, la qualité de l'air intérieur et l'efficacité énergétique des bâtiments scolaires dans les climats froids. Divers paramètres architecturaux associés aux fenêtres ont été analysés pour une classe type du corpus Schola. Dans cette recherche, l'orientation des fenêtres, leur taille, leur position, la taille et la position de l'ouverture des fenêtres, le programme de ventilation naturelle et les méthodes de ventilation naturelle (unilatérale et transversale) ont été simulés numériquement avec le logiciel Ladybug Tools. Les résultats des simulations produisent données numériques annuelles de température, humidité, température radiante moyenne, concentration de CO₂, pour traiter les conditions thermiques et de Qualité de l'Air Intérieur QAI dans les bâtiments scolaires et de leur impact sur la performance énergétique. L'analyse des résultats utilise les modèles standards 55 ASHRAE, Predicted Mean Vote PMV et extended Adaptive Thermal Comfort ATC pour l'analyse du confort thermique, la Santé Canada et le Centre de collaboration nationale en santé environnementale, la Federation of European Heating, Ventilation and Air Conditioning Associations REHVA pour le contrôle de la COVID-19. Les résultats montrent que l'ouverture répétitive des fenêtres de courte durée pourrait être une solution optimale en termes de confort thermique, de qualité de l'air intérieur et d'efficacité énergétique. Étant donné que la plupart de ces bâtiments scolaires ne sont pas équipés de systèmes CVC et qu'ils ne disposent que de systèmes de chauffage classiques, le manque de qualité de l'air intérieur est un problème inévitable. La solution de la ventilation naturelle pourrait compenser le manque de qualité de l'air intérieur et le coût de la rénovation du système CVC ; cependant, elle devrait être appliquée avec précision pendant les périodes hivernales pour éviter un inconfort thermique et une surconsommation énergétique. / In existing school buildings in Quebec, natural ventilation is often the only solution for thermal comfort and indoor air quality control. However, many studies show insufficiently ventilated classrooms, leading to indoor environment quality problems. Where the arbitrary use of natural ventilation can lead to energy over consumption, several studies have been conducted on the role of natural ventilation on this issue, but few of them are addressed in very cold climates. This research investigates the impact of natural ventilation on thermal comfort, indoor air quality, and energy efficiency of school buildings in cold climates. Various architectural parameters associated with windows were analyzed for a typical classroom in the Schola.ca corpus. Since most of these school buildings are not equipped with HVAC systems and have only infrastructures for conventional heating systems, the lack of indoor air quality is an inevitable problem. In this research, the windows' orientation, position, opening size, and opening position, natural ventilation program, and window-opening modes (single-sided and cross-window openings) were numerically simulated with the Ladybug Tools software. The software outputs consist of annual numerical data (temperature, humidity, mean radiant temperature, CO₂ concentration, energy, and thermal) representing thermal comfort and IAQ performances in school buildings and their impacts on energy consumption efficiency. In analyzing the result, several standards and guidelines were used, including ASHRAE 55 standard models (Predicted Mean Vote PMV and Adaptive Thermal Comfort models ATC for thermal performance), the Health Canada and National Collaboration Centre for Environmental Health guideline, and the Federation of European Heating, Ventilation and Air Conditioning Associations REHVA to evaluate the building thermal and IAQ performances compared to there commended benchmark models. The results show that repetitive short-term opening of the windows could be an optimal solution in terms of thermal comfort, indoor air quality, and heating energy consumption efficiency. Natural ventilation solutions could retrieve the lack of indoor air quality and the cost of HVAC system renovation; however, they should be only applied during cold seasons to avoid thermal discomfort and energy over consumption.
|
73 |
Signal decompositions using trans-dimensional Bayesian methods. / Décomposition de signaux dans un cadre bayésien trans-dimensionnelRoodaki, Alireza 14 May 2012 (has links)
Cette thèse porte sur le problème de la décomposition de signaux contenant un nombre inconnu de composantes, envisagé dans un cadre bayésien. En particulier, nous nous concentrons sur la question de la description des lois a posteriori qui ont la spécificité, pour les problèmes de ce genre, d’être définies sur une union de sous-espaces de dimensions différentes. Ces lois peuvent être échantillonnées à l’aide de techniques de Monte Carlo récentes, telles que l’échantillonneur MCMC à sauts réversibles (RJ-MCMC), mais aucune approche générique n’existe à l’heure actuelle pour décrire les échantillons produits par un tel échantillonneur et en extraire les paramètres spécifiques des composantes. L’un des principaux obstacles est le problème de la commutation des étiquettes (label-switching), causé par l’invariance de la loi a posteriori vis-à-vis de permutations de ses composantes. Nous proposons une nouvelle approche pour résoudre ce problème, qui consiste à approcher la loi a posteriori d’intérêt par une loi paramétrique plus “simple”, mais toujours définie sur un espace de dimension variable. Nous développons des algorithmes de type SEM (Stochastic Expectation-Maximization), s’appuyant sur la sortie d’un échantillonneur RJ-MCMC, afin d’estimer les paramètres du modèle par minimisation d’une divergence entre les deux lois. Deux problèmes de décomposition de signaux illustrent la capacité de la méthode proposée à résoudre le problème de commutation des étiquettes et à produire des résumés de lois a posteriori définies sur des espaces de dimension variable : le problème classique de détection et d’estimation de composantes sinusoïdales dans un bruit blanc d’une part, et un problème de comptage de particules motivé par le projet Pierre Auger en astrophysique d’autre part. / This thesis addresses the challenges encountered when dealing with signal decomposition problems with an unknown number of components in a Bayesian framework. Particularly, we focus on the issue of summarizing the variable-dimensional posterior distributions that typically arise in such problems. Such posterior distributions are defined over union of subspaces of differing dimensionality, and can be sampled from using modern Monte Carlo techniques, for instance the increasingly popular Reversible-Jump MCMC (RJ-MCMC) sampler. No generic approach is available, however, to summarize the resulting variable-dimensional samples and extract from them component-specific parameters. One of the main challenges that needs to be addressed to this end is the label-switching issue, which is caused by the invariance of the posterior distribution to the permutation of the components. We propose a novel approach to this problem, which consists in approximating the complex posterior of interest by a “simple”—but still variable-dimensional parametric distribution. We develop stochastic EM-type algorithms, driven by the RJ-MCMC sampler, to estimate the parameters of the model through the minimization of a divergence measure between the two distributions. Two signal decomposition problems are considered, to show the capability of the proposed approach both for relabeling and for summarizing variable dimensional posterior distributions: the classical problem of detecting and estimating sinusoids in white Gaussian noise on the one hand, and a particle counting problem motivated by the Pierre Auger project in astrophysics on the other hand.
|
74 |
Développement d'outils de simulation numérique pour l'élastodynamique non linéaire : application à l'imagerie acoustique de défauts à l'aide de transducteur à cavité chaotiqueLi, Yifeng 09 July 2009 (has links) (PDF)
Dans cette thèse nous proposons de développer un système d'imagerie ultrasonore innovante de micro- défauts basé sur l'utilisation conjointe de techniques d'acoustique non linéaire et du concept de "transducteur à cavité chaotique". Ce transducteur correspond à la combinaison d'une céramique piézoélectrique collée sur une cavité de forme chaotique et du principe de retournement temporel. La faisabilité et les performances de ce nouveau système sont explorées par des simulations numériques. Des paramètres optimaux d'utilisation pour une implémentation expérimentale sont proposés. Une grande partie des travaux menés dans le cadre de cette thèse se concentre sur le développement d'outils numériques permettant l'amélioration de telles techniques d'imagerie. Un schéma d'éléments finis de type Galerkin Discontinu (GD) est étendu à l'élastodynamique non linéaire. Un type de zone absorbante parfaitement adaptée, appelée "Nearly Perfectly Matched Layer" (NPML) a aussi été développé. Dans le cas de matériaux orthotropes, comme des problèmes de stabilité apparaissent, un mélange de NPML et de zone atténuante, dont on contrôle la proportion respective, est introduit afin de stabiliser les NPML. Une validation expérimentale du concept de "transducteur à cavité chaotique" pour la focalisation dans un milieu solide, réverbérant ou non, en utilisant une seule source est réalisée. Les méthodes de retournement temporel et de filtre inverse sont présentées et comparées. La démonstration expérimentale qu'un "transducteur à cavité chaotique" peut être utilisé conjointement avec les méthodes d'inversion d'impulsion afin de réaliser une image de non linéarités localisées est présentée
|
75 |
Conditionnement de processus markoviensMarchand, Jean-Louis 25 June 2012 (has links) (PDF)
Le but de cette thèse est de décrire la loi conditionnelle d'un processus markovien multidimensionnel connaissant la valeur de certaines combinaisons linéaires de ses coordonnées à des instants donnés. La description recherchée consiste à mettre en évidence un processus de même type, facile à simuler, dont la loi est équivalente à la loi conditionnelle ciblée.La classe principalement étudiée est celle des processus à diffusion. Dans un premier temps, des techniques de grossissement de filtration (Jacod 1985) permettent de déterminer les paramètres de l'équation différentielle stochastique vérifiée par le processus conditionnel. Cependant, on s'aperçoit alors que la dérive n'est pas explicite, car celle-ci dépend des densités de transition du processus initial, inconnues en général. Ceci rend impossible,une simulation directe par exemple à l'aide d'un schéma d'Euler. Afin de pallier ce défaut, nous proposons une alternative, dans l'esprit de Delyon et Hu (2006). L'approche consiste à proposer une équation différentielle stochastique de paramètres explicites, dont la solution est de loi équivalente à la loi conditionnelle. Une application en collaboration avec Anne Cuzol et Etienne Mémin de l'INRIA, dans le cadre des écoulements fluides est également présentée. On applique la méthode proposée précédemment à un modèle stochastique inspiré des équations de Navier-Stokes. Enfin, la classe des processus markoviens à sauts est également abordée.
|
76 |
Localisation optimale des aires de coupe et du réseau routier lors de la planification des opérations forestièresRousseau, Denyse. 23 February 2022 (has links)
Ce travail a pour but de présenter une méthode devant faciliter la prise de décisions au niveau de la planification des opérations forestières. Il constitue une approche partielle au développement d'un modèle dynamique d'aménagement forestier, projet mis sur pied par des professeurs de la Faculté de Foresterie et de Géodésie de l'Université Laval en 1973. La méthode de planification proposée tente d'apporter une solution aux problèmes de la localisation des aires de coupe et de l'établissement du réseau routier. Les principaux objectifs poursuivis sont les suivants : - optimisation du réseau routier en fonction de critères économiques, - regroupement des opérations annuelles, - minimisation des fluctuations annuelles relatives au volume récolté, à la superficie traitée et ä la construction de chemin. Les aires de coupe sont localisées de façon à ce que soit respectée la possibilité de coupe déterminée lors de la réalisation du plan d'aménagement. Les diverses contraintes ayant trait à la protection du territoire et à l'aménagement intégré des ressources forestières sont également prises en considération. Voici quelles sont les principales étapes de la méthode proposée : 1) localisation des peuplements pouvant faire l'objet d'intervention pendant la durée du plan d'exploitation et établissement d'un ordre de chaque type de traitement; 2) classification des unités de territoire suivant un ordre de priorité pour la construction de chemins; 3) simulation de réseaux routiers correspondant à diverses distances de débardage; chaque simulation implique les étapes suivantes : - tracé des chemins d'exploitation de façon à desservir les peuplements susceptibles d'être exploités; - choix des aires de traitement annuelles; - tracé définitif des chemins; - définition des classes de qualité de chemin en fonction du volume ligneux transporté; - localisation des jetées et allocation des unités de coupe aux jetées; - calcul des coûts reliés à la construction du réseau routier simulé. La prise de décision finale s'effectue par la comparaison des coûts résultant de chacune des options simulées.
|
77 |
Detailed occupancy prediction, occupancy-sensing control and advanced behavioural modelling within whole-building energy simulationBourgeois, Denis J. 11 April 2018 (has links)
Cette étude a pour but de combler l'écart entre l'état actuel de la simulation énergétique dans le domaine du bâtiment (i.e. hypothèses et modèles) et la connaissance empirique sur le comportement des usagers en matière de contrôle environnemental. L'application principale issue de cette thèse est un module de simulation autonome qui vise la modélisation à haute résolution et à haute fréquence des interactions personne-milieu: de l'occupation des locaux (i.e. l'affectation individuelle d'un environnement modélisé), du contrôle basé uniquement sur la présence ou l'absence des occupants (e.g. détecteurs de mouvement), jusqu'aux modèles comportementaux plus avancés (e.g. commutation manuelle des appareils d'éclairage, l'utilisation des fenêtres ouvrantes). L'intégration du module au sein du logiciel libre ESP-r, un programme qui permet de simuler l'ensemble des interactions bâtiment-systèmes-environnement, permet d'étudier à quel point les modèles d'interactions personne-milieu, issus des études en milieu réel, peuvent influencer les besoins énergétiques d'un bâtiment donné. Certains traits comportementaux, couramment associés aux modèles de contrôle manuel des systèmes d'éclairage, caractérisent également le comportement individuel au niveau des fenêtres ouvrantes; une conclusion issue d'une étude pilote en milieu réel sur le campus de l'Université Laval (Québec). Cette constatation suggère certains traits communs pouvant décrire le comportement des usagers en matière de contrôle environnemental. Le module développé permet également d'étudier le potentiel écoénergétique de stratégies innovatrices: l'application de stratégies de contrôle reposant sur l'adaptation thermique dans un contexte de climatisation hybride, et basées sur l'opération de fenêtres ouvrantes en tant que commutateurs entre climat naturel et climat artificiel. Les résultats préliminaires suggèrent que pour les climats nordiques ou méridionaux, ces approches permettent effectivement de réduire les besoins en climatisation, mais qu'en contre partie les besoins en chauffage augmentent considérablement en raison de l'utilisation des fenêtres en périodes plus tempérées. L'intérêt de la méthode est ici mis en évidence dans sa capacité à simuler globalement l'ensemble des conséquences énergétiques de l'interaction sociale avec l'environnement bâti. / This study sets out to bridge the gap between building energy simulation and empirical evidence on occupant behaviour. The major output is a self-contained simulation module that aims to control all occupant-related phenomena which can affect energy use in buildings. It provides high resolution and high frequency occupancy prediction (i.e. when occupants as individual agents occupy a modelled environment), occupant-sensing control (i.e. as driven by the mere presence of one or more occupants, such as occupancy-sensing lighting controls), as well as advanced behavioural models (i.e. active personal control, such as manual switching of lights, manual adjustments to window blinds, operable windows, personalized air-conditioning units). The module is integrated within the ESP-r free software, a whole-building energy simulation program. Simulation results clearly show that occupants-based phenomena exert a strong influence on simulated energy use, revealing a number of limitations in key assumptions in current energy simulation practice. Key behavioural traits, commonly associated to lighting behavioural patterns, also appear to be associated to personal control of operable windows, as demonstrated in a pilot field study in a Université Laval pavilion in Québec. This may suggest an abstract quality to certain behavioural concepts regarding different environmental controls. The study then focuses on the use of the developed work to investigate the energy saving potential of novel yet untried strategies: adaptive comfort control algorithms in hybrid environments, based on the use of operable windows as switching mechanisms between natural and artificial modes of environmental control. Results suggest that for both heating- and cooling-dominant climates, adaptive comfort control effectively reduces cooling requirements, yet operable window use during cooler conditions appear to increase heating requirements. The usefulness of the original method is here illustrated by providing a more complete view on energy use attributed to occupant behaviour.
|
78 |
Calcul rapide de forces et de déformations mécaniques non-linéaires et visco-élastiques pour la simulation de chirurgieSchwartz, Jean-Marc 11 April 2018 (has links)
Ce travail présente une méthode de calcul rapide de déformations et de forces mécaniques destinée à la simulation d'applications chirurgicales. La simulation de chirurgie vise à offrir aux praticiens des outils leur permettant de pratiquer des entraînements intensifs et de pouvoir planifier avec précision certaines interventions. La conception de tels simulateurs nécessite de disposer de modèles géométriques et mécaniques précis des organes du corps humain, et d'algorithmes de calcul suffisamment rapides pour être capable d'utiliser ces modèles dans des conditions de temps réel. La plupart des simulateurs existants utilisent des modèles mécaniques extrêmement simples, basés sur les lois de l'élasticité linéaire. Or de nombreux résultats de biomécanique indiquent que les tissus biologiques se comportent selon des lois beaucoup plus complexes, incluant des effets non-linéaires et visco-élastiques importants. Pour cette raison, nous avons développé une méthode permettant le calcul rapide de déformations et de forces incluant des effets mécaniques non-linéaires et visco-élastiques. Cette méthode utilise la théorie des éléments finis et a été conçue comme une extension de l'algorithme dit des masses-tenseurs pour l'élasticité linéaire. Son principe consiste à pré-calculer un certain nombre de tenseurs dépendant des caractéristiques géométriques et mécaniques de chaque élément fini, qui sont ensuite combinés dans la phase de simulation proprement dite. Notre modèle non-linéaire ne présage d'aucune forme particulière de loi mécanique, de sorte que la méthode proposée est suffisamment générique pour s'appliquer à une grande variété de comportements et d'objets. Après la description de l'algorithme, de ses performances en terme de temps de calcul et de ses conditions de stabilité numérique, nous démontrons que cette méthode est capable de reproduire avec précision le comportement mécanique d'un tissu biologique mou. Ce travail s'inscrivant plus spécifiquement dans le cadre du développement d'un système de simulation de la cryochirurgie du foie, nous avons étudié expérimentalement les propriétés du foie lors de sa perforation par une aiguille à biopsie. Le modèle de masses-tenseurs non-linéaire et visco-élastique construit à l'aide des paramètres expérimentaux a pu reproduire avec une bonne précision les propriétés observées. / This work presents a method for the fast computation of mechanical deformations and forces for the simulation of surgical applications. Surgery simulation aims at providing physicians with tools allowing extensive training and precise planning of given interventions. The design of such simulation systems requires accurate geometrical and mechanical models of the organs of the human body, as well as fast computation algorithms suitable for real-time conditions. Most existing simulation systems use very simple mechanical models, based on the laws of linear elasticity. Numerous biomechanical results yet indicate that biological tissues exhibit much more complex behaviour, including important non-linear and visco-elastic effects. For this reason, we developed a method allowing the fast computation of mechanical deformations and forces including non-linear and visco-elastic effects. This method uses finite element theory and has been constructed as an extension of the so-called tensor-mass algorithm for linear elasticity. It consists in pre-computing a set of tensors depending on the geometrical and mechanical properties of each finite element, which are later combined in the simulation part itself. Our non-linear model does not assume any particular form of mechanical law, so that the proposed method is generic enough to be applied to a wide variety of behaviours and objects. Following the description of the algorithm, of its performances in terms of computation time, and of its numerical stability conditions, we show that this method allows to reproduce the mechanical behaviour of a biological soft tissue with good precision. As this project is part of a broader effort aiming more specifically at developing a simulation system for liver cryosurgery, we experimentally characterized the properties of liver in perforation by a biopsy needle. The non-linear and visco-elastic tensor-mass model constructed from experimental parameters succeeded in accurately reproducing the observed properties.
|
79 |
Optimisation stochastique des systèmes multi-réservoirs par l'agrégation de scénarios et la programmation dynamique approximativeZéphyr, Luckny 23 April 2018 (has links)
Les problèmes de gestion des réservoirs sont stochastiques principalement à cause de l’incertitude sur les apports naturels. Ceci entraine des modèles d’optimisation de grande taille pouvant être difficilement traitables numériquement. La première partie de cette thèse réexamine la méthode d’agrégation de scénarios proposée par Rockafellar et Wets (1991). L’objectif consiste à améliorer la vitesse de convergence de l’algorithme du progressive hedgging sur lequel repose la méthode. L’approche traditionnelle consiste à utiliser une valeur fixe pour ce paramètre ou à l’ajuster selon une trajectoire choisie a priori : croissante ou décroissante. Une approche dynamique est proposée pour mettre à jour le paramètre en fonction d’information sur la convergence globale fournie par les solutions à chaque itération. Il s’agit donc d’une approche a posteriori. La thèse aborde aussi la gestion des réservoirs par la programmation dynamique stochastique. Celle-ci se prête bien à ces problèmes de gestion à cause de la nature séquentielle de leurs décisions opérationnelles. Cependant, les applications sont limitées à un nombre restreint de réservoirs. La complexité du problème peut augmenter exponentiellement avec le nombre de variables d’état, particulièrement quand l’approche classique est utilisée, i.e. en discrétisant l’espace des états de « manière uniforme ». La thèse propose une approche d’approximation sur une grille irrégulière basée sur une décomposition simpliciale de l’espace des états. La fonction de valeur est évaluée aux sommets de ces simplexes et interpolée ailleurs. À l’aide de bornes sur la vraie fonction, la grille est raffinée tout en contrôlant l’erreur d’approximation commise. En outre, dans un contexte décision-information spécifique, une hypothèse « uni-bassin », souvent utilisée par les hydrologues, est exploitée pour développer des formes analytiques pour l’espérance de la fonction de valeur. Bien que la méthode proposée ne résolve pas le problème de complexité non polynomiale de la programmation dynamique, les résultats d’une étude de cas industrielle montrent qu’il n’est pas forcément nécessaire d’utiliser une grille très dense pour approximer la fonction de valeur avec une précision acceptable. Une bonne approximation pourrait être obtenue en évaluant cette fonction uniquement en quelques points de grille choisis adéquatement. / Reservoir operation problems are in essence stochastic because of the uncertain nature of natural inflows. This leads to very large optimization models that may be difficult to handle numerically. The first part of this thesis revisits the scenario aggregation method proposed by Rochafellar and Wets (1991). Our objective is to improve the convergence of the progressive hedging algorithm on which the method is based. This algorithm is based on an augmented Lagrangian with a penalty parameter that plays an important role in its convergence. The classical approach consists in using a fixed value for the parameter or in adjusting it according a trajectory chosen a priori: decreasing or increasing. This thesis presents a dynamic approach to update the parameter based on information on the global convergence provided by the solutions at each iteration. Therefore, it is an a posteriori scheme. The thesis also addresses reservoir problems via stochastic dynamic programming. This scheme is widely used for such problems because of the sequential nature of the operational decisions of reservoir management. However, dynamic programing is limited to a small number of reservoirs. The complexity may increase exponentially with the dimension of the state variables, especially when the classical approach is used, i.e. by discretizing the state space into a "regular grid". This thesis proposes an approximation scheme over an irregular grid based on simplicial decomposition of the state space. The value function is evaluated over the vertices of these simplices and interpolated elsewhere. Using bounds on the true function, the grid is refined while controlling the approximation error. Furthermore, in a specific information-decision context, a "uni-bassin" assumption often used by hydrologists is exploited to develop analytical forms for the expectation of the value function. Though the proposed method does not eliminate the non-polynomial complexity of dynamic programming, the results of an industrial case study show that it is not absolutely necessary to use a very dense grid to appropriately approximate the value function. Good approximation may be obtained by evaluating this function at few appropriately selected grid points.
|
80 |
Localisation optimale des aires de coupe et du réseau routier lors de la planification des opérations forestièresRousseau, Denyse 23 February 2022 (has links)
Ce travail a pour but de présenter une méthode devant faciliter la prise de décisions au niveau de la planification des opérations forestières. Il constitue une approche partielle au développement d'un modèle dynamique d'aménagement forestier, projet mis sur pied par des professeurs de la Faculté de Foresterie et de Géodésie de l'Université Laval en 1973. La méthode de planification proposée tente d'apporter une solution aux problèmes de la localisation des aires de coupe et de l'établissement du réseau routier. Les principaux objectifs poursuivis sont les suivants : - optimisation du réseau routier en fonction de critères économiques, - regroupement des opérations annuelles, - minimisation des fluctuations annuelles relatives au volume récolté, à la superficie traitée et ä la construction de chemin. Les aires de coupe sont localisées de façon à ce que soit respectée la possibilité de coupe déterminée lors de la réalisation du plan d'aménagement. Les diverses contraintes ayant trait à la protection du territoire et à l'aménagement intégré des ressources forestières sont également prises en considération. Voici quelles sont les principales étapes de la méthode proposée : 1) localisation des peuplements pouvant faire l'objet d'intervention pendant la durée du plan d'exploitation et établissement d'un ordre de chaque type de traitement; 2) classification des unités de territoire suivant un ordre de priorité pour la construction de chemins; 3) simulation de réseaux routiers correspondant à diverses distances de débardage; chaque simulation implique les étapes suivantes : - tracé des chemins d'exploitation de façon à desservir les peuplements susceptibles d'être exploités; - choix des aires de traitement annuelles; - tracé définitif des chemins; - définition des classes de qualité de chemin en fonction du volume ligneux transporté; - localisation des jetées et allocation des unités de coupe aux jetées; - calcul des coûts reliés à la construction du réseau routier simulé. La prise de décision finale s'effectue par la comparaison des coûts résultant de chacune des options simulées.
|
Page generated in 0.1889 seconds