Spelling suggestions: "subject:"deméthodes dde simulationlation"" "subject:"deméthodes dde motionsimulation""
71 |
Opérationnalisation des stratégies de sélection des prestataires logistiquesFeki, Yassine 20 April 2018 (has links)
Ce mémoire traite un problème de sélection des transporteurs à un niveau opérationnel de la hiérarchie de décision, d'un système de trafic constitué de trois flottes de transporteurs (interne, externe et spot), plusieurs entrepôts, plusieurs centres de distributions et plusieurs produits. Les demandes de produits sont considérées aléatoires et les transporteurs des flottes, interne et externe, sont sujets à des périodes de non-disponibilités. Pour permettre de suivre l'évolution du système dans le temps, la politique de sélection devrait inclure une stratégie d'affectation des quantités transférées en fonction de l'état du système. Les transporteurs externes proviennent d'un processus de sélection au niveau stratégique. Les transporteurs spots sont appelés du marché au comptant. Dans la première partie de ce mémoire, un cadre conceptuel est proposé permettant de raccorder les décisions de sélection prises au niveau stratégique et opérationnel. La sélection stratégique utilise un mécanisme d'enchères combinatoires dans lequel les transporteurs se mettent en concurrence en soumettant des mises en paquet sur les offres proposées par les expéditeurs. Un modèle mathématique mixte en nombres entiers est exposé pour déterminer les transporteurs gagnants de l'enchère avec lesquels l'expéditeur va s'engager sur une longue période. Les transporteurs gagnants de cette phase seront regroupés dans une seule flotte, appelée flotte externe. Dans la deuxième partie du projet, le problème de sélection des transporteurs, qui traite le cas d'une chaîne logistique simple, constituée d'un seul entrepôt, un seul centre de distribution, un seul produit et les trois flottes des transporteurs, est abordé. De ce fait, une formulation en programmation dynamique stochastique du problème est développée. Une résolution numérique est menée par la suite pour résoudre les équations d'optimalité obtenues. Pour illustrer l'utilité pratique et le comportement robuste de la politique développée, plusieurs analyses de sensibilité sont effectuées. Cette politique combine les deux aspects : la sélection des transporteurs et le contrôle des inventaires dans les centres de distribution. Par la suite, une approche expérimentale basée sur la simulation et des techniques d'optimisation statistiques est adoptée, en vue de valider, quantifier et optimiser la structure de la politique obtenue par modélisation mathématique. Une comparaison statistique est par la suite menée permettant de montrer la supériorité de la politique paramétrée développée par rapport à une autre politique basée principalement sur les coûts du transport comme critères de sélection. Finalement, une politique générale est proposée permettant de résoudre le problème de sélection des transporteurs à la phase opérationnelle de la hiérarchie. Cette politique est basée sur la structure globale de la politique développée du cas simple dans la deuxième partie du projet. Elle est appliquée dans un cadre plus représentatif de la réalité. Une comparaison statistique est par la suite menée montrant les gains que la politique générale proposée occasionnent par rapport à une autre politique générale visant un minimum de stock dans les centres de distribution et un coût de transport réduit. Plusieurs interprétations ont été dégagées à travers cette étude.
|
72 |
Evidence of deep hydraulically active fractures in post-glacial marine clays (Quebec, Canada) : implications for groundwater flow dynamics and slope stabilityOspina Llano, Julian Andres 13 December 2023 (has links)
Il est habituellement supposé que les dépôts d'argile marine postglaciaires du Québec sont généralement intacts sous une croûte fracturée (3 à 5 m de profondeur). Cependant, les données de 210 piézomètres ont démontré des variations grandes et rapides des charges hydrauliques à de grandes profondeurs, et un synchronisme entre les piézomètres dans le même nid. Ces comportements ne sont pas compatibles avec les propriétés hydrauliques des argiles intactes, mais sont plutôt les indicateurs de la présence de fractures profondes hydrauliquement actives. Afin de tester l'hypothèse de la présence de fractures, trois indicateurs ont été analysés dans tous les piézomètres du réseau de surveillance du MTQ : 1) une grande variation de la charge hydraulique, 2) une forte corrélation et 3) de faibles décalages temporels. En outre, l'impact potentiel de ces fractures sur l'écoulement des eaux souterraines et la stabilité des pentes est exploré. Pour ce faire, les données de terrain sont comparées à des modèles transitoires et permanents qui présentent et non des fractures. Deux géométries de pente et différents scénarios de fractures ont été considérés. Par la suite, les résultats de la modélisation hydrogéologique ont été importés dans un modèle de stabilité des pentes pour définir l'impact des changements de charge hydraulique causés par les fractures sur la stabilité des pentes. L'analyse des données mettent en évidence des fractures hydrauliquement actives jusqu'à 17 m de profondeur. Les résultats de la simulation démontrent quant à eux que les scénarios avec des fractures représentent mieux les données de terrain. Les fractures augmentent la charge hydraulique quand l'eau pénètre dans les sols à travers les fractures et se diffuse ensuite dans la matrice du sol. De plus, la charge hydraulique est réduite quand l'eau s'écoule à travers les fractures dans la face de la pente. D'un point de vue hydrogéologique, les fractures peuvent par conséquent améliorer ou réduire la stabilité des pentes dépendant du système d'écoulement. Notons que l'impact mécanique des fractures n'a pas été pris en compte. / To date it is usually assumed that post-glacial marine clay deposits of Quebec are generally intact below a fractured crust (3 to 5 m depth). However, data from 210 piezometers have shown large and rapid variations in hydraulic heads at great depths, and synchronism between the piezometers at different depths in the same nest. This behavior is not compatible with the hydraulic properties of intact clays, but rather are signs of the presence of deep hydraulically active fractures. To test the hypothesis of presence of fractures, three signs of hydraulically active fractures were analysed in all piezometers nest of the MTQ monitoring network: 1) large variation in the hydraulic head, 2) high correlation and 3) small time lags. In addition, the potential impact of these fractures on groundwater flow dynamics and slope stability are explored by comparing field data with transient and steady-state groundwater models with and without fractures. Two slope geometries that exhibit contrasting groundwater flows and different fracture scenarios were considered. Then, results of the hydrogeological modelling were imported into a slope stability model to delineate the impact of the hydraulic head changes due to the fractures on slope stability. Analysis of the MTQ monitoring network data shows evidence of hydraulically active fractures below the crust up to 17 m depth. The simulation results show that the scenarios with fractures better represent the field data. Fractures increase the hydraulic head when water enters the soils through the fractures which then dissipates by hydraulic diffusion into the soil matrix, and is reduced when water flows out through the fractures at the slope face. Therefore, depending on the groundwater flow system, from a hydrogeological perspective, fractures could improve or reduce the slope stability. It should be noted that the mechanical impact of the fractures are not considered.
|
73 |
Développement d'un modèle numérique d'écoulement 3D des eaux souterraines du bassin versant de la Rivière Chaudière, QuébecBrun Koné, Mathy Yasmina 19 April 2018 (has links)
Une étude hydrogéologique conjointe de l'Université Laval et de la Commission Géologique du Canada (CGC) a été réalisée dans le bassin versant de la rivière Chaudière. Le but de cette étude est d’accroître les connaissances sur le système hydrogéologique du bassin versant de la rivière Chaudière qui s’étend de la frontière américaine jusqu’au fleuve Saint-Laurent. La zone étudiée a une superficie de 6675 km2. Il s’agit d’une région densément peuplée (~ 390,000 hab.) à vocation principalement agricole où 65 % de la population utilise l’eau souterraine comme principale source d’eau potable. L’aquifère régional se compose de deux unités principales : le substratum rocheux de la province géologique des Appalaches et certaines unités quaternaires granulaires. Le confinement de l’unité rocheuse est contrôlé par des sédiments glaciaires, marins ou lacustres fins d’épaisseurs et de distribution variables. L’écoulement dans le roc se fait dans sa partie supérieure où la fracturation est la plus importante. La première étape des travaux a d’abord consisté à définir les propriétés hydrauliques des formations géologiques. Les données utilisées proviennent de divers rapports, de données du système d’information hydrogéologique (SIH), du Ministère du Développement Durable, de l’Environnement, de la Faune et des Parcs du Québec (MDDEFP), de rapports de consultants ainsi que d’une campagne de travaux de terrain effectuée à l’été 2007. Parmi ces données, la conductivité hydraulique (K) constitue la principale propriété à définir. Plusieurs valeurs de K ont été extraites directement ou indirectement de rapports existants. Une partie importante des valeurs de la conductivité hydraulique a été estimée à partir de la base de données SIH. Parmi celles-ci, 1333 valeurs ont été évaluées à partir de la capacité spécifique (Bradbury et al, 1985); 89 de ces mesures ont étés qualifiées de données de qualités car elles respectent toutes les conditions de la méthode, à l’exception du temps de pompage souvent trop court (94% des cas). En se basant sur les mesures recueillies, la moyenne géométrique des données de conductivité hydraulique (K) s’élève à 5 x 10-6 m/s avec un écart-type du logarithme de K égal à 0.60. La lithologie ne semble pas avoir une grande influence sur les valeurs de la conductivité hydraulique car toutes les valeurs moyennes de chacune des lithologies se trouvent à l’intérieur d’un même ordre de grandeur. Un modèle numérique a été construit pour l’ensemble de la zone d’étude à l’aide du logiciel de modélisation par éléments finis Watflow (Molson et al., 2002) afin d’interpréter le système d’écoulement de l’eau souterraine au niveau régional. Le modèle tridimensionnel est composé de 28 couches dont 18 représentent les dépôts meubles et 10 le roc. Le maillage 3D comprend 1 / A joint hydrogeological assessment study between Université Laval and the Geological Survey of Canada (GSC) has been conducted in the Chaudière River watershed. The main objective of the study was to gain further understanding into the groundwater resources within the region. The watershed extends over ~ 6700 km2 from the United States border northwards to the Saint Lawrence River in the province of Québec (Canada). Groundwater is an important source of drinking water as well as for irrigation and industrial use, however the supply is finite and there are potential risks of conflicts arising from different users. It is thus important to understand the aquifer systems throughout the watershed in order to avoid possible conflicts and to help decision makers to better manage the resource. Within the catchment, up to 65% of the population relies on groundwater as the primary drinking water resource, whereby most of the water is used for agricultural purposes. The regional aquifer system is dominated by the underlying rock substratum of the Appalachian province and Quaternary aquifer units. The degree of confinement of the fractured aquifers is controlled by the overlying glacial, marine and fine lacustrine sediments of variable thicknesses. The groundwater circulation within the fractured aquifers predominantly takes place in the uppermost part of the fractured water-bearing units, where fracture density is highest. As a first step, the hydraulic properties of the fractured basement were defined, for which the hydraulic conductivity (K) of the formations can be considered as the most important hydraulic characteristic. A literature review of the available reports as well as the SIH and the MDDEFP data bases was performed in order to assemble the data. Additional field work was completed by the GSC during the spring of 2007 to supplement the data base. Most of the values of the hydraulic conductivity K were taken from the existing reports while others were estimated from the SIH data base. The data base contains 1333 values which were evaluated using Bradbury’s method, of which 83 satisfied the “quality criteria”, since they respected suggested conditions regarding the minimum pumping (which was not met in 94% of the cases). The geometric mean value of the measured hydraulic conductivities was 5x10-6 m/s with a standard deviation of 0.60. The maximum difference between the hydraulic conductivities of the different lithological units was about a factor of 100x. A 3D numerical finite element model was built with the Watflow model (Molson et al., 2002) for simulating the regional groundwater flow system. The model domain extends over the entire watershed and is subdivided into 28 layers, 18 for the unconsolidated deposits and 10 within the basement rock. The 3D triangular prismatic mesh contains 1,694,672 nodes and 3,344,516 elements. The topographic DEM (digital elevation model) forms the uppermost surface of the model. For the model boundary conditions, the Chaudière River and major tributaries and lakes are set as first-type boundaries with constant hydraulic heads. The model base, as well as the lateral limits, are considered as no-flow boundaries. The net recharge over the model surface was estimated using the infiltration model HELP, combined with estimates of the surface-distributed local water withdrawals. The major pumping wells are represented in the model domain as point sinks. The horizontal hydraulic conductivity together with the vertical anisotropy values for each formation were used as the model calibration parameters, using the observation data from 68 observation wells. The results of the calibration of the model showed that the mass balance error is close to zero which implies that the sum of inflows is equal to the sum of outflows. Different scenarios with recharge variations were simulated with the calibrated model. The simulations allowed identifying the principal sensitive zones which need piezometric and water quality control. It was also possible to determine the areas most sensitive to climate variations. Changes in the rate of pumping and recharge (± 20%) did not have a significant impact on the modeled system mainly in relation to groundwater level (observed variations were ≤5m).
|
74 |
Analysis of flexibus and bus integrationNaderizand, Bahareh 12 November 2023 (has links)
Titre de l'écran-titre (visionné le 1er mai 2023) / Le Hub Location Problem (HLP), comme son nom l'indique, traite de la localisation d'un groupe d'installations de concentration et de la conception du réseau afin de fournir la manière la plus efficace d'acheminer le trafic à travers le réseau. Le Hub Arc Location Problem (HALP) intègre les considérations relatives à la localisation des pivots et à la conception du réseau en un seul problème. L'objectif du HALP est de localiser un ensemble d'arcs de pivots de manière à ce que le coût global du flux soit aussi bas que possible. Le projet Flixbus développé par le RTC vise à fournir de meilleurs services porte-à-porte dans les zones suburbaines de Québec. Actuellement, ce système fonctionne séparément du réseau de bus et transporte les passagers des origines aux destinations finales, comme un service de taxi. Dans notre étude, nous examinons la performance de ce système pour fournir un meilleur transport local. De plus, nous proposons un réseau intégré composé d'autobus réguliers et de Flexibus. Ce système vise à transporter de manière simple et rapide les passagers de leur lieu de résidence vers le réseau de bus principal et ensuite vers leurs destinations finales. Nous avons développé un modèle mathématique Hub and Flexibus Public Transit System (HFPTS) traitant de l'intégration des autobus et de Flexibus afin de prendre en compte à la fois le coût et la commodité du transport. Nous avons étudié les intégrations potentielles du Flexibus et des autobus sous forme de quatre scénarios dans notre zone d'étude de cas. Les résultats des calculs ont montré que l'intégration de ces deux systèmes améliore la situation actuelle tant en termes de coût que de niveau de service. / Hub Location Problem (HLP), as the name suggests, deals with locating a group of hub facilities and the design of the network to provide the most efficient way to route the traffic through the network. Hub Arc Location Problem (HALP) integrate hub location and network design considerations into a single problem. The objective of the HALP is to locate a set of hub arcs in a way that the overall flow cost is as low as possible. The Flexibus project seeks to provide better door-to-door services in Quebec's suburban areas. Currently, this system works separately from the bus network and takes passengers from the origins to the final destinations, like a taxi service. In our study, we investigate the performance of this system in providing a better local transportation. Furthermore, we propose an integrated network of regular buses and Flexibus. This system aims to rapidly and simply transport passengers from their locations to the main bus network (as a hub-arc network) and then to their final destinations. We developed a mathematical model Hub and Flexibus Public Transit System (HFPTS) dealing with the bus and Flexibus integration to consider both transportation cost and convenience. We surveyed potential Flexibus and bus integrations as four scenarios in our case study area. Computational results showed that integrating these two systems improves the current situation both in terms of cost and service level.
|
75 |
Dynamic modeling of energy consumption and yield in greenhouse horticulture : impact of energy efficiency measures, lighting systems, location, and climate changeTrépanier, Marie-Pier 17 June 2024 (has links)
L'agriculture sous serre est importante pour relever les défis mondiaux en matière de sécurité alimentaire et de durabilité, car elle permet de produire tout au long de l'année et d'obtenir des rendements nettement supérieurs à ceux de l'agriculture de plein champ. Toutefois, pour renforcer la durabilité environnementale et la viabilité économique de ces bâtiments à forte consommation d'énergie, il est essentiel d'améliorer leur efficacité énergétique. Pour optimiser les conditions de croissance des plantes tout en considérant la consommation d'énergie, il est nécessaire de gérer soigneusement le chauffage, l'humidité, le CO₂ et l'éclairage, car ils sont tous interconnectés. L'efficacité des différentes techniques, telles que les écrans thermiques et les systèmes de récupération de la chaleur, dépend de facteurs tels que le climat extérieur, les sources d'énergie et les mécanismes de contrôle. D'un point de vue énergétique, quelles sont les meilleures pratiques en matière d'éclairage et de mesures d'efficacité énergétique dans les serres, en mettant l'accent sur la durabilité ? La littérature actuelle manque de conseils pratiques de mise en œuvre, d'études comparatives et de considérations sur les variations climatiques régionales et les impacts futurs des changements climatiques. Cette recherche a analysé l'impact de différentes technologies d'éclairage et de mesures d'efficacité énergétique sur la consommation annuelle d'énergie à l'aide d'un modèle de simulation dynamique des serres. Les résultats ont montré que l'éclairage LED et les écrans thermiques sont les options les plus efficaces sur le plan énergétique, en particulier dans les climats nordiques. Les simulations des scénarios climatiques futurs indiquent des réductions potentielles de rendement en raison de chaleur estivale excessive. Les mesures d'adaptation, telles que les systèmes mécaniques de refroidissement et de déshumidification, sont prometteuses pour atténuer les effets des changements climatiques, mais elles augmentent également la consommation d'énergie. Cette recherche souligne l'importance des approches personnalisées de gestion de l'énergie pour des serres durables face à des conditions environnementales changeantes. Les résultats de ce travail sont utiles aux producteurs pour leur planification opérationnelle et stratégique, et aux décideurs politiques pour le développement de programmes de soutien à l'industrie. / Greenhouse agriculture is important for addressing global food security and sustainability challenges by enabling year-round production and significantly higher crop yields compared to field farming. However, to enhance the environmental sustainability and economic viability of these energy-intensive buildings, it is crucial to improve their energy efficiency. To optimize plant growth conditions while balancing energy consumption, it is necessary to carefully manage heating, humidity, CO₂, and lighting, as they are all interconnected. The effectiveness of various energy efficiency techniques, such as thermal screens and heat harvesting systems, depends on factors such as outdoor climate, energy sources, and control mechanisms. From an energy perspective, what are the best practices for lighting and energy efficiency measures in greenhouses with a focus on sustainability? The current literature often lacks practical implementation guidance, comparative studies, and considerations for regional climate variations and future climate change impacts. Additionally, operational costs and local environmental factors are frequently overlooked. This study analyzed the impact of different lighting technologies and energy efficiency measures on annual energy consumption using a comprehensive greenhouse dynamic simulation model. The results showed that LED lighting and thermal screens are the most energy-efficient options, especially in northern climates. Simulations of future climate scenarios indicate potential yield reductions due to excessive summer heat. Adaptive measures, such as mechanical cooling and dehumidification systems, show promise for mitigating climate change impacts but also increase energy consumption. This research emphasizes the importance of customized energy management approaches for sustainable greenhouse horticulture in the face of changing environmental conditions. The outcome of this work is useful to growers for their operational and strategic planning and for policymakers for the development of programs supporting the industry.
|
76 |
Signal decompositions using trans-dimensional Bayesian methods. / Décomposition de signaux dans un cadre bayésien trans-dimensionnelRoodaki, Alireza 14 May 2012 (has links)
Cette thèse porte sur le problème de la décomposition de signaux contenant un nombre inconnu de composantes, envisagé dans un cadre bayésien. En particulier, nous nous concentrons sur la question de la description des lois a posteriori qui ont la spécificité, pour les problèmes de ce genre, d’être définies sur une union de sous-espaces de dimensions différentes. Ces lois peuvent être échantillonnées à l’aide de techniques de Monte Carlo récentes, telles que l’échantillonneur MCMC à sauts réversibles (RJ-MCMC), mais aucune approche générique n’existe à l’heure actuelle pour décrire les échantillons produits par un tel échantillonneur et en extraire les paramètres spécifiques des composantes. L’un des principaux obstacles est le problème de la commutation des étiquettes (label-switching), causé par l’invariance de la loi a posteriori vis-à-vis de permutations de ses composantes. Nous proposons une nouvelle approche pour résoudre ce problème, qui consiste à approcher la loi a posteriori d’intérêt par une loi paramétrique plus “simple”, mais toujours définie sur un espace de dimension variable. Nous développons des algorithmes de type SEM (Stochastic Expectation-Maximization), s’appuyant sur la sortie d’un échantillonneur RJ-MCMC, afin d’estimer les paramètres du modèle par minimisation d’une divergence entre les deux lois. Deux problèmes de décomposition de signaux illustrent la capacité de la méthode proposée à résoudre le problème de commutation des étiquettes et à produire des résumés de lois a posteriori définies sur des espaces de dimension variable : le problème classique de détection et d’estimation de composantes sinusoïdales dans un bruit blanc d’une part, et un problème de comptage de particules motivé par le projet Pierre Auger en astrophysique d’autre part. / This thesis addresses the challenges encountered when dealing with signal decomposition problems with an unknown number of components in a Bayesian framework. Particularly, we focus on the issue of summarizing the variable-dimensional posterior distributions that typically arise in such problems. Such posterior distributions are defined over union of subspaces of differing dimensionality, and can be sampled from using modern Monte Carlo techniques, for instance the increasingly popular Reversible-Jump MCMC (RJ-MCMC) sampler. No generic approach is available, however, to summarize the resulting variable-dimensional samples and extract from them component-specific parameters. One of the main challenges that needs to be addressed to this end is the label-switching issue, which is caused by the invariance of the posterior distribution to the permutation of the components. We propose a novel approach to this problem, which consists in approximating the complex posterior of interest by a “simple”—but still variable-dimensional parametric distribution. We develop stochastic EM-type algorithms, driven by the RJ-MCMC sampler, to estimate the parameters of the model through the minimization of a divergence measure between the two distributions. Two signal decomposition problems are considered, to show the capability of the proposed approach both for relabeling and for summarizing variable dimensional posterior distributions: the classical problem of detecting and estimating sinusoids in white Gaussian noise on the one hand, and a particle counting problem motivated by the Pierre Auger project in astrophysics on the other hand.
|
77 |
Développement d'outils de simulation numérique pour l'élastodynamique non linéaire : application à l'imagerie acoustique de défauts à l'aide de transducteur à cavité chaotiqueLi, Yifeng 09 July 2009 (has links) (PDF)
Dans cette thèse nous proposons de développer un système d'imagerie ultrasonore innovante de micro- défauts basé sur l'utilisation conjointe de techniques d'acoustique non linéaire et du concept de "transducteur à cavité chaotique". Ce transducteur correspond à la combinaison d'une céramique piézoélectrique collée sur une cavité de forme chaotique et du principe de retournement temporel. La faisabilité et les performances de ce nouveau système sont explorées par des simulations numériques. Des paramètres optimaux d'utilisation pour une implémentation expérimentale sont proposés. Une grande partie des travaux menés dans le cadre de cette thèse se concentre sur le développement d'outils numériques permettant l'amélioration de telles techniques d'imagerie. Un schéma d'éléments finis de type Galerkin Discontinu (GD) est étendu à l'élastodynamique non linéaire. Un type de zone absorbante parfaitement adaptée, appelée "Nearly Perfectly Matched Layer" (NPML) a aussi été développé. Dans le cas de matériaux orthotropes, comme des problèmes de stabilité apparaissent, un mélange de NPML et de zone atténuante, dont on contrôle la proportion respective, est introduit afin de stabiliser les NPML. Une validation expérimentale du concept de "transducteur à cavité chaotique" pour la focalisation dans un milieu solide, réverbérant ou non, en utilisant une seule source est réalisée. Les méthodes de retournement temporel et de filtre inverse sont présentées et comparées. La démonstration expérimentale qu'un "transducteur à cavité chaotique" peut être utilisé conjointement avec les méthodes d'inversion d'impulsion afin de réaliser une image de non linéarités localisées est présentée
|
78 |
Conditionnement de processus markoviensMarchand, Jean-Louis 25 June 2012 (has links) (PDF)
Le but de cette thèse est de décrire la loi conditionnelle d'un processus markovien multidimensionnel connaissant la valeur de certaines combinaisons linéaires de ses coordonnées à des instants donnés. La description recherchée consiste à mettre en évidence un processus de même type, facile à simuler, dont la loi est équivalente à la loi conditionnelle ciblée.La classe principalement étudiée est celle des processus à diffusion. Dans un premier temps, des techniques de grossissement de filtration (Jacod 1985) permettent de déterminer les paramètres de l'équation différentielle stochastique vérifiée par le processus conditionnel. Cependant, on s'aperçoit alors que la dérive n'est pas explicite, car celle-ci dépend des densités de transition du processus initial, inconnues en général. Ceci rend impossible,une simulation directe par exemple à l'aide d'un schéma d'Euler. Afin de pallier ce défaut, nous proposons une alternative, dans l'esprit de Delyon et Hu (2006). L'approche consiste à proposer une équation différentielle stochastique de paramètres explicites, dont la solution est de loi équivalente à la loi conditionnelle. Une application en collaboration avec Anne Cuzol et Etienne Mémin de l'INRIA, dans le cadre des écoulements fluides est également présentée. On applique la méthode proposée précédemment à un modèle stochastique inspiré des équations de Navier-Stokes. Enfin, la classe des processus markoviens à sauts est également abordée.
|
79 |
Localisation optimale des aires de coupe et du réseau routier lors de la planification des opérations forestièresRousseau, Denyse. 23 February 2022 (has links)
Ce travail a pour but de présenter une méthode devant faciliter la prise de décisions au niveau de la planification des opérations forestières. Il constitue une approche partielle au développement d'un modèle dynamique d'aménagement forestier, projet mis sur pied par des professeurs de la Faculté de Foresterie et de Géodésie de l'Université Laval en 1973. La méthode de planification proposée tente d'apporter une solution aux problèmes de la localisation des aires de coupe et de l'établissement du réseau routier. Les principaux objectifs poursuivis sont les suivants : - optimisation du réseau routier en fonction de critères économiques, - regroupement des opérations annuelles, - minimisation des fluctuations annuelles relatives au volume récolté, à la superficie traitée et ä la construction de chemin. Les aires de coupe sont localisées de façon à ce que soit respectée la possibilité de coupe déterminée lors de la réalisation du plan d'aménagement. Les diverses contraintes ayant trait à la protection du territoire et à l'aménagement intégré des ressources forestières sont également prises en considération. Voici quelles sont les principales étapes de la méthode proposée : 1) localisation des peuplements pouvant faire l'objet d'intervention pendant la durée du plan d'exploitation et établissement d'un ordre de chaque type de traitement; 2) classification des unités de territoire suivant un ordre de priorité pour la construction de chemins; 3) simulation de réseaux routiers correspondant à diverses distances de débardage; chaque simulation implique les étapes suivantes : - tracé des chemins d'exploitation de façon à desservir les peuplements susceptibles d'être exploités; - choix des aires de traitement annuelles; - tracé définitif des chemins; - définition des classes de qualité de chemin en fonction du volume ligneux transporté; - localisation des jetées et allocation des unités de coupe aux jetées; - calcul des coûts reliés à la construction du réseau routier simulé. La prise de décision finale s'effectue par la comparaison des coûts résultant de chacune des options simulées.
|
80 |
Vers la carboneutralité de l'industrie minière : capture et valorisation du CO₂ nordiqueLandry, Marc-Olivier 20 November 2024 (has links)
Tableau d'honneur de la Faculté des études supérieures et postdoctorales, 2024 / Ce mémoire de maîtrise examine la faisabilité économique et les impacts environnementaux de la modernisation d'une centrale électrique au diesel dans un site minier aurifère de l'Arctique canadien, en intégrant un processus de capture du carbone post-combustion. À l'aide de logiciels de simulation comme Aspen Plus et OpenLCA, l'étude se concentre sur les enjeux économiques et environnementaux spécifiques à ce contexte, incluant l'évaluation des coûts par tonne de CO₂ évité et l'empreinte carbone globale de l'opération. Le coût calculé par tonne de CO₂ capturé de 420$ reflète les défis de l'exploitation des sites nordiques dépendant du carburant diesel. Un modèle de rentabilité, comparant les dépenses annuelles supplémentaires à l'exposition actuelle à la taxe sur le carbone, suggère que la tarification du carbone seule est insuffisante pour inciter à investir dans des technologies de capture du carbone énergivores telles que les procédés d'absorption aux amines. L'analyse de sensibilité, qui évalue la rentabilité en fonction des variations des variables clés, met en évidence l'impact significatif de la demande de chaleur pour la régénération du solvant. Ce principal facteur de coût contribue également de manière substantielle à l'empreinte carbone de 0,55 tonne émise par tonne capturée, déterminée par une évaluation du cycle de vie complémentaire. De plus, des options de valorisation du CO₂, telles que la carbonatation minérale, qui présente un potentiel théorique intéressant, sont abordées afin de donner une vue complète sur l'initiative de capture du CO₂ aux latitudes nordiques du Canada.
|
Page generated in 0.0971 seconds