• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 78
  • 19
  • 1
  • Tagged with
  • 98
  • 98
  • 50
  • 31
  • 28
  • 18
  • 14
  • 12
  • 10
  • 9
  • 9
  • 8
  • 8
  • 8
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Dynamic modeling of energy consumption and yield in greenhouse horticulture : impact of energy efficiency measures, lighting systems, location, and climate change

Trépanier, Marie-Pier 17 June 2024 (has links)
L'agriculture sous serre est importante pour relever les défis mondiaux en matière de sécurité alimentaire et de durabilité, car elle permet de produire tout au long de l'année et d'obtenir des rendements nettement supérieurs à ceux de l'agriculture de plein champ. Toutefois, pour renforcer la durabilité environnementale et la viabilité économique de ces bâtiments à forte consommation d'énergie, il est essentiel d'améliorer leur efficacité énergétique. Pour optimiser les conditions de croissance des plantes tout en considérant la consommation d'énergie, il est nécessaire de gérer soigneusement le chauffage, l'humidité, le CO₂ et l'éclairage, car ils sont tous interconnectés. L'efficacité des différentes techniques, telles que les écrans thermiques et les systèmes de récupération de la chaleur, dépend de facteurs tels que le climat extérieur, les sources d'énergie et les mécanismes de contrôle. D'un point de vue énergétique, quelles sont les meilleures pratiques en matière d'éclairage et de mesures d'efficacité énergétique dans les serres, en mettant l'accent sur la durabilité ? La littérature actuelle manque de conseils pratiques de mise en œuvre, d'études comparatives et de considérations sur les variations climatiques régionales et les impacts futurs des changements climatiques. Cette recherche a analysé l'impact de différentes technologies d'éclairage et de mesures d'efficacité énergétique sur la consommation annuelle d'énergie à l'aide d'un modèle de simulation dynamique des serres. Les résultats ont montré que l'éclairage LED et les écrans thermiques sont les options les plus efficaces sur le plan énergétique, en particulier dans les climats nordiques. Les simulations des scénarios climatiques futurs indiquent des réductions potentielles de rendement en raison de chaleur estivale excessive. Les mesures d'adaptation, telles que les systèmes mécaniques de refroidissement et de déshumidification, sont prometteuses pour atténuer les effets des changements climatiques, mais elles augmentent également la consommation d'énergie. Cette recherche souligne l'importance des approches personnalisées de gestion de l'énergie pour des serres durables face à des conditions environnementales changeantes. Les résultats de ce travail sont utiles aux producteurs pour leur planification opérationnelle et stratégique, et aux décideurs politiques pour le développement de programmes de soutien à l'industrie. / Greenhouse agriculture is important for addressing global food security and sustainability challenges by enabling year-round production and significantly higher crop yields compared to field farming. However, to enhance the environmental sustainability and economic viability of these energy-intensive buildings, it is crucial to improve their energy efficiency. To optimize plant growth conditions while balancing energy consumption, it is necessary to carefully manage heating, humidity, CO₂, and lighting, as they are all interconnected. The effectiveness of various energy efficiency techniques, such as thermal screens and heat harvesting systems, depends on factors such as outdoor climate, energy sources, and control mechanisms. From an energy perspective, what are the best practices for lighting and energy efficiency measures in greenhouses with a focus on sustainability? The current literature often lacks practical implementation guidance, comparative studies, and considerations for regional climate variations and future climate change impacts. Additionally, operational costs and local environmental factors are frequently overlooked. This study analyzed the impact of different lighting technologies and energy efficiency measures on annual energy consumption using a comprehensive greenhouse dynamic simulation model. The results showed that LED lighting and thermal screens are the most energy-efficient options, especially in northern climates. Simulations of future climate scenarios indicate potential yield reductions due to excessive summer heat. Adaptive measures, such as mechanical cooling and dehumidification systems, show promise for mitigating climate change impacts but also increase energy consumption. This research emphasizes the importance of customized energy management approaches for sustainable greenhouse horticulture in the face of changing environmental conditions. The outcome of this work is useful to growers for their operational and strategic planning and for policymakers for the development of programs supporting the industry.
62

Développement d'un modèle numérique d'écoulement 3D des eaux souterraines du bassin versant de la Rivière Chaudière, Québec

Brun Koné, Mathy Yasmina 19 April 2018 (has links)
Une étude hydrogéologique conjointe de l'Université Laval et de la Commission Géologique du Canada (CGC) a été réalisée dans le bassin versant de la rivière Chaudière. Le but de cette étude est d’accroître les connaissances sur le système hydrogéologique du bassin versant de la rivière Chaudière qui s’étend de la frontière américaine jusqu’au fleuve Saint-Laurent. La zone étudiée a une superficie de 6675 km2. Il s’agit d’une région densément peuplée (~ 390,000 hab.) à vocation principalement agricole où 65 % de la population utilise l’eau souterraine comme principale source d’eau potable. L’aquifère régional se compose de deux unités principales : le substratum rocheux de la province géologique des Appalaches et certaines unités quaternaires granulaires. Le confinement de l’unité rocheuse est contrôlé par des sédiments glaciaires, marins ou lacustres fins d’épaisseurs et de distribution variables. L’écoulement dans le roc se fait dans sa partie supérieure où la fracturation est la plus importante. La première étape des travaux a d’abord consisté à définir les propriétés hydrauliques des formations géologiques. Les données utilisées proviennent de divers rapports, de données du système d’information hydrogéologique (SIH), du Ministère du Développement Durable, de l’Environnement, de la Faune et des Parcs du Québec (MDDEFP), de rapports de consultants ainsi que d’une campagne de travaux de terrain effectuée à l’été 2007. Parmi ces données, la conductivité hydraulique (K) constitue la principale propriété à définir. Plusieurs valeurs de K ont été extraites directement ou indirectement de rapports existants. Une partie importante des valeurs de la conductivité hydraulique a été estimée à partir de la base de données SIH. Parmi celles-ci, 1333 valeurs ont été évaluées à partir de la capacité spécifique (Bradbury et al, 1985); 89 de ces mesures ont étés qualifiées de données de qualités car elles respectent toutes les conditions de la méthode, à l’exception du temps de pompage souvent trop court (94% des cas). En se basant sur les mesures recueillies, la moyenne géométrique des données de conductivité hydraulique (K) s’élève à 5 x 10-6 m/s avec un écart-type du logarithme de K égal à 0.60. La lithologie ne semble pas avoir une grande influence sur les valeurs de la conductivité hydraulique car toutes les valeurs moyennes de chacune des lithologies se trouvent à l’intérieur d’un même ordre de grandeur. Un modèle numérique a été construit pour l’ensemble de la zone d’étude à l’aide du logiciel de modélisation par éléments finis Watflow (Molson et al., 2002) afin d’interpréter le système d’écoulement de l’eau souterraine au niveau régional. Le modèle tridimensionnel est composé de 28 couches dont 18 représentent les dépôts meubles et 10 le roc. Le maillage 3D comprend 1 / A joint hydrogeological assessment study between Université Laval and the Geological Survey of Canada (GSC) has been conducted in the Chaudière River watershed. The main objective of the study was to gain further understanding into the groundwater resources within the region. The watershed extends over ~ 6700 km2 from the United States border northwards to the Saint Lawrence River in the province of Québec (Canada). Groundwater is an important source of drinking water as well as for irrigation and industrial use, however the supply is finite and there are potential risks of conflicts arising from different users. It is thus important to understand the aquifer systems throughout the watershed in order to avoid possible conflicts and to help decision makers to better manage the resource. Within the catchment, up to 65% of the population relies on groundwater as the primary drinking water resource, whereby most of the water is used for agricultural purposes. The regional aquifer system is dominated by the underlying rock substratum of the Appalachian province and Quaternary aquifer units. The degree of confinement of the fractured aquifers is controlled by the overlying glacial, marine and fine lacustrine sediments of variable thicknesses. The groundwater circulation within the fractured aquifers predominantly takes place in the uppermost part of the fractured water-bearing units, where fracture density is highest. As a first step, the hydraulic properties of the fractured basement were defined, for which the hydraulic conductivity (K) of the formations can be considered as the most important hydraulic characteristic. A literature review of the available reports as well as the SIH and the MDDEFP data bases was performed in order to assemble the data. Additional field work was completed by the GSC during the spring of 2007 to supplement the data base. Most of the values of the hydraulic conductivity K were taken from the existing reports while others were estimated from the SIH data base. The data base contains 1333 values which were evaluated using Bradbury’s method, of which 83 satisfied the “quality criteria”, since they respected suggested conditions regarding the minimum pumping (which was not met in 94% of the cases). The geometric mean value of the measured hydraulic conductivities was 5x10-6 m/s with a standard deviation of 0.60. The maximum difference between the hydraulic conductivities of the different lithological units was about a factor of 100x. A 3D numerical finite element model was built with the Watflow model (Molson et al., 2002) for simulating the regional groundwater flow system. The model domain extends over the entire watershed and is subdivided into 28 layers, 18 for the unconsolidated deposits and 10 within the basement rock. The 3D triangular prismatic mesh contains 1,694,672 nodes and 3,344,516 elements. The topographic DEM (digital elevation model) forms the uppermost surface of the model. For the model boundary conditions, the Chaudière River and major tributaries and lakes are set as first-type boundaries with constant hydraulic heads. The model base, as well as the lateral limits, are considered as no-flow boundaries. The net recharge over the model surface was estimated using the infiltration model HELP, combined with estimates of the surface-distributed local water withdrawals. The major pumping wells are represented in the model domain as point sinks. The horizontal hydraulic conductivity together with the vertical anisotropy values for each formation were used as the model calibration parameters, using the observation data from 68 observation wells. The results of the calibration of the model showed that the mass balance error is close to zero which implies that the sum of inflows is equal to the sum of outflows. Different scenarios with recharge variations were simulated with the calibrated model. The simulations allowed identifying the principal sensitive zones which need piezometric and water quality control. It was also possible to determine the areas most sensitive to climate variations. Changes in the rate of pumping and recharge (± 20%) did not have a significant impact on the modeled system mainly in relation to groundwater level (observed variations were ≤5m).
63

Modélisation des pertes de charge en biofiltration

Perron, Jean-Michel 13 December 2023 (has links)
Titre de l'écran-titre (visionné le 5 juin 2023) / Les procédés d'épuration par biofiltration sont très compacts et très performants pour assurer le traitement du carbone et de l'azote. Pour conserver de bonnes performances épuratoires, les biofiltres doivent être lavés régulièrement. Le déclenchement des lavages est dicté par la perte de charge à l'intérieur du biofiltre. Cette dernière augmente durant un cycle de filtration et lorsqu'elle dépasse un seuil fixé, un lavage est déclenché. Une bonne planification du lavage des biofiltres est essentielle pour réduire les risques de débordement d'eau usée lors de fortes précipitations, pour réduire le risque de colmatage et pour réduire les coûts d'opération. Les modèles de biofiltration actuels simulent avec précision et robustesse la qualité d'eau (Vigne 2007; Bernier 2014; Zhu 2020), mais simulent difficilement le comportement des pertes de charge sur plusieurs mois. Ce projet de recherche compare le comportement des pertes de charge simulées à partir de trois sous-modèles (Carman 1937; Ergun 1952; Bernier 2014) de perte de charge. Les modèles de perte de charge de Carman (1937) et d'Ergun (1952) sont considérés, dans le cadre de ce projet de recherche, comme des simplifications du modèle de Bernier (2014). Les deux sous-modèles simplifiés ont été intégrés au modèle de biofiltration de Bernier (2014). Ils ont été calibrés et validés en suivant le protocole de Vigne (2007) et de Rittmann et collab. (2018) avec des jeux de données de l'étage de post-dénitrification sur méthanol de Seine-Centre, une des stations d'épuration de l'agglomération parisienne. Les jeux de données regroupent des mesures horaires du débit, des NOx et des pressions ainsi que des mesures récoltées sur des échantillons composites journaliers (DCO, DBO₅ PO₄³⁻, MES et NH₄⁺). Mis à part pour la densité sèche du biofilm et pour la porosité du média, la calibration des trois modèles est identique. Le sous-modèle de perte de charge de Bernier (2014) est calibré avec une densité sèche de biofilm de 100 kg[indice MES]/m³ et avec une porosité du média de 0.34 alors que les sous-modèles d'Ergun (1952) et de Carman (1937) sont calibrés avec une densité sèche de biofilm de 47 kg[indice MES]/m³ et avec une porosité du média de 0.3. Malgré cette différence, les trois sous-modèles simulent précisément la perte de charge, avec une erreur moyenne de 0.1 mètre d'eau. Durant la validation, les trois sous-modèles calibrés simulent avec précision la perte de charge initiale, mais sous-estiment l'encrassement du biofiltre avec une erreur moyenne de 0.4 mètre d'eau. Les erreurs des simulations d'encrassement durant la validation du modèle peuvent être diminuées en modifiant uniquement la densité sèche du biofilm dans les trois sous-modèles (de 100 à 80 kg[indice MES]/m³ dans le modèle de Bernier (2014) et de 47 à 39 kg[indice MES]/m³ pour les autres). Une fois bien calibrés, les trois calculs offrent des précisions similaires, mais ils ont les mêmes problèmes de robustesse durant la validation. Même si les biofiltres dénitrifiants sont l'une des configurations les plus simples pour modéliser l'encrassement des biofiltres et même si Bernier (2014) a proposé un des modèles de biofiltration les plus performants, les modèles actuels ont un problème de robustesse. Les trois sous-modèles de perte de charge comparés simulent avec précision l'encrassement sur quelques semaines, mais ils ont tous besoin d'être recalibrés pour simuler l'encrassement sur plusieurs mois. La littérature disponible met l'accent sur l'équation de perte de charge pour améliorer les sous-modèles de perte de charge, mais cette recherche montre que le problème de robustesse est lié à l'hypothèse d'un biofilm avec une densité constante. La prochaine étape pour améliorer les modèles de perte de charge sera de modéliser comment la densité du biofilm change dans le temps et selon les conditions d'opérations. Un modèle de biofilm à densité variable pourrait être lié aux substances polymériques extracellulaires (EPS). Le Bihan et Lessard (2000) ont montré qu'une production excessive des EPS dans le biofilm induit un encrassement prématuré des biofiltres et Pechaud et collab. (2012) a corrélé la présence d'EPS avec les propriétés physiques du biofilm. / Biofilters are very compact processes and very efficient for carbon and nitrogen removal. To maintain their treatment capacity, biofilters needs to be regularly backwashed. Generally, theses backwashes are triggered when a maximum headloss through the filter is reached. A good planning of these backwash events is fundamental to avoid a bypass of untreated wastewater during storm events, to avoid permanent clogging of the filter and to minimise operational costs. Mathematical models are an essential tool to improve treatment process performance. Actual biofiltration models can simulate with reliability and robustness effluent water quality (Vigne 2007; Zhu 2020) but have difficulties to simulate headloss behaviour (Bernier, 2014). This paper explores possibilities to improve clogging predictions in biofiltration models by using data from a full-scale biofilter train operated by SIAAP in Paris region, France. The behaviour of three traditional headloss models were compared and analysed to evaluate the importance of different submodels: Carman (1937), Ergun (1952) and Bernier (2014). Datasets were collected at the denitrification biofiltration process from Seine-Centre, one of the Paris WWTPs. Flowrate, methanol injection rate, nitrate and pressure were measured on an hourly basis and composite samples were collected on a daily basis and analysed for COD, BOD₅, PO₄⁺, TSS and NH₄⁺ at both influent and effluent of the biofilter. The database gathers data from July to November 2020. The model used to simulate post-denitrification process proposed by Bernier (2014) is the more complex one, the two others being considered simplification of Bernier's. The three models were calibrated and validated following the biofilm model calibration guidelines of Vigne (2007) and Rittmann et collab. (2018). It is the first time that the most common headloss equations are compared and successively implemented in a biofiltration model. Except for the biofilm density and the initial media porosity, the models fit to the dataset are almost identical for each of the clogging sub-models. Bernier (2014) sub-model is calibrated with a biofilm density of 100kg[subscript TSS]/m³ and a media initial porosity of 0.34 whereas Ergun (1952) and Carman (1937) equation are calibrated with a biofilm density of 47 kg[subscript TSS]/m³ and a media initial porosity of 0.3. Despite this difference, they can precisely simulate the clogging with a mean error (ME) around 0.1 meter of water. Each sub-model can simulate precisely headloss when properly calibrate, but fails to simulate the reversible clogging process of validation datasets from different season. Each sub-model underestimates the clogging by an average of 0.4 meter of water. However, these validation problems can easily be fixed by reducing the biofilm density in the models (from 100 to 80 kg[subscript TSS]/m³ for the Bernier (2014) model and from 47 to 39 kg[subscript TSS]/m³ for the other models). Each clogging submodel has the same robustness problem: they can simulate clogging when properly calibrated, but fail to fit an independent dataset. The robustness problem appears to be related to the biofilm density. It is the only parameter that has to be changed to fit a different dataset. Even if post-denitrification biofilters are among the simplest configuration to model clogging and even if Bernier (2014) proposed one of the most comprehensive biofiltration model, the actual clogging sub-models still fails to simulate a validation dataset. This research project has not improved actual clogging sub-model, but it clearly points out what has to be done to improve them. The litterature focuses on the headloss equation itself to improve the model, but this research shows that actual robustness problems are probably caused by the assumption that biofilm density is constant. Past research on the modelling of biofilter clogging focused on the headloss equation itself. The study of three headloss submodels showed a similar model performance in terms of fit, while having the same robustness problem under validation. A model based on a biofilm with fixed density can properly simulate a month of operation but biofilm density seem to change over several months and it is thus important to consider whether the purpose of the model is to simulate biofilter operation for a longer period. At this moment, these sub-models seem unable to properly simulate a new dataset without changing the biofilm density. The next steps to improve headloss simulation will be to identify how biofilm density changes over time and what drives these changes. The answer could be related with Extracellular Polymeric Substance (EPS). Le Bihan et Lessard (2000) shows that excessive EPS production in the biofilm leads to premature clogging of biofilter and Pechaud et collab. (2012) correlates EPS with physical property of biofilm.
64

La réalité augmentée : une approche de simulation urbaine interactive

Saint-Pierre, Louis 03 April 2019 (has links)
Ce mémoire présente le protocole de réalisation de simulation interactive par enrichissement d'images vidéo développé pour simuler une hypothèse de requalification et de densification d'un secteur résidentiel de banlieue édifié entre 1960 et 1975. Il constitue le volet informatique du projet de recherche ≪Nouveaux modèles urbains et architecturaux: une enquête prospective centrée sur la simulation d'environnements≫ (FCAR 1996-1999, Després). La méthode élaborée combine les qualités interactives caractéristiques aux environnements complètement générés par ordinateur au réalisme des simulations par enrichissement de l'image vidéo. Le mémoire présente donc les différentes étapes de la réalisation d’une telle simulation dont l'objectif fondamental est l'amélioration de la compréhension de projets architecturaux ou urbanistiques par le grand public. / Québec Université Laval, Bibliothèque 2019
65

Opérationnalisation des stratégies de sélection des prestataires logistiques

Feki, Yassine 20 April 2018 (has links)
Ce mémoire traite un problème de sélection des transporteurs à un niveau opérationnel de la hiérarchie de décision, d'un système de trafic constitué de trois flottes de transporteurs (interne, externe et spot), plusieurs entrepôts, plusieurs centres de distributions et plusieurs produits. Les demandes de produits sont considérées aléatoires et les transporteurs des flottes, interne et externe, sont sujets à des périodes de non-disponibilités. Pour permettre de suivre l'évolution du système dans le temps, la politique de sélection devrait inclure une stratégie d'affectation des quantités transférées en fonction de l'état du système. Les transporteurs externes proviennent d'un processus de sélection au niveau stratégique. Les transporteurs spots sont appelés du marché au comptant. Dans la première partie de ce mémoire, un cadre conceptuel est proposé permettant de raccorder les décisions de sélection prises au niveau stratégique et opérationnel. La sélection stratégique utilise un mécanisme d'enchères combinatoires dans lequel les transporteurs se mettent en concurrence en soumettant des mises en paquet sur les offres proposées par les expéditeurs. Un modèle mathématique mixte en nombres entiers est exposé pour déterminer les transporteurs gagnants de l'enchère avec lesquels l'expéditeur va s'engager sur une longue période. Les transporteurs gagnants de cette phase seront regroupés dans une seule flotte, appelée flotte externe. Dans la deuxième partie du projet, le problème de sélection des transporteurs, qui traite le cas d'une chaîne logistique simple, constituée d'un seul entrepôt, un seul centre de distribution, un seul produit et les trois flottes des transporteurs, est abordé. De ce fait, une formulation en programmation dynamique stochastique du problème est développée. Une résolution numérique est menée par la suite pour résoudre les équations d'optimalité obtenues. Pour illustrer l'utilité pratique et le comportement robuste de la politique développée, plusieurs analyses de sensibilité sont effectuées. Cette politique combine les deux aspects : la sélection des transporteurs et le contrôle des inventaires dans les centres de distribution. Par la suite, une approche expérimentale basée sur la simulation et des techniques d'optimisation statistiques est adoptée, en vue de valider, quantifier et optimiser la structure de la politique obtenue par modélisation mathématique. Une comparaison statistique est par la suite menée permettant de montrer la supériorité de la politique paramétrée développée par rapport à une autre politique basée principalement sur les coûts du transport comme critères de sélection. Finalement, une politique générale est proposée permettant de résoudre le problème de sélection des transporteurs à la phase opérationnelle de la hiérarchie. Cette politique est basée sur la structure globale de la politique développée du cas simple dans la deuxième partie du projet. Elle est appliquée dans un cadre plus représentatif de la réalité. Une comparaison statistique est par la suite menée montrant les gains que la politique générale proposée occasionnent par rapport à une autre politique générale visant un minimum de stock dans les centres de distribution et un coût de transport réduit. Plusieurs interprétations ont été dégagées à travers cette étude.
66

Evidence of deep hydraulically active fractures in post-glacial marine clays (Quebec, Canada) : implications for groundwater flow dynamics and slope stability

Ospina Llano, Julian Andres 13 December 2023 (has links)
Il est habituellement supposé que les dépôts d'argile marine postglaciaires du Québec sont généralement intacts sous une croûte fracturée (3 à 5 m de profondeur). Cependant, les données de 210 piézomètres ont démontré des variations grandes et rapides des charges hydrauliques à de grandes profondeurs, et un synchronisme entre les piézomètres dans le même nid. Ces comportements ne sont pas compatibles avec les propriétés hydrauliques des argiles intactes, mais sont plutôt les indicateurs de la présence de fractures profondes hydrauliquement actives. Afin de tester l'hypothèse de la présence de fractures, trois indicateurs ont été analysés dans tous les piézomètres du réseau de surveillance du MTQ : 1) une grande variation de la charge hydraulique, 2) une forte corrélation et 3) de faibles décalages temporels. En outre, l'impact potentiel de ces fractures sur l'écoulement des eaux souterraines et la stabilité des pentes est exploré. Pour ce faire, les données de terrain sont comparées à des modèles transitoires et permanents qui présentent et non des fractures. Deux géométries de pente et différents scénarios de fractures ont été considérés. Par la suite, les résultats de la modélisation hydrogéologique ont été importés dans un modèle de stabilité des pentes pour définir l'impact des changements de charge hydraulique causés par les fractures sur la stabilité des pentes. L'analyse des données mettent en évidence des fractures hydrauliquement actives jusqu'à 17 m de profondeur. Les résultats de la simulation démontrent quant à eux que les scénarios avec des fractures représentent mieux les données de terrain. Les fractures augmentent la charge hydraulique quand l'eau pénètre dans les sols à travers les fractures et se diffuse ensuite dans la matrice du sol. De plus, la charge hydraulique est réduite quand l'eau s'écoule à travers les fractures dans la face de la pente. D'un point de vue hydrogéologique, les fractures peuvent par conséquent améliorer ou réduire la stabilité des pentes dépendant du système d'écoulement. Notons que l'impact mécanique des fractures n'a pas été pris en compte. / To date it is usually assumed that post-glacial marine clay deposits of Quebec are generally intact below a fractured crust (3 to 5 m depth). However, data from 210 piezometers have shown large and rapid variations in hydraulic heads at great depths, and synchronism between the piezometers at different depths in the same nest. This behavior is not compatible with the hydraulic properties of intact clays, but rather are signs of the presence of deep hydraulically active fractures. To test the hypothesis of presence of fractures, three signs of hydraulically active fractures were analysed in all piezometers nest of the MTQ monitoring network: 1) large variation in the hydraulic head, 2) high correlation and 3) small time lags. In addition, the potential impact of these fractures on groundwater flow dynamics and slope stability are explored by comparing field data with transient and steady-state groundwater models with and without fractures. Two slope geometries that exhibit contrasting groundwater flows and different fracture scenarios were considered. Then, results of the hydrogeological modelling were imported into a slope stability model to delineate the impact of the hydraulic head changes due to the fractures on slope stability. Analysis of the MTQ monitoring network data shows evidence of hydraulically active fractures below the crust up to 17 m depth. The simulation results show that the scenarios with fractures better represent the field data. Fractures increase the hydraulic head when water enters the soils through the fractures which then dissipates by hydraulic diffusion into the soil matrix, and is reduced when water flows out through the fractures at the slope face. Therefore, depending on the groundwater flow system, from a hydrogeological perspective, fractures could improve or reduce the slope stability. It should be noted that the mechanical impact of the fractures are not considered.
67

Modèle de simulation des fluctuations d'abondance des aphides, Rhopalosiphum padi (L.) et Sitobion avenae (F.) sur les céréales

Pelletier, Yvan, Pelletier, Yvan 03 April 2024 (has links)
La température régionale de l'air et le stade phénologique des plants de céréales sont les variables utilisées pour la simulation des fluctuations d'abondance de Rhopalosiphum padi (L.) et de Sitobion avenae (F.) dans les cultures de céréales à petits grains au Québec. Le stade phénologique des plantes est lui-même prédit à l'aide de la somme des degrés-jour (seuil de 0°C) depuis la date de semis. L'effet de la température et l'effet du stade phénologique de la plante sur le taux d'accroissement de la population (r) ont été déterminés en laboratoire pour chaque espèce de puceron, puis ajustés selon les valeurs observées sur le terrain. Les résultats des échantillonnages des populations de pucerons en parcelles ont aussi permis de calculer une fonction représentant la perte d'individus par émigration et par mortalité en fonction du stade phénologique de la plante hôte. L'étape de validation a démontré une meilleure performance du modèle à simuler les fluctuations des populations de Sitobion avenae que celles de Rhopalosiphum padi. Règle générale, la courbe de simulation de la densité de population est "en phase" avec les valeurs observées mais le niveau maximum prédit de la densité de population diffère, parfois de façon importante, de la valeur observée.
68

Comportement dynamique des ponts routiers à platelage d’aluminium extrudé compte tenu de la rugosité de la surface

Ben Afia, Achraf 02 February 2024 (has links)
L'aluminium est un matériau très durable avec une excellente résistance à la corrosion qui pourrait être un excellent choix soit pour la construction de nouveaux ponts, soit pour la réhabilitation et le remplacement de tabliers de pont détériorés. Les ponts construits avec des platelages d’aluminium extrudé et des poutres d’acier offrent une solution prometteuse au problème du vieillissement de l'infrastructure des ponts. L'aluminium en tant que matériau structurel est aussi connu pour sa légèreté, qui facilite le transport et l'installation, et réduit les coûts des fondations. Cependant, cette caractéristique les rend sensibles vis-à-vis les excitations causées par les surcharges routières. La conception dynamique des ponts routiers par le code canadien de conception des ponts routiers (CSA S6-19) est basée sur le concept de facteurs d'amplification dynamique équivalents (FAD). Cependant, ces facteurs ont été établis principalement pour les ponts construits avec des matériaux traditionnels tels que le béton, le bois et l'acier. Il est donc prudent d'évaluer l'applicabilité de ces facteurs pour le cas des ponts légers construits avec des platelages d’aluminium extrudé. En outre, comme la rugosité de la surface des chaussées joue un rôle important dans le comportement dynamique d'un pont, il est important de considérer l'influence de la rugosité sur la réponse dynamique du pont. L'objectif de cette recherche est d'étudier le comportement dynamique des ponts composés des platelages d’aluminium extrudé et des poutres d’acier sous les surcharges routières en tenant compte de l'effet de la rugosité de la surface, et par conséquent d'évaluer l'applicabilité des FAD de la norme de conception actuelle pour de telles structures. Pour y parvenir, des modèles numériques ont été développés sur Abaqus pour une sélection des paramètres et des configurations des ponts. L'effet de la rugosité de surface sur la réponse dynamique est également étudié en générant l'algorithme de densité spectrale de puissance (DSP) selon la norme ISO 8608. Les résultats ont montré que les FAD dépendent énormément à la fois du ratio des fréquences véhicule-pont ainsi que de la rugosité de la surface. Au fur et à mesure que le ratio des fréquences véhicule-pont augmente, le FAD augmente de manière significative. Avec un ratio des fréquences véhicule-pont approchant 0,5, le FAD calculé dépasse la valeur du FAD recommandée par le code canadien. Il est à noter que les résultats de cette étude sont limités aux configurations de pont considérées à l'étude, et qu'une étude paramétrique approfondie est nécessaire pour tirer une conclusion générale sur l'applicabilité des valeurs actuelles du FAD pour les ponts légers en aluminium extrudé. / Aluminum is a highly durable material with excellent corrosion resistance that could be an excellent choice either for construction of new bridges or for rehabilitation and replacement of deteriorated bridge decks. Extruded aluminum deck-on-steel girder bridges offer promising solution to the aging bridge infrastructure problem. Aluminum as a structural material is also known for its lightweight, which facilitates transportation and installation, and reduces foundation requirements. However, this characteristic makes it sensitive to excitations from vehicular traffic. The dynamic design of highway bridges by the Canadian Highway Bridge Design Code (CSA S6-19) is based on the concept of equivalent dynamic amplification factors (DAF). However, these factors were derived largely for bridges made with traditional materials such as concrete, wood and steel. It is prudent to evaluate whether these factors are applicable to lightweight bridges made with extruded aluminum decks. In addition, since road roughness plays an important role in the dynamic behavior of a bridge, it is important to consider the influence of roughness on the bridge vibration response. The objective of this research is to investigate the dynamic behavior of aluminum deck-on-steel girder bridges under vehicular loads considering the effect of road roughness, and consequently evaluate the applicability of the current design DAFs for such structures. For this purpose, numerical models were developed in Abaqus for a selected bridge configuration and loading parameters. The effect of road roughness on dynamic response is also investigated by generating the power spectral density (PSD) algorithm according to ISO 8608. Results showed that the DAF strongly depend on both the vehicle-bridge frequency ratio and the road roughness. As the vehicle-to-bridge frequency ratio increases, the DAF rises significantly. With a vehicle-to-bridge frequency ratio approaching 0.5, the calculated DAF exceeds the DAF value recommended by the Canadian code. It is noted that results of this study are limited to the bridge configurations considered in the study, and extensive parametric study is required to draw a general conclusion about the applicability of the current DAF values for lightweight extruded aluminum bridges.
69

Personalizing business networks

Poulin, Marc 16 April 2018 (has links)
Depuis quelques décennies, plusieurs compagnies manufacturières font face à la compétition intense due à l'importation. Même en adoptant de nouvelles technologies et processus, les économies en main-d'oeuvre dans les pays émergeants, sont difficiles, sinon impossibles à rivaliser. Une piste prometteuse pour la compétitivité est d'offrir des produits et services personnalisés. La première contribution de la thèse est un modèle de personnalisation à huit niveaux. Dans ce modèle, les manufacturiers offrent aux marchés une combinaison d'options des produits, des délais de livraison, des niveaux de service et des prix. Des manufacturiers voulant présenter des offres personnalisées doivent en analyser l'implication sur leurs processus d'affaires. La deuxième contribution de la thèse indique les impacts que chaque type d'offre personnalisée engendre aux processus clefs d'affaires, soit le marketing, la production ou l'approvisionnement. Une fois que les stratégies de personnalisation sont déterminées, le défi est de planifier les besoins en ressources pour supporter les offres personnalisées. La dernière contribution est une méthodologie qui s'adresse à cette problématique. La méthodologie consiste en un heuristique à deux niveaux appuyés sur la simulation du type Monte-Carlo. Le niveau supérieur considère la chaîne de valeurs en entier et des variables au niveau du réseau sont déterminées. Le niveau inférieur configure les ressources pour chaque centre du réseau. Ceci est accompli en simulant simultanément, des plans de production qui satisfont des profils de demande stochastique. L'approche est incorporée dans un logiciel expérimental qui permet à l'utilisateur de modéliser un réseau de centres, leurs offres personnalisées et leurs marchés, afin de trouver une solution dans un temps rapide. La méthodologie est illustrée par un cas dans l'industrie de fabrication de bâtons de golf et les offres permettent de refléter la complexité de la personnalisation.
70

Cadre décisionnel basé sur la simulation et l'optimisation pour résoudre le problème générique de la recherche de la meilleure combinaison de scénarios : applications pour la prise de décisions complexes

Wéry, Jean 24 April 2018 (has links)
Lorsque le temps est manquant, la simulation-optimisation est une méthode très utilisée pour déterminer le « meilleur » scénario possible. En contexte manufacturier, on peut vouloir déterminer les paramètres de production qui vont maximiser la productivité d'une ligne de production. Le nombre de scénarios possibles (représentant différentes configurations possibles de la ligne) étant souvent très grand, tous les scénarios ne peuvent être simulés. La simulation-optimisation permet de trouver un « bon » scénario, i.e. le scénario donnant les meilleurs résultats par rapport à des critères définis (ici, la productivité) dans un contexte où le temps ne permet pas de simuler toutes les possibilités. Dans le cas où l'on cherche à déterminer la productivité combinée de plusieurs lignes de production, on cherche alors plusieurs scénarios qui, conjointement, vont maximiser ce critère, i.e. la « meilleure combinaison » de scénarios. Or, lorsqu'on recherche le meilleur ensemble de scénarios et non le meilleur scénario, les méthodes classiques s'appliquent difficilement. À notre connaissance, le problème de la recherche de la meilleure combinaison de scénarios n'a pas été introduit formellement dans la littérature. Cette thèse propose une définition formelle de ce problème et un cadre pour le résoudre. Le cadre proposé utilise la simulation dans le but d'évaluer des scénarios. L'optimisation est ensuite utilisée pour déterminer la meilleure combinaison de scénarios. Le nombre de scénarios à simuler est tel qu'il n'est pas possible de tous les évaluer. Nous proposons aussi d'utiliser certaines méthodes de recherche dans les arbres, issues de la programmation par contraintes pour déterminer quels scénarios devraient être évalués en premier. La pertinence du cadre est démontrée par son application à travers plusieurs problèmes industriels. La première application s'attarde à résoudre des problèmes de planification tactique liés à l'industrie du bois d'œuvre nord-américaine. Cette dernière fabrique presque exclusivement des produits de commodité (c'est-à-dire des produits aux dimensions et propriétés standards destinés à la construction). Il arrive que certains clients veuillent aussi des produits avec des caractéristiques spécifiques. Le contexte manufacturier actuel ne permet pas au scieur de connaître le panier de produits global qui découlera de l'introduction d'un nouveau produit. En effet, du fait de la divergence des flux et de la co-production associées à la transformation de la matière première en scierie, l'ajout d'un autre produit à fabriquer entraîne des répercussions sur l'ensemble du panier de produits. Nous proposons donc d'utiliser le cadre pour intégrer à la planification tactique la demande pour des produits spécifiques jamais fabriqués auparavant. Le cadre utilise un simulateur de débitage de billes couplé à un modèle de planification pour réaliser un plan. Ce dernier permet au décideur d'évaluer quelles demandes pour des produits sur mesure devraient être acceptées, quoi produire et quand, ainsi que les paramètres de l'équipement à utiliser et la matière première à acheter/consommer à chaque période. La seconde application du cadre présentée dans cette thèse a pour but d'améliorer les décisions prises par un système de découpe de bois de plancher soumis à de fortes contraintes de production. La découpe d'un ensemble d'images de planches provenant de productions passées est simulée pour différentes configurations du système. Une base de données caractérisant la production attendue pour chaque configuration est ainsi générée. Le simulateur est le système réel utilisé « hors-ligne ». À partir des informations obtenues, nous établissons ensuite un horaire de production en utilisant un modèle d'optimisation linéaire maximisant la valeur attendue de la production. L'horaire permet de définir comment configurer le système de découpe tout au long de la production. Le cadre peut aussi être appliqué pour résoudre d'autres problèmes du même type comme, par exemple, pour la conception d'usines en réseau dans une chaîne logistique. Enfin, pour illustrer et vérifier la pertinence de l'utilisation de certaines méthodes de recherche dans les arbres pour déterminer l'ordre d'évaluation des scénarios, la démarche est appliquée au problème de découpe de bois de plancher mentionné préalablement. L'étude réalisée montre que les méthodes issues de la programmation par contraintes pourraient se révéler efficaces pour résoudre ce type de problèmes. En effet, la méthode Limited Discrepancy Search (LDS) obtient des résultats très semblables à une heuristique spécialement élaborée pour le cas étudié. Or LDS est une méthode générique et pourrait s'appliquer à d'autres cas.

Page generated in 2.0481 seconds