• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 76
  • 18
  • 1
  • Tagged with
  • 95
  • 95
  • 50
  • 29
  • 25
  • 22
  • 18
  • 12
  • 9
  • 9
  • 8
  • 8
  • 7
  • 7
  • 7
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Personalizing business networks

Poulin, Marc 16 April 2018 (has links)
Depuis quelques décennies, plusieurs compagnies manufacturières font face à la compétition intense due à l'importation. Même en adoptant de nouvelles technologies et processus, les économies en main-d'oeuvre dans les pays émergeants, sont difficiles, sinon impossibles à rivaliser. Une piste prometteuse pour la compétitivité est d'offrir des produits et services personnalisés. La première contribution de la thèse est un modèle de personnalisation à huit niveaux. Dans ce modèle, les manufacturiers offrent aux marchés une combinaison d'options des produits, des délais de livraison, des niveaux de service et des prix. Des manufacturiers voulant présenter des offres personnalisées doivent en analyser l'implication sur leurs processus d'affaires. La deuxième contribution de la thèse indique les impacts que chaque type d'offre personnalisée engendre aux processus clefs d'affaires, soit le marketing, la production ou l'approvisionnement. Une fois que les stratégies de personnalisation sont déterminées, le défi est de planifier les besoins en ressources pour supporter les offres personnalisées. La dernière contribution est une méthodologie qui s'adresse à cette problématique. La méthodologie consiste en un heuristique à deux niveaux appuyés sur la simulation du type Monte-Carlo. Le niveau supérieur considère la chaîne de valeurs en entier et des variables au niveau du réseau sont déterminées. Le niveau inférieur configure les ressources pour chaque centre du réseau. Ceci est accompli en simulant simultanément, des plans de production qui satisfont des profils de demande stochastique. L'approche est incorporée dans un logiciel expérimental qui permet à l'utilisateur de modéliser un réseau de centres, leurs offres personnalisées et leurs marchés, afin de trouver une solution dans un temps rapide. La méthodologie est illustrée par un cas dans l'industrie de fabrication de bâtons de golf et les offres permettent de refléter la complexité de la personnalisation.
62

Cadre décisionnel basé sur la simulation et l'optimisation pour résoudre le problème générique de la recherche de la meilleure combinaison de scénarios : applications pour la prise de décisions complexes

Wéry, Jean 24 April 2018 (has links)
Lorsque le temps est manquant, la simulation-optimisation est une méthode très utilisée pour déterminer le « meilleur » scénario possible. En contexte manufacturier, on peut vouloir déterminer les paramètres de production qui vont maximiser la productivité d'une ligne de production. Le nombre de scénarios possibles (représentant différentes configurations possibles de la ligne) étant souvent très grand, tous les scénarios ne peuvent être simulés. La simulation-optimisation permet de trouver un « bon » scénario, i.e. le scénario donnant les meilleurs résultats par rapport à des critères définis (ici, la productivité) dans un contexte où le temps ne permet pas de simuler toutes les possibilités. Dans le cas où l'on cherche à déterminer la productivité combinée de plusieurs lignes de production, on cherche alors plusieurs scénarios qui, conjointement, vont maximiser ce critère, i.e. la « meilleure combinaison » de scénarios. Or, lorsqu'on recherche le meilleur ensemble de scénarios et non le meilleur scénario, les méthodes classiques s'appliquent difficilement. À notre connaissance, le problème de la recherche de la meilleure combinaison de scénarios n'a pas été introduit formellement dans la littérature. Cette thèse propose une définition formelle de ce problème et un cadre pour le résoudre. Le cadre proposé utilise la simulation dans le but d'évaluer des scénarios. L'optimisation est ensuite utilisée pour déterminer la meilleure combinaison de scénarios. Le nombre de scénarios à simuler est tel qu'il n'est pas possible de tous les évaluer. Nous proposons aussi d'utiliser certaines méthodes de recherche dans les arbres, issues de la programmation par contraintes pour déterminer quels scénarios devraient être évalués en premier. La pertinence du cadre est démontrée par son application à travers plusieurs problèmes industriels. La première application s'attarde à résoudre des problèmes de planification tactique liés à l'industrie du bois d'œuvre nord-américaine. Cette dernière fabrique presque exclusivement des produits de commodité (c'est-à-dire des produits aux dimensions et propriétés standards destinés à la construction). Il arrive que certains clients veuillent aussi des produits avec des caractéristiques spécifiques. Le contexte manufacturier actuel ne permet pas au scieur de connaître le panier de produits global qui découlera de l'introduction d'un nouveau produit. En effet, du fait de la divergence des flux et de la co-production associées à la transformation de la matière première en scierie, l'ajout d'un autre produit à fabriquer entraîne des répercussions sur l'ensemble du panier de produits. Nous proposons donc d'utiliser le cadre pour intégrer à la planification tactique la demande pour des produits spécifiques jamais fabriqués auparavant. Le cadre utilise un simulateur de débitage de billes couplé à un modèle de planification pour réaliser un plan. Ce dernier permet au décideur d'évaluer quelles demandes pour des produits sur mesure devraient être acceptées, quoi produire et quand, ainsi que les paramètres de l'équipement à utiliser et la matière première à acheter/consommer à chaque période. La seconde application du cadre présentée dans cette thèse a pour but d'améliorer les décisions prises par un système de découpe de bois de plancher soumis à de fortes contraintes de production. La découpe d'un ensemble d'images de planches provenant de productions passées est simulée pour différentes configurations du système. Une base de données caractérisant la production attendue pour chaque configuration est ainsi générée. Le simulateur est le système réel utilisé « hors-ligne ». À partir des informations obtenues, nous établissons ensuite un horaire de production en utilisant un modèle d'optimisation linéaire maximisant la valeur attendue de la production. L'horaire permet de définir comment configurer le système de découpe tout au long de la production. Le cadre peut aussi être appliqué pour résoudre d'autres problèmes du même type comme, par exemple, pour la conception d'usines en réseau dans une chaîne logistique. Enfin, pour illustrer et vérifier la pertinence de l'utilisation de certaines méthodes de recherche dans les arbres pour déterminer l'ordre d'évaluation des scénarios, la démarche est appliquée au problème de découpe de bois de plancher mentionné préalablement. L'étude réalisée montre que les méthodes issues de la programmation par contraintes pourraient se révéler efficaces pour résoudre ce type de problèmes. En effet, la méthode Limited Discrepancy Search (LDS) obtient des résultats très semblables à une heuristique spécialement élaborée pour le cas étudié. Or LDS est une méthode générique et pourrait s'appliquer à d'autres cas.
63

La réalité augmentée : une approche de simulation urbaine interactive

Saint-Pierre, Louis 03 April 2019 (has links)
Ce mémoire présente le protocole de réalisation de simulation interactive par enrichissement d'images vidéo développé pour simuler une hypothèse de requalification et de densification d'un secteur résidentiel de banlieue édifié entre 1960 et 1975. Il constitue le volet informatique du projet de recherche ≪Nouveaux modèles urbains et architecturaux: une enquête prospective centrée sur la simulation d'environnements≫ (FCAR 1996-1999, Després). La méthode élaborée combine les qualités interactives caractéristiques aux environnements complètement générés par ordinateur au réalisme des simulations par enrichissement de l'image vidéo. Le mémoire présente donc les différentes étapes de la réalisation d’une telle simulation dont l'objectif fondamental est l'amélioration de la compréhension de projets architecturaux ou urbanistiques par le grand public. / Québec Université Laval, Bibliothèque 2019
64

Développement d'un modèle numérique d'écoulement 3D des eaux souterraines du bassin versant de la Rivière Chaudière, Québec

Brun Koné, Mathy Yasmina 19 April 2018 (has links)
Une étude hydrogéologique conjointe de l'Université Laval et de la Commission Géologique du Canada (CGC) a été réalisée dans le bassin versant de la rivière Chaudière. Le but de cette étude est d’accroître les connaissances sur le système hydrogéologique du bassin versant de la rivière Chaudière qui s’étend de la frontière américaine jusqu’au fleuve Saint-Laurent. La zone étudiée a une superficie de 6675 km2. Il s’agit d’une région densément peuplée (~ 390,000 hab.) à vocation principalement agricole où 65 % de la population utilise l’eau souterraine comme principale source d’eau potable. L’aquifère régional se compose de deux unités principales : le substratum rocheux de la province géologique des Appalaches et certaines unités quaternaires granulaires. Le confinement de l’unité rocheuse est contrôlé par des sédiments glaciaires, marins ou lacustres fins d’épaisseurs et de distribution variables. L’écoulement dans le roc se fait dans sa partie supérieure où la fracturation est la plus importante. La première étape des travaux a d’abord consisté à définir les propriétés hydrauliques des formations géologiques. Les données utilisées proviennent de divers rapports, de données du système d’information hydrogéologique (SIH), du Ministère du Développement Durable, de l’Environnement, de la Faune et des Parcs du Québec (MDDEFP), de rapports de consultants ainsi que d’une campagne de travaux de terrain effectuée à l’été 2007. Parmi ces données, la conductivité hydraulique (K) constitue la principale propriété à définir. Plusieurs valeurs de K ont été extraites directement ou indirectement de rapports existants. Une partie importante des valeurs de la conductivité hydraulique a été estimée à partir de la base de données SIH. Parmi celles-ci, 1333 valeurs ont été évaluées à partir de la capacité spécifique (Bradbury et al, 1985); 89 de ces mesures ont étés qualifiées de données de qualités car elles respectent toutes les conditions de la méthode, à l’exception du temps de pompage souvent trop court (94% des cas). En se basant sur les mesures recueillies, la moyenne géométrique des données de conductivité hydraulique (K) s’élève à 5 x 10-6 m/s avec un écart-type du logarithme de K égal à 0.60. La lithologie ne semble pas avoir une grande influence sur les valeurs de la conductivité hydraulique car toutes les valeurs moyennes de chacune des lithologies se trouvent à l’intérieur d’un même ordre de grandeur. Un modèle numérique a été construit pour l’ensemble de la zone d’étude à l’aide du logiciel de modélisation par éléments finis Watflow (Molson et al., 2002) afin d’interpréter le système d’écoulement de l’eau souterraine au niveau régional. Le modèle tridimensionnel est composé de 28 couches dont 18 représentent les dépôts meubles et 10 le roc. Le maillage 3D comprend 1 / A joint hydrogeological assessment study between Université Laval and the Geological Survey of Canada (GSC) has been conducted in the Chaudière River watershed. The main objective of the study was to gain further understanding into the groundwater resources within the region. The watershed extends over ~ 6700 km2 from the United States border northwards to the Saint Lawrence River in the province of Québec (Canada). Groundwater is an important source of drinking water as well as for irrigation and industrial use, however the supply is finite and there are potential risks of conflicts arising from different users. It is thus important to understand the aquifer systems throughout the watershed in order to avoid possible conflicts and to help decision makers to better manage the resource. Within the catchment, up to 65% of the population relies on groundwater as the primary drinking water resource, whereby most of the water is used for agricultural purposes. The regional aquifer system is dominated by the underlying rock substratum of the Appalachian province and Quaternary aquifer units. The degree of confinement of the fractured aquifers is controlled by the overlying glacial, marine and fine lacustrine sediments of variable thicknesses. The groundwater circulation within the fractured aquifers predominantly takes place in the uppermost part of the fractured water-bearing units, where fracture density is highest. As a first step, the hydraulic properties of the fractured basement were defined, for which the hydraulic conductivity (K) of the formations can be considered as the most important hydraulic characteristic. A literature review of the available reports as well as the SIH and the MDDEFP data bases was performed in order to assemble the data. Additional field work was completed by the GSC during the spring of 2007 to supplement the data base. Most of the values of the hydraulic conductivity K were taken from the existing reports while others were estimated from the SIH data base. The data base contains 1333 values which were evaluated using Bradbury’s method, of which 83 satisfied the “quality criteria”, since they respected suggested conditions regarding the minimum pumping (which was not met in 94% of the cases). The geometric mean value of the measured hydraulic conductivities was 5x10-6 m/s with a standard deviation of 0.60. The maximum difference between the hydraulic conductivities of the different lithological units was about a factor of 100x. A 3D numerical finite element model was built with the Watflow model (Molson et al., 2002) for simulating the regional groundwater flow system. The model domain extends over the entire watershed and is subdivided into 28 layers, 18 for the unconsolidated deposits and 10 within the basement rock. The 3D triangular prismatic mesh contains 1,694,672 nodes and 3,344,516 elements. The topographic DEM (digital elevation model) forms the uppermost surface of the model. For the model boundary conditions, the Chaudière River and major tributaries and lakes are set as first-type boundaries with constant hydraulic heads. The model base, as well as the lateral limits, are considered as no-flow boundaries. The net recharge over the model surface was estimated using the infiltration model HELP, combined with estimates of the surface-distributed local water withdrawals. The major pumping wells are represented in the model domain as point sinks. The horizontal hydraulic conductivity together with the vertical anisotropy values for each formation were used as the model calibration parameters, using the observation data from 68 observation wells. The results of the calibration of the model showed that the mass balance error is close to zero which implies that the sum of inflows is equal to the sum of outflows. Different scenarios with recharge variations were simulated with the calibrated model. The simulations allowed identifying the principal sensitive zones which need piezometric and water quality control. It was also possible to determine the areas most sensitive to climate variations. Changes in the rate of pumping and recharge (± 20%) did not have a significant impact on the modeled system mainly in relation to groundwater level (observed variations were ≤5m).
65

Opérationnalisation des stratégies de sélection des prestataires logistiques

Feki, Yassine 20 April 2018 (has links)
Ce mémoire traite un problème de sélection des transporteurs à un niveau opérationnel de la hiérarchie de décision, d'un système de trafic constitué de trois flottes de transporteurs (interne, externe et spot), plusieurs entrepôts, plusieurs centres de distributions et plusieurs produits. Les demandes de produits sont considérées aléatoires et les transporteurs des flottes, interne et externe, sont sujets à des périodes de non-disponibilités. Pour permettre de suivre l'évolution du système dans le temps, la politique de sélection devrait inclure une stratégie d'affectation des quantités transférées en fonction de l'état du système. Les transporteurs externes proviennent d'un processus de sélection au niveau stratégique. Les transporteurs spots sont appelés du marché au comptant. Dans la première partie de ce mémoire, un cadre conceptuel est proposé permettant de raccorder les décisions de sélection prises au niveau stratégique et opérationnel. La sélection stratégique utilise un mécanisme d'enchères combinatoires dans lequel les transporteurs se mettent en concurrence en soumettant des mises en paquet sur les offres proposées par les expéditeurs. Un modèle mathématique mixte en nombres entiers est exposé pour déterminer les transporteurs gagnants de l'enchère avec lesquels l'expéditeur va s'engager sur une longue période. Les transporteurs gagnants de cette phase seront regroupés dans une seule flotte, appelée flotte externe. Dans la deuxième partie du projet, le problème de sélection des transporteurs, qui traite le cas d'une chaîne logistique simple, constituée d'un seul entrepôt, un seul centre de distribution, un seul produit et les trois flottes des transporteurs, est abordé. De ce fait, une formulation en programmation dynamique stochastique du problème est développée. Une résolution numérique est menée par la suite pour résoudre les équations d'optimalité obtenues. Pour illustrer l'utilité pratique et le comportement robuste de la politique développée, plusieurs analyses de sensibilité sont effectuées. Cette politique combine les deux aspects : la sélection des transporteurs et le contrôle des inventaires dans les centres de distribution. Par la suite, une approche expérimentale basée sur la simulation et des techniques d'optimisation statistiques est adoptée, en vue de valider, quantifier et optimiser la structure de la politique obtenue par modélisation mathématique. Une comparaison statistique est par la suite menée permettant de montrer la supériorité de la politique paramétrée développée par rapport à une autre politique basée principalement sur les coûts du transport comme critères de sélection. Finalement, une politique générale est proposée permettant de résoudre le problème de sélection des transporteurs à la phase opérationnelle de la hiérarchie. Cette politique est basée sur la structure globale de la politique développée du cas simple dans la deuxième partie du projet. Elle est appliquée dans un cadre plus représentatif de la réalité. Une comparaison statistique est par la suite menée montrant les gains que la politique générale proposée occasionnent par rapport à une autre politique générale visant un minimum de stock dans les centres de distribution et un coût de transport réduit. Plusieurs interprétations ont été dégagées à travers cette étude.
66

Comportement dynamique des ponts routiers à platelage d’aluminium extrudé compte tenu de la rugosité de la surface

Ben Afia, Achraf 24 March 2021 (has links)
L'aluminium est un matériau très durable avec une excellente résistance à la corrosion qui pourrait être un excellent choix soit pour la construction de nouveaux ponts, soit pour la réhabilitation et le remplacement de tabliers de pont détériorés. Les ponts construits avec des platelages d’aluminium extrudé et des poutres d’acier offrent une solution prometteuse au problème du vieillissement de l'infrastructure des ponts. L'aluminium en tant que matériau structurel est aussi connu pour sa légèreté, qui facilite le transport et l'installation, et réduit les coûts des fondations. Cependant, cette caractéristique les rend sensibles vis-à-vis les excitations causées par les surcharges routières. La conception dynamique des ponts routiers par le code canadien de conception des ponts routiers (CSA S6-19) est basée sur le concept de facteurs d'amplification dynamique équivalents (FAD). Cependant, ces facteurs ont été établis principalement pour les ponts construits avec des matériaux traditionnels tels que le béton, le bois et l'acier. Il est donc prudent d'évaluer l'applicabilité de ces facteurs pour le cas des ponts légers construits avec des platelages d’aluminium extrudé. En outre, comme la rugosité de la surface des chaussées joue un rôle important dans le comportement dynamique d'un pont, il est important de considérer l'influence de la rugosité sur la réponse dynamique du pont. L'objectif de cette recherche est d'étudier le comportement dynamique des ponts composés des platelages d’aluminium extrudé et des poutres d’acier sous les surcharges routières en tenant compte de l'effet de la rugosité de la surface, et par conséquent d'évaluer l'applicabilité des FAD de la norme de conception actuelle pour de telles structures. Pour y parvenir, des modèles numériques ont été développés sur Abaqus pour une sélection des paramètres et des configurations des ponts. L'effet de la rugosité de surface sur la réponse dynamique est également étudié en générant l'algorithme de densité spectrale de puissance (DSP) selon la norme ISO 8608. Les résultats ont montré que les FAD dépendent énormément à la fois du ratio des fréquences véhicule-pont ainsi que de la rugosité de la surface. Au fur et à mesure que le ratio des fréquences véhicule-pont augmente, le FAD augmente de manière significative. Avec un ratio des fréquences véhicule-pont approchant 0,5, le FAD calculé dépasse la valeur du FAD recommandée par le code canadien. Il est à noter que les résultats de cette étude sont limités aux configurations de pont considérées à l'étude, et qu'une étude paramétrique approfondie est nécessaire pour tirer une conclusion générale sur l'applicabilité des valeurs actuelles du FAD pour les ponts légers en aluminium extrudé. / Aluminum is a highly durable material with excellent corrosion resistance that could be an excellent choice either for construction of new bridges or for rehabilitation and replacement of deteriorated bridge decks. Extruded aluminum deck-on-steel girder bridges offer promising solution to the aging bridge infrastructure problem. Aluminum as a structural material is also known for its lightweight, which facilitates transportation and installation, and reduces foundation requirements. However, this characteristic makes it sensitive to excitations from vehicular traffic. The dynamic design of highway bridges by the Canadian Highway Bridge Design Code (CSA S6-19) is based on the concept of equivalent dynamic amplification factors (DAF). However, these factors were derived largely for bridges made with traditional materials such as concrete, wood and steel. It is prudent to evaluate whether these factors are applicable to lightweight bridges made with extruded aluminum decks. In addition, since road roughness plays an important role in the dynamic behavior of a bridge, it is important to consider the influence of roughness on the bridge vibration response. The objective of this research is to investigate the dynamic behavior of aluminum deck-on-steel girder bridges under vehicular loads considering the effect of road roughness, and consequently evaluate the applicability of the current design DAFs for such structures. For this purpose, numerical models were developed in Abaqus for a selected bridge configuration and loading parameters. The effect of road roughness on dynamic response is also investigated by generating the power spectral density (PSD) algorithm according to ISO 8608. Results showed that the DAF strongly depend on both the vehicle-bridge frequency ratio and the road roughness. As the vehicle-to-bridge frequency ratio increases, the DAF rises significantly. With a vehicle-to-bridge frequency ratio approaching 0.5, the calculated DAF exceeds the DAF value recommended by the Canadian code. It is noted that results of this study are limited to the bridge configurations considered in the study, and extensive parametric study is required to draw a general conclusion about the applicability of the current DAF values for lightweight extruded aluminum bridges.
67

Modèle de simulation des fluctuations d'abondance des aphides, Rhopalosiphum padi (L.) et Sitobion avenae (F.) sur les céréales

Pelletier, Yvan, Pelletier, Yvan 03 April 2024 (has links)
La température régionale de l'air et le stade phénologique des plants de céréales sont les variables utilisées pour la simulation des fluctuations d'abondance de Rhopalosiphum padi (L.) et de Sitobion avenae (F.) dans les cultures de céréales à petits grains au Québec. Le stade phénologique des plantes est lui-même prédit à l'aide de la somme des degrés-jour (seuil de 0°C) depuis la date de semis. L'effet de la température et l'effet du stade phénologique de la plante sur le taux d'accroissement de la population (r) ont été déterminés en laboratoire pour chaque espèce de puceron, puis ajustés selon les valeurs observées sur le terrain. Les résultats des échantillonnages des populations de pucerons en parcelles ont aussi permis de calculer une fonction représentant la perte d'individus par émigration et par mortalité en fonction du stade phénologique de la plante hôte. L'étape de validation a démontré une meilleure performance du modèle à simuler les fluctuations des populations de Sitobion avenae que celles de Rhopalosiphum padi. Règle générale, la courbe de simulation de la densité de population est "en phase" avec les valeurs observées mais le niveau maximum prédit de la densité de population diffère, parfois de façon importante, de la valeur observée.
68

Analyse de la dynamique des peuplements mixtes de sapin baumier et d'épinette rouge après coupe partielle : contraintes et méthodologies statistiques

Fortin, Mathieu 21 December 2018 (has links)
Des éléments de la dynamique des peuplements mixtes de sapin baumier et d’épinette rouge après coupe partielle ont été étudiés sur une base statistique, afin de déterminer dans quelle mesure ils pourraient contribuer au phénomène de raréfaction de l’épinette rouge. L’étude visait principalement à identifier les changements structurels et à quantifier la croissance tant à l’échelle du peuplement que des tiges individuelles. Pour ce faire, les données de deux dispositifs de suivi ont été utilisées : l’Aire d’observation de la rivière Ouareau (Parc national du Mont-Tremblant) et la Forêt expérimentale du lac Édouard (Parc national de la Mauricie). Chacun de ces dispositifs disposent d’un réseau de placettes permanentes dont les mesures s’étendent sur un horizon de plus de 50 ans après une coupe partielle. Des méthodologies statistiques ont été proposées afin de formuler des inférences statistiques adaptées à la nature des données disponibles. L’analyse de la croissance s’est faite à partir d’un modèle linéaire incluant des effets aléatoires (à l’échelle de la tige individuelle) et d’un modèle non linéaire comportant une structure de covariance (à l’échelle du peuplement) afin de tenir compte de l’hétéroscédasticité des données et de l’autocorrélation des erreurs. Les changements structurels ont été analysés à l’aide d’un modèle linéaire généralisé puisque la variable dépendante n’était pas une variable continue, mais plutôt une fréquence. Pour tenir compte de l’effet dû aux placettes, des effets aléatoires ont été ajoutés au modèle. Finalement, une matrice de transition à deux niveaux a été construite sur la base de distributions discrètes dont les paramètres sont estimés par la méthode du maximum de vraisemblance. L’utilisation de distributions discrètes offre ainsi des résultats plus cohérents par rapport à l’approche traditionnelle. À l’échelle des tiges individuelles, les résultats de ces analyses démontrent que les différences quant à la croissance en diamètre sont relativement faibles. Le recrutement et la mortalité sont en fait des facteurs beaucoup plus importants dans l’évolution de ces peuplements après coupe partielle. À l’échelle du peuplement, ils induisent une variabilité importante dans l’évolution de la surface terrière du sapin baumier, de sorte que l’épinette rouge apparaît comme une essence beaucoup plus stable. La durée et l’importance de l’ouverture de la canopée après coupe partielle sont des éléments critiques qui déterminent l’abondance du recrutement du sapin baumier. Pour maintenir la proportion d’épinette rouge et une distribution diamétrale irrégulière, les coupes partielles de faible intensité comme le jardinage par pied d’arbre sont indiquées.
69

Dynamic modeling of energy consumption and yield in greenhouse horticulture : impact of energy efficiency measures, lighting systems, location, and climate change

Trépanier, Marie-Pier 17 June 2024 (has links)
L'agriculture sous serre est importante pour relever les défis mondiaux en matière de sécurité alimentaire et de durabilité, car elle permet de produire tout au long de l'année et d'obtenir des rendements nettement supérieurs à ceux de l'agriculture de plein champ. Toutefois, pour renforcer la durabilité environnementale et la viabilité économique de ces bâtiments à forte consommation d'énergie, il est essentiel d'améliorer leur efficacité énergétique. Pour optimiser les conditions de croissance des plantes tout en considérant la consommation d'énergie, il est nécessaire de gérer soigneusement le chauffage, l'humidité, le CO₂ et l'éclairage, car ils sont tous interconnectés. L'efficacité des différentes techniques, telles que les écrans thermiques et les systèmes de récupération de la chaleur, dépend de facteurs tels que le climat extérieur, les sources d'énergie et les mécanismes de contrôle. D'un point de vue énergétique, quelles sont les meilleures pratiques en matière d'éclairage et de mesures d'efficacité énergétique dans les serres, en mettant l'accent sur la durabilité ? La littérature actuelle manque de conseils pratiques de mise en œuvre, d'études comparatives et de considérations sur les variations climatiques régionales et les impacts futurs des changements climatiques. Cette recherche a analysé l'impact de différentes technologies d'éclairage et de mesures d'efficacité énergétique sur la consommation annuelle d'énergie à l'aide d'un modèle de simulation dynamique des serres. Les résultats ont montré que l'éclairage LED et les écrans thermiques sont les options les plus efficaces sur le plan énergétique, en particulier dans les climats nordiques. Les simulations des scénarios climatiques futurs indiquent des réductions potentielles de rendement en raison de chaleur estivale excessive. Les mesures d'adaptation, telles que les systèmes mécaniques de refroidissement et de déshumidification, sont prometteuses pour atténuer les effets des changements climatiques, mais elles augmentent également la consommation d'énergie. Cette recherche souligne l'importance des approches personnalisées de gestion de l'énergie pour des serres durables face à des conditions environnementales changeantes. Les résultats de ce travail sont utiles aux producteurs pour leur planification opérationnelle et stratégique, et aux décideurs politiques pour le développement de programmes de soutien à l'industrie. / Greenhouse agriculture is important for addressing global food security and sustainability challenges by enabling year-round production and significantly higher crop yields compared to field farming. However, to enhance the environmental sustainability and economic viability of these energy-intensive buildings, it is crucial to improve their energy efficiency. To optimize plant growth conditions while balancing energy consumption, it is necessary to carefully manage heating, humidity, CO₂, and lighting, as they are all interconnected. The effectiveness of various energy efficiency techniques, such as thermal screens and heat harvesting systems, depends on factors such as outdoor climate, energy sources, and control mechanisms. From an energy perspective, what are the best practices for lighting and energy efficiency measures in greenhouses with a focus on sustainability? The current literature often lacks practical implementation guidance, comparative studies, and considerations for regional climate variations and future climate change impacts. Additionally, operational costs and local environmental factors are frequently overlooked. This study analyzed the impact of different lighting technologies and energy efficiency measures on annual energy consumption using a comprehensive greenhouse dynamic simulation model. The results showed that LED lighting and thermal screens are the most energy-efficient options, especially in northern climates. Simulations of future climate scenarios indicate potential yield reductions due to excessive summer heat. Adaptive measures, such as mechanical cooling and dehumidification systems, show promise for mitigating climate change impacts but also increase energy consumption. This research emphasizes the importance of customized energy management approaches for sustainable greenhouse horticulture in the face of changing environmental conditions. The outcome of this work is useful to growers for their operational and strategic planning and for policymakers for the development of programs supporting the industry.
70

Signal decompositions using trans-dimensional Bayesian methods. / Décomposition de signaux dans un cadre bayésien trans-dimensionnel

Roodaki, Alireza 14 May 2012 (has links)
Cette thèse porte sur le problème de la décomposition de signaux contenant un nombre inconnu de composantes, envisagé dans un cadre bayésien. En particulier, nous nous concentrons sur la question de la description des lois a posteriori qui ont la spécificité, pour les problèmes de ce genre, d’être définies sur une union de sous-espaces de dimensions différentes. Ces lois peuvent être échantillonnées à l’aide de techniques de Monte Carlo récentes, telles que l’échantillonneur MCMC à sauts réversibles (RJ-MCMC), mais aucune approche générique n’existe à l’heure actuelle pour décrire les échantillons produits par un tel échantillonneur et en extraire les paramètres spécifiques des composantes. L’un des principaux obstacles est le problème de la commutation des étiquettes (label-switching), causé par l’invariance de la loi a posteriori vis-à-vis de permutations de ses composantes. Nous proposons une nouvelle approche pour résoudre ce problème, qui consiste à approcher la loi a posteriori d’intérêt par une loi paramétrique plus “simple”, mais toujours définie sur un espace de dimension variable. Nous développons des algorithmes de type SEM (Stochastic Expectation-Maximization), s’appuyant sur la sortie d’un échantillonneur RJ-MCMC, afin d’estimer les paramètres du modèle par minimisation d’une divergence entre les deux lois. Deux problèmes de décomposition de signaux illustrent la capacité de la méthode proposée à résoudre le problème de commutation des étiquettes et à produire des résumés de lois a posteriori définies sur des espaces de dimension variable : le problème classique de détection et d’estimation de composantes sinusoïdales dans un bruit blanc d’une part, et un problème de comptage de particules motivé par le projet Pierre Auger en astrophysique d’autre part. / This thesis addresses the challenges encountered when dealing with signal decomposition problems with an unknown number of components in a Bayesian framework. Particularly, we focus on the issue of summarizing the variable-dimensional posterior distributions that typically arise in such problems. Such posterior distributions are defined over union of subspaces of differing dimensionality, and can be sampled from using modern Monte Carlo techniques, for instance the increasingly popular Reversible-Jump MCMC (RJ-MCMC) sampler. No generic approach is available, however, to summarize the resulting variable-dimensional samples and extract from them component-specific parameters. One of the main challenges that needs to be addressed to this end is the label-switching issue, which is caused by the invariance of the posterior distribution to the permutation of the components. We propose a novel approach to this problem, which consists in approximating the complex posterior of interest by a “simple”—but still variable-dimensional parametric distribution. We develop stochastic EM-type algorithms, driven by the RJ-MCMC sampler, to estimate the parameters of the model through the minimization of a divergence measure between the two distributions. Two signal decomposition problems are considered, to show the capability of the proposed approach both for relabeling and for summarizing variable dimensional posterior distributions: the classical problem of detecting and estimating sinusoids in white Gaussian noise on the one hand, and a particle counting problem motivated by the Pierre Auger project in astrophysics on the other hand.

Page generated in 0.1274 seconds