Spelling suggestions: "subject:"deméthodes dde simulation."" "subject:"deméthodes dee simulation.""
61 |
Favoriser le développement d'une foresterie de précision avec l'intelligence artificielle : simuler la répartition spatiale des propriétés du sol, de la croissance radiale annuelle et des essences forestières en forêts boréale et tempéréeSylvain, Jean-Daniel 08 January 2025 (has links)
La littérature récente met en lumière les risques associés aux changements climatiques, démontrant qu'ils pourraient affecter de manière irrémédiable le maintien, la résilience et la productivité des écosystèmes forestiers. Pour mieux comprendre et anticiper ces effets, il est impératif de développer des approches méthodologiques pour supporter l'acquisition de connaissance détaillées sur les dynamiques spatiales et temporelles de ces écosystèmes. Cette étude a permis de tester le potentiel des méthodes d'apprentissage supervisé et des algorithmes de vision par ordinateurs pour cartographier trois composantes importantes des écosystèmes forestiers : 1) les propriétés physico-chimiques des sols, 2) la croissance radiale annuelle des essences forestières en forêt boréale et tempérée et 3) la diversité des essences forestières et de l'occupation du sol. Nos résultats indiquent que les méthodes d'apprentissage supervisé, issues du domaine de l'intelligence artificielle, sont en mesure de soutenir une cartographie objective, précise et détaillée de la dynamique spatiale et temporelle de plusieurs caractéristiques des écosystèmes forestiers. Ils démontrent toutefois que : 1) les performances des modèles d'apprentissage supervisé sont tributaires de la qualité et de la représentativité des données utilisées pour l'entraînement des modèles, 2) les valeurs simulées sont susceptibles d'être biaisées et requièrent parfois l'usage d'une méthode de correction de biais et 3) qu'il est essentiel de revoir les méthodes d'échantillonnage actuellement utilisées pour assurer une représentation optimale de la diversité des écosystèmes forestiers et des conditions climatiques changeantes et minimiser l'occurrence de biais dans les valeurs simulées. Nos travaux démontrent également les bénéfices de la modélisation d'ensemble et de la correction de biais sur la performance des modèles. En effet, les valeurs simulées à partir de la modélisation d'ensemble présentent un pouvoir explicatif supérieur par rapport à la modélisation déterministe reposant sur un modèle unique. La modélisation d'ensemble offre un cadre méthodologique qui permet d'estimer l'incertitude associée aux valeurs prédites. La correction de biais permet par ailleurs de maximiser la linéarité et le rapport de la variance entre les valeurs simulées et observées, favorisant ainsi l'obtention de valeurs plus réalistes d'un point de vue physique. Le développement de méthodes de cartographie automatisée aura des retombées importantes pour la gestion forestière, puisque les cartes découlant de ces approches ont le potentiel de soutenir une meilleure compréhension des écosystèmes forestiers et conséquemment le développement de stratégies d'aménagement forestier durable. Bien que les méthodes développées dans la thèse présentent un fort potentiel opérationnel, leur mise en œuvre dans le contexte de l'administration publique pose de nombreux défis liés à l'intégration de ces technologies. Enfin, ces travaux sont novateurs, car ils ont généré des données géospatiales inédites sur le plan de la résolution spatiale et temporelle. Ces données permettent une analyse détaillée de la dynamique du couvert forestier, de l'influence des perturbations et des facteurs abiotiques dans le temps.
|
62 |
Fiscalité, programmes sociaux et incitation au travail - une comparaison Québec - OntarioBlancquaert, Arnaud 23 April 2018 (has links)
Ce mémoire présente un portrait de la situation des taux marginaux effectifs d’imposition (TMEI) et des taux d’imposition à la participation (TIP) sur le revenu de travail au Québec et en Ontario. Il vise une meilleure compréhension de l’impact de la fiscalité et des transferts sociaux sur le comportement des agents, entre autres choses sur le marché du travail. À l’aide d’un modèle de microsimulation comptable reproduisant les systèmes d’impôts et de transferts au Québec et en Ontario, nous mesurons les TMEI et les TIP qui résultent de l’interaction des mécanismes de perception et de redistribution et présentons la répartition des TMEI et des TIP au sein des populations québécoise et ontarienne. Nous produisons en outre une répartition contre-factuelle des TMEI et des TIP en soumettant les ménages québécois au système d’imposition et de transferts sociaux de l’Ontario.
|
63 |
Contribution aux analyses de la stabilité structurale des excavations minières souterraines de géométries complexes par modélisation DFNDurham, Christopher 26 March 2024 (has links)
Titre de l'écran-titre (visionné le 20 novembre 2023) / Dans des conditions de faible contrainte, l'absence de confinement peut causer des chutes de blocs, un type d'instabilité critique des excavations souterraines. Il est essentiel de considérer à la fois le réseau de fractures du massif rocheux et la géométrie de l'ouverture dans les analyses de stabilité. Toutefois, les outils actuels d'analyse de stabilité des instabilités structurales se limitent à des représentations simplifiées de la géométrie des excavations et ne prennent pas en compte les caractéristiques géométriques détaillées ni la distribution spatiale des discontinuités. De ce fait, ces outils ne sont donc pas intégrés aux processus de conception des excavations minières. Ce mémoire développe une approche numérique améliorée pour l'évaluation des aléas de chutes de blocs tétraédriques formés à la surface des ouvertures minières souterraines. Elle considère la complexité du régime structural en implémentant la modélisation de fractures, mieux connu sous le nom de Discrete Fracture Network (DFN). L'approche développée utilise comme intrant une surface triangulée détaillée de l'excavation souterraine avec des dimensions et inclinaisons variables. Elle permet d'intégrer les résultats de l'analyse aux outils de conception assisté par ordinateur (CAO) minière utilisés dans l'industrie. Une analyse détaillée a montré que la simplification excessive de la géométrie de l'excavation peut entraîner une évaluation inadéquate de la formation des blocs rocheux. Une analyse plus approfondie a également permis d'identifier des blocs allongés non critiques pour la stabilité et des blocs potentiellement instables partiellement formés due à un pont rocheux intact à l'apex. La méthodologie développée a été appliquée avec succès à un cas d'étude de chute de bloc au toit d'une excavation minière souterraine de géométrie complexe en contexte minier en opération. / Geological discontinuities have a large impact on the rock mass behavior in underground excavations. Under low-stress conditions, structurally controlled wedge failure is one of the most critical types of rock instability. The stability analysis must integrate both the rock mass fracture network and the geometry of the opening. However, current wedge stability analysis tools do not typically examine the detailed geometrical characteristics of the rock discontinuities and are limited to simplified representations of excavation geometry, not allowing analysis of excavation surfaces with complex geometries. Consequently, these analysis tools are not integrated into the excavation design processes in the mining industry. This thesis reports on the development of a comprehensive and more rational numerical approach to assess wedge formation around underground mine openings. The approach considers the structural rock mass complexity using Discrete Fracture Network (DFN) modelling and the detailed 3D underground excavation profile obtained from surveying. The approach allows for integrating the analysis results into the Computer-Aided Design (CAD) mine design tools used in the industry. A detailed investigation of the 3D profile and shape of the excavation indicated that an oversimplification of the excavation geometry in the stability analysis can result in an inadequate assessment of wedge formation. Further analyses have allowed us to identify elongated wedges that may not be critical from a stability perspective and wedges that were not entirely formed in the DFN model but may still be critical for the stability of the excavation. The developed methodology was successfully applied to estimate wedges' formation around an underground mine excavation.
|
64 |
Modèle de simulation des fluctuations d'abondance des aphides, Rhopalosiphum padi (L.) et Sitobion avenae (F.) sur les céréalesPelletier, Yvan, Pelletier, Yvan 03 April 2024 (has links)
La température régionale de l'air et le stade phénologique des plants de céréales sont les variables utilisées pour la simulation des fluctuations d'abondance de Rhopalosiphum padi (L.) et de Sitobion avenae (F.) dans les cultures de céréales à petits grains au Québec. Le stade phénologique des plantes est lui-même prédit à l'aide de la somme des degrés-jour (seuil de 0°C) depuis la date de semis. L'effet de la température et l'effet du stade phénologique de la plante sur le taux d'accroissement de la population (r) ont été déterminés en laboratoire pour chaque espèce de puceron, puis ajustés selon les valeurs observées sur le terrain. Les résultats des échantillonnages des populations de pucerons en parcelles ont aussi permis de calculer une fonction représentant la perte d'individus par émigration et par mortalité en fonction du stade phénologique de la plante hôte. L'étape de validation a démontré une meilleure performance du modèle à simuler les fluctuations des populations de Sitobion avenae que celles de Rhopalosiphum padi. Règle générale, la courbe de simulation de la densité de population est "en phase" avec les valeurs observées mais le niveau maximum prédit de la densité de population diffère, parfois de façon importante, de la valeur observée.
|
65 |
Analyse de la dynamique des peuplements mixtes de sapin baumier et d'épinette rouge après coupe partielle : contraintes et méthodologies statistiquesFortin, Mathieu 21 December 2018 (has links)
Des éléments de la dynamique des peuplements mixtes de sapin baumier et d’épinette rouge après coupe partielle ont été étudiés sur une base statistique, afin de déterminer dans quelle mesure ils pourraient contribuer au phénomène de raréfaction de l’épinette rouge. L’étude visait principalement à identifier les changements structurels et à quantifier la croissance tant à l’échelle du peuplement que des tiges individuelles. Pour ce faire, les données de deux dispositifs de suivi ont été utilisées : l’Aire d’observation de la rivière Ouareau (Parc national du Mont-Tremblant) et la Forêt expérimentale du lac Édouard (Parc national de la Mauricie). Chacun de ces dispositifs disposent d’un réseau de placettes permanentes dont les mesures s’étendent sur un horizon de plus de 50 ans après une coupe partielle. Des méthodologies statistiques ont été proposées afin de formuler des inférences statistiques adaptées à la nature des données disponibles. L’analyse de la croissance s’est faite à partir d’un modèle linéaire incluant des effets aléatoires (à l’échelle de la tige individuelle) et d’un modèle non linéaire comportant une structure de covariance (à l’échelle du peuplement) afin de tenir compte de l’hétéroscédasticité des données et de l’autocorrélation des erreurs. Les changements structurels ont été analysés à l’aide d’un modèle linéaire généralisé puisque la variable dépendante n’était pas une variable continue, mais plutôt une fréquence. Pour tenir compte de l’effet dû aux placettes, des effets aléatoires ont été ajoutés au modèle. Finalement, une matrice de transition à deux niveaux a été construite sur la base de distributions discrètes dont les paramètres sont estimés par la méthode du maximum de vraisemblance. L’utilisation de distributions discrètes offre ainsi des résultats plus cohérents par rapport à l’approche traditionnelle. À l’échelle des tiges individuelles, les résultats de ces analyses démontrent que les différences quant à la croissance en diamètre sont relativement faibles. Le recrutement et la mortalité sont en fait des facteurs beaucoup plus importants dans l’évolution de ces peuplements après coupe partielle. À l’échelle du peuplement, ils induisent une variabilité importante dans l’évolution de la surface terrière du sapin baumier, de sorte que l’épinette rouge apparaît comme une essence beaucoup plus stable. La durée et l’importance de l’ouverture de la canopée après coupe partielle sont des éléments critiques qui déterminent l’abondance du recrutement du sapin baumier. Pour maintenir la proportion d’épinette rouge et une distribution diamétrale irrégulière, les coupes partielles de faible intensité comme le jardinage par pied d’arbre sont indiquées.
|
66 |
Primary school buildings renovation in cold climates : optimizing window size and opening for thermal comfort, indoor air quality and energy performanceDarvishi Alamdari, Pourya 13 December 2023 (has links)
Dans les bâtiments scolaires existants, la ventilation naturelle constitue souvent l'unique solution pour le contrôle de la qualité de l'air intérieur et le confort thermique. Cependant, de nombreuses études montrent que les salles de classe sont insuffisamment ventilées et entrainent des problèmes de qualité de l'environnement intérieur. Plusieurs études ont été menées sous différents climats, mais peu dans des climats très froids où l'usage de la ventilation naturelle peut entraîner une surconsommation énergétique. Cette recherche vise à étudier l'impact de la ventilation naturelle sur le confort thermique, la qualité de l'air intérieur et l'efficacité énergétique des bâtiments scolaires dans les climats froids. Divers paramètres architecturaux associés aux fenêtres ont été analysés pour une classe type du corpus Schola. Dans cette recherche, l'orientation des fenêtres, leur taille, leur position, la taille et la position de l'ouverture des fenêtres, le programme de ventilation naturelle et les méthodes de ventilation naturelle (unilatérale et transversale) ont été simulés numériquement avec le logiciel Ladybug Tools. Les résultats des simulations produisent données numériques annuelles de température, humidité, température radiante moyenne, concentration de CO₂, pour traiter les conditions thermiques et de Qualité de l'Air Intérieur QAI dans les bâtiments scolaires et de leur impact sur la performance énergétique. L'analyse des résultats utilise les modèles standards 55 ASHRAE, Predicted Mean Vote PMV et extended Adaptive Thermal Comfort ATC pour l'analyse du confort thermique, la Santé Canada et le Centre de collaboration nationale en santé environnementale, la Federation of European Heating, Ventilation and Air Conditioning Associations REHVA pour le contrôle de la COVID-19. Les résultats montrent que l'ouverture répétitive des fenêtres de courte durée pourrait être une solution optimale en termes de confort thermique, de qualité de l'air intérieur et d'efficacité énergétique. Étant donné que la plupart de ces bâtiments scolaires ne sont pas équipés de systèmes CVC et qu'ils ne disposent que de systèmes de chauffage classiques, le manque de qualité de l'air intérieur est un problème inévitable. La solution de la ventilation naturelle pourrait compenser le manque de qualité de l'air intérieur et le coût de la rénovation du système CVC ; cependant, elle devrait être appliquée avec précision pendant les périodes hivernales pour éviter un inconfort thermique et une surconsommation énergétique. / In existing school buildings in Quebec, natural ventilation is often the only solution for thermal comfort and indoor air quality control. However, many studies show insufficiently ventilated classrooms, leading to indoor environment quality problems. Where the arbitrary use of natural ventilation can lead to energy over consumption, several studies have been conducted on the role of natural ventilation on this issue, but few of them are addressed in very cold climates. This research investigates the impact of natural ventilation on thermal comfort, indoor air quality, and energy efficiency of school buildings in cold climates. Various architectural parameters associated with windows were analyzed for a typical classroom in the Schola.ca corpus. Since most of these school buildings are not equipped with HVAC systems and have only infrastructures for conventional heating systems, the lack of indoor air quality is an inevitable problem. In this research, the windows' orientation, position, opening size, and opening position, natural ventilation program, and window-opening modes (single-sided and cross-window openings) were numerically simulated with the Ladybug Tools software. The software outputs consist of annual numerical data (temperature, humidity, mean radiant temperature, CO₂ concentration, energy, and thermal) representing thermal comfort and IAQ performances in school buildings and their impacts on energy consumption efficiency. In analyzing the result, several standards and guidelines were used, including ASHRAE 55 standard models (Predicted Mean Vote PMV and Adaptive Thermal Comfort models ATC for thermal performance), the Health Canada and National Collaboration Centre for Environmental Health guideline, and the Federation of European Heating, Ventilation and Air Conditioning Associations REHVA to evaluate the building thermal and IAQ performances compared to there commended benchmark models. The results show that repetitive short-term opening of the windows could be an optimal solution in terms of thermal comfort, indoor air quality, and heating energy consumption efficiency. Natural ventilation solutions could retrieve the lack of indoor air quality and the cost of HVAC system renovation; however, they should be only applied during cold seasons to avoid thermal discomfort and energy over consumption.
|
67 |
Comportement dynamique des ponts routiers à platelage d’aluminium extrudé compte tenu de la rugosité de la surfaceBen Afia, Achraf 02 February 2024 (has links)
L'aluminium est un matériau très durable avec une excellente résistance à la corrosion qui pourrait être un excellent choix soit pour la construction de nouveaux ponts, soit pour la réhabilitation et le remplacement de tabliers de pont détériorés. Les ponts construits avec des platelages d’aluminium extrudé et des poutres d’acier offrent une solution prometteuse au problème du vieillissement de l'infrastructure des ponts. L'aluminium en tant que matériau structurel est aussi connu pour sa légèreté, qui facilite le transport et l'installation, et réduit les coûts des fondations. Cependant, cette caractéristique les rend sensibles vis-à-vis les excitations causées par les surcharges routières. La conception dynamique des ponts routiers par le code canadien de conception des ponts routiers (CSA S6-19) est basée sur le concept de facteurs d'amplification dynamique équivalents (FAD). Cependant, ces facteurs ont été établis principalement pour les ponts construits avec des matériaux traditionnels tels que le béton, le bois et l'acier. Il est donc prudent d'évaluer l'applicabilité de ces facteurs pour le cas des ponts légers construits avec des platelages d’aluminium extrudé. En outre, comme la rugosité de la surface des chaussées joue un rôle important dans le comportement dynamique d'un pont, il est important de considérer l'influence de la rugosité sur la réponse dynamique du pont. L'objectif de cette recherche est d'étudier le comportement dynamique des ponts composés des platelages d’aluminium extrudé et des poutres d’acier sous les surcharges routières en tenant compte de l'effet de la rugosité de la surface, et par conséquent d'évaluer l'applicabilité des FAD de la norme de conception actuelle pour de telles structures. Pour y parvenir, des modèles numériques ont été développés sur Abaqus pour une sélection des paramètres et des configurations des ponts. L'effet de la rugosité de surface sur la réponse dynamique est également étudié en générant l'algorithme de densité spectrale de puissance (DSP) selon la norme ISO 8608. Les résultats ont montré que les FAD dépendent énormément à la fois du ratio des fréquences véhicule-pont ainsi que de la rugosité de la surface. Au fur et à mesure que le ratio des fréquences véhicule-pont augmente, le FAD augmente de manière significative. Avec un ratio des fréquences véhicule-pont approchant 0,5, le FAD calculé dépasse la valeur du FAD recommandée par le code canadien. Il est à noter que les résultats de cette étude sont limités aux configurations de pont considérées à l'étude, et qu'une étude paramétrique approfondie est nécessaire pour tirer une conclusion générale sur l'applicabilité des valeurs actuelles du FAD pour les ponts légers en aluminium extrudé. / Aluminum is a highly durable material with excellent corrosion resistance that could be an excellent choice either for construction of new bridges or for rehabilitation and replacement of deteriorated bridge decks. Extruded aluminum deck-on-steel girder bridges offer promising solution to the aging bridge infrastructure problem. Aluminum as a structural material is also known for its lightweight, which facilitates transportation and installation, and reduces foundation requirements. However, this characteristic makes it sensitive to excitations from vehicular traffic. The dynamic design of highway bridges by the Canadian Highway Bridge Design Code (CSA S6-19) is based on the concept of equivalent dynamic amplification factors (DAF). However, these factors were derived largely for bridges made with traditional materials such as concrete, wood and steel. It is prudent to evaluate whether these factors are applicable to lightweight bridges made with extruded aluminum decks. In addition, since road roughness plays an important role in the dynamic behavior of a bridge, it is important to consider the influence of roughness on the bridge vibration response. The objective of this research is to investigate the dynamic behavior of aluminum deck-on-steel girder bridges under vehicular loads considering the effect of road roughness, and consequently evaluate the applicability of the current design DAFs for such structures. For this purpose, numerical models were developed in Abaqus for a selected bridge configuration and loading parameters. The effect of road roughness on dynamic response is also investigated by generating the power spectral density (PSD) algorithm according to ISO 8608. Results showed that the DAF strongly depend on both the vehicle-bridge frequency ratio and the road roughness. As the vehicle-to-bridge frequency ratio increases, the DAF rises significantly. With a vehicle-to-bridge frequency ratio approaching 0.5, the calculated DAF exceeds the DAF value recommended by the Canadian code. It is noted that results of this study are limited to the bridge configurations considered in the study, and extensive parametric study is required to draw a general conclusion about the applicability of the current DAF values for lightweight extruded aluminum bridges.
|
68 |
Personalizing business networksPoulin, Marc 16 April 2018 (has links)
Depuis quelques décennies, plusieurs compagnies manufacturières font face à la compétition intense due à l'importation. Même en adoptant de nouvelles technologies et processus, les économies en main-d'oeuvre dans les pays émergeants, sont difficiles, sinon impossibles à rivaliser. Une piste prometteuse pour la compétitivité est d'offrir des produits et services personnalisés. La première contribution de la thèse est un modèle de personnalisation à huit niveaux. Dans ce modèle, les manufacturiers offrent aux marchés une combinaison d'options des produits, des délais de livraison, des niveaux de service et des prix. Des manufacturiers voulant présenter des offres personnalisées doivent en analyser l'implication sur leurs processus d'affaires. La deuxième contribution de la thèse indique les impacts que chaque type d'offre personnalisée engendre aux processus clefs d'affaires, soit le marketing, la production ou l'approvisionnement. Une fois que les stratégies de personnalisation sont déterminées, le défi est de planifier les besoins en ressources pour supporter les offres personnalisées. La dernière contribution est une méthodologie qui s'adresse à cette problématique. La méthodologie consiste en un heuristique à deux niveaux appuyés sur la simulation du type Monte-Carlo. Le niveau supérieur considère la chaîne de valeurs en entier et des variables au niveau du réseau sont déterminées. Le niveau inférieur configure les ressources pour chaque centre du réseau. Ceci est accompli en simulant simultanément, des plans de production qui satisfont des profils de demande stochastique. L'approche est incorporée dans un logiciel expérimental qui permet à l'utilisateur de modéliser un réseau de centres, leurs offres personnalisées et leurs marchés, afin de trouver une solution dans un temps rapide. La méthodologie est illustrée par un cas dans l'industrie de fabrication de bâtons de golf et les offres permettent de refléter la complexité de la personnalisation.
|
69 |
Cadre décisionnel basé sur la simulation et l'optimisation pour résoudre le problème générique de la recherche de la meilleure combinaison de scénarios : applications pour la prise de décisions complexesWéry, Jean 16 July 2024 (has links)
Lorsque le temps est manquant, la simulation-optimisation est une méthode très utilisée pour déterminer le « meilleur » scénario possible. En contexte manufacturier, on peut vouloir déterminer les paramètres de production qui vont maximiser la productivité d'une ligne de production. Le nombre de scénarios possibles (représentant différentes configurations possibles de la ligne) étant souvent très grand, tous les scénarios ne peuvent être simulés. La simulation-optimisation permet de trouver un « bon » scénario, i.e. le scénario donnant les meilleurs résultats par rapport à des critères définis (ici, la productivité) dans un contexte où le temps ne permet pas de simuler toutes les possibilités. Dans le cas où l'on cherche à déterminer la productivité combinée de plusieurs lignes de production, on cherche alors plusieurs scénarios qui, conjointement, vont maximiser ce critère, i.e. la « meilleure combinaison » de scénarios. Or, lorsqu'on recherche le meilleur ensemble de scénarios et non le meilleur scénario, les méthodes classiques s'appliquent difficilement. À notre connaissance, le problème de la recherche de la meilleure combinaison de scénarios n'a pas été introduit formellement dans la littérature. Cette thèse propose une définition formelle de ce problème et un cadre pour le résoudre. Le cadre proposé utilise la simulation dans le but d'évaluer des scénarios. L'optimisation est ensuite utilisée pour déterminer la meilleure combinaison de scénarios. Le nombre de scénarios à simuler est tel qu'il n'est pas possible de tous les évaluer. Nous proposons aussi d'utiliser certaines méthodes de recherche dans les arbres, issues de la programmation par contraintes pour déterminer quels scénarios devraient être évalués en premier. La pertinence du cadre est démontrée par son application à travers plusieurs problèmes industriels. La première application s'attarde à résoudre des problèmes de planification tactique liés à l'industrie du bois d'œuvre nord-américaine. Cette dernière fabrique presque exclusivement des produits de commodité (c'est-à-dire des produits aux dimensions et propriétés standards destinés à la construction). Il arrive que certains clients veuillent aussi des produits avec des caractéristiques spécifiques. Le contexte manufacturier actuel ne permet pas au scieur de connaître le panier de produits global qui découlera de l'introduction d'un nouveau produit. En effet, du fait de la divergence des flux et de la co-production associées à la transformation de la matière première en scierie, l'ajout d'un autre produit à fabriquer entraîne des répercussions sur l'ensemble du panier de produits. Nous proposons donc d'utiliser le cadre pour intégrer à la planification tactique la demande pour des produits spécifiques jamais fabriqués auparavant. Le cadre utilise un simulateur de débitage de billes couplé à un modèle de planification pour réaliser un plan. Ce dernier permet au décideur d'évaluer quelles demandes pour des produits sur mesure devraient être acceptées, quoi produire et quand, ainsi que les paramètres de l'équipement à utiliser et la matière première à acheter/consommer à chaque période. La seconde application du cadre présentée dans cette thèse a pour but d'améliorer les décisions prises par un système de découpe de bois de plancher soumis à de fortes contraintes de production. La découpe d'un ensemble d'images de planches provenant de productions passées est simulée pour différentes configurations du système. Une base de données caractérisant la production attendue pour chaque configuration est ainsi générée. Le simulateur est le système réel utilisé « hors-ligne ». À partir des informations obtenues, nous établissons ensuite un horaire de production en utilisant un modèle d'optimisation linéaire maximisant la valeur attendue de la production. L'horaire permet de définir comment configurer le système de découpe tout au long de la production. Le cadre peut aussi être appliqué pour résoudre d'autres problèmes du même type comme, par exemple, pour la conception d'usines en réseau dans une chaîne logistique. Enfin, pour illustrer et vérifier la pertinence de l'utilisation de certaines méthodes de recherche dans les arbres pour déterminer l'ordre d'évaluation des scénarios, la démarche est appliquée au problème de découpe de bois de plancher mentionné préalablement. L'étude réalisée montre que les méthodes issues de la programmation par contraintes pourraient se révéler efficaces pour résoudre ce type de problèmes. En effet, la méthode Limited Discrepancy Search (LDS) obtient des résultats très semblables à une heuristique spécialement élaborée pour le cas étudié. Or LDS est une méthode générique et pourrait s'appliquer à d'autres cas.
|
70 |
Modélisation des pertes de charge en biofiltrationPerron, Jean-Michel 13 December 2023 (has links)
Titre de l'écran-titre (visionné le 5 juin 2023) / Les procédés d'épuration par biofiltration sont très compacts et très performants pour assurer le traitement du carbone et de l'azote. Pour conserver de bonnes performances épuratoires, les biofiltres doivent être lavés régulièrement. Le déclenchement des lavages est dicté par la perte de charge à l'intérieur du biofiltre. Cette dernière augmente durant un cycle de filtration et lorsqu'elle dépasse un seuil fixé, un lavage est déclenché. Une bonne planification du lavage des biofiltres est essentielle pour réduire les risques de débordement d'eau usée lors de fortes précipitations, pour réduire le risque de colmatage et pour réduire les coûts d'opération. Les modèles de biofiltration actuels simulent avec précision et robustesse la qualité d'eau (Vigne 2007; Bernier 2014; Zhu 2020), mais simulent difficilement le comportement des pertes de charge sur plusieurs mois. Ce projet de recherche compare le comportement des pertes de charge simulées à partir de trois sous-modèles (Carman 1937; Ergun 1952; Bernier 2014) de perte de charge. Les modèles de perte de charge de Carman (1937) et d'Ergun (1952) sont considérés, dans le cadre de ce projet de recherche, comme des simplifications du modèle de Bernier (2014). Les deux sous-modèles simplifiés ont été intégrés au modèle de biofiltration de Bernier (2014). Ils ont été calibrés et validés en suivant le protocole de Vigne (2007) et de Rittmann et collab. (2018) avec des jeux de données de l'étage de post-dénitrification sur méthanol de Seine-Centre, une des stations d'épuration de l'agglomération parisienne. Les jeux de données regroupent des mesures horaires du débit, des NOx et des pressions ainsi que des mesures récoltées sur des échantillons composites journaliers (DCO, DBO₅ PO₄³⁻, MES et NH₄⁺). Mis à part pour la densité sèche du biofilm et pour la porosité du média, la calibration des trois modèles est identique. Le sous-modèle de perte de charge de Bernier (2014) est calibré avec une densité sèche de biofilm de 100 kg[indice MES]/m³ et avec une porosité du média de 0.34 alors que les sous-modèles d'Ergun (1952) et de Carman (1937) sont calibrés avec une densité sèche de biofilm de 47 kg[indice MES]/m³ et avec une porosité du média de 0.3. Malgré cette différence, les trois sous-modèles simulent précisément la perte de charge, avec une erreur moyenne de 0.1 mètre d'eau. Durant la validation, les trois sous-modèles calibrés simulent avec précision la perte de charge initiale, mais sous-estiment l'encrassement du biofiltre avec une erreur moyenne de 0.4 mètre d'eau. Les erreurs des simulations d'encrassement durant la validation du modèle peuvent être diminuées en modifiant uniquement la densité sèche du biofilm dans les trois sous-modèles (de 100 à 80 kg[indice MES]/m³ dans le modèle de Bernier (2014) et de 47 à 39 kg[indice MES]/m³ pour les autres). Une fois bien calibrés, les trois calculs offrent des précisions similaires, mais ils ont les mêmes problèmes de robustesse durant la validation. Même si les biofiltres dénitrifiants sont l'une des configurations les plus simples pour modéliser l'encrassement des biofiltres et même si Bernier (2014) a proposé un des modèles de biofiltration les plus performants, les modèles actuels ont un problème de robustesse. Les trois sous-modèles de perte de charge comparés simulent avec précision l'encrassement sur quelques semaines, mais ils ont tous besoin d'être recalibrés pour simuler l'encrassement sur plusieurs mois. La littérature disponible met l'accent sur l'équation de perte de charge pour améliorer les sous-modèles de perte de charge, mais cette recherche montre que le problème de robustesse est lié à l'hypothèse d'un biofilm avec une densité constante. La prochaine étape pour améliorer les modèles de perte de charge sera de modéliser comment la densité du biofilm change dans le temps et selon les conditions d'opérations. Un modèle de biofilm à densité variable pourrait être lié aux substances polymériques extracellulaires (EPS). Le Bihan et Lessard (2000) ont montré qu'une production excessive des EPS dans le biofilm induit un encrassement prématuré des biofiltres et Pechaud et collab. (2012) a corrélé la présence d'EPS avec les propriétés physiques du biofilm. / Biofilters are very compact processes and very efficient for carbon and nitrogen removal. To maintain their treatment capacity, biofilters needs to be regularly backwashed. Generally, theses backwashes are triggered when a maximum headloss through the filter is reached. A good planning of these backwash events is fundamental to avoid a bypass of untreated wastewater during storm events, to avoid permanent clogging of the filter and to minimise operational costs. Mathematical models are an essential tool to improve treatment process performance. Actual biofiltration models can simulate with reliability and robustness effluent water quality (Vigne 2007; Zhu 2020) but have difficulties to simulate headloss behaviour (Bernier, 2014). This paper explores possibilities to improve clogging predictions in biofiltration models by using data from a full-scale biofilter train operated by SIAAP in Paris region, France. The behaviour of three traditional headloss models were compared and analysed to evaluate the importance of different submodels: Carman (1937), Ergun (1952) and Bernier (2014). Datasets were collected at the denitrification biofiltration process from Seine-Centre, one of the Paris WWTPs. Flowrate, methanol injection rate, nitrate and pressure were measured on an hourly basis and composite samples were collected on a daily basis and analysed for COD, BOD₅, PO₄⁺, TSS and NH₄⁺ at both influent and effluent of the biofilter. The database gathers data from July to November 2020. The model used to simulate post-denitrification process proposed by Bernier (2014) is the more complex one, the two others being considered simplification of Bernier's. The three models were calibrated and validated following the biofilm model calibration guidelines of Vigne (2007) and Rittmann et collab. (2018). It is the first time that the most common headloss equations are compared and successively implemented in a biofiltration model. Except for the biofilm density and the initial media porosity, the models fit to the dataset are almost identical for each of the clogging sub-models. Bernier (2014) sub-model is calibrated with a biofilm density of 100kg[subscript TSS]/m³ and a media initial porosity of 0.34 whereas Ergun (1952) and Carman (1937) equation are calibrated with a biofilm density of 47 kg[subscript TSS]/m³ and a media initial porosity of 0.3. Despite this difference, they can precisely simulate the clogging with a mean error (ME) around 0.1 meter of water. Each sub-model can simulate precisely headloss when properly calibrate, but fails to simulate the reversible clogging process of validation datasets from different season. Each sub-model underestimates the clogging by an average of 0.4 meter of water. However, these validation problems can easily be fixed by reducing the biofilm density in the models (from 100 to 80 kg[subscript TSS]/m³ for the Bernier (2014) model and from 47 to 39 kg[subscript TSS]/m³ for the other models). Each clogging submodel has the same robustness problem: they can simulate clogging when properly calibrated, but fail to fit an independent dataset. The robustness problem appears to be related to the biofilm density. It is the only parameter that has to be changed to fit a different dataset. Even if post-denitrification biofilters are among the simplest configuration to model clogging and even if Bernier (2014) proposed one of the most comprehensive biofiltration model, the actual clogging sub-models still fails to simulate a validation dataset. This research project has not improved actual clogging sub-model, but it clearly points out what has to be done to improve them. The litterature focuses on the headloss equation itself to improve the model, but this research shows that actual robustness problems are probably caused by the assumption that biofilm density is constant. Past research on the modelling of biofilter clogging focused on the headloss equation itself. The study of three headloss submodels showed a similar model performance in terms of fit, while having the same robustness problem under validation. A model based on a biofilm with fixed density can properly simulate a month of operation but biofilm density seem to change over several months and it is thus important to consider whether the purpose of the model is to simulate biofilter operation for a longer period. At this moment, these sub-models seem unable to properly simulate a new dataset without changing the biofilm density. The next steps to improve headloss simulation will be to identify how biofilm density changes over time and what drives these changes. The answer could be related with Extracellular Polymeric Substance (EPS). Le Bihan et Lessard (2000) shows that excessive EPS production in the biofilm leads to premature clogging of biofilter and Pechaud et collab. (2012) correlates EPS with physical property of biofilm.
|
Page generated in 0.0952 seconds