• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 587
  • 185
  • 3
  • Tagged with
  • 777
  • 777
  • 489
  • 237
  • 106
  • 100
  • 97
  • 91
  • 90
  • 85
  • 83
  • 78
  • 73
  • 63
  • 62
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
241

Heat recovery systems in underground mine ventilation systems and novel mine cooling systems

Dello Sbarba, Hugo 18 April 2018 (has links)
L’exploitation minière souterraine dans les régions froides du monde nécessite le chauffage de l’air frais de ventilation et des bâtiments de surface. L’air vicié est habituellement rejeté dans l'atmosphère à des températures beaucoup plus élevées que l'air ambiant. Un logiciel informatique a été développé afin d'évaluer la faisabilité de récupérer la chaleur de l'air vicié des mines. Le logiciel estime la quantité de chaleur d’air vicié récupérable dans une mine souterraine. Il déterminera ensuite les économies annuelles potentiels d'énergie et un coût capital du système pour obtenir le retour sur l’investissement initial. Le logiciel considère un circuit de glycol en boucle fermée avec des échangeurs de chaleur à tubes et ailettes situées à l'extrémité des installations de ventilations à la surface (à l’entrée et l’échappement d’air). Différents concepts des systèmes de récupération de chaleur sont énoncés. La plupart des sources de chaleurs habituelles trouvées sur un site minier sont répertoriés. Quelques concepts innovateurs qui exploitent le froid de l'hiver comme un atout pour refroidir l'air d'entrée sont exposés. Mots clés : Sources de chaleurs, air vicié, récupération de chaleur, faisabilité, chauffage, refroidissement / Underground mining in cold regions of the world requires heating of surface buildings and intake fresh air. Exhaust return air is usually discharged to the atmosphere at much higher temperatures than the ambient air. A computer software application has been developed in order to evaluate the feasibility of recovering heat from return exhaust air. The software approximates the amount of heat that can be recovered on surface from the exhaust ventilation shaft of an underground mine. It will then determine the annual energy cost savings and a capital cost of the system. This software considers a closed-loop glycol circuit with tube and fins heat exchangers located at the extremity of the exhaust and intake shaft surface installations. Different concepts of the heat recovery system are as well described. Most common heat sources that can be found on mine sites are listed. Several innovative designs that exploit cold winter weather as an asset to cool mine intake air are explained. Key words: heat sources, return air, heat recovery, feasibility, heating, cooling
242

Modélisation semi-analytique dynamique d'un actionneur THUNDER utilisé en isolation vibratoire

St-Amand, Olivier 18 April 2018 (has links)
Ce présent ouvrage s'intéresse à la quantification de l'impact de différents paramètres sur les performances en isolation vibratoire d'un actionneur piézoélectrique THUNDER. Une récapitulation des travaux de recherche dans le domaine est tout d'abord proposée. Plus spécifiquement, la modélisation et le procédé de fabrication de l'actionneur sont décrits. Un modèle semi-analytique Rayleigh-Ritz à une base de décomposition par champ de déplacements, résolu à l'aide de MATLAB, est alors conçu. Pour ce faire, l'énergie potentielle et l'énergie cinétique totale du système sont déterminées en posant l'hypothèse de Kirchhoff pour un composite. Le modèle est par la suite validé à l'aide d'un modèle éléments finis Abaqus. Il est alors constaté qu'il est difficile de représenter les discontinuités associées à l'extension métallique de l'actionneur à l'aide d'une unique base de décomposition. Un modèle à trois bases de décomposition par champ de déplacements, résolu à l'aide du logiciel MAPLE, est donc conçu et validé à l'aide du modèle éléments finis précédemment considéré. Finalement, une quantification de l'impact de différents paramètres tels que la longueur de l'extension métallique, les conditions limites et le rayon de courbure sur le comportement fréquentiel d'un THUNDER est proposée. Il est observé qu'à l'aide du modèle Rayleigh-Ritz, il est possible d'optimiser les performances en isolation vibratoire de l'actionneur.
243

Modélisation par éléments finis du transport électrochimique des espèces ioniques dans une cuve Hall-Héroult

Gagnon, Frédérick 18 April 2018 (has links)
La présente thèse présente le développement d'un premier modèle d'électrode poreuse pour une cathode Hall-Héroult ainsi que le développement de nouvelles méthodes numériques. Les nouvelles méthodes numériques sont l'implantation du critère d'électroneutralité par contrainte de type multiplicateur de Lagrange ainsi que l'application d'un équilibre thermodynamique ionique par la méthode de pénalisation. Une revue des divers processus physico-chimiques associés à la cathode est présentée. Le modèle d'électrode poreuse est développé avec une formulation ionique pour le bain comportant cinq espèces. Le modèle est développé avec une méthode d'homogénéisation pour le volume poreux. Les lois de transport sont formulées en fonction des concentrations ioniques. Les concentrations ioniques d'équilibre ont été calculées par un modèle thermodynamique simple formulé selon des données thermodynamiques empiriques. Le modèle prend en compte la migration, la diffusion et la convection des espèces ioniques. Les divers paramètres de transport ont été calés avec des mesures empiriques de conductivité conjointement aux concentrations ioniques d'équilibre. Le modèle prend en compte la réaction électrochimique de production d'aluminium au niveau des pores du carbone. De plus, un équilibre ionique est imposé entre certaines espèces. La méthode par éléments finis a été utilisée pour effectuer les calculs numériques. De nouvelles méthodes numériques d'implantation du critère d'électroneutralité et d'un équilibre ionique sont présentées. Les méthodes ont été utilisées avec succès et permettent d'éviter d'éliminer une équation de conservation. La méthode de pénalisation s'est avérée comparable aux méthodes d'élimination par le biais d'un terme source mais les résultats sont partiellement différents du modèle principal procédant par élimination d'équations de conservation. Certaines méthodes par élimination négligent en partie la contribution au transport provenant des termes associés aux équations de conservation éliminées. Par la suite, des résultats de simulation du début de l'électrolyse sont montrés. Le modèle donne des résultats conformes aux ordres de grandeur des mesures expérimentales.
244

Utilisation de la gestion des connaissances pour le développement d'un modèle d'optimisation de la planification des approvisionnements forestiers

Tilouche, Shaima 20 April 2018 (has links)
La planification des opérations forestières est une tâche complexe. Elle nécessite la prise en compte de plusieurs facteurs et la collaboration des différents intervenants. Plusieurs modèles d’optimisation mathématiques ont été développés pour soutenir les entreprises forestières dans leur processus de prise de décisions. Bien que bénéfiques et utiles, ces modèles demeurent peu implantés dans la pratique. La planification est, généralement, faite d'une manière intuitive basée sur les connaissances et l'expérience des intervenants. Cela amène à supposer que ces modèles ne prennent pas pleinement en considération certains facteurs importants comme la qualité des données et des informations ainsi que leurs disponibilités. Par ailleurs, la gestion des connaissances a été proposée comme assise pour améliorer la performance du processus de planification. En effet, elle permet à l'entreprise de mieux tirer profit des données disponibles pour la planification. L'objectif de ce projet est d'aider les entreprises forestières à intégrer les modèles mathématiques dans leur processus de prise de décisions pour améliorer la qualité des décisions prises. Il s'agit, en effet, de développer un modèle mathématique qui reflète le processus de planification des approvisionnements et qui couvre les besoins d'une entreprise forestière québécoise. Un second objectif consiste à mesurer l'impact d'une meilleure connaissance (précision) des inventaires forestiers sur la qualité des décisions. Une comparaison entre deux modèles d’optimisation existants et une cartographie du processus de planification d’une entreprise forestière Québécoise a été réalisée. Sur la base de cette comparaison, un modèle d'optimisation adapté a été développé. Par la suite, le modèle a été utilisé pour simuler l'impact d'une meilleure précision des inventaires forestiers sur le profit de l’entreprise partenaire. Des taux d’imprécision de 5%, 10%, 20% et 30% ont été évalués et comparés au cas où les données précises étaient connues dès le départ plutôt qu’en cours d’opérations. Les résultats de la comparaison des modèles mathématique avec les cartographies de gestion des connaissances ont démontré plusieurs écarts. Ceci a permis d'obtenir les composantes du modèle mathématique développé qui reflète le processus industriel de planification des approvisionnements. Finalement, les résultats de l’expérimentation indiquent qu’une amélioration de la précision des inventaires de 30% résulterait en une augmentation du profit de 7%. / Wood procurement planning is a complex activity that requires collaboration between various actors. There have been several mathematical models formulated to help practitioners in the decision making process. But, only a few of these models are actually applied in practice. Planning is still done manually, based on experience and the sum of several individuals’ knowledge within the procurement department. One possible reason is that most models do not account for important factors related to data quality, information availability, and knowledge sharing within forest companies. Knowledge management has been proposed as a way to improve the performance of the planning process. Indeed, it enables companies to understand the information and knowledge required for planning. The objective of this project is to help forestry companies integrate optimization models to improve the planning process and the decisions quality. In fact, we aim to develop a mathematical model that depicts the industrial planning process. Finally, we want to determine the impact of better knowledge on planning decisions quality. First, a comparison between two existing mathematical models and the industrial process of a specific forestry company represented by Knowledge management mapping was done. Then, through this comparison, we developed a new mathematical model for procurement planning. Finally, this model has been used to evaluate the profit of improving the accuracy of the forestry inventory data. In order to do so, we compared the plan developed using accurate inventory data (obtained from the beginning of the planning horizon) with the plan adjusted monthly based on the accurate data. The comparison of the models with the industrials process showed that the gap between them is important. The differences measured were used in the development of the new mathematical model. This model reflects the industrial process. It has been used to determine the profit of a better accuracy inventory data. We found an important profit increase equal to 7% through improving the accuracy inventory data of 30%.
245

Modélisation de la pénétration des chlorures dans les stationnements multiétagés

Perreault-Chabot, Joëlle 16 April 2018 (has links)
La corrosion des armatures, provoquée par la pénétration des chlorures, est une des causes principales de la dégradation des structures de béton armé en Amérique du Nord. La prédiction de la pénétration de ces ions dans le béton par un modèle numérique permettra, à terme, de planifier et quantifier correctement les interventions à réaliser sur une structure dégradée ou vieillissante. Plusieurs facteurs, telles que la température et l’humidité relative de l’air, ont un effet marqué sur le mouvement des ions chlorures à l’intérieur du béton. Leurs effets, de même que le degré réel d’exposition des structures aux chlorures, sont encore mals compris. Ce projet de recherche a comme objectif d’évaluer l’influence des conditions extérieures auxquelles les structures sont soumises sur l’intensité et la vitesse de pénétration des ions chlorures dans le béton. Il a aussi pour but la validation du modèle par éléments finis STADIUM® sous ces nouvelles conditions limites. L’effet de la température, de la variation de l’humidité relative de l’air et de l’application de certains types de protection du béton ont été mesurés en laboratoire par des profils de pénétration des chlorures dans le béton. Des simulations numériques ont été réalisées en imposant les mêmes conditions d’exposition que celles étudiées. La comparaison des résultats expérimentaux et numériques ont permis de constater la précision du modèle à prédire les concentrations en chlorures au niveau des armatures. Un volet in situ a porté sur les conditions d’exposition de structures de stationnements multiétagés en service. La température et l’humidité relative de l’air à l’intérieur des ouvrages ont été mesurées. Bien que la quantité de sels apportée par les voitures sur les dalles des stationnements soit une donnée inconnue, les concentrations en chlorures présentes dans les différentes phases de l’eau à la surface du béton ont été mesurées régulièrement pendant trois hivers. La variabilité et l’intensité des résultats obtenus offrent une vision unique et nouvelle des conditions d’exposition réelles des stationnements multiétagés. / The corrosion of steel in reinforced concrete by the penetration of chlorides is one of the primary causes of concrete degradation in North America. The prediction of chloride ingress in concrete by numerical modeling will lead to better planning and evaluation of the repair and maintenance needs of degrading and aging structures. Several factors, such as air temperature and relative humidity, affect the movement of chloride ions inside concrete. Their effects and the real exposure conditions of structures to chlorides are still not well understood. The goal of this research project is to evaluate the influence of the exposure conditions of structures on the penetration of chloride ions. The objective is also to validate the finite element model STADIUM® under the new exposure conditions. The effect of temperature, variation of air’s relative humidity and application of certain types of protection on concrete surfaces were measured by chloride profiles in laboratory. Numerical simulations were conducted, imposing similar exposure conditions to those studied. The comparison between experimental and numerical results shows the precision level of the model in predicting the chloride concentration at rebar level. The in situ part of the program concentred on exposure conditions of in service multistage parking structures. The air temperature and the relative humidity inside the structures were measured. The amount of salt brought by cars on the parking’s slabs is unknown, however, chloride concentrations in the various phases of water present at the surface of the concrete have been measured regularly during three winters. The variability and intensity of the results obtained offer a unique and new vision of real exposure conditions of multistage parking structures.
246

Modélisation du chablis en pessières régulières et irrégulières : effet de la diversité structurale des pessières noires boréales sur la résistance et la susceptibilité au chablis

Bergeron, Carl 13 April 2018 (has links)
Des travaux ont permis d’évaluer la résistance et la susceptibilité au chablis de l’épinette noire (Picea mariana (Mill.) B.S.P.) en structure régulière et irrégulière. Des expériences de treuillage ont permis d’évaluer le moment de force critique afin de quantifier la résistance des arbres au renversement et au bris de tige. Différents modèles ont été ajustés aux données. Le moment de force critique est fonction de la masse de la tige dans tous le cas et influencée par la structure ou les ratios hauteur : diamètre dans certains cas. Ces résultats sur la résistance, de même que la modélisation de la cime et plusieurs autres ajustements, furent intégrés dans le modèle ForestGALES afin de quantifier la susceptibilité au chablis. La susceptibilité apparaît fort variable entre et au sein de chaque type de structure, mais l’espacement et le rapport hauteur : diamètre expliquent la majeure partie de la variabilité observée. / Works aimed to evaluate windthrow resistance and susceptibility for black spruce (Picea mariana (Mill.) B.S.P.) stands of regular and irregular structure are presented here. Performed tree pulling works permitted to evaluate the critical bending moment in order to quantify the resistance of trees to overturning and stem breakage. Different models where fitted to the data. The critical bending moment is function of stem weight in all cases and influenced by the structure type or the height:diameter ratio in some cases. These results on mechanical resistance, along with crown modelling results and other adjustments, were used in an adaptation of the ForestGALES model in order to quantify windthrow susceptibility. Susceptibility appears to be quite variable between compared stands, both between and within structure types, but average tree spacing and height:diameter ratio explain most of the observed variability.
247

A contribution to the evaluation and optimization of networks reliability

Rebaiaia, Mohamed-Larbi 18 April 2018 (has links)
L’évaluation de la fiabilité des réseaux est un problème combinatoire très complexe qui nécessite des moyens de calcul très puissants. Plusieurs méthodes ont été proposées dans la littérature pour apporter des solutions. Certaines ont été programmées dont notamment les méthodes d’énumération des ensembles minimaux et la factorisation, et d’autres sont restées à l’état de simples théories. Cette thèse traite le cas de l’évaluation et l’optimisation de la fiabilité des réseaux. Plusieurs problèmes ont été abordés dont notamment la mise au point d’une méthodologie pour la modélisation des réseaux en vue de l’évaluation de leur fiabilités. Cette méthodologie a été validée dans le cadre d’un réseau de radio communication étendu implanté récemment pour couvrir les besoins de toute la province québécoise. Plusieurs algorithmes ont aussi été établis pour générer les chemins et les coupes minimales pour un réseau donné. La génération des chemins et des coupes constitue une contribution importante dans le processus d’évaluation et d’optimisation de la fiabilité. Ces algorithmes ont permis de traiter de manière rapide et efficace plusieurs réseaux tests ainsi que le réseau de radio communication provincial. Ils ont été par la suite exploités pour évaluer la fiabilité grâce à une méthode basée sur les diagrammes de décision binaire. Plusieurs contributions théoriques ont aussi permis de mettre en place une solution exacte de la fiabilité des réseaux stochastiques imparfaits dans le cadre des méthodes de factorisation. A partir de cette recherche plusieurs outils ont été programmés pour évaluer et optimiser la fiabilité des réseaux. Les résultats obtenus montrent clairement un gain significatif en temps d’exécution et en espace de mémoire utilisé par rapport à beaucoup d’autres implémentations. Mots-clés: Fiabilité, réseaux, optimisation, diagrammes de décision binaire, ensembles des chemins et coupes minimales, algorithmes, indicateur de Birnbaum, systèmes de radio télécommunication, programmes. / Efficient computation of systems reliability is required in many sensitive networks. Despite the increased efficiency of computers and the proliferation of algorithms, the problem of finding good and quickly solutions in the case of large systems remains open. Recently, efficient computation techniques have been recognized as significant advances to solve the problem during a reasonable period of time. However, they are applicable to a special category of networks and more efforts still necessary to generalize a unified method giving exact solution. Assessing the reliability of networks is a very complex combinatorial problem which requires powerful computing resources. Several methods have been proposed in the literature. Some have been implemented including minimal sets enumeration and factoring methods, and others remained as simple theories. This thesis treats the case of networks reliability evaluation and optimization. Several issues were discussed including the development of a methodology for modeling networks and evaluating their reliabilities. This methodology was validated as part of a radio communication network project. In this work, some algorithms have been developed to generate minimal paths and cuts for a given network. The generation of paths and cuts is an important contribution in the process of networks reliability and optimization. These algorithms have been subsequently used to assess reliability by a method based on binary decision diagrams. Several theoretical contributions have been proposed and helped to establish an exact solution of the stochastic networks reliability in which edges and nodes are subject to failure using factoring decomposition theorem. From this research activity, several tools have been implemented and results clearly show a significant gain in time execution and memory space used by comparison to many other implementations. Key-words: Reliability, Networks, optimization, binary decision diagrams, minimal paths set and cuts set, algorithms, Birnbaum performance index, Networks, radio-telecommunication systems, programs.
248

Optimisation du rendement d'une turbine multi-ailes à l'aide d'une méthode lagrangienne par particules vortex

Lefrançois, Julie 17 April 2018 (has links)
Tableau d’honneur de la Faculté des études supérieures et postdoctorales, 2008-2009 / La première partie de ce mémoire de maîtrise concerne principalement la validation d'une méthode de calcul des forces et moment instationnaires sur des corps mobiles dans une méthode lagrangienne par particules vortex. La méthodologie développée ne requiert pas la pression, une variable qui n'est plus disponible directement dans notre algorithme lagrangien. La seconde partie vise l'optimisation de systèmes de deux ailes oscillantes à l'aide de simulations numériques en deux dimensions. Les ailes oscillantes considérées effectuent un mouvement de pilonnement (translation transverse) et de tangage (rotation) dans un écoulement pour en soutirer de l'énergie. Dans la configuration en tandem, pour laquelle les ailes sont une derrière l'autre, le positionnement de l'aile arrière influence grandement l'efficacité, qui peut atteindre 40% avec un placement adéquat. Dans la configuration en parallèle, pour laquelle les ailes sont une au-dessus de l'autre, les rendements maximaux atteints sont de l'ordre de 30% en raison de l'augmentation intrinsèque de la fenêtre d'écoulement.
249

Evaluation and calibration of the CroBas-PipeQual model for Jack Pine (Pinus banksiana Lamb.) using Bayesian melding : hybridization of a process-based forest growth model with empirical yield curves

Ewen, Stephanie 19 April 2018 (has links)
CroBas-PipeQual a été élaboré pour étudier les effets de croissance des arbres sur la qualité du bois. Ainsi, il s’agit d’un modèle d’intérêt pour maximiser la valeur des produits extraits des forêts. Nous avons évalué qualitativement une version de CroBas-PipeQual calibrée pour le pin gris (Pinus banksiana Lamb.) de façon à vérifier l’intérêt de l’utiliser comme outil de planification forestière. Par la suite, nous avons fait une analyse de sensibilité et une calibration bayesienne à partir d’une table de production utilisée au Québec. Les principales conclusions sont: 1. Les prédictions de hauteur sont les plus sensibles aux intrants et aux paramètres liés à la photosynthèse; 2. La performance de CroBas est améliorée en tenant compte de la relation observée entre deux paramètres utilisés pour estimer la productivité nette et l'indice de qualité de station; et 3. CroBas requiert d’autres améliorations avant de pouvoir être utilisé comme outil de planification. / CroBas-PipeQual is a process-based forest growth model designed to study foliage development and how growth processes relate to changes in wood quality. As such, CroBas-PipeQual is of interest as a component model in a forest level decision support model for value assessment. In this thesis, the version of CroBas-PipeQual calibrated for jack pine (Pinus banksiana Lamb.) in Québec, Canada was qualitatively evaluated for use in forest management decision-making. Then, sensitivity analyses and Bayesian melding were used to create and calibrate a stand-level version of CroBas-PipeQual to local empirical height yield models in a hybrid-modelling approach. Key findings included: 1. Height predictions were most sensitive to input values and to parameters related to net photosynthesis; 2. Model performance was improved by varying two net-productivity parameters with site quality; and 3. Model performance needs further improvement before CroBas-PipeQual can be used as a component of a forest-management decision tool.
250

Modélisation des pertes de charge en biofiltration

Perron, Jean-Michel 14 June 2023 (has links)
Titre de l'écran-titre (visionné le 5 juin 2023) / Les procédés d'épuration par biofiltration sont très compacts et très performants pour assurer le traitement du carbone et de l'azote. Pour conserver de bonnes performances épuratoires, les biofiltres doivent être lavés régulièrement. Le déclenchement des lavages est dicté par la perte de charge à l'intérieur du biofiltre. Cette dernière augmente durant un cycle de filtration et lorsqu'elle dépasse un seuil fixé, un lavage est déclenché. Une bonne planification du lavage des biofiltres est essentielle pour réduire les risques de débordement d'eau usée lors de fortes précipitations, pour réduire le risque de colmatage et pour réduire les coûts d'opération. Les modèles de biofiltration actuels simulent avec précision et robustesse la qualité d'eau (Vigne 2007; Bernier 2014; Zhu 2020), mais simulent difficilement le comportement des pertes de charge sur plusieurs mois. Ce projet de recherche compare le comportement des pertes de charge simulées à partir de trois sous-modèles (Carman 1937; Ergun 1952; Bernier 2014) de perte de charge. Les modèles de perte de charge de Carman (1937) et d'Ergun (1952) sont considérés, dans le cadre de ce projet de recherche, comme des simplifications du modèle de Bernier (2014). Les deux sous-modèles simplifiés ont été intégrés au modèle de biofiltration de Bernier (2014). Ils ont été calibrés et validés en suivant le protocole de Vigne (2007) et de Rittmann et collab. (2018) avec des jeux de données de l'étage de post-dénitrification sur méthanol de Seine-Centre, une des stations d'épuration de l'agglomération parisienne. Les jeux de données regroupent des mesures horaires du débit, des NOx et des pressions ainsi que des mesures récoltées sur des échantillons composites journaliers (DCO, DBO₅ PO₄³⁻, MES et NH₄⁺). Mis à part pour la densité sèche du biofilm et pour la porosité du média, la calibration des trois modèles est identique. Le sous-modèle de perte de charge de Bernier (2014) est calibré avec une densité sèche de biofilm de 100 kg[indice MES]/m³ et avec une porosité du média de 0.34 alors que les sous-modèles d'Ergun (1952) et de Carman (1937) sont calibrés avec une densité sèche de biofilm de 47 kg[indice MES]/m³ et avec une porosité du média de 0.3. Malgré cette différence, les trois sous-modèles simulent précisément la perte de charge, avec une erreur moyenne de 0.1 mètre d'eau. Durant la validation, les trois sous-modèles calibrés simulent avec précision la perte de charge initiale, mais sous-estiment l'encrassement du biofiltre avec une erreur moyenne de 0.4 mètre d'eau. Les erreurs des simulations d'encrassement durant la validation du modèle peuvent être diminuées en modifiant uniquement la densité sèche du biofilm dans les trois sous-modèles (de 100 à 80 kg[indice MES]/m³ dans le modèle de Bernier (2014) et de 47 à 39 kg[indice MES]/m³ pour les autres). Une fois bien calibrés, les trois calculs offrent des précisions similaires, mais ils ont les mêmes problèmes de robustesse durant la validation. Même si les biofiltres dénitrifiants sont l'une des configurations les plus simples pour modéliser l'encrassement des biofiltres et même si Bernier (2014) a proposé un des modèles de biofiltration les plus performants, les modèles actuels ont un problème de robustesse. Les trois sous-modèles de perte de charge comparés simulent avec précision l'encrassement sur quelques semaines, mais ils ont tous besoin d'être recalibrés pour simuler l'encrassement sur plusieurs mois. La littérature disponible met l'accent sur l'équation de perte de charge pour améliorer les sous-modèles de perte de charge, mais cette recherche montre que le problème de robustesse est lié à l'hypothèse d'un biofilm avec une densité constante. La prochaine étape pour améliorer les modèles de perte de charge sera de modéliser comment la densité du biofilm change dans le temps et selon les conditions d'opérations. Un modèle de biofilm à densité variable pourrait être lié aux substances polymériques extracellulaires (EPS). Le Bihan et Lessard (2000) ont montré qu'une production excessive des EPS dans le biofilm induit un encrassement prématuré des biofiltres et Pechaud et collab. (2012) a corrélé la présence d'EPS avec les propriétés physiques du biofilm. / Biofilters are very compact processes and very efficient for carbon and nitrogen removal. To maintain their treatment capacity, biofilters needs to be regularly backwashed. Generally, theses backwashes are triggered when a maximum headloss through the filter is reached. A good planning of these backwash events is fundamental to avoid a bypass of untreated wastewater during storm events, to avoid permanent clogging of the filter and to minimise operational costs. Mathematical models are an essential tool to improve treatment process performance. Actual biofiltration models can simulate with reliability and robustness effluent water quality (Vigne 2007; Zhu 2020) but have difficulties to simulate headloss behaviour (Bernier, 2014). This paper explores possibilities to improve clogging predictions in biofiltration models by using data from a full-scale biofilter train operated by SIAAP in Paris region, France. The behaviour of three traditional headloss models were compared and analysed to evaluate the importance of different submodels: Carman (1937), Ergun (1952) and Bernier (2014). Datasets were collected at the denitrification biofiltration process from Seine-Centre, one of the Paris WWTPs. Flowrate, methanol injection rate, nitrate and pressure were measured on an hourly basis and composite samples were collected on a daily basis and analysed for COD, BOD₅, PO₄⁺, TSS and NH₄⁺ at both influent and effluent of the biofilter. The database gathers data from July to November 2020. The model used to simulate post-denitrification process proposed by Bernier (2014) is the more complex one, the two others being considered simplification of Bernier's. The three models were calibrated and validated following the biofilm model calibration guidelines of Vigne (2007) and Rittmann et collab. (2018). It is the first time that the most common headloss equations are compared and successively implemented in a biofiltration model. Except for the biofilm density and the initial media porosity, the models fit to the dataset are almost identical for each of the clogging sub-models. Bernier (2014) sub-model is calibrated with a biofilm density of 100kg[subscript TSS]/m³ and a media initial porosity of 0.34 whereas Ergun (1952) and Carman (1937) equation are calibrated with a biofilm density of 47 kg[subscript TSS]/m³ and a media initial porosity of 0.3. Despite this difference, they can precisely simulate the clogging with a mean error (ME) around 0.1 meter of water. Each sub-model can simulate precisely headloss when properly calibrate, but fails to simulate the reversible clogging process of validation datasets from different season. Each sub-model underestimates the clogging by an average of 0.4 meter of water. However, these validation problems can easily be fixed by reducing the biofilm density in the models (from 100 to 80 kg[subscript TSS]/m³ for the Bernier (2014) model and from 47 to 39 kg[subscript TSS]/m³ for the other models). Each clogging submodel has the same robustness problem: they can simulate clogging when properly calibrated, but fail to fit an independent dataset. The robustness problem appears to be related to the biofilm density. It is the only parameter that has to be changed to fit a different dataset. Even if post-denitrification biofilters are among the simplest configuration to model clogging and even if Bernier (2014) proposed one of the most comprehensive biofiltration model, the actual clogging sub-models still fails to simulate a validation dataset. This research project has not improved actual clogging sub-model, but it clearly points out what has to be done to improve them. The litterature focuses on the headloss equation itself to improve the model, but this research shows that actual robustness problems are probably caused by the assumption that biofilm density is constant. Past research on the modelling of biofilter clogging focused on the headloss equation itself. The study of three headloss submodels showed a similar model performance in terms of fit, while having the same robustness problem under validation. A model based on a biofilm with fixed density can properly simulate a month of operation but biofilm density seem to change over several months and it is thus important to consider whether the purpose of the model is to simulate biofilter operation for a longer period. At this moment, these sub-models seem unable to properly simulate a new dataset without changing the biofilm density. The next steps to improve headloss simulation will be to identify how biofilm density changes over time and what drives these changes. The answer could be related with Extracellular Polymeric Substance (EPS). Le Bihan et Lessard (2000) shows that excessive EPS production in the biofilm leads to premature clogging of biofilter and Pechaud et collab. (2012) correlates EPS with physical property of biofilm.

Page generated in 0.1717 seconds