• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 76
  • 19
  • 1
  • Tagged with
  • 96
  • 96
  • 50
  • 30
  • 26
  • 22
  • 18
  • 12
  • 9
  • 9
  • 9
  • 8
  • 8
  • 8
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
71

Développement d'outils de simulation numérique pour l'élastodynamique non linéaire : application à l'imagerie acoustique de défauts à l'aide de transducteur à cavité chaotique

Li, Yifeng 09 July 2009 (has links) (PDF)
Dans cette thèse nous proposons de développer un système d'imagerie ultrasonore innovante de micro- défauts basé sur l'utilisation conjointe de techniques d'acoustique non linéaire et du concept de "transducteur à cavité chaotique". Ce transducteur correspond à la combinaison d'une céramique piézoélectrique collée sur une cavité de forme chaotique et du principe de retournement temporel. La faisabilité et les performances de ce nouveau système sont explorées par des simulations numériques. Des paramètres optimaux d'utilisation pour une implémentation expérimentale sont proposés. Une grande partie des travaux menés dans le cadre de cette thèse se concentre sur le développement d'outils numériques permettant l'amélioration de telles techniques d'imagerie. Un schéma d'éléments finis de type Galerkin Discontinu (GD) est étendu à l'élastodynamique non linéaire. Un type de zone absorbante parfaitement adaptée, appelée "Nearly Perfectly Matched Layer" (NPML) a aussi été développé. Dans le cas de matériaux orthotropes, comme des problèmes de stabilité apparaissent, un mélange de NPML et de zone atténuante, dont on contrôle la proportion respective, est introduit afin de stabiliser les NPML. Une validation expérimentale du concept de "transducteur à cavité chaotique" pour la focalisation dans un milieu solide, réverbérant ou non, en utilisant une seule source est réalisée. Les méthodes de retournement temporel et de filtre inverse sont présentées et comparées. La démonstration expérimentale qu'un "transducteur à cavité chaotique" peut être utilisé conjointement avec les méthodes d'inversion d'impulsion afin de réaliser une image de non linéarités localisées est présentée
72

Conditionnement de processus markoviens

Marchand, Jean-Louis 25 June 2012 (has links) (PDF)
Le but de cette thèse est de décrire la loi conditionnelle d'un processus markovien multidimensionnel connaissant la valeur de certaines combinaisons linéaires de ses coordonnées à des instants donnés. La description recherchée consiste à mettre en évidence un processus de même type, facile à simuler, dont la loi est équivalente à la loi conditionnelle ciblée.La classe principalement étudiée est celle des processus à diffusion. Dans un premier temps, des techniques de grossissement de filtration (Jacod 1985) permettent de déterminer les paramètres de l'équation différentielle stochastique vérifiée par le processus conditionnel. Cependant, on s'aperçoit alors que la dérive n'est pas explicite, car celle-ci dépend des densités de transition du processus initial, inconnues en général. Ceci rend impossible,une simulation directe par exemple à l'aide d'un schéma d'Euler. Afin de pallier ce défaut, nous proposons une alternative, dans l'esprit de Delyon et Hu (2006). L'approche consiste à proposer une équation différentielle stochastique de paramètres explicites, dont la solution est de loi équivalente à la loi conditionnelle. Une application en collaboration avec Anne Cuzol et Etienne Mémin de l'INRIA, dans le cadre des écoulements fluides est également présentée. On applique la méthode proposée précédemment à un modèle stochastique inspiré des équations de Navier-Stokes. Enfin, la classe des processus markoviens à sauts est également abordée.
73

Localisation optimale des aires de coupe et du réseau routier lors de la planification des opérations forestières

Rousseau, Denyse. 23 February 2022 (has links)
Ce travail a pour but de présenter une méthode devant faciliter la prise de décisions au niveau de la planification des opérations forestières. Il constitue une approche partielle au développement d'un modèle dynamique d'aménagement forestier, projet mis sur pied par des professeurs de la Faculté de Foresterie et de Géodésie de l'Université Laval en 1973. La méthode de planification proposée tente d'apporter une solution aux problèmes de la localisation des aires de coupe et de l'établissement du réseau routier. Les principaux objectifs poursuivis sont les suivants : - optimisation du réseau routier en fonction de critères économiques, - regroupement des opérations annuelles, - minimisation des fluctuations annuelles relatives au volume récolté, à la superficie traitée et ä la construction de chemin. Les aires de coupe sont localisées de façon à ce que soit respectée la possibilité de coupe déterminée lors de la réalisation du plan d'aménagement. Les diverses contraintes ayant trait à la protection du territoire et à l'aménagement intégré des ressources forestières sont également prises en considération. Voici quelles sont les principales étapes de la méthode proposée : 1) localisation des peuplements pouvant faire l'objet d'intervention pendant la durée du plan d'exploitation et établissement d'un ordre de chaque type de traitement; 2) classification des unités de territoire suivant un ordre de priorité pour la construction de chemins; 3) simulation de réseaux routiers correspondant à diverses distances de débardage; chaque simulation implique les étapes suivantes : - tracé des chemins d'exploitation de façon à desservir les peuplements susceptibles d'être exploités; - choix des aires de traitement annuelles; - tracé définitif des chemins; - définition des classes de qualité de chemin en fonction du volume ligneux transporté; - localisation des jetées et allocation des unités de coupe aux jetées; - calcul des coûts reliés à la construction du réseau routier simulé. La prise de décision finale s'effectue par la comparaison des coûts résultant de chacune des options simulées.
74

Localisation optimale des aires de coupe et du réseau routier lors de la planification des opérations forestières

Rousseau, Denyse. 23 February 2022 (has links)
Ce travail a pour but de présenter une méthode devant faciliter la prise de décisions au niveau de la planification des opérations forestières. Il constitue une approche partielle au développement d'un modèle dynamique d'aménagement forestier, projet mis sur pied par des professeurs de la Faculté de Foresterie et de Géodésie de l'Université Laval en 1973. La méthode de planification proposée tente d'apporter une solution aux problèmes de la localisation des aires de coupe et de l'établissement du réseau routier. Les principaux objectifs poursuivis sont les suivants : - optimisation du réseau routier en fonction de critères économiques, - regroupement des opérations annuelles, - minimisation des fluctuations annuelles relatives au volume récolté, à la superficie traitée et ä la construction de chemin. Les aires de coupe sont localisées de façon à ce que soit respectée la possibilité de coupe déterminée lors de la réalisation du plan d'aménagement. Les diverses contraintes ayant trait à la protection du territoire et à l'aménagement intégré des ressources forestières sont également prises en considération. Voici quelles sont les principales étapes de la méthode proposée : 1) localisation des peuplements pouvant faire l'objet d'intervention pendant la durée du plan d'exploitation et établissement d'un ordre de chaque type de traitement; 2) classification des unités de territoire suivant un ordre de priorité pour la construction de chemins; 3) simulation de réseaux routiers correspondant à diverses distances de débardage; chaque simulation implique les étapes suivantes : - tracé des chemins d'exploitation de façon à desservir les peuplements susceptibles d'être exploités; - choix des aires de traitement annuelles; - tracé définitif des chemins; - définition des classes de qualité de chemin en fonction du volume ligneux transporté; - localisation des jetées et allocation des unités de coupe aux jetées; - calcul des coûts reliés à la construction du réseau routier simulé. La prise de décision finale s'effectue par la comparaison des coûts résultant de chacune des options simulées.
75

Optimization of water distribution systems

Cantu Funes, Roberto 07 June 2024 (has links)
Les systèmes de distribution d'eau (SDE) efficaces sont cruciaux pour les sociétés modernes. Leur fonctionnement nécessite d'importantes quantités d'énergie, avec un impact financier significatif pour les fournisseurs d'eau, généralement les gouvernements. De plus, la conception et la maintenance de ces installations atteignent souvent des millions de dollars. Les méthodes actuelles pour résoudre ces problèmes sont souvent excessivement simplifiées ou ne peuvent résoudre que des réseaux schématiques de petite taille. Cette thèse comprend quatre projets de recherche abordant différentes étapes d'optimisation dans les SDE. Tout d'abord, nous étudions le problème de la planification des pompes pour les SDE, comprenant des pompes fournissant le débit et la pression nécessaires au réseau d'eau pour satisfaire les demandes des consommateurs. En plus de planifier le fonctionnement des pompes sur un horizon temporel donné, plusieurs contraintes liées aux propriétés hydrauliques sont prises en compte, certaines pour la première fois dans la littérature. L'objectif est de fournir un plan de pompage de coût minimum qui satisfait toutes les demandes et respecte de nombreuses contraintes opérationnelles et hydrauliques. Nous proposons une formulation non linéaire et non convexe ainsi qu'une heuristique performante, qui vissent la minimisation des coûts énergétiques. Le comportement hydraulique physique est assuré via un logiciel de simulation hydraulique. Notre méthode a significativement amélioré, jusqu'à 17%, les meilleures solutions pour plusieurs instances de référence, en obtenant des solutions plus rapidement que les méthodes de la littérature. Nos solutions réduisent également la consommation d'énergie pendant les périodes de pointe, lorsque le réseau électrique est le plus sollicité. La deuxième étude touche l'optimisation de la qualité de l'eau dans les systèmes de distribution d'eau. Ici, nous abordons le problème de la planification des pompes contraint par la qualité de l'eau, où en plus de planifier le fonctionnement des pompes et la maintenance du comportement hydraulique, nous devons garantir une qualité d'eau adéquate en gérant l'injection de chlore dans le système sur un horizon temporel d'une journée, avec une injection variable de chlore dans les sources d'eau, les réservoirs et les nœuds d'injection. Cette étude introduit un nouvel ensemble de contraintes pour assurer la continuité de la qualité de l'eau, ce qui permet au plan de fonctionner sur un horizon temporel étendu. Ce travail propose un algorithme génétique de tri non dominé (NSGA-II) pour aborder une adaptation d'un réseau de grande taille issu de la littérature sur le problème de planification des pompes, avec des restrictions ajoutées pour la qualité de l'eau. Cette méthode a significativement amélioré les meilleures solutions de planification des pompes pour le réseau de Florianópolis, au Brésil, jusqu'à 3,74%, tout en assurant une gestion efficace de la qualité de l'eau. La troisième étude porte sur la conception et la maintenance des SDE. En particulier, le problème de conception du réseau de distribution d'eau, qui détermine le meilleur ensemble de conduites pour fournir de l'eau depuis les sources jusqu'aux consommateurs. La formulation générale du problème de conception optimale est très difficile à résoudre : elle nécessite de garder une pression minimale d'eau et de satisfaire les demandes de tous les nœuds tout en respectant des contraintes hydrauliques non linéaires. Cela nécessite des heuristiques complexes ou des simplifications qui réduisent la viabilité des solutions. Nous proposons une heuristique de recherche de voisinage parallèle, axée sur la minimisation des coûts de construction en exploitant deux opérateurs performants et plusieurs critères de réduction de l'espace des solutions. Notre méthode est testée sur plusieurs réseaux de référence, pour lesquelles nous avons obtenu les meilleures solutions de la littérature, tout en réduisant le nombre de simulations hydrauliques requises, offrant un meilleur compromis entre coût et performance. Enfin, notre quatrième recherche aborde la fiabilité lors de la conception de réseaux de distribution d'eau. Cette étude compare deux fonctions de résilience bien connues, qui servent de mesure substitutive de la fiabilité du réseau. Ce problème vise à déterminer le meilleur ensemble de conduites pour fournir la demande en eau avec une pression adéquate tout en minimisant les coûts de construction et en maximisant la fiabilité du réseau. Ensuite, un algorithme génétique multi-objectif est utilisé pour obtenir les fronts de Pareto coût-fiabilité pour chaque fonction. Les résultats des trois réseaux de référence sont ensuite soumis à une analyse comparative à l'aide de quatre tests distincts de fiabilité du réseau, couvrant des scénarios liés à la rupture de conduites, à l'augmentation de la demande, au débit en cas d'incendie et au vieillissement des conduites. En particulier, le test de fiabilité en cas de vieillissement des conduites intègre une fonction de régression conçue pour estimer la dégradation annuelle du coefficient de rugosité de la formule Hazen-Williams pour calculer les pertes de charge. De plus, cette recherche propose également une étude approfondie sur la prise de décision robuste visant à utiliser efficacement les résultats des tests de fiabilité afin de sélectionner une conception fiable pour un réseau de distribution d'eau. Les algorithmes développés dans cette thèse et les solutions que nous obtenons pour ces problèmes difficiles et pertinents sont non seulement importants du point de vue pratique, mais contribuent également à la littérature dans les domaines de l'optimisation et de la distribution d'eau. Les résultats obtenus avec cette thèse ont le potentiel de générer des économies de milliers de dollars pour les municipalités à court terme et de contribuer au développement durable à long terme. / Efficient Water Distribution Systems (WDS) are crucial for modern society. Their operation requires large amounts of energy with significant financial impact for the utility providers, typically governments. Moreover, the design and maintenance of these facilities often reach the scale of millions of dollars. Existing solution methods for these problems are often over-simplified or can only solve very small schematic networks. This thesis comprises four research projects addressing different optimization stages arising in WDS problems. First, we study the pumping scheduling problem for WDS, consisting of pumps providing the flow and pressure for the water network to satisfy consumers' demands. Besides scheduling the operation of pumps over a planning horizon, several constraints regarding hydraulic properties are considered, some for the first time in the literature. The goal is to provide a pumping plan of minimum cost that satisfies all demands and respects many operational and hydraulic constraints. We propose a nonlinear and non-convex formulation and a high-performance heuristic, focusing on minimizing the energy cost. Our method significantly improved the best solutions for several benchmark instances by up to 17%, obtaining solutions faster than the methods from the literature. Our solutions also reduce the energy consumed during peak periods, when the electrical grid is most strained. The second study delves into the water quality optimization of water distribution systems. Here, we address the quality-constrained pump scheduling problem, where besides scheduling the operation of pumps and the maintenance of the hydraulic behavior, we must ensure adequate water quality by managing the injection of chlorine through the system over a one-day planning horizon with variable chlorine injection at reservoirs, tanks, and booster nodes. This study introduces a new set of tank-quality continuity constraints that allow schedules to work over a long rolling horizon. This work proposes a Non-dominated Sorting Genetic Algorithm II to address a quality-constrained adaptation of a real big-size benchmark network from the pumping scheduling problem literature. This method significantly improved the best pumping scheduling solutions for the Florianópolis network by up to 3.74% while ensuring efficient water quality management. The third study addresses the design and maintenance of WDS. In particular, the water distribution network design problem determines the best set of pipes to supply water from the reservoirs to the consumers. The general formulation of the optimal cost design problem is very difficult to solve: it requires maintaining minimum water pressure and fulfilling the demand of all nodes while satisfying nonlinear hydraulic constraints. This leads to complex heuristics or simplifications that reduce the viability of the solutions. We propose a simple parallel neighborhood search heuristic, which focuses on minimizing the construction cost by exploiting two high-performance operators and multiple solution-space reduction criteria. Our method is tested on several benchmark instances, matching the best solutions from the literature while improving the number of hydraulic simulations required, providing a high-performance trade-off between cost and performance. Finally, our fourth research addresses the reliable water distribution network design problem. This study compares two well-known resilience functions, which work as a surrogate measure of network reliability. This problem seeks to determine the best set of pipes to supply the water demand with adequate pressure that minimizes the construction cost and maximizes the network reliability. Subsequently, a multi-objective genetic algorithm is employed to derive the cost-resilience Pareto-fronts for each function. The results from three benchmark networks are then subjected to a comparative analysis using four distinct network reliability tests, encompassing scenarios related to pipe failure, demand increase, fire flow, and pipe aging. In particular, the pipe aging reliability test incorporates a regression function designed to estimate the annual degradation of the Hazen-Williams roughness coefficient. Moreover, this research also provides a comprehensive study on robust decision-making to effectively utilize the results from the reliability tests in order to select a dependable design for a water distribution network. The algorithms developed in this thesis and the solutions we obtain for these difficult and relevant problems are not only important from a practical standpoint but also contribute to the literature of both optimization and water distribution fields. The results obtained with this thesis have the potential to save several thousands of dollars for municipalities in the short term and to contribute to sustainable development in the long term.
76

Déterminants du profit d'une firme suite à l'innovation d'un antibiotique

Caron, Pierre-Alexandre 23 April 2018 (has links)
Dans un contexte où la résistance bactérienne est directement liée à l’efficacité de traitement des antibiotiques, ce mémoire compare les déterminants du profit d’une firme suite à l’innovation d’un antibiotique d’un premier cas où la firme possède un réservoir d’efficacité de traitement différent de ses concurrents et d’un second cas où le réservoir d’efficacité est conjointement exploité par la firme innovatrice et ses concurrents. Dans le premier cas, la firme attribue une valeur implicite positive à son propre réservoir d’efficacité et une valeur implicite négative au réservoir concurrent. Dans le second cas, la firme innovatrice doit accorder une valeur implicite positive au réservoir partagé. Elle doit par contre escompter davantage les revenus futurs de l’exploitation de ce réservoir commun comparativement au premier cas où elle possède son propre réservoir.
77

Enhancing stakeholders' participation : a semantic, spatial and temporal contextualization perspective

Marzouki, Amal 27 March 2023 (has links)
La participation des parties prenantes (PPP) vise à impliquer celles-ci dans les processus de prise de décision concernant des projets affectant leurs communautés. Traditionnellement, les processus de participation des parties prenantes (PPPP) se maintenaient à travers des assemblées et des forums de discussion physiques permettant de rassembler les parties prenantes, de collecter et d'analyser leurs opinions pour aider les décideurs dans leur prise de décision. Ces dernières années, l'évolution des technologies de l'information (TI) et leur prolifération dans la société ont donné lieu au concept émergent de la participation électronique ou la e-Participation. Il s'agit de nouvelles formes de participation basées sur les technologies de l'information tel que les blogs, les plateformes participatives et les réseaux sociaux. La PPP est une notion en constante évolution et a reçu une attention considérable de la part des praticiens et des chercheurs dans différents domaines et disciplines. Cependant, peu de recherches se sont intéressées à la compréhension multidisciplinaire des PPPP et de la valeur que revêtent les données collectées à travers ces PPPP. Cette thèse contribue à la littérature de la PPP en offrant une meilleure compréhension globale du concept de la PP, de ses enjeux multidisciplinaires et de la valeur que revête les données collectées à travers les PPPP. Cette thèse est structurée en deux articles et un chapitre. Le premier article de cette thèse vise à offrir une meilleure compréhension des enjeux multidisciplinaires auxquels les PPPP font face. À l'appui d'une revue systématique de la littérature analysant 191 articles de recherche, cet article met en exergue que les PPP font face à des enjeux : « administratifs », « éthiques », « politiques », « légaux », « technologiques », « sociaux des parties prenantes », « économiques », « socio-économiques » et « d'efficience et d'efficacité ». De plus, l'article démontre que les PPPP œuvrent à l'intérieur de quatre principales dimensions qui sont « la gouvernance », « l'application », « les parties prenantes » et « la société » et que ces dimensions sont interreliées et sont influencées les unes par les autres. Dans ce contexte, l'évolution vers des PPP qui sont plus efficaces et plus résilientes envers ces enjeux requerrait une prise de conscience de ces dimensions d'enjeux et des efforts de collaboration multidisciplinaire entre la recherche et la pratique. Le deuxième article se concentre sur l'enjeu spécifique du « contexte de vie des parties prenantes » et rend compte de la manière dont les parties prenantes expriment, de façon implicite ou explicite, leurs contextes de vie dans leurs commentaires de participation. Par une analyse qualitative des données de participation provenant de quatre études de cas dans deux pays différents, cet article identifie un ensemble de patrons, appelés aussi « patterns », sémantiques, spatiaux et temporels permettant l'identification du contexte de vie des parties prenantes à partir des données des PPPP. L'identification et la compréhension des patrons que les parties prenantes expriment dans leurs commentaires pour représenter leurs contextes de vie visent à renforcer l'influence des parties prenantes sur les décisions découlant des PPP dans lesquelles ces dernières étaient impliquées. De plus, l'article propose un modèle conceptuel démontrant l'importance pour les décideurs de capturer et d'analyser les patrons sémantique, spatial et temporel dans les données des PPPP afin de favoriser une prise de décision cohérente et réactive aux contextes de vie des parties prenantes. Finalement, l'article souligne le rôle que jouent les technologies de l'information pour l'identification de ces patrons. Le troisième chapitre offre une meilleure compréhension de l'identification automatique des dimensions sémantique, spatiale et temporelle du contexte de vie des parties prenantes dans les PPP. En se basant sur une analyse théorique, ce chapitre utilise la théorie des affordances et la théorie du réalisme critique pour offrir une conceptualisation des affordances et des fonctionnalités technologiques correspondantes qui sont nécessaires pour l'identification automatique des patterns sémantiques, spatiaux et temporels dans les futures technologies participatives. / Stakeholders participation (SP) aims to involve stakeholders in decision-making processes regarding projects affecting their communities. Traditionally, stakeholders' participation processes (SPPs) were maintained through meetings and physical discussion forums to bring together stakeholders and collect their opinions to help decision-makers in taking their decisions. In recent years, the evolution of information technologies (IT) and their proliferation in society have given rise to the emerging concept of electronic participation or e-Participation. These are new forms of participation based on information technologies such as blogs, participatory platforms and social networks. SP is an ever-evolving concept and has received considerable attention from researchers in different fields and disciplines. However, little research has focused on the multidisciplinary understanding of SPPs and the value of the data collected through these SPPs. This thesis contributes to the SPPs literature by offering a better global understanding of the concept of SP, its multidisciplinary issues and the value of the data collected through SPPs. This thesis is structured in two articles and one chapter. The first article of this thesis aims to provide a better understanding of the multidisciplinary issues that SPPs face. Based on a systematic literature review of 191 research papers, this article aims to review, categorize, and offer a better understanding of the different issues that stakeholders' participation processes (SPPs) can have. This paper has two main contributions. First, it presents a typology of issues that is organized in nine categories: economic, efficiency and effectiveness, ethical, legislative, political, administration, socioeconomic, stakeholders and social, and technology. Second, it proposes a conceptual model of SPPs dimensions of issues. The conceptual model demonstrates that SPPs work within four main dimensions which are "governance", "application", "stakeholders" and "society" and that these dimensions are interrelated and are influenced by each other. The second article focuses on the specific issue of the "stakeholders' living context identification" and attempts to account for how stakeholders implicitly identify their living contexts in their participation comments. Through a qualitative analysis of participation data from four case studies in two different countries, this article identifies a set of semantic, spatial and temporal patterns allowing the contextualization of data collected through SPPs. Moreover, a conceptual model for the identification of the living contexts in SPPs data is proposed. This conceptual model emphasizes the importance for decision-makers to capture and understand semantic, spatial and temporal patterns in SPPs data in order to ensure a decision-making that is consistent and responsive to stakeholders' living contexts. Finally, the article highlights the role that information technology plays in identifying these patterns. The third chapter attempts to provide a better understanding of the automatic identification of the semantic, spatial and temporal dimensions of the living contexts of stakeholders in SPPs. Based on a theoretical analysis, this chapter uses the theory of affordances and the theory of critical realism to offer a conceptualization of affordances and their corresponding information technology functionalities that are necessary for the automatic identification of semantic, spatial and temporal patterns in future participation tools.
78

Evaluation and calibration of the CroBas-PipeQual model for Jack Pine (Pinus banksiana Lamb.) using Bayesian melding : hybridization of a process-based forest growth model with empirical yield curves

Ewen, Stephanie 19 April 2018 (has links)
CroBas-PipeQual a été élaboré pour étudier les effets de croissance des arbres sur la qualité du bois. Ainsi, il s’agit d’un modèle d’intérêt pour maximiser la valeur des produits extraits des forêts. Nous avons évalué qualitativement une version de CroBas-PipeQual calibrée pour le pin gris (Pinus banksiana Lamb.) de façon à vérifier l’intérêt de l’utiliser comme outil de planification forestière. Par la suite, nous avons fait une analyse de sensibilité et une calibration bayesienne à partir d’une table de production utilisée au Québec. Les principales conclusions sont: 1. Les prédictions de hauteur sont les plus sensibles aux intrants et aux paramètres liés à la photosynthèse; 2. La performance de CroBas est améliorée en tenant compte de la relation observée entre deux paramètres utilisés pour estimer la productivité nette et l'indice de qualité de station; et 3. CroBas requiert d’autres améliorations avant de pouvoir être utilisé comme outil de planification. / CroBas-PipeQual is a process-based forest growth model designed to study foliage development and how growth processes relate to changes in wood quality. As such, CroBas-PipeQual is of interest as a component model in a forest level decision support model for value assessment. In this thesis, the version of CroBas-PipeQual calibrated for jack pine (Pinus banksiana Lamb.) in Québec, Canada was qualitatively evaluated for use in forest management decision-making. Then, sensitivity analyses and Bayesian melding were used to create and calibrate a stand-level version of CroBas-PipeQual to local empirical height yield models in a hybrid-modelling approach. Key findings included: 1. Height predictions were most sensitive to input values and to parameters related to net photosynthesis; 2. Model performance was improved by varying two net-productivity parameters with site quality; and 3. Model performance needs further improvement before CroBas-PipeQual can be used as a component of a forest-management decision tool.
79

Modélisation des pertes de charge en biofiltration

Perron, Jean-Michel 14 June 2023 (has links)
Titre de l'écran-titre (visionné le 5 juin 2023) / Les procédés d'épuration par biofiltration sont très compacts et très performants pour assurer le traitement du carbone et de l'azote. Pour conserver de bonnes performances épuratoires, les biofiltres doivent être lavés régulièrement. Le déclenchement des lavages est dicté par la perte de charge à l'intérieur du biofiltre. Cette dernière augmente durant un cycle de filtration et lorsqu'elle dépasse un seuil fixé, un lavage est déclenché. Une bonne planification du lavage des biofiltres est essentielle pour réduire les risques de débordement d'eau usée lors de fortes précipitations, pour réduire le risque de colmatage et pour réduire les coûts d'opération. Les modèles de biofiltration actuels simulent avec précision et robustesse la qualité d'eau (Vigne 2007; Bernier 2014; Zhu 2020), mais simulent difficilement le comportement des pertes de charge sur plusieurs mois. Ce projet de recherche compare le comportement des pertes de charge simulées à partir de trois sous-modèles (Carman 1937; Ergun 1952; Bernier 2014) de perte de charge. Les modèles de perte de charge de Carman (1937) et d'Ergun (1952) sont considérés, dans le cadre de ce projet de recherche, comme des simplifications du modèle de Bernier (2014). Les deux sous-modèles simplifiés ont été intégrés au modèle de biofiltration de Bernier (2014). Ils ont été calibrés et validés en suivant le protocole de Vigne (2007) et de Rittmann et collab. (2018) avec des jeux de données de l'étage de post-dénitrification sur méthanol de Seine-Centre, une des stations d'épuration de l'agglomération parisienne. Les jeux de données regroupent des mesures horaires du débit, des NOx et des pressions ainsi que des mesures récoltées sur des échantillons composites journaliers (DCO, DBO₅ PO₄³⁻, MES et NH₄⁺). Mis à part pour la densité sèche du biofilm et pour la porosité du média, la calibration des trois modèles est identique. Le sous-modèle de perte de charge de Bernier (2014) est calibré avec une densité sèche de biofilm de 100 kg[indice MES]/m³ et avec une porosité du média de 0.34 alors que les sous-modèles d'Ergun (1952) et de Carman (1937) sont calibrés avec une densité sèche de biofilm de 47 kg[indice MES]/m³ et avec une porosité du média de 0.3. Malgré cette différence, les trois sous-modèles simulent précisément la perte de charge, avec une erreur moyenne de 0.1 mètre d'eau. Durant la validation, les trois sous-modèles calibrés simulent avec précision la perte de charge initiale, mais sous-estiment l'encrassement du biofiltre avec une erreur moyenne de 0.4 mètre d'eau. Les erreurs des simulations d'encrassement durant la validation du modèle peuvent être diminuées en modifiant uniquement la densité sèche du biofilm dans les trois sous-modèles (de 100 à 80 kg[indice MES]/m³ dans le modèle de Bernier (2014) et de 47 à 39 kg[indice MES]/m³ pour les autres). Une fois bien calibrés, les trois calculs offrent des précisions similaires, mais ils ont les mêmes problèmes de robustesse durant la validation. Même si les biofiltres dénitrifiants sont l'une des configurations les plus simples pour modéliser l'encrassement des biofiltres et même si Bernier (2014) a proposé un des modèles de biofiltration les plus performants, les modèles actuels ont un problème de robustesse. Les trois sous-modèles de perte de charge comparés simulent avec précision l'encrassement sur quelques semaines, mais ils ont tous besoin d'être recalibrés pour simuler l'encrassement sur plusieurs mois. La littérature disponible met l'accent sur l'équation de perte de charge pour améliorer les sous-modèles de perte de charge, mais cette recherche montre que le problème de robustesse est lié à l'hypothèse d'un biofilm avec une densité constante. La prochaine étape pour améliorer les modèles de perte de charge sera de modéliser comment la densité du biofilm change dans le temps et selon les conditions d'opérations. Un modèle de biofilm à densité variable pourrait être lié aux substances polymériques extracellulaires (EPS). Le Bihan et Lessard (2000) ont montré qu'une production excessive des EPS dans le biofilm induit un encrassement prématuré des biofiltres et Pechaud et collab. (2012) a corrélé la présence d'EPS avec les propriétés physiques du biofilm. / Biofilters are very compact processes and very efficient for carbon and nitrogen removal. To maintain their treatment capacity, biofilters needs to be regularly backwashed. Generally, theses backwashes are triggered when a maximum headloss through the filter is reached. A good planning of these backwash events is fundamental to avoid a bypass of untreated wastewater during storm events, to avoid permanent clogging of the filter and to minimise operational costs. Mathematical models are an essential tool to improve treatment process performance. Actual biofiltration models can simulate with reliability and robustness effluent water quality (Vigne 2007; Zhu 2020) but have difficulties to simulate headloss behaviour (Bernier, 2014). This paper explores possibilities to improve clogging predictions in biofiltration models by using data from a full-scale biofilter train operated by SIAAP in Paris region, France. The behaviour of three traditional headloss models were compared and analysed to evaluate the importance of different submodels: Carman (1937), Ergun (1952) and Bernier (2014). Datasets were collected at the denitrification biofiltration process from Seine-Centre, one of the Paris WWTPs. Flowrate, methanol injection rate, nitrate and pressure were measured on an hourly basis and composite samples were collected on a daily basis and analysed for COD, BOD₅, PO₄⁺, TSS and NH₄⁺ at both influent and effluent of the biofilter. The database gathers data from July to November 2020. The model used to simulate post-denitrification process proposed by Bernier (2014) is the more complex one, the two others being considered simplification of Bernier's. The three models were calibrated and validated following the biofilm model calibration guidelines of Vigne (2007) and Rittmann et collab. (2018). It is the first time that the most common headloss equations are compared and successively implemented in a biofiltration model. Except for the biofilm density and the initial media porosity, the models fit to the dataset are almost identical for each of the clogging sub-models. Bernier (2014) sub-model is calibrated with a biofilm density of 100kg[subscript TSS]/m³ and a media initial porosity of 0.34 whereas Ergun (1952) and Carman (1937) equation are calibrated with a biofilm density of 47 kg[subscript TSS]/m³ and a media initial porosity of 0.3. Despite this difference, they can precisely simulate the clogging with a mean error (ME) around 0.1 meter of water. Each sub-model can simulate precisely headloss when properly calibrate, but fails to simulate the reversible clogging process of validation datasets from different season. Each sub-model underestimates the clogging by an average of 0.4 meter of water. However, these validation problems can easily be fixed by reducing the biofilm density in the models (from 100 to 80 kg[subscript TSS]/m³ for the Bernier (2014) model and from 47 to 39 kg[subscript TSS]/m³ for the other models). Each clogging submodel has the same robustness problem: they can simulate clogging when properly calibrated, but fail to fit an independent dataset. The robustness problem appears to be related to the biofilm density. It is the only parameter that has to be changed to fit a different dataset. Even if post-denitrification biofilters are among the simplest configuration to model clogging and even if Bernier (2014) proposed one of the most comprehensive biofiltration model, the actual clogging sub-models still fails to simulate a validation dataset. This research project has not improved actual clogging sub-model, but it clearly points out what has to be done to improve them. The litterature focuses on the headloss equation itself to improve the model, but this research shows that actual robustness problems are probably caused by the assumption that biofilm density is constant. Past research on the modelling of biofilter clogging focused on the headloss equation itself. The study of three headloss submodels showed a similar model performance in terms of fit, while having the same robustness problem under validation. A model based on a biofilm with fixed density can properly simulate a month of operation but biofilm density seem to change over several months and it is thus important to consider whether the purpose of the model is to simulate biofilter operation for a longer period. At this moment, these sub-models seem unable to properly simulate a new dataset without changing the biofilm density. The next steps to improve headloss simulation will be to identify how biofilm density changes over time and what drives these changes. The answer could be related with Extracellular Polymeric Substance (EPS). Le Bihan et Lessard (2000) shows that excessive EPS production in the biofilm leads to premature clogging of biofilter and Pechaud et collab. (2012) correlates EPS with physical property of biofilm.
80

Calcul rapide de forces et de déformations mécaniques non-linéaires et visco-élastiques pour la simulation de chirurgie

Schwartz, Jean-Marc 11 April 2018 (has links)
Ce travail présente une méthode de calcul rapide de déformations et de forces mécaniques destinée à la simulation d'applications chirurgicales. La simulation de chirurgie vise à offrir aux praticiens des outils leur permettant de pratiquer des entraînements intensifs et de pouvoir planifier avec précision certaines interventions. La conception de tels simulateurs nécessite de disposer de modèles géométriques et mécaniques précis des organes du corps humain, et d'algorithmes de calcul suffisamment rapides pour être capable d'utiliser ces modèles dans des conditions de temps réel. La plupart des simulateurs existants utilisent des modèles mécaniques extrêmement simples, basés sur les lois de l'élasticité linéaire. Or de nombreux résultats de biomécanique indiquent que les tissus biologiques se comportent selon des lois beaucoup plus complexes, incluant des effets non-linéaires et visco-élastiques importants. Pour cette raison, nous avons développé une méthode permettant le calcul rapide de déformations et de forces incluant des effets mécaniques non-linéaires et visco-élastiques. Cette méthode utilise la théorie des éléments finis et a été conçue comme une extension de l'algorithme dit des masses-tenseurs pour l'élasticité linéaire. Son principe consiste à pré-calculer un certain nombre de tenseurs dépendant des caractéristiques géométriques et mécaniques de chaque élément fini, qui sont ensuite combinés dans la phase de simulation proprement dite. Notre modèle non-linéaire ne présage d'aucune forme particulière de loi mécanique, de sorte que la méthode proposée est suffisamment générique pour s'appliquer à une grande variété de comportements et d'objets. Après la description de l'algorithme, de ses performances en terme de temps de calcul et de ses conditions de stabilité numérique, nous démontrons que cette méthode est capable de reproduire avec précision le comportement mécanique d'un tissu biologique mou. Ce travail s'inscrivant plus spécifiquement dans le cadre du développement d'un système de simulation de la cryochirurgie du foie, nous avons étudié expérimentalement les propriétés du foie lors de sa perforation par une aiguille à biopsie. Le modèle de masses-tenseurs non-linéaire et visco-élastique construit à l'aide des paramètres expérimentaux a pu reproduire avec une bonne précision les propriétés observées. / This work presents a method for the fast computation of mechanical deformations and forces for the simulation of surgical applications. Surgery simulation aims at providing physicians with tools allowing extensive training and precise planning of given interventions. The design of such simulation systems requires accurate geometrical and mechanical models of the organs of the human body, as well as fast computation algorithms suitable for real-time conditions. Most existing simulation systems use very simple mechanical models, based on the laws of linear elasticity. Numerous biomechanical results yet indicate that biological tissues exhibit much more complex behaviour, including important non-linear and visco-elastic effects. For this reason, we developed a method allowing the fast computation of mechanical deformations and forces including non-linear and visco-elastic effects. This method uses finite element theory and has been constructed as an extension of the so-called tensor-mass algorithm for linear elasticity. It consists in pre-computing a set of tensors depending on the geometrical and mechanical properties of each finite element, which are later combined in the simulation part itself. Our non-linear model does not assume any particular form of mechanical law, so that the proposed method is generic enough to be applied to a wide variety of behaviours and objects. Following the description of the algorithm, of its performances in terms of computation time, and of its numerical stability conditions, we show that this method allows to reproduce the mechanical behaviour of a biological soft tissue with good precision. As this project is part of a broader effort aiming more specifically at developing a simulation system for liver cryosurgery, we experimentally characterized the properties of liver in perforation by a biopsy needle. The non-linear and visco-elastic tensor-mass model constructed from experimental parameters succeeded in accurately reproducing the observed properties.

Page generated in 0.1028 seconds