• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 592
  • 185
  • 3
  • Tagged with
  • 782
  • 782
  • 489
  • 237
  • 106
  • 100
  • 97
  • 91
  • 90
  • 85
  • 78
  • 69
  • 64
  • 62
  • 58
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Development and assessment of a modeling method for hydrokinetic turbines operating in arrays

Bourget, Sébastien 09 October 2018 (has links)
Afin de contribuer au développement des connaissances et de l’industrie des énergies renouvelables hydrocinétiques, un nouveau projet de recherche à long terme a débuté récemment au Laboratoire de Mécanique des Fluides Numérique (LMFN) de l’Université Laval. Ce projet porte sur l’optimisation de la configuration des parcs de turbines hydroliennes. Comme les techniques de modélisation se rapportant aux parcs de turbines n’ont été que peu étudié au LMFN par le passé, les objectifs du présent travail sont d’identifier une méthodologie de modélisation numérique permettant l’étude de parcs hydroliens à coût de simulation raisonnable et d’en vérifier la fiabilité. Inspirée de modèles numériques retrouvés dans la littérature scientifique disponible, une approche originale a été développée. Elle porte le nom de Effective Performance Turbine Model, ou EPTM. La fiabilité de cette approche de modélisation est évaluée par rapport à sa capacité à prédire correctement les performances moyennes des turbines ainsi que leur sillage. Des résultats de simulations numériques « haute-fidélité » qui incluent à grand coût la géométrie complète des turbines sont utilisés en guise de référence. La comparaison des prédictions de l’EPTM avec les résultats de référence démontre que cette approche de modélisation est appropriée tant pour les turbines à axe horizontale que celles à axe vertical opérant dans des conditions d’écoulement propre. En effet, de très bonnes prédictions de la vitesse de rotation optimale de la turbine, de son chargement moyen et de la puissance extraite sont obtenues avec l’EPTM. Le modèle permet aussi de bonnes prédictions du sillage rapproché de chacune des turbines étudiées. Par contre, l’approche stationnaire de modélisation de la turbulence utilisée au sein des simulations de l’EPTM se montre inefficace dans certains cas. De possibles raffinements au modèle sont discutés en guise de conclusion. / In order to contribute to the development of the hydrokinetic power industry, a new line of research has been initiated recently at the Laboratoire de Mécanique des Fluides Numérique (LMFN) de l’Université Laval. It is related to the optimization of turbine farm layouts. As the numerical modeling of turbine farms has been little investigated in the past at the LMFN, the objectives of this work are to develop a numerical methodology that will allow the study of turbine farm layouts at reasonable simulation cost and to verify its reliability. Inspired from numerical models found in the available literature, an original modeling approach is developed. This modeling approach is referred-to as the Effective Performance Turbine Model, or EPTM. The EPTM reliability is assessed in terms of its capacity to predict correctly the mean performances and the wake recovery of the turbines. The results of “high-fidelity” CFD simulations, which include at high cost the complete rotor geometry, are used as a reference. Results of the performance assessment show that the EPTM approach is appropriate for the modeling of both axial-flow (horizontal-axis) turbines and cross-flow (vertical-axis) turbines operating in clean flow conditions. Indeed, the EPTM provides very good predictions of the value of the optimal angular speed at which the rotor should be rotating to operate near maximum power extraction, the magnitude of the mean forces acting on the turbine and the mean power it extracts from the flow. The EPTM also succeeds to generate the adequate nearwake flow topology of each of the reference turbine investigated. However, the steady turbulence modeling approach used in the EPTM simulations appears inadequate in some cases. Possible model improvements are discussed as a conclusion.
32

Static force capabilities and dynamic capabilities of parallel mechanisms equipped with safety clutches

Wei, Chen 20 April 2018 (has links)
Cette thèse étudie les forces potentielles des mécanismes parallèles plans à deux degrés de liberté équipés d'embrayages de sécurité (limiteur de couple). Les forces potentielles sont étudiées sur la base des matrices jacobienne. La force maximale qui peut être appliquée à l'effecteur en fonction des limiteurs de couple ainsi que la force maximale isotrope sont déterminées. Le rapport entre ces deux forces est appelé l'efficacité de la force et peut être considéré ; comme un indice de performance. Enfin, les résultats numériques proposés donnent un aperçu sur la conception de robots coopératifs reposant sur des architectures parallèles. En isolant chaque lien, les modèles dynamiques approximatifs sont obtenus à partir de l'approche Newton-Euler et des équations de Lagrange pour du tripteron et du quadrupteron. La plage de l'accélération de l'effecteur et de la force externe autorisée peut être trouvée pour une plage donnée de forces d'actionnement. / This thesis investigates the force capabilities of two-degree-of-freedom planar parallel mechanisms that are equipped with safety clutches (torque limiters). The force capabilities are studied based on the Jacobian matrices. The maximum force that can be applied at the end-effector for given torque limits (safety index) is determined together with the maximum isotropic force that can be produced. The ratio between these two forces, referred to as the force effectiveness, can be considered as a performance index. Finally, some numerical results are proposed which can provide insight into the design of cooperation robots based on parallel architectures. Considering each link and slider system as a single body, approximate dynamic models are derived based on the Newton-Euler approach and Lagrange equations for the tripteron and the quadrupteron. The acceleration range or the external force range of the end-effector are determined and given as a safety consideration with the dynamic models.
33

Élaboration d'une plate-forme de calculs numériques d'un modèle d'état à la base d'une approche phénoménologique : cas d'un four rotatif de clinker

N'zi, Yoboué Guillaume 20 April 2018 (has links)
Cette étude développe une plate-forme mathématique allant de la création d’une base de connaissances à la mise en place d’un modèle adaptatif. Une nouvelle approche en ce qui concerne la modélisation du four rotatif du clinker a été nécessaire pour mener à bien notre étude. Ainsi, un modèle d’état du système aux paramètres repartis, à la base des phénomènes physico-chimiques, a été conçu à l’aide d’équations aux dérivées partielles. La structure du modèle est basée sur trois variables d’état qui peuvent décrire correctement les principaux phénomènes (diffusions, déplacements, transferts et échanges thermiques, etc.) qui se déroulent dans le four rotatif de clinker. En outre, ces variables d’état sont accessibles à travers des paramètres mesurables tels que les températures de la surface extérieure du four et de l’air ambiant. Les paramètres du modèle proposé sont des fonctions de trois variables d’état, qui tout en remplaçant les paramètres mal connus et inaccessibles, décrivent les phénomènes physicochimiques qui caractérisent la complexité du système et sont définis comme des fonctions opératoires. Cette approche permet non seulement de minimiser les erreurs (hypothèse de simplification) mais aussi permet un accès facile et aisé des paramètres. Nous avons élaboré une procédure d’identification basée sur des analyses phénoménologique et dimensionnelle. Ainsi, à partir de données issues d’un complément d’instrumentation associé à la base de connaissances, l’identification des fonctions opératoires (paramètres) a été effectuée à partir d’un état stationnaire du système qui représente notre condition initiale. Cette opération est importante dans la mesure où elle donne aux paramètres du modèle les propriétés de la dynamique du système. Ces résultats sont corroborés par les estimations des variables d’état dont les valeurs et évolutions sont acceptables. Après l’évaluation de l’influence des fonctions opératoires sur les variables d’état, une modélisation des paramètres (fonctions opératoires) du modèle a été proposée à la base d’une décomposition physique à la lumière des connaissances fournies dans la littérature. Une procédure d’ajustement a été également développée afin de pouvoir fournir des variables d’état optimales. Ainsi, l’erreur peut être compensée par ajustement des fonctions opératoires. Par conséquent, à travers la rapidité de la procédure d’ajustement et l’adaptation des paramètres du modèle dans un horizon de temps bien déterminé, le modèle renferme les caractéristiques d’un modèle adaptatif qui pourra être un support essentiel dans la commande automatique du système. / This study develops a mathematical platform going from the establishment of a knowledge database to the setting up of an adaptive model. This has required a new approach of modeling of the clinker rotary kiln (CRK). Thus, a state model of distributed parameter systems, based on physico-chemical phenomena, was designed using partial differential equations. The model structure is based on three state variables which are: the gas, clinker temperatures and the clinker mass distributions, and are elaborated with the help of heat, pressure and mass balance equations. The model parameters are defined by the functions of three state variables. Moreover, the resulting state model, decomposed into five phenomenological zones of CRK, is used as a first step to define a set of Operating Functions (OFs). These OFs has also been decomposed into longitudinal distribution of CRK to replace the constant, unknown or unmeasured parameters. We develop an identification procedure based on phenomenological and dimensional analysis where the identification of operational functions (model parameters) was performed from a stationary state of the CRK. Once the restores state variables have been evaluated, the desired input (which is treated as the control of the CRK) can be more easily found by the proposed model than by simple trial and error. Moreover, the fact that the computation time, to estimate-calibrate the OFs above-mentioned, is very short, then this dynamic computation works faster than real-time. In summary, the cooperation and coordination in real-time between industrial computers and the CRK allows for an adaptable model, where each specific set of the OFs must be analyzed by its accuracy.
34

Simulation et optimisation de l'intégration de matériaux à changement de phase dans une zone thermique

Arnault, Axel 18 April 2018 (has links)
Ce mémoire expose les différentes opportunités d'implantation de matériaux à changement de phase (PCM) dans des zones thermiques intégrées à des bâtiments. Les avantages inhérents à l'emploi de PCM sont analysés dans l'optique de réduction de la consommation d'énergie dans les systèmes CVAC (Chauffage, Ventilation et Air Conditionné). Le travail est divisé en deux parties renvoyant chacune à un article scientifique. Le premier article analyse les impacts et les bénéfices de galvaniser la masse thermique d'une zone en y incluant des PCM. L'étude illustre en premier lieu l'influence prépondérante de l'inertie thermique sur les performances thermiques de la zone, et les possibilités d'optimisation qui en découlent. L'ajout de PCM dans la zone est ensuite formellement optimisé pour deux cas de figure distincts, à savoir l'imposition de conditions climatiques idéalisées ou réelles à la zone. Pour ces deux contextes, on démontre qu'intégrer à la surface de la zone une quantité de PCM correspondant à une fraction de son épaisseur, à une température de fusion d'environ 26°C, augmente significativement les performances de la zone (20% en moyenne). Les calculs sont effectués selon trois fonctions objectives différentes, dont la complexité et la perspective d'optimisation varient. Le chapitre suivant, où le deuxième article est présenté, étend l'analyse décrite ci-dessus à une zone tridimensionnelle. Autrement dit, il est possible d'intégrer du PCM sur le plancher, les murs, le plafond et la façade de la zone à l'étude. Les dimensions, la fenestration, la composition et l'orientation de la zone sont entièrement modulables ; dans le cadre de ce chapitre, l'analyse est restreinte à un cas particulier et démontre que si elle est judicieusement incluse, une faible quantité de PCM peut avoir des retombées énergétiques considérables sur les performances thermiques de la zone. À l'inverse, certaines configurations où l'on inclut du PCM s'avèrent peu performantes et même en deçà des résultats observés sans PCM. Ce travail conjugue une compréhension fondamentale des PCM avec une analyse scientifique rigoureuse, de manière à montrer l'étendue du potentiel de ces matériaux.
35

Modélisation des rendements financiers à l'aide de la distribution de Laplace asymétrique généralisée

Pelletier, François 20 April 2018 (has links)
Les modèles classiques en finance sont basés sur des hypothèses qui ne sont pas toujours vérifiables empiriquement. L’objectif de ce mémoire est de présenter l’utilisation de la distribution de Laplace asymétrique généralisée comme une alternative intéressante à ces derniers. Pour ce faire, on utilise ses différentes propriétés afin de développer des méthodes d’estimation paramétrique, d’approximation et de test, en plus d’élaborer quelques principes d’évaluation de produits dérivés. On présente enfin un exemple d’application numérique afin d’illustrer ces différents concepts. / Classical models in finance are based on a set of hypotheses that are not always empirically verifiable. The main objective behind this master’s thesis is to show that the generalized asymmetric Laplace distribution is an interesting alternative to those models. To support this idea, we focus on some of its properties to develop parametric estimation, approximation and testing methods, then we work out some principles of derivatives pricing. Finally, we have a numerical example to illustrate these concepts.
36

Modélisation à fine échelle de la dynamique saisonnière, intrasaisonnière et spatiale des flux de CO₂ des sols en sapinière boréale

Harel, Antoine 14 November 2023 (has links)
En forêt boréale, le flux total de CO₂ du sol (F[indice CO2]) est le deuxième flux de carbone le plus important après la photosynthèse et peut représenter de 48 à 71% de la respiration totale de l'écosystème. Le F[indice CO2] dépend de l'état du sol à petite échelle, c'est-à-dire de sa température, de sa teneur en eau, de la quantité et de la qualité de la matière organique et de l'activité racinaire et microbienne. D'autres facteurs, appelés « facteurs externes », tels quel a topographie, les événements météorologiques et la hauteur de végétation influencent l'état du sol et donc indirectement le F[indice CO2]. Prédire le F[indice CO2] est complexe en raison du nombre important de facteurs à prendre en compte et des différents patrons de variation temporelle à modéliser. L'objectif de l'étude était de quantifier l'effet des facteurs externes susceptibles d'influencer la variabilité saisonnière, intrasaisonnière et spatiale des F[indice CO2] dans la forêt boréale. Des mesures de F[indice CO2] furent prises à la Forêt Montmorency (Québec, Canada) entre juin et octobre 2020. Un modèle de type Random forest regression fut utilisé pour prédire le F[indice CO2] en fonction de facteurs externes liés à la topographie, à la végétation et à la météo récente. Le modèle obtenu a permis d'expliquer 79 % de la variation des mesures de F[indice CO2]. Nos résultats ont démontré l'importance de la variation spatiale et intrasaisonnière (44 %) dans les mesures de F[indice CO2] par rapport à la variation saisonnière (35 %), ce qui a des implications pour la mesure et la modélisation de F[indice CO2]. La hauteur des arbres et la température de l'air furent les deux facteurs les plus importants pour prédire la valeur du F[indice CO2]. La méthodologie proposée permettrait de simuler le F[indice CO2] à partir de facteurs externes qui peuvent être obtenus à grande échelle à partir de relevés LiDAR et des données climatiques. / In the boreal forest, total soil CO₂ efflux (F[indice CO2]) is the second most important carbon flux after photosynthesis and can account for 48-71% of total ecosystem respiration. F[indice CO2]depends on the small-scale condition of the soil, i.e., its temperature, water content, quantity and quality of organic matter and root and microbial activity. Other factors, called "external factors", such as topography, weather events and vegetation height influence the soil condition and thus indirectly F[indice CO2]. Predicting F[indice CO2] is complex due to the large number of factors to be considered and the different patterns of temporal variation to be modeled. The objective of the study was to quantify the effect of external factors that may influence the seasonal, intra-seasonal and spatial variability of F[indice CO2] in the boreal forest. F[indice CO2] measurements were taken in the Montmorency Forest (Quebec, Canada) between June and October 2020. A random forest regression model was used to predict F[indice CO2] as a function of external factors such as topography, vegetation and recent weather. The developed model was able to explain 79% of the variation in F[indice CO2] measurements. Our results demonstrated the importance of spatial and intra-seasonal variation (44%) in F[indice CO2] measurements compared to seasonal variation (35%), which has implications for F[indice CO2] measurement and modeling. Tree height and air temperature were the two most important factors in predicting F[indice CO2] value. The proposed methodology would allow F[indice CO2] to be predicted from external factors that can be obtained on a large scale from LiDAR surveys and climate data.
37

Development of an alternative design method for aluminium open cross-sections using the Overall Interaction Concept

Coderre, Tristan 13 December 2023 (has links)
L'utilisation accrue de l'aluminium structural au cours des dernières décennies s'explique par ses nombreux avantages, tels que son excellente résistance par rapport à son poids, sa résistance à la corrosion et ses bénéfices environnementaux. Dû à son coup initial élevé, l'optimisation des méthodes de conception est essentielle pour exploiter pleinement ces propriétés. Cependant, les normes actuelles utilisent des approches simplifiées pour prédire la résistance des éléments en aluminium, qui ne sont pas optimisées pour tenir compte des effets de l'écrouissage, des instabilités, des propriétés réduites dans la zone affectée thermiquement et des formes extrudées souvent complexes. Ce mémoire présente le développement d'une méthode alternative de dimensionnement des sections ouvertes en aluminium, basée sur l'Overall Interaction Concept (O.I.C.). Cette approche de conception innovante est basée sur l'interaction entre résistance et stabilité, tout en considérant les imperfections géométriques et matérielles. De plus, elle permet d'obtenir des résultats précis et cohérents par l'utilisation de courbes de flambement continues. Un modèle numérique d'éléments finis a été développé pour prédire avec précision la résistance en section des éléments en aluminium. Son efficacité a été validée en comparant les résultats à ceux de tests expérimentaux. Des études paramétriques approfondies ont ensuite été menées, permettant d'étudier l'impact de diverses géométries, d'alliages et de cas de charge sur la résistance. Avec les résultats de plus de 4500 simulations numériques non linéaires, des propositions de calculs de type O.I.C. ont été formulées pour la résistance locale des sections d'aluminium extrudées et soudées en forme de "I". La performance des propositions a été évaluée en la comparant d'abord aux résultats numériques, puis aux prévisions de résistance des normes de conception d'aluminium canadienne, européenne et américaine. Les comparaisons ont prouvé que la méthode de conception de l'O.I.C. mène à des résultats beaucoup plus précis que les normes actuelles, tout en étant plus simple et plus efficace. / The increased use of structural aluminium in the last decades can be explained by the many advantages of this material, such as its great strength-to-weight ratio, resistance to corrosion, and environmental benefits. Due to its high initial cost, optimization of design methods is essential to fully benefit of these properties. However, current standards use simplified approaches to predict the resistance of aluminium elements, that are not optimized to account for the effects of strain hardening, instabilities, heat reduced properties and often complex extruded shapes. This thesis presents the investigations conducted for the development of an alternative design method for aluminium open cross-sections, based on the Overall Interaction Concept (O.I.C.). This innovative design approach relies on the interaction between resistance and stability, and also allows to consider geometrical and material imperfections. Moreover, it allows to obtain precise and consistent results by the use of continuous buckling curves. A numerical finite element model was developed to accurately predict the cross-sectional resistance of aluminium elements. Its efficiency was validated by comparing the results to available experimental test data. Extensive parametric studies were then conducted, allowing to study the impact of various geometries, alloys, and load cases on the resistance. Using the results from more than 4500 nonlinear numerical simulations, O.I.C.-type design proposals were formulated for the local resistance of extruded and welded aluminium sections of "I" shape. The performance of the proposals was evaluated by first comparing it to the numerical results, then to the resistance predictions from the Canadian, European, and American aluminium design standards. The comparisons showed that the O.I.C. design proposal leads to much more accurate results than the current standards, while still being simpler and more efficient.
38

L'analyse de frontières stochastiques appliquée à la prédiction dosimétrique pour la planification de traitement en radiothérapie externe

Kroshko, Angelika 16 January 2024 (has links)
Thèse ou mémoire avec insertion d'articles / Cette thèse porte sur le développement de modèles mathématiques qui permettent de prédire des métriques quantifiant la dose pour la planification de radiothérapie externe. La planification de traitement en radiothérapie externe est un processus complexe et itératif. Le planificateur spécifie des objectifs à atteindre et l'optimisation du plan de traitement est faite par ordinateur. Chaque patient ayant une anatomie propre, il peut être difficile de savoir si le plan de traitement est optimal c.à.d. où les objectifs de couverture en dose du volume cible sont remplis tout en minimisant la dose aux organes sains pour diminuer la possibilité d'effets secondaires néfastes. Afin de pallier cette problématique, plusieurs types de contrôles de qualité (CQ) en planification de traitement ont été développés. Plus précisément, le projet proposé utilise l'analyse de frontières stochastiques, une méthode mathématique conçue pour l'économétrie, afin de déterminer la dose minimale atteignable aux organes à risque. La planification de traitement en radiothérapie externe, les techniques utilisées ainsi que les principaux défis sont d'abord présentés dans le cadre de cette thèse. Une revue des principaux types de contrôles de qualité des plans de traitement est par la suite présentée afin de mettre en contexte le projet doctoral. Les principaux principes mathématiques employés tels que l'analyse de frontières stochastiques et la gestion de données manquantes sont par la suite abordés. Finalement, l'analyse de frontières stochastiques appliquée à la prédiction de paramètres dosimétriques en planification de traitement est présentée. Son approche fréquentiste est utilisée pour la prédiction dosimétrique pour le rectum et la vessie pour le cancer de la prostate traité par VMAT. Sept paramètres géométriques ont été extraits afin de caractériser la relation entre les organes à risque et le volume cible. Au total, 37 paramètres dosimétriques ont été prédits pour les deux organes à risque. Le modèle développé a été testé sur une cohorte de 30 patients avec une dose de prescription de 60-70 Gy où 77% (23 sur 30) des DVH prédits pour le rectum et la vessie présentent une déviation de 5% ou moins avec le DVH planifié. De plus, l'analyse de frontières stochastiques bayésienne, en plus d'un modèle de gestion de données manquantes, sont utilisés pour la prédiction dosimétrique de six organes à risque pour le cancer du poumon traité par SBRT. Au total, 16 indices dosimétriques ont été prédits pour l'arbre bronchique principal, le cœur, l'œsophage, le PRV de la moelle, les vaisseaux ainsi que la paroi thoracique. Le modèle prédictif est testé sur une cohorte de 50 patients. La différence moyenne entre la dose prédite et planifiée pour le se situe à 1.5 ± 1.9 Gy et 4.9 ± 5.3 Gy pour le D0.35cc du PRV de la moelle et le D0.035cc de l'arbre bronchique principal respectivement. L'analyse de frontières stochastiques est ainsi démontrée comme une solide base pour un CQ en planification de traitement en radiothérapie externe. / This thesis is on the development of mathematical models predicting dosimetric metrics for treatment planning in external beam radiation therapy (EBRT). EBRT treatment planning is complex and iterative. Planner sets plan objectives to attain during the computerized plan optimization process. Because of specific patient anatomical variation, it is difficult to determine if a plan is optimal regarding the target coverage and the sparing of the organs-at-risk. Several quality control such as knowledge-based planning and multicriteria optimization were developed in order to address this problematic. This thesis focus on the use of an econometric method, Stochastic Frontier Analysis, to predict minimum achievable dose to organs-at-risk for several treatment sites. EBRT treatment planning, techniques and challenges are first discussed. A review of the most common quality controls is made in order to assess the importance of the project presented in this thesis. Mathematical considerations such as the theoretical foundation of stochastic frontier analysis and missing data management are also discussed. Stochastic frontier analysis is used to develop predictive models of dose distribution in treatment planning. Frequentist stochastic frontier analysis is used to predict dosimetric metrics for the rectum and the bladder for prostate cancer treated by VMAT. Seven geometric parameters are extracted to characterize the relationship between the organs-at-risk with the planning volume. In total, 37 dosimetric parameters are tested. The developped model is tested using validation cohort (30 patients with prescribed dose between 60 and 70 Gy) where 77% (23 out of 30) of the predicted DVHs present a 5% or less dose deterioration with the planned DVH. Bayesian stochastic frontier analysis with a missing data management is then presented for the prediction of dosimetric parameters for 6 organs-at-risk for lung cancer treated by SBRT. 16 DVH metrics were predicted for the main bronchus, heart, esophagus, spinal cord PRV, great vessels and chest wall. The predictive model is tested on a test group of 50 patients. The mean difference between the observed and predicted values ranges between 1.5 ± 1.9 Gy and 4.9 ± 5.3 Gy for the spinal cord PRV D0.35cc and the main bronchus D0.035cc respectively. Stochastic frontier analysis is considered to be a new and valid method used in order to develop a quality control for EBRT treatment planning.
39

Modelling and model-based optimization of N-removal WRRFs : reactive settling, conventional & short-cut N-removal processes

Kirim, Gamze 11 November 2023 (has links)
La détérioration des ressources en eau et la grande quantité d'eau polluée générée dans les sociétés industrialisées donnent une importance fondamentale aux procédés de traitement des eaux usées pour préserver les ressources, conformément à l'objectif 6 des 17 objectifs de développement durable des Nations Unies. Le rejet de nutriments tels que l'ammoniac par les eaux usées est un problème important, l'élimination de l'azote (N) est donc l'un des processus critiques de toute station de récupération des ressources en eau (StaRRE). L'objectif de ce projet de recherche doctoral est d'améliorer la compréhension des mécanismes d'élimination de l'azote dans le traitement biologique des eaux usées grâce à la modélisation, et d'optimiser les StaRRE existantes pour réduire la consommation d'énergie et de ressources. Dans ce cadre, 3 études différentes ont été réalisées. Tout d'abord, un modèle de décanteur réactif unidimensionnel a été développé. Celui-ci prédit le comportement de décantation de boues à des concentrations élevées de boues ainsi que les conversions biocinétiques dans le processus de décantation secondaire (DS). Il a été constaté qu'une description précise des réactions biocinétiques dans la DS impose des défis de calibration élevés pour le modèle de décantation, car ce dernier doit capturer les profils de concentration complets de la biomasse active dans la couverture de boues. Le modèle calibré a pu prédire avec précision les profils de concentration des effluents et du lit de boues dans la DS. Le modèle développé peut être utilisé pour le contrôle et la simulation des StaRRE afin d'obtenir de meilleures prédictions des concentrations d'effluents et des boues de retour, et aussi de calculer correctement le bilan massique d'azote d'une StaRRE. Deuxièmement, un modèle à l'échelle de l'usine a été mis en place pour un système de pré-dénitrification conventionnel pour la StaRRE pilEAUte à l'échelle pilote. Une méthodologie de calibration du modèle par étapes a été adoptée en fusionnant les principaux protocoles de calibration de modèle, tout en mettant l'accent sur le modèle biocinétique. Le modèle de la StaRRE pilEAUte, y compris le décanteur réactif développé, a été calibré et validé pour simuler les variables de modèle sélectionnées, puis utilisé pour une analyse de scénarios plus approfondie de l'optimisation de la consommation d'énergie et des ressources. Les résultats de l'analyse des scénarios ont montré le potentiel d'optimisation du système conventionnel d'élimination d'azote grâce à la réduction de l'aération et du retour interne des nitrates. Ils ont également démontré que la dénitrification dans le décanteur secondaire peut avoir une contribution significative à la capacité globale d'élimination d'azote d'une StaRRE lorsque la liqueur mixte peut traverser le lit de boues. Troisièmement, l'étude visait à évaluer l'applicabilité des stratégies de commande continu et intermittent du rapport de l'ammoniac par rapport aux NOX-N (commande AvN) sur la StaRRE pilEAUte. Les stratégies de commande de l'aération par AvN sont appliquées en amont d'un réacteur de désammonification, qui est un processus d'élimination efficace d'azote avec un besoin de ressources réduit (en termes d'aération et carbone) par rapport aux systèmes conventionnels. Les deux stratégies de commande testées pourraient être réalisées grâce à une commande automatique. Cependant, le maintien du rapport AvN dans l'effluent à la valeur souhaitée (1) dépend fortement des conditions opérationnelles telles que les variations de l'affluent, le temps de rétention des boues et la fiabilité des capteurs. Même si la recherche est guidée par les études de StaRRE à l'échelle pilote, les méthodologies développées pour démontrer et modéliser les processus et les conditions opérationnelles économes en énergie et en ressources sont applicables et transférables à d'autres études de cas à plein échelle. / Deterioration of water resources and the large amount of polluted water generated in industrialized societies gives fundamental importance to waste water treatment processes to preserve resources in accordance with goal 6 of the 17 sustainable development goals of the United Nations. Discharge of nutrients such as ammonia with waste water is a significant issue, thus nitrogen (N) removal is one of the critical processes of any water resource recovery facilities (WRRF). The objective of this PhD research project was to improve the understanding of N-removal mechanisms in biological treatment of wastewater through modelling and to optimize existing WRRFs to reduce energy and resource consumption. Within this context, 3 different studies were carried out. First, a one dimensional reactive settler model was developed that predicts the settling behaviour at high sludge concentrations together with biokinetic conversions in the secondary settling process. It was found that an accurate description of biokinetic reactions in the SST puts high calibration requirements on the settling model as it must properly capture the full concentration profiles of active biomass in the sludge blanket. The calibrated model was able to accurately predict the effluent and sludge blanket concentration profiles in the SST. The developed model can be used for control and simulation of WRRFs for better predictions of SST effluent and underflow concentrations and also properly calculate the nitrogen mass balance of a WRRF. Second, a plant-wide model was set up for a conventional pre-denitrification system for the pilot-scale pilEAUte WRRF. A step-wise model calibration methodology was adopted by merging main existing model calibration protocols while placing emphasis on the biokinetic model. The pilEAUte model, including the developed reactive settler, was calibrated and validated to simulate the selected model variables and used for further scenario analysis for energy and resource optimization. The scenario analysis results showed the optimization potential of conventional N removal systems through application of reduced aeration and internal nitrate recycling. It also demonstrated that denitrification in the secondary settler can contribute significantly to the overall N removal capacity of the WRRF when mixed liquor can pass through the sludge blanket. Third, it was aimed to evaluate the applicability of continuous and intermittent Ammonia vs NOₓ-N (AvN) control strategies on the pilEAUte WRRF. The AvN aeration control strategies are applied prior to a deammonification stage which is a short-cut N removal process with reduced resource (aeration and carbon) requirements in comparison to conventional systems. Both strategies could be achieved through automatic control. However, keeping the AvN ratio in the effluent on the desired value highly depends on operational conditions such asinfluent variations, sludge retention time and the sensor's measurement reliability.
40

Toward coherent accounting of uncertainty in hydrometeorological modeling

Thiboult, Antoine 23 April 2018 (has links)
La considération adéquate des différentes sources d’incertitude est un aspect crucial de la prévision hydrométéorologique. La prévision d’ensemble, en fournissant des informations sur la probabilité d’occurrence des sorties du modèle, représente une alternative séduisante à la prévision déterministe traditionnelle. De plus, elle permet de faire face aux différentes sources d’incertitude qui se trouvent le long de la chaîne de modélisation hydrométéorologique en générant des ensembles là où ces incertitudes se situent. Le principal objectif de cette thèse est d’identifier un système qui soit capable d’appréhender les trois sources principales d’incertitude que sont la structure du modèle hydrologique, ses conditions initiales et le forçage météorologique, dans le but de fournir une prévision qui soit à la fois précise, fiable et économiquement attractive. L’accent est mis sur la cohérence avec laquelle les différentes incertitudes doivent être quantifiées et réduites. Notamment, celles-ci doivent être considérées explicitement avec une approche cohésive qui fasse en sorte que chacune d’entre elles soit traitée adéquatement, intégralement et sans redondance dans l’action des divers outils qui composent le système. Afin de répondre à cette attente, plusieurs sous-objectifs sont définis. Le premier se penche sur l’approche multimodèle pour évaluer ses bénéfices dans un contexte opérationnel. Dans un second temps, dans le but d’identifier une implémentation optimale du filtre d’ensemble de Kalman, différents aspects du filtre qui conditionnent ses performances sont étudiés en détail. L’étape suivante rassemble les connaissances acquises lors des deux premiers objectifs en réunissant leurs atouts et en y incluant la prévision météorologique d’ensemble pour construire un système qui puisse fournir des prévisions à la fois précises et fiables. Il est attendu que ce système soit en mesure de prendre en compte les différentes sources d’incertitude de façon cohérente tout en fournissant un cadre de travail pour étudier la contribution des différents outils hydrométéorologiques et leurs interactions. Enfin, le dernier volet porte sur l’identification des relations entre les différents systèmes de prévisions précédemment créés, leur valeur économique et leur qualité de la prévision. La combinaison du filtre d’ensemble de Kalman, de l’approche multimodèle et de la prévision météorologique d’ensemble se révèle être plus performante qu’aucun des outils utilisés séparément, à la fois en précision et fiabilité et ceci en raison d’unemeilleure prise en compte de l’incertitude que permet leur action complémentaire. L’ensemble multimodèle, composé par 20 modèles hydrologiques sélectionnés pour leurs différences structurelles, est capable de minimiser l’incertitude liée à la structure et à la conceptualisation, grâce au rôle spécifique que jouent les modèles au sein de l’ensemble. Cette approche, même si utilisée seule, peut conduire à des résultats supérieurs à ceux d’un modèle semi-distribué utilisé de façon opérationnelle. L’identification de la configuration optimale du filtre d’ensemble de Kalman afin de réduire l’incertitude sur les conditions initiales est complexe, notamment en raison de l’identification parfois contre-intuitive des hyper-paramètres et des variables d’état qui doivent être mises à jour, mais également des performances qui varient grandement en fonction du modèle hydrologique. Cependant, le filtre reste un outil de première importance car il participe efficacement à la réduction de l’incertitude sur les conditions initiales et contribue de façon importante à la dispersion de l’ensemble prévisionnel. Il doit être malgré tout assisté par l’approche multimodèle et la prévision météorologique d’ensemble pour pouvoir maintenir une dispersion adéquate pour des horizons dépassant le court terme. Il est également démontré que les systèmes qui sont plus précis et plus fiables fournissent en général une meilleure valeur économique, même si cette relation n’est pas définie précisément. Les différentes incertitudes inhérentes à la prévision hydrométéorologique ne sont pas totalement éliminées, mais en les traitant avec des outils spécifiques et adaptés, il est possible de fournir une prévision d’ensemble qui soit à la fois précise, fiable et économiquement attractive. / A proper consideration of the different sources of uncertainty is a key point in hydrometeorological forecasting. Ensembles are an attractive alternative to traditional deterministic forecasts that provide information about the likelihood of the outcomes. Moreover, ensembles can be generated wherever a source of uncertainty takes place in the hydrometeorological modeling chain. The global objective of this thesis is to identify a system that is able to decipher the three main sources of uncertainty in modeling, i.e. the model structure, the hydrological model initial conditions and the meteorological forcing uncertainty, to provide accurate, reliable, and valuable forecast. The different uncertainties should be quantified and reduced in a coherent way, that is to say that they should be addressed explicitly with a cohesive approach that ensures to handle them adequately without redundancy in the action of the different tools that compose the system. This motivated several sub-objectives, the first one of which focusing on the multimodel approach to identify its benefits in an operational framework. Secondly, the implementation and the features of the Ensemble Kalman Filter (EnKF) are put under scrutiny to identify an optimal implementation. The next step reunites the knowledge of the two first goals by merging their strengths and by adding the meteorological ensembles to build a framework that issues accurate and reliable forecasts. This system is expected to decipher the main sources of uncertainty in a coherent way and provides a framework to study the contribution of the different tools and their interactions. Finally, the focus is set on the forecast economic value and provides an attempt to relate the different systems that have been built to economic value and forecast quality. It is found that the combination of the EnKF, the multimodel, and ensemble forcing, allows to issue forecasts that are accurate and nearly reliable. The combination of the three tools outperforms any other used separately and the uncertainties that were considered are deciphered thanks to their complementary actions. The 20 dissimilar models that compose the multimodel ensemble are able to minimize the uncertainty related to the model structure, thanks to the particular role they play in the ensemble. Such approach has the capacity to outperform more a complex semi-distributed model used operationally. To deal optimally with the initial condition uncertainty, the EnKF implementation may be complex to reach because of the unintuitive specification of hyper-parameters and the selection of the state variable to update, and its varying compatibility with hydrological model. Nonetheless, the filter is a powerful tool to reduce initial condition uncertainty and contributes largely to the predictive ensemble spread. However, it needs to be supported by a multimodel approach and ensemble meteorological forcing to maintain adequate ensemble dispersion for longer lead times. Finally, it is shown that systems that exhibit better accuracy and reliability have generally higher economic value, even if this relation is loosely defined. The different uncertainties inherent to the forecasting process may not be eliminated, nonetheless by explicitly accounting for them with dedicated and suitable tools, an accurate, reliable, and valuable predictive ensemble can be issued.

Page generated in 0.0923 seconds