• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 3009
  • 1255
  • 255
  • 3
  • 2
  • 2
  • 1
  • 1
  • Tagged with
  • 4451
  • 1272
  • 876
  • 763
  • 730
  • 540
  • 497
  • 478
  • 474
  • 454
  • 341
  • 341
  • 314
  • 305
  • 300
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
151

Green anode paste compaction : experimental investigation, modeling and application

Lacroix, Olivier 25 March 2024 (has links)
Titre de l'écran-titre (visionné le 8 août 2023) / Les anodes de carbone sont des composants essentiels du procédé Hall-Héroult utilisé dans l'industrie de l'aluminium primaire. La mise en forme des anodes par compactage ou vibrocompactage a un impact significatif sur leur qualité et leurs différentes propriétés. La présence de gradients de densité dans les anodes peut causer leur surconsommation dans les cuves d'électrolyse et réduire leur performance. Ce projet vise à étudier le comportement thermomécanique de la pâte d'anode lors de sa mise en forme, à modéliser ce comportement et à examiner l'effet de la géométrie du moule sur la distribution de la densité dans l'anode. L'effet de la température de la pâte d'anode sur son comportement mécanique lors de la compaction a été étudié expérimentalement. Dans ce contexte, des essais de compaction monotones et des essais de friction ont été menés à des températures situées entre 130 °C et 170 °C. Les résultats ont révélé les effets importants de la température sur le comportement non linéaire de la pâte et ont également permis de déterminer les coefficients de friction statique et dynamique de l'interface pâte/acier. Une loi de comportement thermoviscoplastique non linéaire a été développée afin de modéliser le comportement de la pâte d'anode lors de sa compaction. Cette loi est basée sur un cadre thermodynamique, la théorie des grandes déformations et le concept de configuration naturelle. Les paramètres de la loi évoluent durant la compaction en fonction de la densité et de la température. Ils ont été identifiés à l'aide d'une procédure d'identification inverse. La loi de comportement a été implémentée dans le logiciel de simulation par éléments finis Abaqus à travers une sous-routine VUMAT, destinée à l'analyse dynamique explicite. Les simulations par éléments finis portant sur la mise en forme par compaction de géométries complexes ont été en mesure de prédire avec une bonne précision les profils de densité mesurés par tomodensitométrie. L'effet de la température ainsi que de différentes caractéristiques géométriques, telles que des arêtes chanfreinées et arrondies, des tourillons et des rainures de différentes dimensions, ont été étudié à l'aide de simulations par éléments finis. Dans cette optique, de petites anodes ont été compactées par éléments finis afin de déterminer si les paramètres susmentionnés peuvent améliorer l'uniformité de la densité. Par la suite, des simulations par éléments finis ont été réalisées sur une anode industrielle et différentes modifications de la géométrie du moule ont été proposées. Les résultats de ces simulations suggèrent que la réduction de la taille des rainures et la modification de leur géométrie pourraient améliorer de façon significative l'uniformité de la densité des anodes industrielles. / Carbon anodes are essential components of the Hall-Héroult process used in the primary aluminium industry. The anode forming process by compaction or vibrocompaction has a significant impact on their quality and properties. The presence of density gradients in the anode can cause carbon overconsumption in the electrolysis cells and negatively affect their performance. This project aims to study the thermomechanical behavior of the anode paste during compaction, to model this behavior and to examine the effect of the mold geometry on the density distribution in the anode. The effect of the anode paste temperature on its mechanical behavior during compaction was studied experimentally. In this context, monotonic compaction tests and friction tests were conducted at temperatures between 130 °C and 170 °C. The results revealed the significant effect of temperature on the nonlinear behavior of the paste and also allowed the determination of the static and kinetic friction coefficients of the paste/steel interface. A nonlinear thermo-viscoplastic constitutive law was developed to model the behavior of the anode paste during compaction and is based on a thermodynamic framework, the finite strain theory and the concept of natural configuration. The constitutive law's material parameters evolve during compaction as a function of density and temperature and were identified using an inverse identification procedure. The constitutive law was implemented in the finite element simulation software Abaqus through a VUMAT subroutine, intended for explicit dynamic analysis. The finite element simulations of the compaction of complex geometries were able to predict with good accuracy the density profiles measured by X-ray computed tomography. The effect of temperature as well as of different geometrical features, such as chamfered and rounded edges, stub holes and slots of different dimensions, was investigated using finite element analysis. To this end, small anodes were compacted through finite element simulations to determine if the aforementioned parameters can improve the density uniformity. Additional finite element simulations were performed on an industrial anode and different modifications to the mold geometry were proposed. The results of these simulations show that reducing the size of the slots and modifying their geometry could improve the density uniformity of industrial anodes.
152

Indice de stress financier pour le Canada : mesure de l'instabilité financière à l'aide de l'analyse en composantes principales

Morin, Catherine 20 April 2018 (has links)
Les marchés financiers sont souvent sujets à d’importantes perturbations, les plus récentes ayant été observées lors de la crise financière de 2008. Ces perturbations peuvent être qualifiées de stress financier, qui se définit comme une interruption du fonctionnement normal des marchés financiers. Ce mémoire propose de mesurer le stress du marché financier canadien, en s’inspirant de l’analyse effectuée par KLIESEN et SMITH [2010] pour les États-Unis. Ces auteurs, qui travaillent à la Réserve fédérale de Saint-Louis, proposent une approche basée sur une analyse en composante principale. Nos résultats montrent que le stress sur les marchés canadiens a une évolution similaire à celui des États-Unis. Un test de causalité de Granger indique que le stress financier américain cause du stress financier sur le marché canadien. Par la suite, la méthode d’analyse en composantes principales non linéaire par noyau (KPCA) est utilisée sur les données américaines et canadiennes. Cette nouvelle méthodologie permet de mieux illustrer le comouvement entre les séries temporelles, lorsque l’on admet des corrélations potentiellement non linéaires. Les résultats montrent que cette nouvelle méthode permet d’obtenir des graphiques dont le bruit est réduit, et avec des structures mieux définies. L’amplitude des évènements de stress est changée, mais l’indice garde la même évolution qualitative. / Financial markets are often affected by important perturbations, as witnessed during the 2008 financial meltdown. These perturbations can be seen as a form of financial stress and are defined as an interruption of normal working financial market. This thesis proposes to measure the financial stress in the Canadian market, using a principal component methodology used by the Saint-Louis Federal Reserve (KLIESEN and SMITH [2010]). Our results show that the financial stress occurring on the Canadian market is stongly related to financial stress: notably US financial stress granger causes financial stress on the Canadian market. Additionally, we use a kernel principal component analysis (KPCA) on both US and Canadian data, to account for second and third degree effects in covariance structures. The kernel analysis reduces the noise on the stress graph. Similar structures are visible and qualitative features are the same, but the relative amplitude of these structures is changed.
153

Calcul Stochastique et Modélisation

Pourhadi Kalehbasti, Ehsan 13 December 2023 (has links)
Titre de l'écran-titre (visionné le 26 avril 2023) / Ce mémoire vise à étudier le calcul stochastique et certains schémas et applications numériques dans des problèmes réels. Comme nous le savons, au cours des dernières décennies, il y a eu des demandes importantes d'outils et de stratégies de calcul stochastique dans divers domaines. L'un des domaines qui en a le plus besoin est la finance mathématique, où de nombreuses quantités financières, telles que le prix des actifs, sont des variables aléatoires ; Ainsi, les mathématiques algébriques, qui traitent des variables déterministes et non aléatoires, en finance, ont été moins employées à la place dans les équations différentielles stochastiques en tant que branche des mathématiques stochastiques ont reçu une attention significative dans le domaine de la finance. Tout au long de ce travail, en recueillant quelques faits et informations auxiliaires dans la théorie des probabilités, nous étudions le mouvement brownien, qui peut être observé dans des systèmes perturbés dans divers domaines, dont l'électronique, la physique, la biologie, la gestion et l'économie. Comme l'un des principaux objectifs de ce projet , nous introduisons l'intégration par rapport au mouvement brownien et aux processus associés (processus Itô), ce qui nous permettra de définir les équations différentielles stochastiques (EDSs). / This dissertation aims to study stochastic calculus and some numerical schemes and applications in real-life problems. As we know, during the last few decades, there have been significant demands for implements and strategies of stochastic calculus in various fields. One of the fields that has the most need is mathematical finance, where many financial quantities, such as the price of as sets, are random variables; thus, algebraic mathematics, which deals with deterministic and non-random variables, in finance has been employed less and instead in stochastic differential equations as a branch of stochastic mathematics have received significant attention in the field of finance. Throughout this work, by collecting some auxiliary facts and information in the probability theory, we study the Brownian motion, which can be observed in perturbed systems in various fields, including electronics, physics, biology, management, and economics. As one of the main goals of this project, we introduce the integration with respect to the Brownian motion and the related processes (Itô processes), which will enable us to define the stochastic differential equations (SDEs).
154

La construction de modèles géologiques 3D à l'ère de la normalisation / Construction de modèles géologiques tridimensionnelles à l'ère de la normalisation

Bédard, Karine 12 April 2018 (has links)
L’utilisation de modèles tridimensionnels représente une approche intéressante pour visualiser, comprendre et analyser un environnement géologique. La construction de modèles 3D et leur utilisation demeurent cependant peu répandues dans le domaine de la géologie. Cela peut être expliqué, entre autres, par la diversité des données à disposition et les nombreuses étapes à réaliser afin de construire un modèle 3D valide et cohérent par rapport à son utilisation. Afin d’aider les modélisateurs et les guider dans leur procédure de construction de modèles 3D, ce projet de maîtrise vise l’élaboration d’un guide procédural qui assemble logiquement les étapes de construction d’un modèle géologique 3D tout en décrivant formellement les données géométriques (ponctuelle, linéaire, surfacique et volumique) utilisées. Cette description formelle est basée sur la norme en information géographique ISO/TC211 à laquelle est ajoutée une extension pour la représentation des objets volumiques. Le guide proposé facilite la construction des modèles 3D par des modélisateurs non experts. Il a été testé par des non experts qui ont réussi dans 80% des cas à construire des modèles géologiques 3D ce qui permet d’en confirmer son efficacité et son utilité. / The use of three-dimensional models represents an interesting approach to visualize, understand and analyze a geological environment. In Earth sciences, construction of 3D models and their use remain however not very widespread. That can be explained, in part, by the diversity of available data and the numerous steps required to build a valid and coherent 3D model. The purpose of this project is thus to propose a procedural guide that logically assembles 3D geological model construction steps while formally describing geometrical data (point, line, surface and volume) used. This formal description is based on ISO/TC211 geographic information standards to which an extension for the representation of the volumetric objects is added. The proposed guide facilitates the construction of 3D models by non-expert modellers. It was tested by non-experts who succeeded, in a proportion of 80%, in building 3D geological models which allows us to confirm the effectiveness and utility of the guide.
155

Modélisation du comportement mécanique des structures en bétons fibrés à ultra-hautes performances

Gontero, Romain 25 November 2023 (has links)
Thèse en cotutelle, doctorat en génie civil : Université Laval, Québec, Canada, Philosophiæ doctor (Ph. D.) et Université Toulouse III - Paul Sabatier, Toulouse, France / Un modèle de comportement mécanique des bétons fibrés est développé et implanté dans le logiciel éléments finis Cast3m. Il vient compléter le modèle de fissuration orthotrope du béton Fluendo3D, en ajoutant la capacité de traiter des matériaux à fibres courtes, cylindriques et rectilignes. Ce modèle, qui s'appuie sur des données d'essais et certains mécanismes modélisés issus de la littérature, permet d'apporter des éléments de compréhension du comportement de ce type de matériau, et notamment concernant le phénomène de multi-fissuration. La caractérisation des phénomènes mis enjeu durant l'extraction des fibres est le point de départ de cette étude. Les effets de l'inclinaison des fibres par rapport à la direction d'extraction sont pris en compte et interviennent dans le comportement du modèle qui présente la capacité d'utiliser des orientations préférentielles de fibres. Le phénomène de multi-fissuration est représenté grâce à une loi d'effet d'échelle de Weibull qui permet de tenir compte de la dispersion des résistances à la traction du béton et d'expliquer le développement de la multi-fissuration. Cette représentation permet d'obtenir des distributions d'ouvertures de fissures dans des macro-éléments finis, et apporte donc une nouvelle précision dans le calcul des ouvertures de fissures dans des structures de grandes dimensions. / A model for the mechanical behavior of fiber-reinforced concrete is developed and implemented in Cast3m finite element software. It completes the orthotropic concrete cracking model Fluendo3D, by adding the ability to treat materials with short, cylindrical and straight fibers. This model, which is based on tests results and assumptions of mechanisms modelled from litterature, provides elements of understanding of the behavior of this type of material, especially concerning the phenomenon of multi-cracking. The characterization of the phenomena involved during the extraction of the fibers is the starting point of this study. The effects of the inclination of the fibers with respect to the direction of extraction are taken into account and intervene in the behavior of the model which presents the capacity to use preferential orientations of fibers. The multi-cracking phenomenon is represented by a Weibull scaling law that allows to take into account the dispersion of the concrete tensile strengths and to explain the development of multi-cracking process. This representation makes it possible to obtain crack opening distributions in macro-finite elements, and thus brings a new precision in the calculation of cracks openings in large structures.
156

Modélisation des rendements financiers à l'aide de la distribution de Laplace asymétrique généralisée

Pelletier, François 20 April 2018 (has links)
Les modèles classiques en finance sont basés sur des hypothèses qui ne sont pas toujours vérifiables empiriquement. L’objectif de ce mémoire est de présenter l’utilisation de la distribution de Laplace asymétrique généralisée comme une alternative intéressante à ces derniers. Pour ce faire, on utilise ses différentes propriétés afin de développer des méthodes d’estimation paramétrique, d’approximation et de test, en plus d’élaborer quelques principes d’évaluation de produits dérivés. On présente enfin un exemple d’application numérique afin d’illustrer ces différents concepts. / Classical models in finance are based on a set of hypotheses that are not always empirically verifiable. The main objective behind this master’s thesis is to show that the generalized asymmetric Laplace distribution is an interesting alternative to those models. To support this idea, we focus on some of its properties to develop parametric estimation, approximation and testing methods, then we work out some principles of derivatives pricing. Finally, we have a numerical example to illustrate these concepts.
157

L'analyse de frontières stochastiques appliquée à la prédiction dosimétrique pour la planification de traitement en radiothérapie externe

Kroshko, Angelika 16 January 2024 (has links)
Thèse ou mémoire avec insertion d'articles / Cette thèse porte sur le développement de modèles mathématiques qui permettent de prédire des métriques quantifiant la dose pour la planification de radiothérapie externe. La planification de traitement en radiothérapie externe est un processus complexe et itératif. Le planificateur spécifie des objectifs à atteindre et l'optimisation du plan de traitement est faite par ordinateur. Chaque patient ayant une anatomie propre, il peut être difficile de savoir si le plan de traitement est optimal c.à.d. où les objectifs de couverture en dose du volume cible sont remplis tout en minimisant la dose aux organes sains pour diminuer la possibilité d'effets secondaires néfastes. Afin de pallier cette problématique, plusieurs types de contrôles de qualité (CQ) en planification de traitement ont été développés. Plus précisément, le projet proposé utilise l'analyse de frontières stochastiques, une méthode mathématique conçue pour l'économétrie, afin de déterminer la dose minimale atteignable aux organes à risque. La planification de traitement en radiothérapie externe, les techniques utilisées ainsi que les principaux défis sont d'abord présentés dans le cadre de cette thèse. Une revue des principaux types de contrôles de qualité des plans de traitement est par la suite présentée afin de mettre en contexte le projet doctoral. Les principaux principes mathématiques employés tels que l'analyse de frontières stochastiques et la gestion de données manquantes sont par la suite abordés. Finalement, l'analyse de frontières stochastiques appliquée à la prédiction de paramètres dosimétriques en planification de traitement est présentée. Son approche fréquentiste est utilisée pour la prédiction dosimétrique pour le rectum et la vessie pour le cancer de la prostate traité par VMAT. Sept paramètres géométriques ont été extraits afin de caractériser la relation entre les organes à risque et le volume cible. Au total, 37 paramètres dosimétriques ont été prédits pour les deux organes à risque. Le modèle développé a été testé sur une cohorte de 30 patients avec une dose de prescription de 60-70 Gy où 77% (23 sur 30) des DVH prédits pour le rectum et la vessie présentent une déviation de 5% ou moins avec le DVH planifié. De plus, l'analyse de frontières stochastiques bayésienne, en plus d'un modèle de gestion de données manquantes, sont utilisés pour la prédiction dosimétrique de six organes à risque pour le cancer du poumon traité par SBRT. Au total, 16 indices dosimétriques ont été prédits pour l'arbre bronchique principal, le cœur, l'œsophage, le PRV de la moelle, les vaisseaux ainsi que la paroi thoracique. Le modèle prédictif est testé sur une cohorte de 50 patients. La différence moyenne entre la dose prédite et planifiée pour le se situe à 1.5 ± 1.9 Gy et 4.9 ± 5.3 Gy pour le D0.35cc du PRV de la moelle et le D0.035cc de l'arbre bronchique principal respectivement. L'analyse de frontières stochastiques est ainsi démontrée comme une solide base pour un CQ en planification de traitement en radiothérapie externe. / This thesis is on the development of mathematical models predicting dosimetric metrics for treatment planning in external beam radiation therapy (EBRT). EBRT treatment planning is complex and iterative. Planner sets plan objectives to attain during the computerized plan optimization process. Because of specific patient anatomical variation, it is difficult to determine if a plan is optimal regarding the target coverage and the sparing of the organs-at-risk. Several quality control such as knowledge-based planning and multicriteria optimization were developed in order to address this problematic. This thesis focus on the use of an econometric method, Stochastic Frontier Analysis, to predict minimum achievable dose to organs-at-risk for several treatment sites. EBRT treatment planning, techniques and challenges are first discussed. A review of the most common quality controls is made in order to assess the importance of the project presented in this thesis. Mathematical considerations such as the theoretical foundation of stochastic frontier analysis and missing data management are also discussed. Stochastic frontier analysis is used to develop predictive models of dose distribution in treatment planning. Frequentist stochastic frontier analysis is used to predict dosimetric metrics for the rectum and the bladder for prostate cancer treated by VMAT. Seven geometric parameters are extracted to characterize the relationship between the organs-at-risk with the planning volume. In total, 37 dosimetric parameters are tested. The developped model is tested using validation cohort (30 patients with prescribed dose between 60 and 70 Gy) where 77% (23 out of 30) of the predicted DVHs present a 5% or less dose deterioration with the planned DVH. Bayesian stochastic frontier analysis with a missing data management is then presented for the prediction of dosimetric parameters for 6 organs-at-risk for lung cancer treated by SBRT. 16 DVH metrics were predicted for the main bronchus, heart, esophagus, spinal cord PRV, great vessels and chest wall. The predictive model is tested on a test group of 50 patients. The mean difference between the observed and predicted values ranges between 1.5 ± 1.9 Gy and 4.9 ± 5.3 Gy for the spinal cord PRV D0.35cc and the main bronchus D0.035cc respectively. Stochastic frontier analysis is considered to be a new and valid method used in order to develop a quality control for EBRT treatment planning.
158

La résilience des réseaux complexes

Laurence, Edward 27 January 2024 (has links)
Les systèmes réels subissant des perturbations par l’interaction avec leur environnement sont susceptibles d’être entraînés vers des transitions irréversibles de leur principal état d’activité. Avec la croissance de l’empreinte humaine mondiale sur les écosystèmes, la caractérisation de la résilience de ces systèmes complexes est un enjeu majeur du 21e siècle. Cette thèse s’intéresse aux systèmes complexes pour lesquels il existe un réseau d’interactions et où les composantes sont des variables dynamiques. L’étude de leur résilience exige la description de leurs états dynamiques qui peuvent avoir jusqu’à plusieurs milliers de dimensions. Cette thèse propose trois nouvelles méthodes permettant de faire des mesures de la dynamique en fonction de la structure du réseau. L’originalité de ce travail vient de la diversité des approches présentées pour traiter la résilience, en débutant avec des outils basés sur des modèles dynamiques définis et en terminant avec d’autres n’exploitant que des données récoltées. D’abord, une solution exacte à une dynamique de cascade (modèle de feu de forêt) est développée et accompagnée d’un algorithme optimisé. Comme sa portée pratique s’arrête aux petits réseaux, cette méthode signale les limitations d’une approche avec un grand nombre de dimensions. Ensuite, une méthode de réduction dimensionnelle est introduite pour établir les bifurcations dynamiques d’un système. Cette contribution renforce les fondements théoriques et élargit le domaine d’applications de méthodes existantes. Enfin, le problème de retracer l’origine structurelle d’une perturbation est traité au moyen de l’apprentissage automatique. La validité de l’outil est supportée par une analyse numérique sur des dynamiques de propagation, de populations d’espèces et de neurones. Les principaux résultats indiquent que de fines anomalies observées dans la dynamique d’un système peuvent être détectées et suffisent pour retracer la cause de la perturbation. L’analyse témoigne également du rôle que l’apprentissage automatique pourrait jouer dans l’étude de la résilience de systèmes réels. / Real complex systems are often driven by external perturbations toward irreversible transitions of their dynamical state. With the rise of the human footprint on ecosystems, these perturbations will likely become more persistent so that characterizing resilience of complex systems has become a major issue of the 21st century. This thesis focuses on complex systems that exhibit networked interactions where the components present dynamical states. Studying the resilience of these networks demands depicting their dynamical portraits which may feature thousands of dimensions. In this thesis, three contrasting methods are introduced for studying the dynamical properties as a function of the network structure. Apart from the methods themselves, the originality of the thesis lies in the wide vision of resilience analysis, opening with model-based approaches and concluding with data-driven tools. We begin by developing an exact solution to binary cascades on networks (forest fire type) and follow with an optimized algorithm. Because its practical range is restricted to small networks, this method highlights the limitations of using model-based and highly dimensional tools. Wethen introduce a dimension reduction method to predict dynamical bifurcations of networked systems. This contribution builds up on theoretical foundations and expands possible applications of existing frameworks. Finally, we examine the task of extracting the structural causesof perturbations using machine learning. The validity of the developed tool is supported by an extended numerical analysis of spreading, population, and neural dynamics. The results indicate that subtle dynamical anomalies may suffice to infer the causes of perturbations. It also shows the leading role that machine learning may have to play in the future of resilience of real complex systems.
159

On the modelization of optical devices: from dielectric cavities to radiating structures

Dumont, Joey 20 April 2018 (has links)
Premièrement, nous allons explorer la modélisation des cavités diélectriques bidimensionnelles. Plus spécifiquement, nous allons développer différentes méthodes de modélisation valides pour des cavités diélectriques à géométrie et profil d’indice de réfraction arbitraires. Ce degré de liberté supplémentaire pourra être utilisé dans le design de microcavités pour des applications spécifiques. Un formalisme de diffusion permettra de définir les modes caractéristiques de ce type de structure et d’en calculer les résonances. Une analyse numérique des équations résultantes montrera que les méthodes intégrales sont possiblement meilleures que les méthodes différentielles. Deuxièmement, nous discuterons de la modélisation de structures radiatives. Nous utiliserons les méthodes développées dans la section précédente pour modéliser les propriétés lasers des microcavités bidimensionnelles prédites par la théorie SALT. Nous aborderons aussi la modélisation de fibres-antennes RF, plus particulièrement les câbles coaxiaux à perte radiative, dans le but d’intégrer des fonctionnalités radio dans un textile de manière transparente à l’utilisateur. / In this essay, we will develop different modelization techniques valid for bidimensional dielectric cavities having arbitrary geometries and refractive index profiles and provide a way to accurately compute the resonances of such structures. The refractive index thus becomes an additional design variable for dielectric cavities. A numerical analysis of of the underlying equations of the theory will reveal that perhaps it is best to forego differential equations in favour of integral ones for the scattering problem. In the second part, we will discuss the modelization of radiating structures. Using the formalism developed in the previous section, we will study the lasing properties of bidimensional cavities using the newly developed self-consistent ab initio laser theory (SALT). We will also touch on the modelization of the class of antenna known as leaky coax
160

Modelling and model-based optimization of N-removal WRRFs : reactive settling, conventional & short-cut N-removal processes

Kirim, Gamze 11 November 2023 (has links)
La détérioration des ressources en eau et la grande quantité d'eau polluée générée dans les sociétés industrialisées donnent une importance fondamentale aux procédés de traitement des eaux usées pour préserver les ressources, conformément à l'objectif 6 des 17 objectifs de développement durable des Nations Unies. Le rejet de nutriments tels que l'ammoniac par les eaux usées est un problème important, l'élimination de l'azote (N) est donc l'un des processus critiques de toute station de récupération des ressources en eau (StaRRE). L'objectif de ce projet de recherche doctoral est d'améliorer la compréhension des mécanismes d'élimination de l'azote dans le traitement biologique des eaux usées grâce à la modélisation, et d'optimiser les StaRRE existantes pour réduire la consommation d'énergie et de ressources. Dans ce cadre, 3 études différentes ont été réalisées. Tout d'abord, un modèle de décanteur réactif unidimensionnel a été développé. Celui-ci prédit le comportement de décantation de boues à des concentrations élevées de boues ainsi que les conversions biocinétiques dans le processus de décantation secondaire (DS). Il a été constaté qu'une description précise des réactions biocinétiques dans la DS impose des défis de calibration élevés pour le modèle de décantation, car ce dernier doit capturer les profils de concentration complets de la biomasse active dans la couverture de boues. Le modèle calibré a pu prédire avec précision les profils de concentration des effluents et du lit de boues dans la DS. Le modèle développé peut être utilisé pour le contrôle et la simulation des StaRRE afin d'obtenir de meilleures prédictions des concentrations d'effluents et des boues de retour, et aussi de calculer correctement le bilan massique d'azote d'une StaRRE. Deuxièmement, un modèle à l'échelle de l'usine a été mis en place pour un système de pré-dénitrification conventionnel pour la StaRRE pilEAUte à l'échelle pilote. Une méthodologie de calibration du modèle par étapes a été adoptée en fusionnant les principaux protocoles de calibration de modèle, tout en mettant l'accent sur le modèle biocinétique. Le modèle de la StaRRE pilEAUte, y compris le décanteur réactif développé, a été calibré et validé pour simuler les variables de modèle sélectionnées, puis utilisé pour une analyse de scénarios plus approfondie de l'optimisation de la consommation d'énergie et des ressources. Les résultats de l'analyse des scénarios ont montré le potentiel d'optimisation du système conventionnel d'élimination d'azote grâce à la réduction de l'aération et du retour interne des nitrates. Ils ont également démontré que la dénitrification dans le décanteur secondaire peut avoir une contribution significative à la capacité globale d'élimination d'azote d'une StaRRE lorsque la liqueur mixte peut traverser le lit de boues. Troisièmement, l'étude visait à évaluer l'applicabilité des stratégies de commande continu et intermittent du rapport de l'ammoniac par rapport aux NOX-N (commande AvN) sur la StaRRE pilEAUte. Les stratégies de commande de l'aération par AvN sont appliquées en amont d'un réacteur de désammonification, qui est un processus d'élimination efficace d'azote avec un besoin de ressources réduit (en termes d'aération et carbone) par rapport aux systèmes conventionnels. Les deux stratégies de commande testées pourraient être réalisées grâce à une commande automatique. Cependant, le maintien du rapport AvN dans l'effluent à la valeur souhaitée (1) dépend fortement des conditions opérationnelles telles que les variations de l'affluent, le temps de rétention des boues et la fiabilité des capteurs. Même si la recherche est guidée par les études de StaRRE à l'échelle pilote, les méthodologies développées pour démontrer et modéliser les processus et les conditions opérationnelles économes en énergie et en ressources sont applicables et transférables à d'autres études de cas à plein échelle. / Deterioration of water resources and the large amount of polluted water generated in industrialized societies gives fundamental importance to waste water treatment processes to preserve resources in accordance with goal 6 of the 17 sustainable development goals of the United Nations. Discharge of nutrients such as ammonia with waste water is a significant issue, thus nitrogen (N) removal is one of the critical processes of any water resource recovery facilities (WRRF). The objective of this PhD research project was to improve the understanding of N-removal mechanisms in biological treatment of wastewater through modelling and to optimize existing WRRFs to reduce energy and resource consumption. Within this context, 3 different studies were carried out. First, a one dimensional reactive settler model was developed that predicts the settling behaviour at high sludge concentrations together with biokinetic conversions in the secondary settling process. It was found that an accurate description of biokinetic reactions in the SST puts high calibration requirements on the settling model as it must properly capture the full concentration profiles of active biomass in the sludge blanket. The calibrated model was able to accurately predict the effluent and sludge blanket concentration profiles in the SST. The developed model can be used for control and simulation of WRRFs for better predictions of SST effluent and underflow concentrations and also properly calculate the nitrogen mass balance of a WRRF. Second, a plant-wide model was set up for a conventional pre-denitrification system for the pilot-scale pilEAUte WRRF. A step-wise model calibration methodology was adopted by merging main existing model calibration protocols while placing emphasis on the biokinetic model. The pilEAUte model, including the developed reactive settler, was calibrated and validated to simulate the selected model variables and used for further scenario analysis for energy and resource optimization. The scenario analysis results showed the optimization potential of conventional N removal systems through application of reduced aeration and internal nitrate recycling. It also demonstrated that denitrification in the secondary settler can contribute significantly to the overall N removal capacity of the WRRF when mixed liquor can pass through the sludge blanket. Third, it was aimed to evaluate the applicability of continuous and intermittent Ammonia vs NOₓ-N (AvN) control strategies on the pilEAUte WRRF. The AvN aeration control strategies are applied prior to a deammonification stage which is a short-cut N removal process with reduced resource (aeration and carbon) requirements in comparison to conventional systems. Both strategies could be achieved through automatic control. However, keeping the AvN ratio in the effluent on the desired value highly depends on operational conditions such asinfluent variations, sludge retention time and the sensor's measurement reliability.

Page generated in 0.0462 seconds