• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 583
  • 184
  • 2
  • Tagged with
  • 771
  • 771
  • 489
  • 237
  • 106
  • 100
  • 97
  • 91
  • 90
  • 85
  • 81
  • 76
  • 72
  • 62
  • 61
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Development of an alternative design method for aluminium open cross-sections using the Overall Interaction Concept

Coderre, Tristan 18 January 2023 (has links)
L'utilisation accrue de l'aluminium structural au cours des dernières décennies s'explique par ses nombreux avantages, tels que son excellente résistance par rapport à son poids, sa résistance à la corrosion et ses bénéfices environnementaux. Dû à son coup initial élevé, l'optimisation des méthodes de conception est essentielle pour exploiter pleinement ces propriétés. Cependant, les normes actuelles utilisent des approches simplifiées pour prédire la résistance des éléments en aluminium, qui ne sont pas optimisées pour tenir compte des effets de l'écrouissage, des instabilités, des propriétés réduites dans la zone affectée thermiquement et des formes extrudées souvent complexes. Ce mémoire présente le développement d'une méthode alternative de dimensionnement des sections ouvertes en aluminium, basée sur l'Overall Interaction Concept (O.I.C.). Cette approche de conception innovante est basée sur l'interaction entre résistance et stabilité, tout en considérant les imperfections géométriques et matérielles. De plus, elle permet d'obtenir des résultats précis et cohérents par l'utilisation de courbes de flambement continues. Un modèle numérique d'éléments finis a été développé pour prédire avec précision la résistance en section des éléments en aluminium. Son efficacité a été validée en comparant les résultats à ceux de tests expérimentaux. Des études paramétriques approfondies ont ensuite été menées, permettant d'étudier l'impact de diverses géométries, d'alliages et de cas de charge sur la résistance. Avec les résultats de plus de 4500 simulations numériques non linéaires, des propositions de calculs de type O.I.C. ont été formulées pour la résistance locale des sections d'aluminium extrudées et soudées en forme de "I". La performance des propositions a été évaluée en la comparant d'abord aux résultats numériques, puis aux prévisions de résistance des normes de conception d'aluminium canadienne, européenne et américaine. Les comparaisons ont prouvé que la méthode de conception de l'O.I.C. mène à des résultats beaucoup plus précis que les normes actuelles, tout en étant plus simple et plus efficace. / The increased use of structural aluminium in the last decades can be explained by the many advantages of this material, such as its great strength-to-weight ratio, resistance to corrosion, and environmental benefits. Due to its high initial cost, optimization of design methods is essential to fully benefit of these properties. However, current standards use simplified approaches to predict the resistance of aluminium elements, that are not optimized to account for the effects of strain hardening, instabilities, heat reduced properties and often complex extruded shapes. This thesis presents the investigations conducted for the development of an alternative design method for aluminium open cross-sections, based on the Overall Interaction Concept (O.I.C.). This innovative design approach relies on the interaction between resistance and stability, and also allows to consider geometrical and material imperfections. Moreover, it allows to obtain precise and consistent results by the use of continuous buckling curves. A numerical finite element model was developed to accurately predict the cross-sectional resistance of aluminium elements. Its efficiency was validated by comparing the results to available experimental test data. Extensive parametric studies were then conducted, allowing to study the impact of various geometries, alloys, and load cases on the resistance. Using the results from more than 4500 nonlinear numerical simulations, O.I.C.-type design proposals were formulated for the local resistance of extruded and welded aluminium sections of "I" shape. The performance of the proposals was evaluated by first comparing it to the numerical results, then to the resistance predictions from the Canadian, European, and American aluminium design standards. The comparisons showed that the O.I.C. design proposal leads to much more accurate results than the current standards, while still being simpler and more efficient.
32

L'analyse de frontières stochastiques appliquée à la prédiction dosimétrique pour la planification de traitement en radiothérapie externe

Kroshko, Angelika 16 January 2024 (has links)
Thèse ou mémoire avec insertion d'articles / Cette thèse porte sur le développement de modèles mathématiques qui permettent de prédire des métriques quantifiant la dose pour la planification de radiothérapie externe. La planification de traitement en radiothérapie externe est un processus complexe et itératif. Le planificateur spécifie des objectifs à atteindre et l'optimisation du plan de traitement est faite par ordinateur. Chaque patient ayant une anatomie propre, il peut être difficile de savoir si le plan de traitement est optimal c.à.d. où les objectifs de couverture en dose du volume cible sont remplis tout en minimisant la dose aux organes sains pour diminuer la possibilité d'effets secondaires néfastes. Afin de pallier cette problématique, plusieurs types de contrôles de qualité (CQ) en planification de traitement ont été développés. Plus précisément, le projet proposé utilise l'analyse de frontières stochastiques, une méthode mathématique conçue pour l'économétrie, afin de déterminer la dose minimale atteignable aux organes à risque. La planification de traitement en radiothérapie externe, les techniques utilisées ainsi que les principaux défis sont d'abord présentés dans le cadre de cette thèse. Une revue des principaux types de contrôles de qualité des plans de traitement est par la suite présentée afin de mettre en contexte le projet doctoral. Les principaux principes mathématiques employés tels que l'analyse de frontières stochastiques et la gestion de données manquantes sont par la suite abordés. Finalement, l'analyse de frontières stochastiques appliquée à la prédiction de paramètres dosimétriques en planification de traitement est présentée. Son approche fréquentiste est utilisée pour la prédiction dosimétrique pour le rectum et la vessie pour le cancer de la prostate traité par VMAT. Sept paramètres géométriques ont été extraits afin de caractériser la relation entre les organes à risque et le volume cible. Au total, 37 paramètres dosimétriques ont été prédits pour les deux organes à risque. Le modèle développé a été testé sur une cohorte de 30 patients avec une dose de prescription de 60-70 Gy où 77% (23 sur 30) des DVH prédits pour le rectum et la vessie présentent une déviation de 5% ou moins avec le DVH planifié. De plus, l'analyse de frontières stochastiques bayésienne, en plus d'un modèle de gestion de données manquantes, sont utilisés pour la prédiction dosimétrique de six organes à risque pour le cancer du poumon traité par SBRT. Au total, 16 indices dosimétriques ont été prédits pour l'arbre bronchique principal, le cœur, l'œsophage, le PRV de la moelle, les vaisseaux ainsi que la paroi thoracique. Le modèle prédictif est testé sur une cohorte de 50 patients. La différence moyenne entre la dose prédite et planifiée pour le se situe à 1.5 ± 1.9 Gy et 4.9 ± 5.3 Gy pour le D0.35cc du PRV de la moelle et le D0.035cc de l'arbre bronchique principal respectivement. L'analyse de frontières stochastiques est ainsi démontrée comme une solide base pour un CQ en planification de traitement en radiothérapie externe. / This thesis is on the development of mathematical models predicting dosimetric metrics for treatment planning in external beam radiation therapy (EBRT). EBRT treatment planning is complex and iterative. Planner sets plan objectives to attain during the computerized plan optimization process. Because of specific patient anatomical variation, it is difficult to determine if a plan is optimal regarding the target coverage and the sparing of the organs-at-risk. Several quality control such as knowledge-based planning and multicriteria optimization were developed in order to address this problematic. This thesis focus on the use of an econometric method, Stochastic Frontier Analysis, to predict minimum achievable dose to organs-at-risk for several treatment sites. EBRT treatment planning, techniques and challenges are first discussed. A review of the most common quality controls is made in order to assess the importance of the project presented in this thesis. Mathematical considerations such as the theoretical foundation of stochastic frontier analysis and missing data management are also discussed. Stochastic frontier analysis is used to develop predictive models of dose distribution in treatment planning. Frequentist stochastic frontier analysis is used to predict dosimetric metrics for the rectum and the bladder for prostate cancer treated by VMAT. Seven geometric parameters are extracted to characterize the relationship between the organs-at-risk with the planning volume. In total, 37 dosimetric parameters are tested. The developped model is tested using validation cohort (30 patients with prescribed dose between 60 and 70 Gy) where 77% (23 out of 30) of the predicted DVHs present a 5% or less dose deterioration with the planned DVH. Bayesian stochastic frontier analysis with a missing data management is then presented for the prediction of dosimetric parameters for 6 organs-at-risk for lung cancer treated by SBRT. 16 DVH metrics were predicted for the main bronchus, heart, esophagus, spinal cord PRV, great vessels and chest wall. The predictive model is tested on a test group of 50 patients. The mean difference between the observed and predicted values ranges between 1.5 ± 1.9 Gy and 4.9 ± 5.3 Gy for the spinal cord PRV D0.35cc and the main bronchus D0.035cc respectively. Stochastic frontier analysis is considered to be a new and valid method used in order to develop a quality control for EBRT treatment planning.
33

La résilience des réseaux complexes

Laurence, Edward 26 November 2020 (has links)
Les systèmes réels subissant des perturbations par l’interaction avec leur environnement sont susceptibles d’être entraînés vers des transitions irréversibles de leur principal état d’activité. Avec la croissance de l’empreinte humaine mondiale sur les écosystèmes, la caractérisation de la résilience de ces systèmes complexes est un enjeu majeur du 21e siècle. Cette thèse s’intéresse aux systèmes complexes pour lesquels il existe un réseau d’interactions et où les composantes sont des variables dynamiques. L’étude de leur résilience exige la description de leurs états dynamiques qui peuvent avoir jusqu’à plusieurs milliers de dimensions. Cette thèse propose trois nouvelles méthodes permettant de faire des mesures de la dynamique en fonction de la structure du réseau. L’originalité de ce travail vient de la diversité des approches présentées pour traiter la résilience, en débutant avec des outils basés sur des modèles dynamiques définis et en terminant avec d’autres n’exploitant que des données récoltées. D’abord, une solution exacte à une dynamique de cascade (modèle de feu de forêt) est développée et accompagnée d’un algorithme optimisé. Comme sa portée pratique s’arrête aux petits réseaux, cette méthode signale les limitations d’une approche avec un grand nombre de dimensions. Ensuite, une méthode de réduction dimensionnelle est introduite pour établir les bifurcations dynamiques d’un système. Cette contribution renforce les fondements théoriques et élargit le domaine d’applications de méthodes existantes. Enfin, le problème de retracer l’origine structurelle d’une perturbation est traité au moyen de l’apprentissage automatique. La validité de l’outil est supportée par une analyse numérique sur des dynamiques de propagation, de populations d’espèces et de neurones. Les principaux résultats indiquent que de fines anomalies observées dans la dynamique d’un système peuvent être détectées et suffisent pour retracer la cause de la perturbation. L’analyse témoigne également du rôle que l’apprentissage automatique pourrait jouer dans l’étude de la résilience de systèmes réels. / Real complex systems are often driven by external perturbations toward irreversible transitions of their dynamical state. With the rise of the human footprint on ecosystems, these perturbations will likely become more persistent so that characterizing resilience of complex systems has become a major issue of the 21st century. This thesis focuses on complex systems that exhibit networked interactions where the components present dynamical states. Studying the resilience of these networks demands depicting their dynamical portraits which may feature thousands of dimensions. In this thesis, three contrasting methods are introduced for studying the dynamical properties as a function of the network structure. Apart from the methods themselves, the originality of the thesis lies in the wide vision of resilience analysis, opening with model-based approaches and concluding with data-driven tools. We begin by developing an exact solution to binary cascades on networks (forest fire type) and follow with an optimized algorithm. Because its practical range is restricted to small networks, this method highlights the limitations of using model-based and highly dimensional tools. Wethen introduce a dimension reduction method to predict dynamical bifurcations of networked systems. This contribution builds up on theoretical foundations and expands possible applications of existing frameworks. Finally, we examine the task of extracting the structural causesof perturbations using machine learning. The validity of the developed tool is supported by an extended numerical analysis of spreading, population, and neural dynamics. The results indicate that subtle dynamical anomalies may suffice to infer the causes of perturbations. It also shows the leading role that machine learning may have to play in the future of resilience of real complex systems.
34

Discrete element method applied to the vibration process of coke particles

Majidi, Behzad 19 April 2018 (has links)
Les propriétés physiques, mécaniques et chimiques des matières premières ont un effet majeur sur la qualité des anodes en carbone pour le procédé de production d’aluminium. Ce travail tente d’étudier la faisabilité de l’application de simulation de la Méthode des Élément Discrets (DEM) à la technologie de production d’anodes. L’effet de la forme des particules et de la distribution de leurs tailles sur la densité apparente vibrée (VBD) d’échantillons de coke sec est étudié. Les particules de coke sont numérisées en utilisant des techniques d’imagerie à deux et trois dimensions. Ces images donnent les formes et les aspects réels des particules qui sont utilisées pour les modèles DEM pour les tests VBD pour le codage de flux de particules (PFC). Le coefficient de friction interne des particules de coke est estimé par la méthode de mesure d’angle au repos. Les résultats ont montrés comme attendu, que la VBD des échantillons de coke est affectée par la forme et la distribution de taille des particules. Les simulations à deux dimensions ont confirmé qu’en général, les échantillons formés de particules de tailles poly-dispersées ont une VBD plus haute que ceux dont la taille des particules est mono-dispersée. De plus, la VBD des échantillons augmente lorsque la fraction de grosses particules augmente. Cependant, la présence de 10 % massique de particules fines est nécessaire pour remplir les pores entre les grosses particules. De même pour la simulation 3D, le modèle suit la tendance des données expérimentales montrant que dans une éprouvette de 2,9 cm de diamètre, l’augmentation de la quantité de particules de - 4+6 mesh (de 3,36 à 4,76 mm) engendre une augmentation de la VBD. En conclusion, un modèle DEM approprié est capable de prédire le réarrangement des particules et l’évolution de la densité pendant le processus de vibration. / Physical, mechanical and chemical properties of raw materials have considerable effects on quality of carbon anodes for aluminium smelting process. The present work attempts to investigate the feasibility of application of Discrete Element Method (DEM) simulations in anode production technology. Effects of coke particles shape and size distribution on vibrated bulk density (VBD) of dry coke samples are studied. Coke particles are digitized using two-dimensional and three-dimensional imaging techniques and real-shape particles are used in DEM models of VBD test in Particle Flow Code (PFC). Internal friction coefficient of coke particles were estimated by means of angle of repose tests. Results showed that, as expected, VBD of coke samples is affected by shape and size distribution of the particles. Two-dimensional simulations confirmed that in general, mixed-sized samples have higher VBD than mono-sized cokes and as the fraction of coarse particles increases vibrated bulk density increases. However, existence of 10 wt.% of fine particles to fill the pores between coarse particles is essential. For 3D simulations also, the model follows the trend of experimental data showing that in the container of 2.9 mm diameter, as the content of -4+6 mesh (3.36-4.76 mm) particles increase, VBD increases. It can be concluded that a well-tailored DEM model is capable of predicting the particle rearrangement and density evolution during the vibration process.
35

Modélisation et résolution heuristique de l'allocation des ressources en gestion de projets

Gagnon, Michel, Gagnon, Michel 12 February 2024 (has links)
Cette recherche introduit un modèle de décision multiobjectif qui aide le gestionnaire de projets à allouer les ressources à son projet. Le modèle comporte trois axes de décision représentant les compromis à faire entre la durée du projet, le coût du projet et les quantités de ressources allouées. L'allocation des ressources est déterminée en considérant le coût de chaque ressource. Le modèle incorpore le processus d'assignation des ressources, une problématique typique de l'affectation des ressources en gestion projets, à celui de !'ordonnancement des activités. Pour le résoudre, il a fallu concevoir et expérimenter de nouveaux algorithmes. La recherche comporte trois volets où chacun des volets alimente le volet suivant. Le premier volet propose de nouvelles procédures pour minimiser la durée du projet sous contraintes de disponibilités variables de ressources, dans le cas de problèmes ayant des activités avec un seul mode de réalisation ou de problèmes ayant des activités avec plusieurs modes de réalisation. Ces procédures comprennent une nouvelle règle de priorité selon un schème que nous qualifions d'ensembliste et une adaptation de la méthode Tabou. Les résultats de l'expérimentation montrent l'efficacité de la nouvelle règle de priorité et de l'adaptation de la méthode Tabou. Le deuxième volet propose des procédures pour minimiser le coût de disponibilité et le coût d'assignation des ressources allouées sous contrainte d'une date d'échéance du projet. La procédure incorpore l'adaptation de la méthode Tabou élaborée au volet précédent. Les résultats de l'expérimentation montrent la bonne performance des procédures développées. Le troisième volet propose une approche interactive par laquelle le gestionnaire de projets évalue des choix d'allocation de ressources afin de parvenir à une solution de compromis entre les trois axes de décision. Pour y parvenir, on évalue des solutions dans une région délimitée par les buts du gestionnaire de projets au lieu d'effectuer une approximation de la frontière efficace. L'expérimentation montre la faisabilité de l'approche interactive ainsi que l'efficacité de l'adaptation proposée de la méthode Tabou. Ces trois volets permettent d'élaborer l'architecture d'un Système Interactif d'Aide à la Décision pour l'allocation multiobjective des ressources en gestion de projets.
36

Recouvrement de géométries complexes et applications pour l'étude d'une turbine hydraulique de type bulbe

Taraud, Jean-Philippe 20 April 2018 (has links)
Ce travail de recherche a pour objectif de caractériser les pièces de la roue et de la trompette d’une turbine bulbe à partir d’un modèle réel. Suite à la reconstruction du modèle numérisé de la roue, cette géométrie sert de base pour le développement d’une aube instrumentée pour des mesures de pression. Un appareil de mesure laser sans contact est utilisé conjointement avec un bras de mesure portable de précision afin de récupérer les géométries du modèle sous forme de nuages de points. Ils sont ensuite traités dans un modeleur 3D afin d’obtenir la géométrie numérisée. Des analyses de déviations sont effectuées pour valider les modèles informatiques, quantifier les déviations et le respect de la norme CEI60193 par la roue. Une aube de roue instrumentée avec capteurs de pression embarqués est finalement développée pour investiguer les fluctuations de pression sur la roue en régime permanent et transitoire. / This research work deals with the geometry recovery of the runner and the draft tube of a bulb turbine, based on the real scale model. Once the geometry recovery of the runner completed, this computerized geometry allows to design an instrumented blade with embedded pressure sensors. A non-contact laser scanner on a precision measuring arm is used to create precise and detailed point clouds of the runner and draft tube geometries. Then, these point clouds are processed in a computer-aided design (CAD) software, in order to achieve a precise computerized geometry of the model. Deviation analyses allow to quantify the deviations so as to validate the CAD geometries and the IEC60193 standard agreement for the runner. Finally, a new instrumented blade with thirty embedded pressure sensors is developed so as to investigate pressure fluctuations in the runner in constant and transient operating conditions.
37

Sur le total des réclamations escomptées avec conditionnement sur l'expérience

Côté, Victor 18 May 2018 (has links)
Dans ce mémoire, nous considérons l’évaluation de la somme des réclamations escomptées avec conditionnement sur l’expérience et diverses quantités reliées. Au chapitre 1, nous résumons l’historique des processus de renouvellement depuis le début de leur utilisation : processus sans escompte, avec taux d’escompte constant, avec taux d’escompte stochastique et avec dépendance. Les objectifs du mémoire y sont également aussi rendus explicites. Au chapitre 2, nous décrivons les concepts préalables à l’établissement du modèle avec conditionnement, notamment les composantes du processus de renouvellement de base, les différents résultats obtenus avec des sommes de réclamations escomptées avec force constante d’intérêt net (moments simples, moments conjoints, transformées de Laplace) et les mesures de risque qui seront étudiées. Au chapitre 3, nous présentons les principaux résultats obtenus par l’approche avec conditionnement sur l’expérience, entre autres le calcul des premiers moments des accroissements conditionnels, l’évaluation de la transformée de Laplace conditionnelle et l’obtention de la fonction de répartition conditionnelle. De plus, nous présentons par la suite nos résultats dans un contexte avec dépendance. Au chapitre 4, nous discutons des principales applications du modèle par rapport à différentes mesures de risque, au processus de réserve, et à la probabilité de ruine qui lui est reliée. Au chapitre 5, nous rappelons les principaux résultats obtenus et présentons les extensions possibles du modèle. / In this thesis, we study the behavior of the aggregate discounted claims process on multiple periods while considering all the information gathered in the previous periods. In chapter 1, we point out the history of compound renewal processes, without discount rate, with constant or stochastic discount rate and with dependency relation. The objectives of the thesis are also described. In chapter 2, we enumerate the theoretical concepts needed to understand the model we intend to consider, and we present the most important results that have been obtained for aggregate discounted claims with constant discount rate (moments, joint moments, Laplace transform) and the risk measures that we will use. In chapter 3, we present the most interesting results obtained through our theoretical model. Among others, the first conditional moments of the increments, the conditional Laplace transform, and some conditional distribution functions are obtained. We then introduce dependency in the model and show how our results are affected. In chapter 4, we discuss the main applications of our model, in relation to risk measures, reserve process and ruin probability. In chapter 5, the main results are shown again, and further avenues of research are also discussed.
38

Modélisation de la distribution et de l’abondance de la sauvagine au Canada

Adde, Antoine 03 February 2021 (has links)
La sauvagine canadienne bénéficie des initiatives de suivi de la faune parmi les plus anciennes et les plus vastes au monde. En particulier, initié en 1955 afin d’obtenir une estimation annuelle des effectifs continentaux et fixer les quotas de chasse, l’Inventaire des Populations Nicheuses et de l'Habitat de la Sauvagine couvre aujourd’hui plus de 3 millions de kilomètres carrés d’habitats, du nord des États-Unis à l’Arctique et de l’Atlantique à l’Alaska. Les dimensions hors-normes de ces données ont contribué à la bonne atteinte des objectifs de gestion des populations de sauvagine et à une meilleure connaissance de l’écologie des espèces. Cependant, les observations issues des inventaires sont spatialement-discrètes (segments aériens, quadrats d’hélicoptères ou points d’eau) et leur couverture géographique reste relativement faible une fois rapportée à la superficie du Canada (≈1% de 10 millions de kilomètres carrés). Or, pour être efficace, la planification de la conservation requiert l’accès à une information quantitative spatialement-continue sur la distribution et l’abondance des espèces. La valorisation de données d’occurrences d’espèces spatialement-discrètes en couches d’information géographique continue est en revanche une application commune des modèles de distribution d’espèces dont les prédictions peuvent être étendues à l’échelle à laquelle les covariables environnementales sont disponibles. Si de tels modèles existent déjà pour guider la conservation de la sauvagine canadienne, des lacunes identifiées dans les approches méthodologiques, la couverture géographique et les thématiques environnementales explorées par les tentatives existantes suggèrent que des améliorations ou des extensions importantes pourraient être apportées. C’est l’objectif général de cette thèse : développer une nouvelle génération de modèles prédictifs de la distribution et de l’abondance de la sauvagine au Canada afin d’assister la planification spatiale des mesures de conservation des espèces et de leurs habitats. Dans le premier chapitre, une revue de la littérature a été effectuée avec pour objectif d’identifier les covariables environnementales d’intérêt pour modéliser la sauvagine. La principale contribution de cette étude a été la création d’une base de données de 533 associations canard-habitat attribuables à 133 covariables qui aidera le développement des futurs modèles. Dans le second chapitre, l’objectif a été d’améliorer les modèles nationaux d’abondance de sauvagine existants en développant de nouveaux modèles permettant de considérer explicitement les variations spatiotemporelles et testant des associations sauvagine habitat inexplorées grâce à l’utilisation d’un jeu initial de 232 covariables candidates. Pour cela, nous avons élaboré une méthode combinant techniques d’apprentissage automatique, procédures de sélection des covariables et approches hiérarchiques bayésiennes. La principale contribution de cette étude a été la mise à disposition de cartes annuelles de l’abondance de 18 espèces de sauvagines pour la période 1990-2015. Dans le troisième chapitre, l’objectif a été d’évaluer le potentiel d’intégration des données d’inventaires aériens standardisés et de science citoyenne (eBird) afin de modéliser la distribution de la sauvagine à l’échelle de la forêt boréale de l’Ouest canadien. La principale contribution de ce chapitre a été la formalisation d’une approche de modélisation intégrée de la distribution des espèces utilisant un processus par points dans une représentation état-espace. Nous avons démontré la capacité de cette approche à efficacement combiner des jeux de données d’occurrence hétérogènes afin de bénéficier de la complémentarité de leurs observations et de leurs couvertures spatiales. Dans le quatrième chapitre, l’objectif a été d’évaluer les effets potentiels des changements climatiques sur la distribution et l’abondance de la sauvagine dans l’est du Canada. Les résultats ont mis en évidence que les changements climatiques pourraient avoir un effet positif sur l’abondance de 7/12 des espèces évaluées, alors que 5/12 pourraient décliner. Une contribution majeure de cette étude a été le développement d’indices spatialement-explicites de la compatibilité climatique future de chacune des 12 espèces. Dans leur ensemble, les résultats issus de cette thèse ont permis (i) d’approfondir et de synthétiser l’état des connaissances sur l’écologie de la sauvagine canadienne, (ii) de fournir de nouvelles données pour guider les mesures de conservation et (iii) de développer des méthodes innovantes et efficaces pour modéliser la distribution et l’abondance des espèces à large échelle. Les plus de 1000 cartes et couches de données raster rendues publiques constituent une contribution d’envergure majeure pour l'élaboration d'indicateurs de biodiversité, l'évaluation et l'exécution de stratégies de conservation des espèces et de leur habitat, ou encore le suivi des services écologiques. / Canadian waterfowl benefit from some of the longest and most spatially extensive wildlife monitoring initiatives worldwide. The annual Waterfowl Breeding Population and Habitat Survey in particular, initiated in 1955 for estimating annual continental population sizes and setting hunting quotas, now covers more than 3 million square kilometres of breeding habitats, from the northern United States to the Arctic and from the Atlantic coast to Alaska. The exceptional dimensions of these data have historically contributed to the successful achievement of waterfowl population management goals and to a better understanding of the ecology of these species. However, inventories’ records are spatially discrete (aerial segments, helicopter plots or water bodies) and their geographic coverage remains small when compared to the area of Canada (≈1% of 10 million square kilometres). In order to be effective, conservation planning requires spatially-continuous, quantitative information on species distribution and abundance. This is a common application of species distribution models which, by predicting the distribution and abundance of individuals from occurrence data and environmental covariates, can provide continuous geospatial information. While such models already exist for Canadian waterfowl, identified deficiencies in the methodological approaches, geographic coverage orenvironmental themes explored by existing attempts suggest that significant improvements or extensions could be made. This is the overall objective of this thesis: to develop a new generation of models to predict waterfowl distribution and abundance across Canada in order to assist the spatial planning of conservation measures for species and their habitats. In the first chapter, a literature review was conducted with the specific objective of identifying environmental covariates of interest for waterfowl modeling. The main contribution of this study was the creation of a database gathering 533 duck-habitat associations attributable to 133 covariates, which will assist in the development of future models. In the second chapter, the objective was to refine existing national waterfowl models by developing new, more interpretable models that explicitly account for spatiotemporal variations in abundances, while testing for unexplored waterfowl-habitat associations by using a set of 232 newly-available candidate covariates. For this purpose, we developed a method combining machine learning techniques, covariate selection procedures and hierarchical Bayesian approaches. The main contribution of this study was the provision of annual abundance maps of 18 waterfowl species for the period 1990-2015. In the third chapter, the objective was to assess the potential of integrating standardized inventory and citizen science data to model waterfowl distribution across the Canadian western boreal forest. The main contribution of this chapter was the formalisation of an integrated species distribution modelling approach, which was based on a state-space point process framework. We demonstrated the ability of this approach to efficiently combine heterogeneous occurrence datasets in order to benefit from the complementarity of their records and spatial coverages. In the fourth chapter, the objective was to assess the potential effects of climate change on the distribution and abundance of waterfowl in Eastern Canada. Results showed that climate change could have a positive effect on the abundance of 7/12 of the species evaluated, while 5/12 could decline. A major contribution of this study was the development of spatially-explicit future climate suitability indices for each of the 12 species. Overall, results from this thesis have allowed to (i) deepen and synthesize the state of knowledge on the ecology of Canadian waterfowl, (ii) provide new data to guide conservation measures, and (iii) develop innovative and efficient methods to model large-scale species distribution and abundance. The more than 1,000 maps and raster layers made publicly available constitute a major contribution for the development of biodiversity indicators, the evaluation and execution of conservation planning strategies, and ecosystem services monitoring.
39

Modelling and model-based optimization of N-removal WRRFs : reactive settling, conventional & short-cut N-removal processes

Kirim, Gamze 09 November 2022 (has links)
La détérioration des ressources en eau et la grande quantité d'eau polluée générée dans les sociétés industrialisées donnent une importance fondamentale aux procédés de traitement des eaux usées pour préserver les ressources, conformément à l'objectif 6 des 17 objectifs de développement durable des Nations Unies. Le rejet de nutriments tels que l'ammoniac par les eaux usées est un problème important, l'élimination de l'azote (N) est donc l'un des processus critiques de toute station de récupération des ressources en eau (StaRRE). L'objectif de ce projet de recherche doctoral est d'améliorer la compréhension des mécanismes d'élimination de l'azote dans le traitement biologique des eaux usées grâce à la modélisation, et d'optimiser les StaRRE existantes pour réduire la consommation d'énergie et de ressources. Dans ce cadre, 3 études différentes ont été réalisées. Tout d'abord, un modèle de décanteur réactif unidimensionnel a été développé. Celui-ci prédit le comportement de décantation de boues à des concentrations élevées de boues ainsi que les conversions biocinétiques dans le processus de décantation secondaire (DS). Il a été constaté qu'une description précise des réactions biocinétiques dans la DS impose des défis de calibration élevés pour le modèle de décantation, car ce dernier doit capturer les profils de concentration complets de la biomasse active dans la couverture de boues. Le modèle calibré a pu prédire avec précision les profils de concentration des effluents et du lit de boues dans la DS. Le modèle développé peut être utilisé pour le contrôle et la simulation des StaRRE afin d'obtenir de meilleures prédictions des concentrations d'effluents et des boues de retour, et aussi de calculer correctement le bilan massique d'azote d'une StaRRE. Deuxièmement, un modèle à l'échelle de l'usine a été mis en place pour un système de pré-dénitrification conventionnel pour la StaRRE pilEAUte à l'échelle pilote. Une méthodologie de calibration du modèle par étapes a été adoptée en fusionnant les principaux protocoles de calibration de modèle, tout en mettant l'accent sur le modèle biocinétique. Le modèle de la StaRRE pilEAUte, y compris le décanteur réactif développé, a été calibré et validé pour simuler les variables de modèle sélectionnées, puis utilisé pour une analyse de scénarios plus approfondie de l'optimisation de la consommation d'énergie et des ressources. Les résultats de l'analyse des scénarios ont montré le potentiel d'optimisation du système conventionnel d'élimination d'azote grâce à la réduction de l'aération et du retour interne des nitrates. Ils ont également démontré que la dénitrification dans le décanteur secondaire peut avoir une contribution significative à la capacité globale d'élimination d'azote d'une StaRRE lorsque la liqueur mixte peut traverser le lit de boues. Troisièmement, l'étude visait à évaluer l'applicabilité des stratégies de commande continu et intermittent du rapport de l'ammoniac par rapport aux NOX-N (commande AvN) sur la StaRRE pilEAUte. Les stratégies de commande de l'aération par AvN sont appliquées en amont d'un réacteur de désammonification, qui est un processus d'élimination efficace d'azote avec un besoin de ressources réduit (en termes d'aération et carbone) par rapport aux systèmes conventionnels. Les deux stratégies de commande testées pourraient être réalisées grâce à une commande automatique. Cependant, le maintien du rapport AvN dans l'effluent à la valeur souhaitée (1) dépend fortement des conditions opérationnelles telles que les variations de l'affluent, le temps de rétention des boues et la fiabilité des capteurs. Même si la recherche est guidée par les études de StaRRE à l'échelle pilote, les méthodologies développées pour démontrer et modéliser les processus et les conditions opérationnelles économes en énergie et en ressources sont applicables et transférables à d'autres études de cas à plein échelle. / Deterioration of water resources and the large amount of polluted water generated in industrialized societies gives fundamental importance to waste water treatment processes to preserve resources in accordance with goal 6 of the 17 sustainable development goals of the United Nations. Discharge of nutrients such as ammonia with waste water is a significant issue, thus nitrogen (N) removal is one of the critical processes of any water resource recovery facilities (WRRF). The objective of this PhD research project was to improve the understanding of N-removal mechanisms in biological treatment of wastewater through modelling and to optimize existing WRRFs to reduce energy and resource consumption. Within this context, 3 different studies were carried out. First, a one dimensional reactive settler model was developed that predicts the settling behaviour at high sludge concentrations together with biokinetic conversions in the secondary settling process. It was found that an accurate description of biokinetic reactions in the SST puts high calibration requirements on the settling model as it must properly capture the full concentration profiles of active biomass in the sludge blanket. The calibrated model was able to accurately predict the effluent and sludge blanket concentration profiles in the SST. The developed model can be used for control and simulation of WRRFs for better predictions of SST effluent and underflow concentrations and also properly calculate the nitrogen mass balance of a WRRF. Second, a plant-wide model was set up for a conventional pre-denitrification system for the pilot-scale pilEAUte WRRF. A step-wise model calibration methodology was adopted by merging main existing model calibration protocols while placing emphasis on the biokinetic model. The pilEAUte model, including the developed reactive settler, was calibrated and validated to simulate the selected model variables and used for further scenario analysis for energy and resource optimization. The scenario analysis results showed the optimization potential of conventional N removal systems through application of reduced aeration and internal nitrate recycling. It also demonstrated that denitrification in the secondary settler can contribute significantly to the overall N removal capacity of the WRRF when mixed liquor can pass through the sludge blanket. Third, it was aimed to evaluate the applicability of continuous and intermittent Ammonia vs NOₓ-N (AvN) control strategies on the pilEAUte WRRF. The AvN aeration control strategies are applied prior to a deammonification stage which is a short-cut N removal process with reduced resource (aeration and carbon) requirements in comparison to conventional systems. Both strategies could be achieved through automatic control. However, keeping the AvN ratio in the effluent on the desired value highly depends on operational conditions such asinfluent variations, sludge retention time and the sensor's measurement reliability.
40

Évaluation du risque lié aux inondations par modélisation hydrodynamique du ruisseau Pratt

Roy-Poulin, Gabriel 01 February 2021 (has links)
Ce mémoire présente les travaux de recherche ayant trait à la modélisation hydrodynamique du ruisseau Pratt et à l’évaluation du risque lié aux inondations à Coaticook. Quatre chapitres composent ce document. Le contexte de la recherche y est d’abord présenté. L’état des connaissances concernant le cours d’eau complexe qu’est le ruisseau Pratt est synthétisé, notamment son historique d’inondations, ses aspects hydrologiques et hydrauliques ainsi que les solutions envisagées jusqu’ici pour régler les problématiques d’inondations. La construction d’un bassin de rétention et l’érection de murs au centre-ville sont favorisées. Par la suite, la méthodologie employée pour développer des modèles hydrodynamiques 1D et 2D sur HECRAS 5.0 est présentée. Les différentes simulations effectuées pour évaluer le risque lié aux inondations de même que la façon dont ces résultats ont été exploités sont ensuite détaillées. La démarche d’évaluation du dommage moyen annuel (DMA) à l’aide de l’aléa des inondations, de l’exposition des bâtiments et de leur vulnérabilité y est notamment décrite. Le troisième chapitre du mémoire contient les résultats de l’étude. Les étendues d’inondation de même que la cartographie des zones inondables pour trois situations et pour les récurrences de 2, 20 et 100 ans sont présentées. Des séries de cartes exploitant des indicateurs de danger potentiel se trouvent également dans cette section. Enfin, les résultats du calcul du DMA pour différents scénarios sont montrés. Selon ces résultats, le DMA lié aux inondations de la ville de Coaticook se trouverait actuellement entre 145 k $-et 228 k $-an. La construction d’un bassin de rétention pourrait toutefois abaisser ces valeurs de plus de 80 %. Finalement, différentes analyses sont exposées dans le dernier chapitre du mémoire. Un jugement sur la légitimité des résultats qui comprennent des incertitudes importantes est d’abord avancé. Ceux-ci sont estimés réalistes, malgré certaines ambiguïtés. L’écoulement du ruisseau Pratt lors d’inondation est ensuite apprécié à l’aide d’une caractérisation de la propagation des inondations et d’une analyse des résultats de modélisation. Les risques liés aux inondations et la pertinence des mesures de mitigations sont finalement analysés. Techniquement, les risques pourraient être grandement diminués à l’aide du bassin de rétention et de l’érection des murs. La première solution pourrait d’ailleurs être rentable si son coût de construction demeure inférieur à 2,4 M $ -voire 3,7 M $ -en considérant les impacts potentiels des changements climatiques sur le régime hydrologique du ruisseau Pratt. Des risques supplémentaires peuvent toutefois accompagner la mise en place de ses mesures. Ces derniers sont décrits à la fin du quatrième chapitre de ce mémoire.

Page generated in 0.0852 seconds