• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 589
  • 185
  • 3
  • Tagged with
  • 779
  • 779
  • 489
  • 237
  • 106
  • 100
  • 97
  • 91
  • 90
  • 85
  • 83
  • 78
  • 73
  • 64
  • 62
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Modélisation des rendements financiers à l'aide de la distribution de Laplace asymétrique généralisée

Pelletier, François 20 April 2018 (has links)
Les modèles classiques en finance sont basés sur des hypothèses qui ne sont pas toujours vérifiables empiriquement. L’objectif de ce mémoire est de présenter l’utilisation de la distribution de Laplace asymétrique généralisée comme une alternative intéressante à ces derniers. Pour ce faire, on utilise ses différentes propriétés afin de développer des méthodes d’estimation paramétrique, d’approximation et de test, en plus d’élaborer quelques principes d’évaluation de produits dérivés. On présente enfin un exemple d’application numérique afin d’illustrer ces différents concepts. / Classical models in finance are based on a set of hypotheses that are not always empirically verifiable. The main objective behind this master’s thesis is to show that the generalized asymmetric Laplace distribution is an interesting alternative to those models. To support this idea, we focus on some of its properties to develop parametric estimation, approximation and testing methods, then we work out some principles of derivatives pricing. Finally, we have a numerical example to illustrate these concepts.
42

Toward coherent accounting of uncertainty in hydrometeorological modeling

Thiboult, Antoine 23 April 2018 (has links)
La considération adéquate des différentes sources d’incertitude est un aspect crucial de la prévision hydrométéorologique. La prévision d’ensemble, en fournissant des informations sur la probabilité d’occurrence des sorties du modèle, représente une alternative séduisante à la prévision déterministe traditionnelle. De plus, elle permet de faire face aux différentes sources d’incertitude qui se trouvent le long de la chaîne de modélisation hydrométéorologique en générant des ensembles là où ces incertitudes se situent. Le principal objectif de cette thèse est d’identifier un système qui soit capable d’appréhender les trois sources principales d’incertitude que sont la structure du modèle hydrologique, ses conditions initiales et le forçage météorologique, dans le but de fournir une prévision qui soit à la fois précise, fiable et économiquement attractive. L’accent est mis sur la cohérence avec laquelle les différentes incertitudes doivent être quantifiées et réduites. Notamment, celles-ci doivent être considérées explicitement avec une approche cohésive qui fasse en sorte que chacune d’entre elles soit traitée adéquatement, intégralement et sans redondance dans l’action des divers outils qui composent le système. Afin de répondre à cette attente, plusieurs sous-objectifs sont définis. Le premier se penche sur l’approche multimodèle pour évaluer ses bénéfices dans un contexte opérationnel. Dans un second temps, dans le but d’identifier une implémentation optimale du filtre d’ensemble de Kalman, différents aspects du filtre qui conditionnent ses performances sont étudiés en détail. L’étape suivante rassemble les connaissances acquises lors des deux premiers objectifs en réunissant leurs atouts et en y incluant la prévision météorologique d’ensemble pour construire un système qui puisse fournir des prévisions à la fois précises et fiables. Il est attendu que ce système soit en mesure de prendre en compte les différentes sources d’incertitude de façon cohérente tout en fournissant un cadre de travail pour étudier la contribution des différents outils hydrométéorologiques et leurs interactions. Enfin, le dernier volet porte sur l’identification des relations entre les différents systèmes de prévisions précédemment créés, leur valeur économique et leur qualité de la prévision. La combinaison du filtre d’ensemble de Kalman, de l’approche multimodèle et de la prévision météorologique d’ensemble se révèle être plus performante qu’aucun des outils utilisés séparément, à la fois en précision et fiabilité et ceci en raison d’unemeilleure prise en compte de l’incertitude que permet leur action complémentaire. L’ensemble multimodèle, composé par 20 modèles hydrologiques sélectionnés pour leurs différences structurelles, est capable de minimiser l’incertitude liée à la structure et à la conceptualisation, grâce au rôle spécifique que jouent les modèles au sein de l’ensemble. Cette approche, même si utilisée seule, peut conduire à des résultats supérieurs à ceux d’un modèle semi-distribué utilisé de façon opérationnelle. L’identification de la configuration optimale du filtre d’ensemble de Kalman afin de réduire l’incertitude sur les conditions initiales est complexe, notamment en raison de l’identification parfois contre-intuitive des hyper-paramètres et des variables d’état qui doivent être mises à jour, mais également des performances qui varient grandement en fonction du modèle hydrologique. Cependant, le filtre reste un outil de première importance car il participe efficacement à la réduction de l’incertitude sur les conditions initiales et contribue de façon importante à la dispersion de l’ensemble prévisionnel. Il doit être malgré tout assisté par l’approche multimodèle et la prévision météorologique d’ensemble pour pouvoir maintenir une dispersion adéquate pour des horizons dépassant le court terme. Il est également démontré que les systèmes qui sont plus précis et plus fiables fournissent en général une meilleure valeur économique, même si cette relation n’est pas définie précisément. Les différentes incertitudes inhérentes à la prévision hydrométéorologique ne sont pas totalement éliminées, mais en les traitant avec des outils spécifiques et adaptés, il est possible de fournir une prévision d’ensemble qui soit à la fois précise, fiable et économiquement attractive. / A proper consideration of the different sources of uncertainty is a key point in hydrometeorological forecasting. Ensembles are an attractive alternative to traditional deterministic forecasts that provide information about the likelihood of the outcomes. Moreover, ensembles can be generated wherever a source of uncertainty takes place in the hydrometeorological modeling chain. The global objective of this thesis is to identify a system that is able to decipher the three main sources of uncertainty in modeling, i.e. the model structure, the hydrological model initial conditions and the meteorological forcing uncertainty, to provide accurate, reliable, and valuable forecast. The different uncertainties should be quantified and reduced in a coherent way, that is to say that they should be addressed explicitly with a cohesive approach that ensures to handle them adequately without redundancy in the action of the different tools that compose the system. This motivated several sub-objectives, the first one of which focusing on the multimodel approach to identify its benefits in an operational framework. Secondly, the implementation and the features of the Ensemble Kalman Filter (EnKF) are put under scrutiny to identify an optimal implementation. The next step reunites the knowledge of the two first goals by merging their strengths and by adding the meteorological ensembles to build a framework that issues accurate and reliable forecasts. This system is expected to decipher the main sources of uncertainty in a coherent way and provides a framework to study the contribution of the different tools and their interactions. Finally, the focus is set on the forecast economic value and provides an attempt to relate the different systems that have been built to economic value and forecast quality. It is found that the combination of the EnKF, the multimodel, and ensemble forcing, allows to issue forecasts that are accurate and nearly reliable. The combination of the three tools outperforms any other used separately and the uncertainties that were considered are deciphered thanks to their complementary actions. The 20 dissimilar models that compose the multimodel ensemble are able to minimize the uncertainty related to the model structure, thanks to the particular role they play in the ensemble. Such approach has the capacity to outperform more a complex semi-distributed model used operationally. To deal optimally with the initial condition uncertainty, the EnKF implementation may be complex to reach because of the unintuitive specification of hyper-parameters and the selection of the state variable to update, and its varying compatibility with hydrological model. Nonetheless, the filter is a powerful tool to reduce initial condition uncertainty and contributes largely to the predictive ensemble spread. However, it needs to be supported by a multimodel approach and ensemble meteorological forcing to maintain adequate ensemble dispersion for longer lead times. Finally, it is shown that systems that exhibit better accuracy and reliability have generally higher economic value, even if this relation is loosely defined. The different uncertainties inherent to the forecasting process may not be eliminated, nonetheless by explicitly accounting for them with dedicated and suitable tools, an accurate, reliable, and valuable predictive ensemble can be issued.
43

Modélisation de la distribution et de l’abondance de la sauvagine au Canada

Adde, Antoine 03 February 2021 (has links)
La sauvagine canadienne bénéficie des initiatives de suivi de la faune parmi les plus anciennes et les plus vastes au monde. En particulier, initié en 1955 afin d’obtenir une estimation annuelle des effectifs continentaux et fixer les quotas de chasse, l’Inventaire des Populations Nicheuses et de l'Habitat de la Sauvagine couvre aujourd’hui plus de 3 millions de kilomètres carrés d’habitats, du nord des États-Unis à l’Arctique et de l’Atlantique à l’Alaska. Les dimensions hors-normes de ces données ont contribué à la bonne atteinte des objectifs de gestion des populations de sauvagine et à une meilleure connaissance de l’écologie des espèces. Cependant, les observations issues des inventaires sont spatialement-discrètes (segments aériens, quadrats d’hélicoptères ou points d’eau) et leur couverture géographique reste relativement faible une fois rapportée à la superficie du Canada (≈1% de 10 millions de kilomètres carrés). Or, pour être efficace, la planification de la conservation requiert l’accès à une information quantitative spatialement-continue sur la distribution et l’abondance des espèces. La valorisation de données d’occurrences d’espèces spatialement-discrètes en couches d’information géographique continue est en revanche une application commune des modèles de distribution d’espèces dont les prédictions peuvent être étendues à l’échelle à laquelle les covariables environnementales sont disponibles. Si de tels modèles existent déjà pour guider la conservation de la sauvagine canadienne, des lacunes identifiées dans les approches méthodologiques, la couverture géographique et les thématiques environnementales explorées par les tentatives existantes suggèrent que des améliorations ou des extensions importantes pourraient être apportées. C’est l’objectif général de cette thèse : développer une nouvelle génération de modèles prédictifs de la distribution et de l’abondance de la sauvagine au Canada afin d’assister la planification spatiale des mesures de conservation des espèces et de leurs habitats. Dans le premier chapitre, une revue de la littérature a été effectuée avec pour objectif d’identifier les covariables environnementales d’intérêt pour modéliser la sauvagine. La principale contribution de cette étude a été la création d’une base de données de 533 associations canard-habitat attribuables à 133 covariables qui aidera le développement des futurs modèles. Dans le second chapitre, l’objectif a été d’améliorer les modèles nationaux d’abondance de sauvagine existants en développant de nouveaux modèles permettant de considérer explicitement les variations spatiotemporelles et testant des associations sauvagine habitat inexplorées grâce à l’utilisation d’un jeu initial de 232 covariables candidates. Pour cela, nous avons élaboré une méthode combinant techniques d’apprentissage automatique, procédures de sélection des covariables et approches hiérarchiques bayésiennes. La principale contribution de cette étude a été la mise à disposition de cartes annuelles de l’abondance de 18 espèces de sauvagines pour la période 1990-2015. Dans le troisième chapitre, l’objectif a été d’évaluer le potentiel d’intégration des données d’inventaires aériens standardisés et de science citoyenne (eBird) afin de modéliser la distribution de la sauvagine à l’échelle de la forêt boréale de l’Ouest canadien. La principale contribution de ce chapitre a été la formalisation d’une approche de modélisation intégrée de la distribution des espèces utilisant un processus par points dans une représentation état-espace. Nous avons démontré la capacité de cette approche à efficacement combiner des jeux de données d’occurrence hétérogènes afin de bénéficier de la complémentarité de leurs observations et de leurs couvertures spatiales. Dans le quatrième chapitre, l’objectif a été d’évaluer les effets potentiels des changements climatiques sur la distribution et l’abondance de la sauvagine dans l’est du Canada. Les résultats ont mis en évidence que les changements climatiques pourraient avoir un effet positif sur l’abondance de 7/12 des espèces évaluées, alors que 5/12 pourraient décliner. Une contribution majeure de cette étude a été le développement d’indices spatialement-explicites de la compatibilité climatique future de chacune des 12 espèces. Dans leur ensemble, les résultats issus de cette thèse ont permis (i) d’approfondir et de synthétiser l’état des connaissances sur l’écologie de la sauvagine canadienne, (ii) de fournir de nouvelles données pour guider les mesures de conservation et (iii) de développer des méthodes innovantes et efficaces pour modéliser la distribution et l’abondance des espèces à large échelle. Les plus de 1000 cartes et couches de données raster rendues publiques constituent une contribution d’envergure majeure pour l'élaboration d'indicateurs de biodiversité, l'évaluation et l'exécution de stratégies de conservation des espèces et de leur habitat, ou encore le suivi des services écologiques. / Canadian waterfowl benefit from some of the longest and most spatially extensive wildlife monitoring initiatives worldwide. The annual Waterfowl Breeding Population and Habitat Survey in particular, initiated in 1955 for estimating annual continental population sizes and setting hunting quotas, now covers more than 3 million square kilometres of breeding habitats, from the northern United States to the Arctic and from the Atlantic coast to Alaska. The exceptional dimensions of these data have historically contributed to the successful achievement of waterfowl population management goals and to a better understanding of the ecology of these species. However, inventories’ records are spatially discrete (aerial segments, helicopter plots or water bodies) and their geographic coverage remains small when compared to the area of Canada (≈1% of 10 million square kilometres). In order to be effective, conservation planning requires spatially-continuous, quantitative information on species distribution and abundance. This is a common application of species distribution models which, by predicting the distribution and abundance of individuals from occurrence data and environmental covariates, can provide continuous geospatial information. While such models already exist for Canadian waterfowl, identified deficiencies in the methodological approaches, geographic coverage orenvironmental themes explored by existing attempts suggest that significant improvements or extensions could be made. This is the overall objective of this thesis: to develop a new generation of models to predict waterfowl distribution and abundance across Canada in order to assist the spatial planning of conservation measures for species and their habitats. In the first chapter, a literature review was conducted with the specific objective of identifying environmental covariates of interest for waterfowl modeling. The main contribution of this study was the creation of a database gathering 533 duck-habitat associations attributable to 133 covariates, which will assist in the development of future models. In the second chapter, the objective was to refine existing national waterfowl models by developing new, more interpretable models that explicitly account for spatiotemporal variations in abundances, while testing for unexplored waterfowl-habitat associations by using a set of 232 newly-available candidate covariates. For this purpose, we developed a method combining machine learning techniques, covariate selection procedures and hierarchical Bayesian approaches. The main contribution of this study was the provision of annual abundance maps of 18 waterfowl species for the period 1990-2015. In the third chapter, the objective was to assess the potential of integrating standardized inventory and citizen science data to model waterfowl distribution across the Canadian western boreal forest. The main contribution of this chapter was the formalisation of an integrated species distribution modelling approach, which was based on a state-space point process framework. We demonstrated the ability of this approach to efficiently combine heterogeneous occurrence datasets in order to benefit from the complementarity of their records and spatial coverages. In the fourth chapter, the objective was to assess the potential effects of climate change on the distribution and abundance of waterfowl in Eastern Canada. Results showed that climate change could have a positive effect on the abundance of 7/12 of the species evaluated, while 5/12 could decline. A major contribution of this study was the development of spatially-explicit future climate suitability indices for each of the 12 species. Overall, results from this thesis have allowed to (i) deepen and synthesize the state of knowledge on the ecology of Canadian waterfowl, (ii) provide new data to guide conservation measures, and (iii) develop innovative and efficient methods to model large-scale species distribution and abundance. The more than 1,000 maps and raster layers made publicly available constitute a major contribution for the development of biodiversity indicators, the evaluation and execution of conservation planning strategies, and ecosystem services monitoring.
44

Modelling and model-based optimization of N-removal WRRFs : reactive settling, conventional & short-cut N-removal processes

Kirim, Gamze 09 November 2022 (has links)
La détérioration des ressources en eau et la grande quantité d'eau polluée générée dans les sociétés industrialisées donnent une importance fondamentale aux procédés de traitement des eaux usées pour préserver les ressources, conformément à l'objectif 6 des 17 objectifs de développement durable des Nations Unies. Le rejet de nutriments tels que l'ammoniac par les eaux usées est un problème important, l'élimination de l'azote (N) est donc l'un des processus critiques de toute station de récupération des ressources en eau (StaRRE). L'objectif de ce projet de recherche doctoral est d'améliorer la compréhension des mécanismes d'élimination de l'azote dans le traitement biologique des eaux usées grâce à la modélisation, et d'optimiser les StaRRE existantes pour réduire la consommation d'énergie et de ressources. Dans ce cadre, 3 études différentes ont été réalisées. Tout d'abord, un modèle de décanteur réactif unidimensionnel a été développé. Celui-ci prédit le comportement de décantation de boues à des concentrations élevées de boues ainsi que les conversions biocinétiques dans le processus de décantation secondaire (DS). Il a été constaté qu'une description précise des réactions biocinétiques dans la DS impose des défis de calibration élevés pour le modèle de décantation, car ce dernier doit capturer les profils de concentration complets de la biomasse active dans la couverture de boues. Le modèle calibré a pu prédire avec précision les profils de concentration des effluents et du lit de boues dans la DS. Le modèle développé peut être utilisé pour le contrôle et la simulation des StaRRE afin d'obtenir de meilleures prédictions des concentrations d'effluents et des boues de retour, et aussi de calculer correctement le bilan massique d'azote d'une StaRRE. Deuxièmement, un modèle à l'échelle de l'usine a été mis en place pour un système de pré-dénitrification conventionnel pour la StaRRE pilEAUte à l'échelle pilote. Une méthodologie de calibration du modèle par étapes a été adoptée en fusionnant les principaux protocoles de calibration de modèle, tout en mettant l'accent sur le modèle biocinétique. Le modèle de la StaRRE pilEAUte, y compris le décanteur réactif développé, a été calibré et validé pour simuler les variables de modèle sélectionnées, puis utilisé pour une analyse de scénarios plus approfondie de l'optimisation de la consommation d'énergie et des ressources. Les résultats de l'analyse des scénarios ont montré le potentiel d'optimisation du système conventionnel d'élimination d'azote grâce à la réduction de l'aération et du retour interne des nitrates. Ils ont également démontré que la dénitrification dans le décanteur secondaire peut avoir une contribution significative à la capacité globale d'élimination d'azote d'une StaRRE lorsque la liqueur mixte peut traverser le lit de boues. Troisièmement, l'étude visait à évaluer l'applicabilité des stratégies de commande continu et intermittent du rapport de l'ammoniac par rapport aux NOX-N (commande AvN) sur la StaRRE pilEAUte. Les stratégies de commande de l'aération par AvN sont appliquées en amont d'un réacteur de désammonification, qui est un processus d'élimination efficace d'azote avec un besoin de ressources réduit (en termes d'aération et carbone) par rapport aux systèmes conventionnels. Les deux stratégies de commande testées pourraient être réalisées grâce à une commande automatique. Cependant, le maintien du rapport AvN dans l'effluent à la valeur souhaitée (1) dépend fortement des conditions opérationnelles telles que les variations de l'affluent, le temps de rétention des boues et la fiabilité des capteurs. Même si la recherche est guidée par les études de StaRRE à l'échelle pilote, les méthodologies développées pour démontrer et modéliser les processus et les conditions opérationnelles économes en énergie et en ressources sont applicables et transférables à d'autres études de cas à plein échelle. / Deterioration of water resources and the large amount of polluted water generated in industrialized societies gives fundamental importance to waste water treatment processes to preserve resources in accordance with goal 6 of the 17 sustainable development goals of the United Nations. Discharge of nutrients such as ammonia with waste water is a significant issue, thus nitrogen (N) removal is one of the critical processes of any water resource recovery facilities (WRRF). The objective of this PhD research project was to improve the understanding of N-removal mechanisms in biological treatment of wastewater through modelling and to optimize existing WRRFs to reduce energy and resource consumption. Within this context, 3 different studies were carried out. First, a one dimensional reactive settler model was developed that predicts the settling behaviour at high sludge concentrations together with biokinetic conversions in the secondary settling process. It was found that an accurate description of biokinetic reactions in the SST puts high calibration requirements on the settling model as it must properly capture the full concentration profiles of active biomass in the sludge blanket. The calibrated model was able to accurately predict the effluent and sludge blanket concentration profiles in the SST. The developed model can be used for control and simulation of WRRFs for better predictions of SST effluent and underflow concentrations and also properly calculate the nitrogen mass balance of a WRRF. Second, a plant-wide model was set up for a conventional pre-denitrification system for the pilot-scale pilEAUte WRRF. A step-wise model calibration methodology was adopted by merging main existing model calibration protocols while placing emphasis on the biokinetic model. The pilEAUte model, including the developed reactive settler, was calibrated and validated to simulate the selected model variables and used for further scenario analysis for energy and resource optimization. The scenario analysis results showed the optimization potential of conventional N removal systems through application of reduced aeration and internal nitrate recycling. It also demonstrated that denitrification in the secondary settler can contribute significantly to the overall N removal capacity of the WRRF when mixed liquor can pass through the sludge blanket. Third, it was aimed to evaluate the applicability of continuous and intermittent Ammonia vs NOₓ-N (AvN) control strategies on the pilEAUte WRRF. The AvN aeration control strategies are applied prior to a deammonification stage which is a short-cut N removal process with reduced resource (aeration and carbon) requirements in comparison to conventional systems. Both strategies could be achieved through automatic control. However, keeping the AvN ratio in the effluent on the desired value highly depends on operational conditions such asinfluent variations, sludge retention time and the sensor's measurement reliability.
45

On the modelization of optical devices: from dielectric cavities to radiating structures

Dumont, Joey 20 April 2018 (has links)
Premièrement, nous allons explorer la modélisation des cavités diélectriques bidimensionnelles. Plus spécifiquement, nous allons développer différentes méthodes de modélisation valides pour des cavités diélectriques à géométrie et profil d’indice de réfraction arbitraires. Ce degré de liberté supplémentaire pourra être utilisé dans le design de microcavités pour des applications spécifiques. Un formalisme de diffusion permettra de définir les modes caractéristiques de ce type de structure et d’en calculer les résonances. Une analyse numérique des équations résultantes montrera que les méthodes intégrales sont possiblement meilleures que les méthodes différentielles. Deuxièmement, nous discuterons de la modélisation de structures radiatives. Nous utiliserons les méthodes développées dans la section précédente pour modéliser les propriétés lasers des microcavités bidimensionnelles prédites par la théorie SALT. Nous aborderons aussi la modélisation de fibres-antennes RF, plus particulièrement les câbles coaxiaux à perte radiative, dans le but d’intégrer des fonctionnalités radio dans un textile de manière transparente à l’utilisateur. / In this essay, we will develop different modelization techniques valid for bidimensional dielectric cavities having arbitrary geometries and refractive index profiles and provide a way to accurately compute the resonances of such structures. The refractive index thus becomes an additional design variable for dielectric cavities. A numerical analysis of of the underlying equations of the theory will reveal that perhaps it is best to forego differential equations in favour of integral ones for the scattering problem. In the second part, we will discuss the modelization of radiating structures. Using the formalism developed in the previous section, we will study the lasing properties of bidimensional cavities using the newly developed self-consistent ab initio laser theory (SALT). We will also touch on the modelization of the class of antenna known as leaky coax
46

Problèmes de changement de phase avec la méthode CutFEM

Tchinda Ngueyong, Ismaël 10 June 2024 (has links)
Cette thèse porte sur la modélisation numérique des problèmes de changement de phase. Le but est de proposer un algorithme robuste, basé essentiellement sur la méthode CutFEM, pour résoudre le problème avec la plus grande précision possible. Dans notre démarche, la méthode level-set est employée pour une représentation implicite de l'interface entre différentes phases, tandis que l'imposition des conditions essentielles sur cette dernière se fait à l'aide de la variante symétrique de la méthode de Nitsche. Le premier résultat de la thèse porte sur le développement d'un post-traitement fiable, facile à implémenter, pour une meilleure estimation du flux à travers une frontière immergée. La solution proposée est inspirée de la méthode de l'intégrale de domaine, à la différence que nous introduisons une stabilisation de type Ghost Penalty pour éliminer la sensibilité de la qualité de l'approximation à l'interface par rapport aux nœuds du maillage. L'idée est validée à travers une série d'exemples 2D et 3D.Le deuxième résultat concerne le développement d'un solveur CutFEM pour la simulation des problèmes de Stefan à deux phases sans convection. Dans notre approche, nous nous servons du premier résultat pour une meilleure évaluation de la vitesse de l'interface. Quant à la stabilisation des formulations d'extension de la vitesse et du transport de la fonction level-set, nous avons opté pour la méthode CIP (Continuous Interior Penalty) qui a déjà fait preuve d'une grande efficacité pour des problèmes fortement dominés par la convection. Des exemples numériques 2D permettent de confirmer l'efficacité de notre algorithme puisque des taux de convergence optimaux sont obtenus. Une simulation 3D est également proposée pour démontrer la validité du solveur dans une configuration plus réaliste. Pour le dernier résultat, nous reconsidérons le problème de Stefan, mais cette fois en prenant en compte la convection naturelle dans la phase liquide. L'équation de conduction de la chaleur est alors modifiée par l'ajout d'un terme de convection. De plus, cette équation est couplée aux équations de Navier-Stokes, introduisant de fait des non-linéarités supplémentaires. Un schéma itératif basé sur la méthode de Newton est alors proposé pour une résolution efficace du système. Les autres étapes de résolution sont assez similaires à celles de l'algorithme développé pour les problèmes de Stefan sans convection. Une étude numérique approfondie du solveur est présentée. Premièrement, l'efficacité de la discrétisation en temps et en espace est étudiée pour des problèmes (relativement simples) avec des solutions manufacturées. Ensuite, pour un problème beaucoup plus complexe modélisant la solidification de l'eau, une comparaison des résultats obtenus numériquement avec les résultats expérimentaux connus dans la littérature est présentée. Enfin, d'autres problèmes de changement de phase encore plus complexes tels que la fusion du gallium dans une cavité rectangulaire, ou encore celle du n-octadécane dans une cavité cubique sont considérés, et une comparaison des résultats de simulation avec les données expérimentales est également présentée. / This thesis focuses on the numerical modeling of phase change problems. The aim is to proposea robust CutFEM-based algorithm to solve the problem with the highest possible accuracy.In our approach, the level-set technique is used for an implicit representation of the interface,whereas the imposition of the essential conditions on the interface is done using the symmetric variant of the Nitsche method.The first result of the thesis is the development of a reliable, easy-to-implement post-processingfor an accurate estimate of the flux across an interface. The proposed solution is inspired by the domain integral method, with the difference that we introduce Ghost Penalty stabilization to eliminate the sensitivity to the interface location relative to the mesh nodes. The accuracy of the method is validated through a series of two- and three-dimensional examples. The second result concerns the development of a CutFEM method for the numerical simulation of two-phase Stefan's problems without convection. In our approach, we use the idea of the first result for an accurate evaluation of the normal speed of the interface. Regarding the stabilization of the velocity extension and front transportation problems, we opted for the Continuous Interior Penalty method which has shown great effectiveness for convection-dominated problems. Two-dimensional numerical examples are used to confirm the effectiveness of our algorithm since optimal convergence rates are achieved. A three-dimensional simulation is also provided to demonstrate the validity of the solver in a more realistic configuration. For the last result, we reconsider the Stefan problem, but this time taking into account natural convection in the liquid phase. In this phase, the heat conduction equation is then modified by the addition of a convection term. Furthermore, this equation is coupled to the Navier-Stokes equations, there by introducing additional nonlinearities. An iterative scheme based on Newton's method is then proposed for an efficient solution of the system. The other steps of the proposed solver are quite similar to those of the solver developed for Stefan problems without convection. An in-depth numerical study of the solver is presented. First, the efficiency of discretization in time and space is studied for (relatively simple) problems with manufactured solutions. Then, for a much more complex problem modeling the solidification of water, acomparison of the results obtained numerically with the experimental results known in the literature is presented. Finally, other even more complex phase change problems such as the fusion of gallium in a rectangular cavity, or that of n-octadecane in a cubical test cellare considered, and a comparison of the simulation results with experimental data is alsoprovided.
47

Discrete element method applied to the vibration process of coke particles

Majidi, Behzad 19 April 2018 (has links)
Les propriétés physiques, mécaniques et chimiques des matières premières ont un effet majeur sur la qualité des anodes en carbone pour le procédé de production d’aluminium. Ce travail tente d’étudier la faisabilité de l’application de simulation de la Méthode des Élément Discrets (DEM) à la technologie de production d’anodes. L’effet de la forme des particules et de la distribution de leurs tailles sur la densité apparente vibrée (VBD) d’échantillons de coke sec est étudié. Les particules de coke sont numérisées en utilisant des techniques d’imagerie à deux et trois dimensions. Ces images donnent les formes et les aspects réels des particules qui sont utilisées pour les modèles DEM pour les tests VBD pour le codage de flux de particules (PFC). Le coefficient de friction interne des particules de coke est estimé par la méthode de mesure d’angle au repos. Les résultats ont montrés comme attendu, que la VBD des échantillons de coke est affectée par la forme et la distribution de taille des particules. Les simulations à deux dimensions ont confirmé qu’en général, les échantillons formés de particules de tailles poly-dispersées ont une VBD plus haute que ceux dont la taille des particules est mono-dispersée. De plus, la VBD des échantillons augmente lorsque la fraction de grosses particules augmente. Cependant, la présence de 10 % massique de particules fines est nécessaire pour remplir les pores entre les grosses particules. De même pour la simulation 3D, le modèle suit la tendance des données expérimentales montrant que dans une éprouvette de 2,9 cm de diamètre, l’augmentation de la quantité de particules de - 4+6 mesh (de 3,36 à 4,76 mm) engendre une augmentation de la VBD. En conclusion, un modèle DEM approprié est capable de prédire le réarrangement des particules et l’évolution de la densité pendant le processus de vibration. / Physical, mechanical and chemical properties of raw materials have considerable effects on quality of carbon anodes for aluminium smelting process. The present work attempts to investigate the feasibility of application of Discrete Element Method (DEM) simulations in anode production technology. Effects of coke particles shape and size distribution on vibrated bulk density (VBD) of dry coke samples are studied. Coke particles are digitized using two-dimensional and three-dimensional imaging techniques and real-shape particles are used in DEM models of VBD test in Particle Flow Code (PFC). Internal friction coefficient of coke particles were estimated by means of angle of repose tests. Results showed that, as expected, VBD of coke samples is affected by shape and size distribution of the particles. Two-dimensional simulations confirmed that in general, mixed-sized samples have higher VBD than mono-sized cokes and as the fraction of coarse particles increases vibrated bulk density increases. However, existence of 10 wt.% of fine particles to fill the pores between coarse particles is essential. For 3D simulations also, the model follows the trend of experimental data showing that in the container of 2.9 mm diameter, as the content of -4+6 mesh (3.36-4.76 mm) particles increase, VBD increases. It can be concluded that a well-tailored DEM model is capable of predicting the particle rearrangement and density evolution during the vibration process.
48

Modélisation et résolution heuristique de l'allocation des ressources en gestion de projets

Gagnon, Michel, Gagnon, Michel 12 February 2024 (has links)
Cette recherche introduit un modèle de décision multiobjectif qui aide le gestionnaire de projets à allouer les ressources à son projet. Le modèle comporte trois axes de décision représentant les compromis à faire entre la durée du projet, le coût du projet et les quantités de ressources allouées. L'allocation des ressources est déterminée en considérant le coût de chaque ressource. Le modèle incorpore le processus d'assignation des ressources, une problématique typique de l'affectation des ressources en gestion projets, à celui de !'ordonnancement des activités. Pour le résoudre, il a fallu concevoir et expérimenter de nouveaux algorithmes. La recherche comporte trois volets où chacun des volets alimente le volet suivant. Le premier volet propose de nouvelles procédures pour minimiser la durée du projet sous contraintes de disponibilités variables de ressources, dans le cas de problèmes ayant des activités avec un seul mode de réalisation ou de problèmes ayant des activités avec plusieurs modes de réalisation. Ces procédures comprennent une nouvelle règle de priorité selon un schème que nous qualifions d'ensembliste et une adaptation de la méthode Tabou. Les résultats de l'expérimentation montrent l'efficacité de la nouvelle règle de priorité et de l'adaptation de la méthode Tabou. Le deuxième volet propose des procédures pour minimiser le coût de disponibilité et le coût d'assignation des ressources allouées sous contrainte d'une date d'échéance du projet. La procédure incorpore l'adaptation de la méthode Tabou élaborée au volet précédent. Les résultats de l'expérimentation montrent la bonne performance des procédures développées. Le troisième volet propose une approche interactive par laquelle le gestionnaire de projets évalue des choix d'allocation de ressources afin de parvenir à une solution de compromis entre les trois axes de décision. Pour y parvenir, on évalue des solutions dans une région délimitée par les buts du gestionnaire de projets au lieu d'effectuer une approximation de la frontière efficace. L'expérimentation montre la faisabilité de l'approche interactive ainsi que l'efficacité de l'adaptation proposée de la méthode Tabou. Ces trois volets permettent d'élaborer l'architecture d'un Système Interactif d'Aide à la Décision pour l'allocation multiobjective des ressources en gestion de projets.
49

Recouvrement de géométries complexes et applications pour l'étude d'une turbine hydraulique de type bulbe

Taraud, Jean-Philippe 20 April 2018 (has links)
Ce travail de recherche a pour objectif de caractériser les pièces de la roue et de la trompette d’une turbine bulbe à partir d’un modèle réel. Suite à la reconstruction du modèle numérisé de la roue, cette géométrie sert de base pour le développement d’une aube instrumentée pour des mesures de pression. Un appareil de mesure laser sans contact est utilisé conjointement avec un bras de mesure portable de précision afin de récupérer les géométries du modèle sous forme de nuages de points. Ils sont ensuite traités dans un modeleur 3D afin d’obtenir la géométrie numérisée. Des analyses de déviations sont effectuées pour valider les modèles informatiques, quantifier les déviations et le respect de la norme CEI60193 par la roue. Une aube de roue instrumentée avec capteurs de pression embarqués est finalement développée pour investiguer les fluctuations de pression sur la roue en régime permanent et transitoire. / This research work deals with the geometry recovery of the runner and the draft tube of a bulb turbine, based on the real scale model. Once the geometry recovery of the runner completed, this computerized geometry allows to design an instrumented blade with embedded pressure sensors. A non-contact laser scanner on a precision measuring arm is used to create precise and detailed point clouds of the runner and draft tube geometries. Then, these point clouds are processed in a computer-aided design (CAD) software, in order to achieve a precise computerized geometry of the model. Deviation analyses allow to quantify the deviations so as to validate the CAD geometries and the IEC60193 standard agreement for the runner. Finally, a new instrumented blade with thirty embedded pressure sensors is developed so as to investigate pressure fluctuations in the runner in constant and transient operating conditions.
50

Modélisation à l'échelle mésoscopique de la cellule élémentaire d'un renfort composite 3D interlock à partir de tomographies à rayon X

Georgiou, Aubin 01 October 2021 (has links)
Ce mémoire présente les travaux de mise en œuvre d'un modèle numérique par éléments finis de la cellule unitaire représentative d'un composite interlock 3D, à partir de tomographies. Ce matériau se compose de torons tissés dans les directions chaine et trame, ainsi qu'à travers l'épaisseur. Ce type d'interlock 3X a été largement étudié ces dix dernières années, sans pour autant que des modèles numériques performants soient réalisés, ce qui rend nécessaire une modélisation numérique de sa cellule unitaire. Il présente pourtant des avantages vis-à-vis des autres types de composites, notamment grâce à l'absence du phénomène de délamination, cause principale de dégradation des composites. Ce travail présente la démarche et les moyens mis en œuvre pour obtenir la cellule unitaire numérique du matériau. Des tomographies de différents états du tissu sec, non compacté et compacté, ont été réalisées afin de générer un modèle éléments finis à partir du logiciel de traitement d'image AVIZO ainsi que du logiciel de génération de textile TEXGEN. Un modèle simplifié d'une tranche de cellule unitaire a été choisi afin de simuler et valider le procédé de compaction numérique avec le logiciel élément finis Abaqus. Les résultats du modèle de compaction ont été comparés aux tomographies du tissu sec compacté. Les résultats de cette simulation simplifiée sont prometteurs. La déformation et les déplacements des torons obtenus sur la cellule unitaire du tissu sec simulé sont très proches de ceux observés sur les tomographies du tissu compacté de la sorte. / This thesis presents the work conducted toward the development of a finite element model of the representative unit cell of a 3D interlock composite, based on tomographies. This material is composed of yarns woven in the warp and weft directions, as well as through the thickness. This kind of 3X interlock has been very little studied to date, which makes numerical modelling of its unit cell necessary. However, it present advantages over other types of composites, in particular the absence of delamination phenomenon, the main cause of composite degradation. This work presents the approach and the means employed to obtain the numerical unit cell of the material. Tomographies of different states of the dry, uncompacted and compacted fabric were carried out in order to generate a finite element model from the image processing software AVIZO and the textile generation software TEXGEN. A simplified model of a unit cell slice was chosen in order to simulate and validate the numerical compaction process with the Abaqus finite element software. The results of the compaction model were compared with tomographies of dry texile. The results of this simplified simulation are promising. The deformation and displacements of the yarns obtained on the unit cell of the simulated dry textile are very close to those observed on tomographies of the compacted textile.

Page generated in 0.1033 seconds