• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 598
  • 186
  • 3
  • Tagged with
  • 789
  • 789
  • 490
  • 237
  • 106
  • 100
  • 97
  • 91
  • 90
  • 85
  • 79
  • 69
  • 65
  • 62
  • 58
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Développement mathématique et modélisation théorique de métasurfaces

Bouillon, Christopher 17 April 2024 (has links)
Thèse ou mémoire avec insertion d'articles / Depuis la seconde moitié du XXe siècle, de nouveaux matériaux photoniques ont graduellement fait leur apparition dans la recherche fondamentale et industrielle, et ce, à l'échelle internationale. Les métasurfaces, l'équivalent bidimensionnel des métamatériaux et composées d'éléments artificiels de taille sous-longueur d'onde, ont révolutionné notre façon de manipuler la lumière en offrant un contrôle sans précédent sur son amplitude, sa phase et sa polarisation. Effectivement, le simple fait de pouvoir concevoir une surface artificielle qui peut plier l'onde électromagnétique aux désirs de son concepteur ouvre la porte à de nouveaux paradigmes optiques. Réfraction négative, cape d'invisibilité et miniaturisation sans précédent en sont de bons exemples. Bien évidemment, il n'y a qu'un pas entre un concept si novateur et ses applications potentielles. Le fait que ces méta-atomes (les nanostructures posées sur le substrat et qui composent la métasurface) doivent être individuellement analysés avec l'aide de simulations par éléments finis (FDTD) rend la conception et surtout l'optimisation de ces métasurfaces très difficiles. C'est pourquoi les modèles semi-analytiques sont si pertinents. Ces modèles permettent de reproduire avec suffisament de précision les résultats de ces longues simulations en une fraction du temps, souvent de plusieurs ordres de grandeurs inférieurs. La difficulté de ce genre de modélisation est que pour y arriver, plusieurs théories doivent être combinées afin de prendre en compte le plus de facteurs qui sont analysés par les simulations par éléments finis, qui reprennent sommairement les équations de Maxwell sur l'ensemble de la surface sous analyse. De plus, dépendamment du type de nanostructure (de sa forme, de sa taille, du matériau qui la compose), un modèle peut être mathématiquement adéquat et précis pour un méta-atome et être incorrect pour une autre forme. Cependant, si un modèle est validé pour une nanostructure précise, on peut s'en servir pour simuler très rapidement les différentes propriétés optiques qu'une métasurface composée de cette nanostructure aurait si elle était soumise à différents cas d'illumination. Finalement, si plusieurs modèles sont pertinents et validés, le fait de pouvoir les mélanger ouvre la porte à une grande liberté de conception pour un ingénieur qui souhaiterait concevoir une métasurface composée de différents méta-atomes, en permettant un processus d'optimisation itératif par exemple. / Since the second half of the 20th century, new photonic materials have gradually emerged in fundamental and industrial research on an international scale. Metasurfaces, the two-dimensional counterparts of metamaterials, composed of artificial elements with sizes below the wavelength, have revolutionized the way we manipulate light, offering unprecedented control over its amplitude, phase, and polarization. Indeed, the mere ability to design an artificial surface capable of bending electromagnetic waves to the designer's desires opens the door to new optical paradigms. Negative refraction, invisibility cloaks, and unprecedented miniaturization are among the most notable examples. Undoubtedly, there is more than just a step between such innovative concepts and their potential applications. The fact that these meta-atoms (nanostructures placed on the substrate and composing the metasurface) need to be individually analyzed using finite-difference time-domain simulations (FDTD) makes the design and, more importantly, the optimization of these metasurfaces very challenging. This is where semi-analytical models become highly relevant. These models allow reproducing the results of these lengthy simulations with sufficient accuracy in a fraction of the time, often several orders of magnitude faster. The difficulty in this type of modeling lies in the need to combine multiple theories to account for the numerous factors analyzed by finite-difference time-domain simulations, which, in summary, apply Maxwell's equations to the entire surface under analysis. Additionally, depending on the type of nanostructure (its shape, size, and the material it is composed of), a model that is mathematically adequate and accurate for one meta-atom may be incorrect for another form. However, once a model is validated for a specific nanostructure, it can be used to rapidly simulate the different optical properties that a metasurface composed of this nanostructure would exhibit under various illumination scenarios. Ultimately, if multiple models are relevant and validated, the ability to mix them opens the door to significant design freedom for an engineer wishing to create a metasurface composed of different meta-atoms. In this thesis, we will explore the key concepts of semi-analytical modeling of metasurfaces, emphasizing the advantages they offer in design and optimization. Our research aims to accelerate the development of these innovative structures, unlocking new possibilities for advanced and functional optical devices.
2

Analyse et optimisation des transferts d'inventaire intersites

Chaabani, Oumaima 26 March 2024 (has links)
Titre de l'écran-titre (visionné le 13 novembre 2023) / Ce projet de mémoire met l'emphase sur un problème classique de la littérature qui est le problème de transfert d'inventaire intersite (ITP). L'objectif de ce travail consiste à optimiser les transferts d'inventaire dans un réseau de distribution multisite où les demandes des clients sont connues à l'avance. Ce problème est traité comme un problème de flot à coût minimum (FCM) considérant des contraintes liées aux capacités des sites d'entreposage. Un modèle mathématique a été développé pour minimiser le coût total d'une entreprise spécialisée dans le secteur agricole. Les décisions de transferts d'inventaire entre les différents sites d'entreposage de cette entreprise sont traitées individuellement sans tenir en compte des niveaux d'inventaires dans l'ensemble du réseau. Par conséquent, l'entreprise se trouve confrontée à un problème de multiples transferts d'inventaires qui conduisent à des coûts supplémentaires et par conséquent, à une augmentation des coûts d'opération de l'entreprise en plus de générer une augmentation des émissions de GES. Une analyse a été réalisée sur des données dérivées des données primaires de l'entreprise pour mieux interpréter son état actuel puis le modèle a été résolu sur un ensemble d'instances tests afin d'évaluer son efficacité. / This thesis project focuses on a classic problem known in literature as Inventory Transshipment Problem (ITP). The purpose of this study is to optimize inventory transfer problems within a multi-site distribution network where customer demand is a known in advance. This problem is treated as a minimum cost flow problem (MCF) considering constraints related to the capacities of the different storage sites. A mathematical model has been developed to minimize the total costs of a company that operates in the agricultural sector. At this company, decisions regarding inventory transfer between the different storage sites are treated individually without taking into account the inventory levels across the entire network. As a consequence, the company is facing a numerous inventory transfers issues leading to more inventory transfers costs, which also increases both the companies total expenses and the greenhouse gas emissions. To properly evaluate the current situation, an analysis on a data derived from the companys primary data was performed, and then the model was solved on a set of test instances to assess its effectiveness.
3

Vers une meilleure modélisation de l'évapotranspiration (ET) sous des conditions environnementales diversifiées

Hajji, Islem 27 January 2024 (has links)
Le processus d'évapotranspiration (ET) est l'une des composantes les plus significatives du cycle de l'eau de la Terre. C'est le plus important consommateur d'énergie, créant le lien entre les cycles de l'eau et de l'énergie. La maîtrise de ce processus est donc indispensable pour mieux appréhender les mécanismes complexes régissant les interactions entre le sol et l'atmosphère en terme de transfert de masse et de chaleur. Compte tenu de son intérêt majeur dans un éventail de disciplines, l'étude d'un tel processus a fait l'objet de plusieurs travaux scientifiques ces dernières années. Ceci a conduit au développement d'une grande variété de méthodes ayant pour objectif de quantifier l'ET et ses principales composantes, comme par exemple l'évaporation et la transpiration. Néanmoins, malgré l'effort scientifique, l'estimation précise de l'ET reste limitée par un certain nombre de problèmes non résolus. Certains de ces problèmes sont liées à la variabilité de l'ET dans l'espace et dans le temps, ainsi que selon les climats et les biomes. D'autres problèmes sont liés au paramétrage et à l'étalonnage des modèles ET proposés et au nombre important des données nécessaires pour exécuter ces modèles. Afin de pallier les difficultés des modèles ET existants, un nouveau modèle, dit modèle MEP (Maximum Entropy Production), a été récemment développé en se basant sur la thermodynamique hors-équilibre et la théorie des probabilités bayésiennes. Ce modèle offre une alternative intéressante pour estimer efficacement l'ET et les flux de chaleur de surface en utilisant moins de variables d'entrée que les modèles existants, tout en respectant la fermeture du bilan énergétique de surface. Il existe trois versions de ce modèle permettant d'estimer séparément l'évaporation, la transpiration et la sublimation. Cependant, jusqu'à présent, les capacités de ce modèle n'ont été évalués que sur des sites et conditions climatiques relativement simples et homogènes. Son applicabilité sur des sites complexes présentant des climats et couvertures végétales variés n'a pas été étudiée. Dans ce contexte, le présent projet de thèse vise à investiguer les capacités du modèle MEP à simuler correctement l'ET pour une large gamme de climats et de couvertures végétales et d'apporter les améliorations nécessaires en cas d'insatisfaction. Pour atteindre ses objectifs, ce travail est divisé en deux parties.La première partie du travail s'est intéressée à l'investigation du modèle MEP dans des conditions climatiques et végétales complexes en l'absence des effets de neige. Pour ce faire, un couplage entre les deux versions du modèle MEP utilisés pour estimer l'évaporation du sol et la transpiration de la végétation a été développé. Le modèle couplé obtenu, désigné par MEP-ET par la suite, repose sur l'introduction d'un coefficient de pondération caractérisant la proportion de la surface végétalisée par rapport à la surface totale du site étudié. Ainsi, l'ET totale dans les sites partiellement végétalisés est calculée comme la somme pondérée de l'évaporation du sol et de la transpiration de la végétation. Pour étudier les performances du modèle MEP-ET, celui-ci a été appliqué sur huit sites FLUXNET sur le continent américain présentant différentes conditions climatiques et végétales. La comparaison entre les estimations obtenues et les observations in situ de l'ET montre la grande aptitude du modèle MEP-ET à estimer l'ET dans les sites caractérisés par une présence abondante à modérément limitée d'eau. Dans les sites caractérisés par des conditions de stress hydrique élevé, les estimations obtenues sont loin d'être réalistes. Ceci est dû au fait que la version originale du modèle MEP-ET ne prend pas en compte les effets du stress hydrique du sol sur les stomates. Pour sur monter ce problème, un nouveau paramètre de régulation permettant de reproduire correctement ces effets a été introduit. L'ajout de ce paramètre a considérablement réduit les biais de la version originale du modèle MEP-ET, notamment dans les conditions de stress hydrique. Le modèle MEP-ET généralisé, impliquant le paramètre de régularisation, se montre beaucoup plus performant que d'autres modèles classiquement utilisés pour estimer l'ET, comme le modèle dePenman–Monteith (PM), la version modifiée de la méthode Priestley–Taylor–Jet (PT-JPL) et le modèle modèle à deux sources basé sur l'humidité relative de l'air (ARTS) dans tous les sites testés. La deuxième partie de ce travail s'est intéressée à la prise en compte des effets de neige sur l'estimation de l'ET pour permettre la simulation des flux de vapeur d'eau de surface (chaleur latente) sur l'ensemble du cycle de vie du manteau neigeux, notamment l'accumulation de neige et la fonte au début de la saison de croissance. Pour ce faire, le modèle MEP-ET généralisé,qui a été proposé dans le première partie du travail, a été couplé avec la version du modèle MEP simulant la sublimation de la neige pour prendre en compte l'effet de la perte d'eau de la neige dans l'atmosphère pendant le cycle de vie du manteau neigeux sur l'ET. Deux hypothèses basées sur des observations pluriannuelles de plusieurs sites on été utilisées pour développer ce couplage : (1) la sublimation devient négligeable pendant la fonte lorsque le manteau neigeux est isotherme (0°C) et (2) la transpiration est progressivement activée en fonction de la température de l'air au réveil de la végétation. L'approche de couplage proposée s'avère efficace pour modéliser les flux de vapeur d'eau de surface totaux au cours du cycle de vie du manteau neigeux. / The process of evapotranspiration (ET) is one of the most significant components of the earth water cycle. It is the most important consumer of energy, creating the link between the cycles of water and energy of the Earth. Therefore, control of this process is essential to better understand the complex mechanisms governing the interactions between the soil and the atmosphere in terms of mass and heat transfer. Given its major interest in various disciplines,the study of such a process has been the subject of several scientific works in recent years.This has led to the development of a wide variety of methods for quantification of ET and its main components, such as evaporation and transpiration. Nevertheless, despite the scientific effort, precise ET estimation remains limited by a number of unresolved problems. Some of these problems are related to the variability of ET in space and time, as well as in climate sand biomes. Other problems are related to the setting and calibration of the proposed ET models and the important number of data needed to run them.To overcome difficulties related to existing ET approaches, a new model, called the Maximum Entropy Production (MEP) model, was recently developed based on out-of-equilibrium thermodynamics and Bayesian probability theory. This model offers an interesting alternative to efficiently estimate ET and the surface heat fluxes, using fewer input variables than the existing models, while respecting the closure of the surface energy balance. There are three MEP versions used to separately estimate evaporation, transpiration and sublimation. However, until now, the capabilities of this model have only been evaluated in relatively simple and homogeneous sites and climatic conditions. Its applicability on complex sites with varied climates and plant covers has not been studied. In this context, the present project aims to investigate the capabilities of the MEP model to accurately predict ET in a wide range of climates and plant covers and to propose improvements in order to enhance such capabilities if necessary. To achieve its objectives, this work is divided into two parts.The first part of the work has focused on the investigation of the MEP model under complex climatic and plant conditions in the absence of snow effects. To this end, a coupling between the two versions of the MEP model used to estimate soil evaporation and vegetation transpiration has been developed. The obtained coupling model, which is referenced to in the followingas MEP-ET model, is based on the introduction of a weighting coefficient characterizing the proportion of the vegetated surface with respect to the total surface of the studied site. Using this model, total ET in partially vegetated sites is calculated as the weighted sum of soil evaporation and vegetation transpiration. To study the performance of the MEP-ET model,it has been applied to eight FLUXNET sites, with different climatic and plant conditions, in the American continent. The comparison between the obtained estimates and the in-situ observations of the ET shows the great ability of the MEP-ET model to estimate the ET in sites characterized by an abundant to moderately limited presence of water. In sites characterizedby conditions of high water stress, the estimates obtained are far from being realistic. This is because the original version of the MEP-ET model does not take into account the effects of soil moisture stress on stomata. To overcome this problem, a new regulation parameter has been introduced to correctly reproduce these effects. The addition of this parameter has significantly minimized biases of the original version of the MEP-ET model, especially underwater stress conditions. The generalized MEP-ET model, involving the regulation parameter,is much more efficient than other models conventionally used to estimate ET at all test sites, such as the Penman–Monteith (PM), modified Priestley–Taylor–Jet Propulsion Laboratory(PT-JPL), and air-relative-humidity-based two-source model (ARTS).The second part of this work has focused on the inclusion of snow effects on the ET estimationin order to allow for simulation of the surface water vapor fluxes (latent heat) over the entire snowpack cycle, including snow accumulation and snow melting at the beginning of the growing season. To do this, the generalized MEP-ET model proposed in the first part of the work has been coupled with the MEP version for snow to consider effects of water loss in the atmosphere during the snowpack life cycle on the ET. Two hypotheses based on multi-year observations of several sites have been used to develop this coupling: (1) effects of sublimation are negligible during melting when the snowpack is isothermal (0°C) and (2) effects of transpiration are progressively activated according to the air temperature when the vegetation awakes. The proposed coupling approach is shown to be very effective in modeling the total surface watervapor fluxes during the snowpack life cycle.
4

Characterization and modelling of grit chambers based on particle settling velocity distributions

Plana Puig, Queralt 02 February 2024 (has links)
Les dessableurs font partie du prétraitement de la plupart des stations de récupération des ressources de l'eau (StaRRE). Ces unités de dessablage servent à protéger les équipements et les procédés aval ainsi qu'à maintenir la performance des traitements primaire et secondaire. Même si ces unités jouent un rôle crucial, un manque criant au niveau des connaissances sur les caractéristiques des particules de grit sur leur comportement et sur la modélisation des dessableurs est observé. Ce manque implique une définition incorrecte des particules de grit, l'inexistence d'un protocole standard d'échantillonnage et de caractérisation des particules autour d'un dessableur, et l'utilisation de modèles simples basés sur un % d'enlèvement constant. Le premier objectif de la thèse est de développer une méthode de caractérisation de la vitesse de chute des particules, variable clé du processus de sédimentation. Cet objectif peut être divisé en plusieurs sous-objectifs. Un premier sous objectif est de concevoir un protocole d'échantillonnage spécifique pour les sites expérimentaux échantillonnés. Un deuxième sous objectif est de comparer les méthodes actuellement utilisées pour caractériser les particules de grit de proposer une méthode de caractérisation pour les particules mentionnées autour des unités de dessablage. Le deuxième objectif de la thèse est de développer un modèle dynamique basé sur la distribution de vitesse de chute des particules (DVCP). Le modèle est appliqué à deux différents cas d'études avec différentes conceptions de dessableur (vortex et aéré) et de capacités de traitement. Dans les deux cas, le modèle est calibré et validé avec succès. Il s'agit d'un modèle puissant permettant de prédire la concentration des solides à la sortie des dessableurs et la quantité de solides enlevés (particules de grit ) en fonction de la dynamique des solides et du débit à l'entrée du dessableur. Les résultats obtenus dans le cadre de ce doctorat ont permis de présenter une nouvelle approche expérimentale pour la caractérisation des particules de grit ainsi que, pour la première fois, un modèle dynamique des unités de dessablage basé sur la DVCP. Les deux nouveaux outils ont été testés avec succès. / Grit chambers can be found at the headworks of most water resource recovery facilities (WRRFs) to protect equipment and the processes downstream and maintain the performance of primary and secondary treatments. Even though they play a crucial role, there is a lack of knowledge on grit characteristics and grit chamber behaviour and modelling. This leads to an improper grit de nition, a non-existing standard protocol of sampling and characterization, a non-existing standard protocol to evaluate the performance of the system and only simple models based on a static %-removal. Given the fact that particle settling is the governing process of grit particle removal, that a vast diversity of sampling and characterization methods is existing, and modelling has been limited to very simple static %-removal based equations, two main objectives in the context of this study are pursued. The rst objective aims for a characterization method taking into account the key parameter of the settling process, i.e. particle settling velocity. It is divided in multiple subobjectives. First, the establishment of a site-speci c sampling protocol to obtain representative samples from the water around the studied grit chambers. Then, the currently used methods to characterize grit particles and wastewater are compared and adapted prior to the proposal of a characterization method. The second objective of this study is to present a new dynamic model based on particle settling velocity distributions (PSVD). The model is tested on two di erent case studies with di erent grit chamber designs (vortex and aerated) and treatment capacities. In both cases, the model was successfully calibrated and validated showing a powerful model to predict the solids concentration at the outlet and solids removal at the under ow (i.e. grit particles) of a grit chamber depending on the inlet dynamics. Summarizing, the results of this PhD study are a new experimental characterization and, for the rst time, a dynamic model, based on PSVD. Both new tools have been successfully tested at full-scale.
5

Modèles conjoints multi-états avec données longitudinales de comptage

Sylla, Magatte 24 October 2024 (has links)
Dans le domaine de l'assurance, les entreprises utilisent souvent des techniques de modélisation prédictive pour anticiper le moment où un client est susceptible de résilier sa police. Cependant, un client peut subir une succession d'événements sur l'évolution de ses polices d'assurance avec, par exemple, l'acquisition d'une police automobile, suivie d'une police habitation, ou quitter l'entreprise, c'est-à-dire annuler ses contrats de polices d'assurance. Ainsi, au lieu de l'apparition d'un seul événement, la progression du client pourrait être définie comme un processus multi-états en mettant l'accent sur les transitions entre les états et la modélisation du nombre d'interactions entre le client et la compagnie sur celles-ci. Dans ce contexte, nous présentons un modèle conjoint pour une variable longitudinale et un processus multi-états qui est divisé en deux sous-modèles : un sous-modèle linéaire généralisé mixte pour une variable longitudinale de comptage et un sous-modèle multi-états avec des risques proportionnels pour les temps de transition, tous deux liés par des effets aléatoires partagés. Les paramètres de ce modèle conjoint multi-états sont estimés avec une approche bayésienne. Elle est mise en œuvre sous R à l'aide des packages msm, survival et JMbayes2. Des outils graphiques de diagnostic ont été proposés pour évaluer la convergence des estimations obtenues. Grâce aux covariables classiques disponibles dans les données d'une compagnie d'assurance, nous sommes en mesure d'étudier l'évolution du nombre d'interactions trimestriel, de définir les risques de transition entre les états de police d'assurance et de quantifier l'impact de la dynamique du nombre d'interactions sur chaque intensité de transition. / In the insurance industry, companies often use predictive modeling techniques to anticipate when a customer is likely to cancel their policy. However, a customer may experience a succession of events on the evolution of their insurance policies, with, for example, the acquisition of a car policy, followed by a home policy, or leaving the company, i.e. canceling their insurance policies. Thus, instead of the occurrence of a single event, the customer's progression could be defined as a multi-state process, focusing on the transitions between states and the impact of the dynamics of the number of interactions between the customer and the company on these. In this context, we present a joint model for a longitudinal variable and a multi-state process that is divided into two sub-models: a mixed generalized linear sub-model for a longitudinal counting variable and a multi-state sub-model with proportional risks for transition times, both linked by shared random effects. The parameters of this joint multi-state model are estimated using a Bayesian approach. It is implemented in R using the msm, survival and JMbayes2 packages. Graphical diagnostic tools have been proposed to assess the convergence of the estimates obtained. Thanks to the classical covariates available in the data of an insurance company, we are able to study the evolution of the quarterly number of interactions, to define the transition risks between insurance policy states and to quantify the impact of the dynamics of the number of interactions on each transition intensity.
6

A mathematical model of Alzheimer's disease

Moravveji, Seyedadel 25 March 2024 (has links)
Titre de l'écran-titre (visionné le 7 août 2023) / L'objet de cette thèse est l'étude de différents modèles mathématiques décrivant le vieillissement du cerveau et l'évolution de la maladie d'Alzheimer. Je porte un regard critique sur les différents modèles publiés et j'en développe un nouveau qui corrige les lacunes des modèles existant. Il n'existe pour l'instant aucun traitement efficace pour les patients atteints de la maladie d'Alzheimer. De plus, étant donné le vieillissement de la population et la perte d'autonomie des personnes atteintes, les coûts humains et sociaux de cette maladie sont dramatiques et ne cessent d'augmenter. Les causes et les mécanismes biologiques impliqués dans le développement de cette maladie sont nombreux et semblent interagir de manière non linéaire. Les recherches se concentrant sur une cause ou un facteur unique n'ont pas donné les résultats escomptés. Pour ces raisons, les modèles mathématiques peuvent nous aider à comprendre l'impact des différents facteurs impliqués et de tester in silico l'impact de différentes stratégies thérapeutiques. Dans un premier temps, j'ai effectué une revue systématique des différents articles publiés contenant des modèles mathématiques décrivant le développement de la maladie d'Alzheimer, ce qui constitue le chapitre 1 de cette thèse. Les modèles utilisent pour la plupart des systèmes d'équations différentielles ordinaires(EDOs) et/ou des systèmes d'équations aux dérivées partielles (EDPs). Dans le chapitre 2, je présente les outils mathématiques nécessaires pour résoudre ces modèles. Il existe de nombreuses recettes numériques pour résoudre des systèmes d'EDOs ou d'EDPs. Étant donné les différentes échelles de temps impliquées dans la développement de la maladie d'Azheimer, le système résultant d'ÉDOs peut être délicat à résoudre numériquement. Je discute des méthodes adaptées à la résolution de notre problème. Au chapitre 3, je donne une introduction à l'analyse de sensibilité. L'analyse de sensibilité est importante pour plusieurs raisons que ce soit pour quantifier l'incertitude ou pour l'identification de paramètres critiques. Du point de de vue mathématique, il existe plusieurs outils pour calculer les sensibilités et le choix de la méthode dépend du contexte. Dans ce chapitre, je discute de l'importance d'effectuer des analyses de sensibilité et je présente les méthodes les plus appropriées pour notre cas. Au chapitre 4, je présente en détail le modèle développé par Hao et Friedman. Ce modèle comporte un système de 18 EDOs. Je discute des forces et des faiblesses de ce modèle et en particulier des facteurs qui rendent les résultats impossibles à reproduire. Je développe finalement une version améliorée de ce modèle avec une description plus réaliste des différents facteurs impliqués dans le développement de la maladie d'Alzheimer. / The main objective of this thesis is to study different mathematical models describing brain aging and the progression of Alzheimer's disease (AD). I critically review different published papers with mathematical models of AD and I develop a new one improving upon existing works. There exists no efficient treatment to help patients suffering from AD. Given the worldwide population aging and the loss of autonomy caused by AD, the human and social economical costs of AD are staggering and keep increasing. The causes and mechanisms involved in the development of AD are numerous and seem to interact in a nonlinear fashion. Research focusing on a single factor has not yielded the expected results. Given all this, mathematical modeling can be a useful tool to help us understand how the different elements of interest interact with each other and play a role in AD progression. Mathematical models can also be used to test in silico different potential therapeutic strategies. I first performed a scoping review of different published papers describing mathematical models of AD on set and progression. This corresponds to chapter 1 of this thesis. For the most part, mathematical models use either systems of ordinary differential equations (ODEs) or systems of partial differential equations (PDEs). In chapter 2, I present and discuss the different mathematical tools needed to solve these models. There exist numerous numerical recipes to solve systems of ODEs or PDEs. Given the different temporal scales implied in AD, the resulting ODE system can be delicate to handle numerically. I discuss numerical methods which are well-suited to the resolution of our particular problem. In chapter 3, I give an introduction to sensitivity analysis and present different methods with which one can assess which parameters or factors have a significant impact on the prediction of the models. Sensitivity analysis is important for many reasons, be it to quantify uncertainty or to identify critical parameters. From a mathematical point of view, several tools exist to compute sensitivities and the choice of a particular technique depends on the context and objectives. I discuss the importance of sensitivity analysis and present different algorithms with which one can perform this analysis. I discuss which methods are the most appropriate for our specific problem. In chapter 4, I present in detail the model developed by Hao and Friedman. This model has 18 ODEs. I discuss the strengths and weaknesses of this model and in particular the reasons making the results of Hao and Friedman impossible to reproduce. Finally, I develop an improved version of this model with a more realistic description of the different factors involved in the onset and progression of AD.
7

Intégration de métasurfaces dans le processus de conception optique

Cléroux Cuillerier, Alexandre 14 September 2022 (has links)
L'arrivée au début du millénaire des métasurfaces offre une approche novatrice à la manipulation des ondes électromagnétiques. De l'interaction du front d'onde incident et des méta-atomes, structures fondamentales de la métasurface, émerge des propriétés optiques exotiques que l'on ne retrouve pas chez des matériaux ordinaires. Bien que cette technologie promette de s'affranchir des limitations de l'optique classique, l'intégration de métasurfaces à des systèmes optiques déjà existants demeure une avenue peu explorée. Toutefois, de récents développements dans la modélisation de métasurfaces auraient le potentiel de promouvoir cette intégration. En effet, par la conjonction de modèles et d'outils de conception optique traditionnelle, il serait possible d'extraire efficacement les propriétés optiques de métasurfaces au cœur d'un système optique complexe. Ce projet propose donc une méthode d'intégration des métasurfaces en conception optique grâce à des modèles semi-analytiques permettant de caractériser des structures rectangulaires et cylindriques agissant comme méta-atomes. De cette façon, les propriétés des méta-atomes utiles à la conception optique ont pu être étudiées. En plus de pouvoir obtenir les dimensions de structures permettant à la métasurface d'opérer adéquatement, les comportements de ces structures sous différentes conditions d'illumination ont été établis. Des analyses subséquentes sur la performance et la dispersion chromatique de métalentilles ont révélé des particularités fondamentalement distinctes de l'optique classique. Pour conclure, une démonstration de systèmes combinant métasurfaces avec éléments réfractifs a servi de preuve de concept pour la méthode proposée de conception optique exploitant les métasurfaces de manière avantageuse. / The arrival at the beginning of the millennium of metasurfaces offers an innovative approach to the manipulation of electromagnetic waves. From the interaction of the incident wavefront and the meta-atoms, fundamental structures of the metasurface, emerge exotic optical properties not found in ordinary materials. Although this technology promises to overcome the limitations of conventional optics, the integration of metasurfaces into existing optical systems remains an unexplored avenue. However, recent developments in metasurface modelling have the potential to promote this integration. Indeed, by combining models and traditional optical design tools, it would be possible to efficiently extract the optical properties of metasurfaces within a complex optical system. This project proposes a method for integrating metasurfaces in optical design using semi-analytical models to characterize rectangular and cylindrical structures acting as meta-atoms. In this way, the properties of meta-atoms useful for optical design could be studied. In addition to being able to obtain the dimensions of structures allowing the metasurface to operate adequately, the behavior of these structures under different illumination conditions has been established. Subsequent analyzes of the performance and chromatic dispersion of metalenses have revealed features fundamentally distinct from conventional optics. To conclude, demonstrations of systems combining metasurfaces with refractive elements served as proof of concept for the proposed method of optical design exploiting metasurfaces in an advantageous way.
8

Assessment of the actuator line method applied to ducted fan geometries

Breault, Marc-Antoine 20 November 2023 (has links)
Thèse ou mémoire avec insertion d’articles / L'électrification des transports, de pair avec l'émergence de la mobilité aérienne urbaine, créer un regain d'intérêt du secteur de l'aéronautique envers les hélices carénées. Cette technologie se veut intéressante pour ces deux champs d'application en raison du gain d'efficacité qu'elle peut permettre pour les missions où le vol stationnaire ou à basse vitesse représente une partie significative du temps de vol de l'appareil. Ceci est sans compter leur émission sonore réduite et leur sécurité améliorée, deux aspects inhérents aux hélices carénées. Lors de la conception de ces systèmes, l'ingénieur peut, en fonction de ses besoins, utiliser des outils simples et rapides comme la théorie de la quantité de mouvement et les méthodes numériques en découlant ou encore des outils plus fidèles à la vraie physique, mais côuteux en temps et en ressources comme la CFD (Computational Fluid Dynamics). Il existe, pour des rotors non-carénés, des outils numériques pouvant être qualifiés de fidélité moyenne et qui sont intéressants au moment de la conception préliminaire lorsqu'une précision supplémentaire est nécessaire, mais que l'utilisation de la CFD résolvant la couche limite jusqu'à la paroi n'est pas envisageable. L'adaptation de ces outils de moyenne fidélité aux rotors carénés est, toutefois, des années en retard en comparaison à l'état de l'art pour des rotors non-carénés. Inspiré d'une de ces méthodes de moyenne fidélité nommée la modélisation par ligne actuatrice (acronyme anglais ALM) qui est bien implémentée pour des rotors non-carénés, le présent travail cherche à étendre l'utilisation de cette technique à des hélices carénées et à en évaluer les performances. Le projet est mené en collaboration avec Bell Textron Canada® qui fournit les géométries à l'étude ainsi que des données expérimentales pour la validation des simulations par ligne actuatrice. Comme la physique d'une hélice carénée est complexe et dépend d'une forte interaction entre l'hélice et le carénage, des cas de validation plus simples sont aussi utilisés pour valider différents aspects du code de simulation. Les résultats obtenus avec l'ALM montrent que cette technique peut être utilisée comme outil de simulation pour les géométries carénées, notamment pour calculer les courbes de performance d'un système, ainsi que pour étudier l'effet de changements macroscopiques tels que le nombre de pales, la vitesse de rotation ou le diamètre du rotor. Certaines faiblesses de la technique sont aussi soulevées. Il s'agit particulièrement d'effets plus locaux comme le comportement du chargement en bout de pale. Néanmoins, l'ALM appliqué aux géométries carénées permet d'identifier rapidement, et à un coût de calcul moindre, les idées de conception ou les conditions d'opération les plus intéressantes. Ce travail aborde la théorie pertinente au modèle numérique de l'ALM, les modèles physiques sous-jacents, ainsi qu'une comparaison détaillée des résultats ALM avec ceux obtenus en CFD et en soufflerie. Plusieurs pistes d'améliorations sont aussi proposées pour de futurs travaux de recherche. / The emerging market of urban air mobility alongside the increasing number of hybrid-electric or purely electric propulsion systems has renewed the interest of the aeronautical sector for ducted fans. Ducted propulsion systems are particularly well suited for these use cases, as they often result in power savings during flight missions where hovering and low flight speed are prominent. Other advantages of ducted fans include lower and more directional sound emissions and inherently increased safety. When designing these systems, the aerodynamicist can choose between rapid but low-fidelity tools such as numerical methods based on the momentum theory, or more accurate but also more time-consuming tools such as wall-resolved CFD. In between these two extremes, there are also medium-fidelity tools available if a more detailed solution is needed but resorting to wall-resolved CFD is still cost-prohibitive. Although medium-fidelity methods are well developed and continue to make progress for conventional unducted rotors, their application to their ducted counterpart is years behind the state of the art for open rotors. Inspired by one of these medium-fidelity methods called the Actuator Line Method (ALM), which is widely adopted by the scientific community and extensively used for open rotor simulations, the aim of this work is to extend the ALM to ducted geometries. This research project is conducted in collaboration with the industrial partner Bell Textron Canada® which provided the studied ducted fan geometry as well as experimental data used to validate the ALM code. Since the flow inside a ducted propulsion system is quite complex and involves a strong interaction between the duct and the rotor, simpler validation cases are also used to validate specific attributes of the ALM code. The ALM results indicate that the technique is suitable for simulating ducted propulsion systems. It is particularly interesting for rapid computation of performance curves and for evaluating the effect of macroscopic changes such as the number of blades, rotational speed or rotor diameter. Shortcomings in the predictive capabilities are also reported concerning more local effects, such as the behaviour of the blade loading at the tip of the blade. Nevertheless, the ALM developed in this work still allows the design space to be explored rapidly and at a reduced computational cost when compared with wall-resolved CFD. This work presents the theory behind the ALM code, the underlying physical models as well as a detailed comparison of the ALM results with wind tunnel and wall-resolved CFD data. Numerous improvements to the code are also proposed for future research on the subject.
9

Optimized modeling of membrane gas phase separation processes

Gilassi, Sina 11 April 2024 (has links)
Le schéma traditionnel d'utilisation de l'énergie est désormais considéré comme un problème sérieux en raison de sa relation directe avec le changement climatique. Actuellement, notre dépendance vis-à-vis des combustibles fossiles augmente de façon spectaculaire, ce qui peut être attribué à la croissance de la population mondiale et à la forte demande d'énergie pour le développement économique. Ce modèle semble être préférable uniquement pour une économie florissante, mais ses perspectives pour les générations futures seront sans aucun doute décevantes. Dans ce scénario, un volume gigantesque de CO₂ produit par la combustion des combustibles fossiles dans les industries chimiques, les cimenteries et les centrales électriques, est rejeté de manière irresponsable dans l'atmosphère. Il ne fait aucun doute qu'une telle exploitation des combustibles fossiles nous conduit à des catastrophes environnementales sans précédent en ce qui concerne l'émission de CO₂, qui est le principal contributeur aux gaz à effet de serre (GES). L'une des solutions disponibles pour faire face à cette situation critique est de moderniser les centrales existantes qui émettent du CO₂ avec des technologies de capture et de stockage du carbone (CSC) afin de lutter systématiquement contre le changement climatique. Toutefois, les technologies actuelles de CSC présentent encore des problèmes techniques et des limites opérationnelles qui entraînent un surcoût pour les dépenses d'une usine et une augmentation de sa consommation d'énergie. La technologie membranaire est actuellement considérée comme une méthode de séparation prometteuse pour la séparation des gaz en raison de la simplicité de son procédé et de son mécanisme écologique. Par rapport aux autres méthodes de séparation, cette technologie est encore en cours de développement. Actuellement, la recherche se concentre sur l'amélioration des caractéristiques des membranes afin de faire face à un compromis bien connu entre la perméabilité et la sélectivité décrit par les graphiques de Robeson. Cette approche pourrait viser à commercialiser cette technologie plus efficacement dans le domaine de la séparation des gaz, tandis qu'une technologie d'absorption à base d'amines sera encore utilisée de manière dominante à cette fin pendant plusieurs années. Malgré cela, il est également nécessaire d'évaluer la performance des membranes fabriquées pour la séparation de différents mélanges de gaz avant de les utiliser pour des projets industriels réalistes. Pour ce faire, un outil de simulation est nécessaire pour prédire la composition des composants gazeux dans les flux de produits du rétentat et du perméat dans différentes conditions de fonctionnement. Ainsi, au chapitre 1, un modèle fiable est développé pour la simulation de la séparation des gaz à l'aide de modules de membranes à fibres creuses. Ensuite, ce modèle permet d'identifier les propriétés requises de la membrane, ce qui permet d'obtenir des performances intéressantes pour le module. Un procédé membranaire à plusieurs étapes est nécessaire pour atteindre les spécifications du produit qui sont une pureté et une récupération élevées du CO₂ dans le cas de projets de capture du CO₂. Dans ce cas, au chapitre 2, un modèle d'optimisation est proposé pour déterminer les valeurs optimales des paramètres de fonctionnement pour chaque étape et surtout pour déterminer une disposition optimisée à différents taux de récupération tout en minimisant le coût de la capture du CO₂. Dans le chapitre 3, nous comparons les performances de séparation de la technologie membranaire et du procédé d'absorption enzymatique en effectuant plusieurs analyses technico-économiques. Cette approche vise à démontrer la viabilité technique et l'efficacité économique de ces méthodes pour la modernisation d'une centrale électrique de 600 MWe par rapport aux procédés traditionnels d'absorption à base d'amines. Enfin, au chapitre 4, un système hybride est présenté en combinant les procédés d'absorption membranaire et enzymatique pour capturer le CO₂ des gaz de combustion d'une centrale électrique de 600 MWe. Ce système hybride est ensuite évalué pour révéler la faisabilité du procédé et pour étudier les performances de séparation en partageant la capture partielle du CO₂ entre ces deux unités de séparation. Dans l'ensemble, cette thèse de doctorat contribue à tirer parti de la fusion de la technologie membranaire avec d'autres méthodes de séparation conventionnelles telles que le procédé d'absorption enzymatique pour faciliter plus rapidement son intégration industrielle et sa commercialisation sur le marché de la séparation des gaz. / The traditional pattern of energy use is now regarded as a serious problem due to its direct relationship to the climate change. Currently, our dependency on fossil fuels is dramatically increasing which can be attributed to the world population growth and heavy energy demand for economic development. This model appears to be preferable only for flourishing economy but undoubtedly its outlook for the future generations will be disappointing. Under this scenario, a gigantic volume of CO₂ produced by burning the fossil fuels in chemical industries, cement manufactures, and power plants, is recklessly released in the atmosphere. Undoubtedly, such exploitation of the fossil fuels is bringing us further to unprecedented environmental disasters pertaining to the emission of CO₂ which is the major contributor to the greenhouse gases (GHGs). One of the available solutions to deal with this critical situation is to retrofit existing CO₂ emitter plants with carbon capture and storage (CCS) technologies in order to systematically combat with the climate change. However, the current CCS technologies still have technical issues and operational limitations resulting in incurring extra cost to a plant’s expenditures and increasing its energy consumption. Membrane technology is currently regarded as a promising separation method for gas separation due to its process simplicity and eco-friendly mechanism. In comparison to other separation methods, this technology is still under progress. Currently, the research focus is on the enhancement of membrane characteristics in order to deal with a well-known trade-off between permeability and selectivity described by Robeson plots. This approach might aim at commercializing this technology more efficiently in the gas separation area while an amine-based absorption technology will still be dominantly utilized for this purpose for several years. Despite this, it is also needed to evaluate the performance of fabricated membranes for the separation of different gas mixtures prior to utilizing for realistic industrial projects. To do so, a simulation tool is required to predict the composition of gas components in retentate and permeate product streams under different operating conditions. Thus, in Chapter 1, a reliable model is developed for the simulation of gas separation using hollow fiber membrane modules. Later, this model allows identifying the required membrane properties hence, resulting in module performances of interest. A multi-stage membrane process is required to hit product specifications which are high CO₂ purity and recovery in the case of CO₂ capture projects. In this case, an optimization model is proposed in Chapter 2 to determine the optimal values of operating parameters for each stage and more importantly to determine an optimized layout at different recovery rates while CO₂ capture cost is minimized. In Chapter 3, we compare the separation performance of membrane technology and the enzymatic-absorption process through performing several techno-economic analyses. This approach aims at demonstrating the technical viability and economic efficiency of these methods for retrofitting to a 600 MWe power plant compared to traditional amine-based absorption processes. Finally, a hybrid system is introduced in Chapter 4 by combining membrane and enzymatic-absorption processes to capture CO₂ from flue-gas of a 600 MWe power plant. This hybrid system is then assessed to reveal the process feasibility and to investigate separation performance through sharing partial CO₂ capture between these two separation units. Overall, this PhD thesis contributes to leverage the merge of membrane technology with other conventional separation methods such as the enzymatic-absorption process to more rapidly facilitate its industrial integration and commercialization in the gas separation market.
10

Modeling of the thermo-chemo-poromechanical properties of a carbon anode during the baking process

Chen, Bowen 10 February 2024 (has links)
Dans le procédé d'électrolyse Hall-Héroult pour la production d'aluminium primaire, l'anode de carbone est utilisée comme une électrode positive. Par rapport aux autres matériaux carbonés dans l'industrie, les anodes sont consommées dans les cuves d'électrolyse. Ainsi, des anodes de haute qualité sont nécessaires pour maintenir la durabilité du fonctionnement, ce qui augmente considérablement l'efficacité du procédé d'électrolyse. L'une des solutions prometteuses pourrait être de contrôler et d'améliorer la qualité des anodes via ses processus de production. Dans la production d'anode, la cuisson des anodes est considérée comme l'étape la plus coûteuse ainsi que la cause la plus fréquente des problèmes d'anode. Formée artificiellement par un procédé de compactage/vibro-compactage, une anode verte est constituée d'un mélange de carbone et de pores. Les mélanges de carbone sont généralement composés d'agrégats de coke pétrolier (? 65 wt.%), de brai de goudron (? 15 wt.%) et de mégots d'anode recyclés (? 20 wt.%). Le processus de cuisson transforme une anode verte en anode précuite. Au cours de ce processus, le brai de goudron se carbonise en liant les agrégats de coke et dégage de légers gaz volatils de sorte qu'un système solide-gaz du mélange anodique se forme. Quatre facteurs qui conduisent à modifier les propriétés et les structures internes de l'anode de la cuisson peuvent être résumés comme suit: i) les charges externes des anodes supérieures; ii) la dilatation thermique induite par le transfert de chaleur; iii) la dilatation causée par l'augmentation de la pression dans les pores due au processus de pyrolyse du brai et iv) la contraction chimique due au processus de pyrolyse du brai. Par conséquent, le processus de cuisson des anodes nécessite une compréhension approfondie des mécanismes qui régissent les évolutions des propriétés du mélange anodique à des températures plus élevées. Dans ce projet, un modèle thermo-chimio-poromécanique est développé pour la cuisson de l'anode en utilisant la théorie des milieux poreux réactifs basée sur la théorie des mélanges, et ce dans le cadre de la thermodynamique des processus irréversible. À cet effet, une variable d'état interne appelée "indice de contraction" est définie pour caractériser la progression chimique de la pyrolyse du brai dans le squelette anodique et l'inégalité de Clausius-Duhem est développée selon le formalisme lagrangien. En introduisant un tenseur de déformations de Green-Lagrange réduit, une énergie lagrangienne libre est formulée pour dériver l'ensemble des équations d'état. Ensuite, la dissipation thermodynamique de ce mélange solide-gaz est dérivée et un modèle constitutif reliant la pyrolyse chimique au comportement mécanique est réalisé. Un potentiel de dissipation est défini pour assurer la non-négativité de la dissipation thermodynamique et pour obtenir les lois de comportement visqueux. Les équations de champ régissant la diffusion des gaz volatils et le transfert de chaleur à travers le corps du mélange drainant sont dérivées à partir de l'équilibre entropique. Du plus, afin d'acquérir une meilleure connaissance de la modélisation du processus de cuisson, les propriétés physiques et le comportement mécanique du mélange anodique à haute température ont été caractérisés expérimentalement. À cette fin, quatre caractérisations expérimentales principales ont été réalisées: 1) une mesure pycnométrique à l'hélium a été réalisée à température ambiante pour mesurer la densité réelle pycnométrique de la pâte d'anode cuite à différentes températures; 2) une analyse thermogravimétrique (TGA) a été réalisée pour obtenir la perte de masse de l'anode due à la réaction chimique de la pyrolyse du brai à haute température; 3) la dilatométrie a été réalisée pour trois objectifs: i) caractériser les déplacements dues à la dilatation thermique et à la pyrolyse chimique de l'anode de carbone; ii) identifier le coefficient d'expansion thermique (CET) de l'anode aux températures élevées et iii) estimer l'évolution du changement de volume en fonction de la température et 4) une caractérisation du comportement de fluage a été réalisée pour étudier les comportements viscoélastique et viscoplastique de la pâte d'anode à haute température. En outre, la perméabilité à l'air des anodes cuites à différentes températures a été mesurée par le partenaire industriel Alcoa Deschambault pour estimer l'évolution de la porosité ouverte en fonction de la température. À cette fin, une méthode de compactage améliorée pour la fabrication d'échantillons d'anode à l'échelle du laboratoire a été proposée pour satisfaire aux exigences d'un échantillon qui a une densité apparente uniforme. En utilisant les résultats expérimentaux obtenus, les paramètres liés à la cinétique de la pyrolyse et aux lois de comportement développées ont été identifiés par une méthode inverse. Ils comprennent: 1) les paramètres cinétiques impliqués dans la réaction de pyrolyse tels que l'énergie d'activation et le facteur pré-exponentiel; 2) le coefficient d'expansion thermique à différentes températures et 3) les coefficients de Lamé et "Lamé-like" liés au modèle de Burger qui décrit le comportement viscoélastique-viscoplastique de l'anode à haute température. Enfin, en utilisant l'indice de contraction, l'évolution de la pression dans les pores fermées de la matrice liante a été estimée. Les propriétés physiques et mécaniques ont été réexprimées en fonction de l'indice de contraction afin de refléter l'influence de la transformation physico-chimique et des couplages chimico-mécaniques sur les propriétés de l'anode de carbone pendant la cuisson. / In the Hall-Héroult process for the production of primary aluminium, the carbon anode is used as a positive electrode. Compared with other industrial carbonaceous materials, the anodes are highly consumed in the electrolysis cell. Thus, high-quality anodes are required to maintain the sustainability of operation, which substantially increases the efficiency of the electrolysis process. One of the promising solutions could be controlling and improving the anode quality via its production process. In anode production, the anode baking is considered as the most cost-intensive stage as well as the most frequent cause of anode problems. Artificially formed by the compaction/vibrocompaction process, a green anode mixture consists of carbon mixtures and pores. The carbon mixtures are typically composed of petroleum coke aggregates (? 65 wt.%), the coal tar pitch (? 15 wt.%) and the recycled anode butts (? 20 wt.%). The baking process transforms a green anode into a prebaked anode. During this process, the coal tar pitch carbonises binding the coke aggregates and discharges light binder volatile such that a solidgas system of the anode mixture is formed. Four factors that lead to the modification of the properties and internal structures of the anode can be summarised as follows: i) external loadings from upper anodes; ii) the thermal expansion induced by the heat transfer; iii) the expansion of the apparent volume caused by the pore pressure increase due to the pitch pyrolysis process and iv) the chemical shrinkage due to the pitch pyrolysis process. Therefore, the anode baking process calls for a deep understanding of mechanisms that govern the properties evolution of the anode mixture at high temperatures. In this project, a thermo-chemo-poromechanical model is established for the baking anode by using the theory of reactive porous media based on the theory of mixtures within the thermodynamic framework. For this purpose, an internal state variable called "shrinking index" is defined to characterize the chemical progress of the pitch pyrolysis in the anode skeleton and the Clausius-Duhem inequality is developed according to the Lagrangian formalism. By introducing a reduced Green-Lagrange strain tensor, a Lagrangian free energy is formulated to find a set of state equations. Then, the thermodynamic dissipation for this pyrolyzing solidgas mixture is derived and a constitutive model linking the chemical pyrolysis with the mechanical behaviour is achieved. A dissipation potential is defined to ensure the non-negativeness of the thermodynamic dissipation and to obtain the constitutive laws for viscous behaviours. Field equations governing the volatile diffusion and the heat transfer through the draining mixture body are derived from the entropy balance. Furthermore, to gain a better knowledge in modelling the baking process, physical properties and mechanical behaviours of the anode mixture at high temperatures were experimentally characterized. For this purpose, four main experimental characterizations were achieved: 1) helium-pycnometric measurement was carried out at room temperature to measure the real pycnometric density of the anode paste; 2) thermogravimetric analysis (TGA) was performed to obtain the mass loss of the anode due to the chemical reaction of the pitch pyrolysis at high temperatures; 3) dilatometry was realized for three purposes: i) to characterize displacements due to the thermal expansion and the chemical shrinkage of carbon anode; ii) to identify the thermal expansion coefficient (TEC) of the anode at high temperatures and iii) to estimate the evolution of the volume change with respect to the temperature and 4) characterization of creep behaviour was achieved to investigate the viscoelastic and viscoplastic behaviours of the anode paste at high temperatures. Additionally, the air permeability of the anodes baked up to different high temperatures were measured by our industrial partner Alcoa Deschambault to estimate the evolution of open porosity as a function of temperature. To this end, an improved compaction method for the fabrication of lab-scale anode samples was proposed to satisfy the requirement of a sample with apparent uniform density. By using obtained experimental results, parameters involved in the kinetics of pyrolysis and the developed constitutive laws were inversely identified. They include: 1) kinetic parameters involved in the pyrolysis reaction such as the activation energy and the pre-exponential factor; 2) thermal expansion coefficients at different high temperatures; and 3) Lamé and Lamé-like coefficients involved in the Burger's model which describes the viscoelastic-viscoplastic behaviours of the anode at high temperatures. Finally, using the shrinking index, the pressure evolution in pores entrapping the volatile was estimated. Some mechanical properties were re-expressed as a function of the shrinking index to reflect the influences of physio-chemical transformation and chemo-mechanical couplings on the properties of the carbon anode mixture during the baking process.

Page generated in 0.0704 seconds