• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 604
  • 193
  • 4
  • Tagged with
  • 803
  • 803
  • 491
  • 237
  • 106
  • 101
  • 98
  • 91
  • 90
  • 85
  • 80
  • 66
  • 63
  • 60
  • 54
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Characterization and modelling of grit chambers based on particle settling velocity distributions

Plana Puig, Queralt 02 February 2024 (has links)
Les dessableurs font partie du prétraitement de la plupart des stations de récupération des ressources de l'eau (StaRRE). Ces unités de dessablage servent à protéger les équipements et les procédés aval ainsi qu'à maintenir la performance des traitements primaire et secondaire. Même si ces unités jouent un rôle crucial, un manque criant au niveau des connaissances sur les caractéristiques des particules de grit sur leur comportement et sur la modélisation des dessableurs est observé. Ce manque implique une définition incorrecte des particules de grit, l'inexistence d'un protocole standard d'échantillonnage et de caractérisation des particules autour d'un dessableur, et l'utilisation de modèles simples basés sur un % d'enlèvement constant. Le premier objectif de la thèse est de développer une méthode de caractérisation de la vitesse de chute des particules, variable clé du processus de sédimentation. Cet objectif peut être divisé en plusieurs sous-objectifs. Un premier sous objectif est de concevoir un protocole d'échantillonnage spécifique pour les sites expérimentaux échantillonnés. Un deuxième sous objectif est de comparer les méthodes actuellement utilisées pour caractériser les particules de grit de proposer une méthode de caractérisation pour les particules mentionnées autour des unités de dessablage. Le deuxième objectif de la thèse est de développer un modèle dynamique basé sur la distribution de vitesse de chute des particules (DVCP). Le modèle est appliqué à deux différents cas d'études avec différentes conceptions de dessableur (vortex et aéré) et de capacités de traitement. Dans les deux cas, le modèle est calibré et validé avec succès. Il s'agit d'un modèle puissant permettant de prédire la concentration des solides à la sortie des dessableurs et la quantité de solides enlevés (particules de grit ) en fonction de la dynamique des solides et du débit à l'entrée du dessableur. Les résultats obtenus dans le cadre de ce doctorat ont permis de présenter une nouvelle approche expérimentale pour la caractérisation des particules de grit ainsi que, pour la première fois, un modèle dynamique des unités de dessablage basé sur la DVCP. Les deux nouveaux outils ont été testés avec succès. / Grit chambers can be found at the headworks of most water resource recovery facilities (WRRFs) to protect equipment and the processes downstream and maintain the performance of primary and secondary treatments. Even though they play a crucial role, there is a lack of knowledge on grit characteristics and grit chamber behaviour and modelling. This leads to an improper grit de nition, a non-existing standard protocol of sampling and characterization, a non-existing standard protocol to evaluate the performance of the system and only simple models based on a static %-removal. Given the fact that particle settling is the governing process of grit particle removal, that a vast diversity of sampling and characterization methods is existing, and modelling has been limited to very simple static %-removal based equations, two main objectives in the context of this study are pursued. The rst objective aims for a characterization method taking into account the key parameter of the settling process, i.e. particle settling velocity. It is divided in multiple subobjectives. First, the establishment of a site-speci c sampling protocol to obtain representative samples from the water around the studied grit chambers. Then, the currently used methods to characterize grit particles and wastewater are compared and adapted prior to the proposal of a characterization method. The second objective of this study is to present a new dynamic model based on particle settling velocity distributions (PSVD). The model is tested on two di erent case studies with di erent grit chamber designs (vortex and aerated) and treatment capacities. In both cases, the model was successfully calibrated and validated showing a powerful model to predict the solids concentration at the outlet and solids removal at the under ow (i.e. grit particles) of a grit chamber depending on the inlet dynamics. Summarizing, the results of this PhD study are a new experimental characterization and, for the rst time, a dynamic model, based on PSVD. Both new tools have been successfully tested at full-scale.
2

Analyse et optimisation des transferts d'inventaire intersites

Chaabani, Oumaima 26 March 2024 (has links)
Titre de l'écran-titre (visionné le 13 novembre 2023) / Ce projet de mémoire met l'emphase sur un problème classique de la littérature qui est le problème de transfert d'inventaire intersite (ITP). L'objectif de ce travail consiste à optimiser les transferts d'inventaire dans un réseau de distribution multisite où les demandes des clients sont connues à l'avance. Ce problème est traité comme un problème de flot à coût minimum (FCM) considérant des contraintes liées aux capacités des sites d'entreposage. Un modèle mathématique a été développé pour minimiser le coût total d'une entreprise spécialisée dans le secteur agricole. Les décisions de transferts d'inventaire entre les différents sites d'entreposage de cette entreprise sont traitées individuellement sans tenir en compte des niveaux d'inventaires dans l'ensemble du réseau. Par conséquent, l'entreprise se trouve confrontée à un problème de multiples transferts d'inventaires qui conduisent à des coûts supplémentaires et par conséquent, à une augmentation des coûts d'opération de l'entreprise en plus de générer une augmentation des émissions de GES. Une analyse a été réalisée sur des données dérivées des données primaires de l'entreprise pour mieux interpréter son état actuel puis le modèle a été résolu sur un ensemble d'instances tests afin d'évaluer son efficacité. / This thesis project focuses on a classic problem known in literature as Inventory Transshipment Problem (ITP). The purpose of this study is to optimize inventory transfer problems within a multi-site distribution network where customer demand is a known in advance. This problem is treated as a minimum cost flow problem (MCF) considering constraints related to the capacities of the different storage sites. A mathematical model has been developed to minimize the total costs of a company that operates in the agricultural sector. At this company, decisions regarding inventory transfer between the different storage sites are treated individually without taking into account the inventory levels across the entire network. As a consequence, the company is facing a numerous inventory transfers issues leading to more inventory transfers costs, which also increases both the companies total expenses and the greenhouse gas emissions. To properly evaluate the current situation, an analysis on a data derived from the companys primary data was performed, and then the model was solved on a set of test instances to assess its effectiveness.
3

Vers une meilleure modélisation de l'évapotranspiration (ET) sous des conditions environnementales diversifiées

Hajji, Islem 27 January 2024 (has links)
Le processus d'évapotranspiration (ET) est l'une des composantes les plus significatives du cycle de l'eau de la Terre. C'est le plus important consommateur d'énergie, créant le lien entre les cycles de l'eau et de l'énergie. La maîtrise de ce processus est donc indispensable pour mieux appréhender les mécanismes complexes régissant les interactions entre le sol et l'atmosphère en terme de transfert de masse et de chaleur. Compte tenu de son intérêt majeur dans un éventail de disciplines, l'étude d'un tel processus a fait l'objet de plusieurs travaux scientifiques ces dernières années. Ceci a conduit au développement d'une grande variété de méthodes ayant pour objectif de quantifier l'ET et ses principales composantes, comme par exemple l'évaporation et la transpiration. Néanmoins, malgré l'effort scientifique, l'estimation précise de l'ET reste limitée par un certain nombre de problèmes non résolus. Certains de ces problèmes sont liées à la variabilité de l'ET dans l'espace et dans le temps, ainsi que selon les climats et les biomes. D'autres problèmes sont liés au paramétrage et à l'étalonnage des modèles ET proposés et au nombre important des données nécessaires pour exécuter ces modèles. Afin de pallier les difficultés des modèles ET existants, un nouveau modèle, dit modèle MEP (Maximum Entropy Production), a été récemment développé en se basant sur la thermodynamique hors-équilibre et la théorie des probabilités bayésiennes. Ce modèle offre une alternative intéressante pour estimer efficacement l'ET et les flux de chaleur de surface en utilisant moins de variables d'entrée que les modèles existants, tout en respectant la fermeture du bilan énergétique de surface. Il existe trois versions de ce modèle permettant d'estimer séparément l'évaporation, la transpiration et la sublimation. Cependant, jusqu'à présent, les capacités de ce modèle n'ont été évalués que sur des sites et conditions climatiques relativement simples et homogènes. Son applicabilité sur des sites complexes présentant des climats et couvertures végétales variés n'a pas été étudiée. Dans ce contexte, le présent projet de thèse vise à investiguer les capacités du modèle MEP à simuler correctement l'ET pour une large gamme de climats et de couvertures végétales et d'apporter les améliorations nécessaires en cas d'insatisfaction. Pour atteindre ses objectifs, ce travail est divisé en deux parties.La première partie du travail s'est intéressée à l'investigation du modèle MEP dans des conditions climatiques et végétales complexes en l'absence des effets de neige. Pour ce faire, un couplage entre les deux versions du modèle MEP utilisés pour estimer l'évaporation du sol et la transpiration de la végétation a été développé. Le modèle couplé obtenu, désigné par MEP-ET par la suite, repose sur l'introduction d'un coefficient de pondération caractérisant la proportion de la surface végétalisée par rapport à la surface totale du site étudié. Ainsi, l'ET totale dans les sites partiellement végétalisés est calculée comme la somme pondérée de l'évaporation du sol et de la transpiration de la végétation. Pour étudier les performances du modèle MEP-ET, celui-ci a été appliqué sur huit sites FLUXNET sur le continent américain présentant différentes conditions climatiques et végétales. La comparaison entre les estimations obtenues et les observations in situ de l'ET montre la grande aptitude du modèle MEP-ET à estimer l'ET dans les sites caractérisés par une présence abondante à modérément limitée d'eau. Dans les sites caractérisés par des conditions de stress hydrique élevé, les estimations obtenues sont loin d'être réalistes. Ceci est dû au fait que la version originale du modèle MEP-ET ne prend pas en compte les effets du stress hydrique du sol sur les stomates. Pour sur monter ce problème, un nouveau paramètre de régulation permettant de reproduire correctement ces effets a été introduit. L'ajout de ce paramètre a considérablement réduit les biais de la version originale du modèle MEP-ET, notamment dans les conditions de stress hydrique. Le modèle MEP-ET généralisé, impliquant le paramètre de régularisation, se montre beaucoup plus performant que d'autres modèles classiquement utilisés pour estimer l'ET, comme le modèle dePenman–Monteith (PM), la version modifiée de la méthode Priestley–Taylor–Jet (PT-JPL) et le modèle modèle à deux sources basé sur l'humidité relative de l'air (ARTS) dans tous les sites testés. La deuxième partie de ce travail s'est intéressée à la prise en compte des effets de neige sur l'estimation de l'ET pour permettre la simulation des flux de vapeur d'eau de surface (chaleur latente) sur l'ensemble du cycle de vie du manteau neigeux, notamment l'accumulation de neige et la fonte au début de la saison de croissance. Pour ce faire, le modèle MEP-ET généralisé,qui a été proposé dans le première partie du travail, a été couplé avec la version du modèle MEP simulant la sublimation de la neige pour prendre en compte l'effet de la perte d'eau de la neige dans l'atmosphère pendant le cycle de vie du manteau neigeux sur l'ET. Deux hypothèses basées sur des observations pluriannuelles de plusieurs sites on été utilisées pour développer ce couplage : (1) la sublimation devient négligeable pendant la fonte lorsque le manteau neigeux est isotherme (0°C) et (2) la transpiration est progressivement activée en fonction de la température de l'air au réveil de la végétation. L'approche de couplage proposée s'avère efficace pour modéliser les flux de vapeur d'eau de surface totaux au cours du cycle de vie du manteau neigeux. / The process of evapotranspiration (ET) is one of the most significant components of the earth water cycle. It is the most important consumer of energy, creating the link between the cycles of water and energy of the Earth. Therefore, control of this process is essential to better understand the complex mechanisms governing the interactions between the soil and the atmosphere in terms of mass and heat transfer. Given its major interest in various disciplines,the study of such a process has been the subject of several scientific works in recent years.This has led to the development of a wide variety of methods for quantification of ET and its main components, such as evaporation and transpiration. Nevertheless, despite the scientific effort, precise ET estimation remains limited by a number of unresolved problems. Some of these problems are related to the variability of ET in space and time, as well as in climate sand biomes. Other problems are related to the setting and calibration of the proposed ET models and the important number of data needed to run them.To overcome difficulties related to existing ET approaches, a new model, called the Maximum Entropy Production (MEP) model, was recently developed based on out-of-equilibrium thermodynamics and Bayesian probability theory. This model offers an interesting alternative to efficiently estimate ET and the surface heat fluxes, using fewer input variables than the existing models, while respecting the closure of the surface energy balance. There are three MEP versions used to separately estimate evaporation, transpiration and sublimation. However, until now, the capabilities of this model have only been evaluated in relatively simple and homogeneous sites and climatic conditions. Its applicability on complex sites with varied climates and plant covers has not been studied. In this context, the present project aims to investigate the capabilities of the MEP model to accurately predict ET in a wide range of climates and plant covers and to propose improvements in order to enhance such capabilities if necessary. To achieve its objectives, this work is divided into two parts.The first part of the work has focused on the investigation of the MEP model under complex climatic and plant conditions in the absence of snow effects. To this end, a coupling between the two versions of the MEP model used to estimate soil evaporation and vegetation transpiration has been developed. The obtained coupling model, which is referenced to in the followingas MEP-ET model, is based on the introduction of a weighting coefficient characterizing the proportion of the vegetated surface with respect to the total surface of the studied site. Using this model, total ET in partially vegetated sites is calculated as the weighted sum of soil evaporation and vegetation transpiration. To study the performance of the MEP-ET model,it has been applied to eight FLUXNET sites, with different climatic and plant conditions, in the American continent. The comparison between the obtained estimates and the in-situ observations of the ET shows the great ability of the MEP-ET model to estimate the ET in sites characterized by an abundant to moderately limited presence of water. In sites characterizedby conditions of high water stress, the estimates obtained are far from being realistic. This is because the original version of the MEP-ET model does not take into account the effects of soil moisture stress on stomata. To overcome this problem, a new regulation parameter has been introduced to correctly reproduce these effects. The addition of this parameter has significantly minimized biases of the original version of the MEP-ET model, especially underwater stress conditions. The generalized MEP-ET model, involving the regulation parameter,is much more efficient than other models conventionally used to estimate ET at all test sites, such as the Penman–Monteith (PM), modified Priestley–Taylor–Jet Propulsion Laboratory(PT-JPL), and air-relative-humidity-based two-source model (ARTS).The second part of this work has focused on the inclusion of snow effects on the ET estimationin order to allow for simulation of the surface water vapor fluxes (latent heat) over the entire snowpack cycle, including snow accumulation and snow melting at the beginning of the growing season. To do this, the generalized MEP-ET model proposed in the first part of the work has been coupled with the MEP version for snow to consider effects of water loss in the atmosphere during the snowpack life cycle on the ET. Two hypotheses based on multi-year observations of several sites have been used to develop this coupling: (1) effects of sublimation are negligible during melting when the snowpack is isothermal (0°C) and (2) effects of transpiration are progressively activated according to the air temperature when the vegetation awakes. The proposed coupling approach is shown to be very effective in modeling the total surface watervapor fluxes during the snowpack life cycle.
4

Modèles conjoints multi-états avec données longitudinales de comptage

Sylla, Magatte 24 October 2024 (has links)
Dans le domaine de l'assurance, les entreprises utilisent souvent des techniques de modélisation prédictive pour anticiper le moment où un client est susceptible de résilier sa police. Cependant, un client peut subir une succession d'événements sur l'évolution de ses polices d'assurance avec, par exemple, l'acquisition d'une police automobile, suivie d'une police habitation, ou quitter l'entreprise, c'est-à-dire annuler ses contrats de polices d'assurance. Ainsi, au lieu de l'apparition d'un seul événement, la progression du client pourrait être définie comme un processus multi-états en mettant l'accent sur les transitions entre les états et la modélisation du nombre d'interactions entre le client et la compagnie sur celles-ci. Dans ce contexte, nous présentons un modèle conjoint pour une variable longitudinale et un processus multi-états qui est divisé en deux sous-modèles : un sous-modèle linéaire généralisé mixte pour une variable longitudinale de comptage et un sous-modèle multi-états avec des risques proportionnels pour les temps de transition, tous deux liés par des effets aléatoires partagés. Les paramètres de ce modèle conjoint multi-états sont estimés avec une approche bayésienne. Elle est mise en œuvre sous R à l'aide des packages msm, survival et JMbayes2. Des outils graphiques de diagnostic ont été proposés pour évaluer la convergence des estimations obtenues. Grâce aux covariables classiques disponibles dans les données d'une compagnie d'assurance, nous sommes en mesure d'étudier l'évolution du nombre d'interactions trimestriel, de définir les risques de transition entre les états de police d'assurance et de quantifier l'impact de la dynamique du nombre d'interactions sur chaque intensité de transition. / In the insurance industry, companies often use predictive modeling techniques to anticipate when a customer is likely to cancel their policy. However, a customer may experience a succession of events on the evolution of their insurance policies, with, for example, the acquisition of a car policy, followed by a home policy, or leaving the company, i.e. canceling their insurance policies. Thus, instead of the occurrence of a single event, the customer's progression could be defined as a multi-state process, focusing on the transitions between states and the impact of the dynamics of the number of interactions between the customer and the company on these. In this context, we present a joint model for a longitudinal variable and a multi-state process that is divided into two sub-models: a mixed generalized linear sub-model for a longitudinal counting variable and a multi-state sub-model with proportional risks for transition times, both linked by shared random effects. The parameters of this joint multi-state model are estimated using a Bayesian approach. It is implemented in R using the msm, survival and JMbayes2 packages. Graphical diagnostic tools have been proposed to assess the convergence of the estimates obtained. Thanks to the classical covariates available in the data of an insurance company, we are able to study the evolution of the quarterly number of interactions, to define the transition risks between insurance policy states and to quantify the impact of the dynamics of the number of interactions on each transition intensity.
5

Développement mathématique et modélisation théorique de métasurfaces

Bouillon, Christopher 17 April 2024 (has links)
Thèse ou mémoire avec insertion d'articles / Depuis la seconde moitié du XXe siècle, de nouveaux matériaux photoniques ont graduellement fait leur apparition dans la recherche fondamentale et industrielle, et ce, à l'échelle internationale. Les métasurfaces, l'équivalent bidimensionnel des métamatériaux et composées d'éléments artificiels de taille sous-longueur d'onde, ont révolutionné notre façon de manipuler la lumière en offrant un contrôle sans précédent sur son amplitude, sa phase et sa polarisation. Effectivement, le simple fait de pouvoir concevoir une surface artificielle qui peut plier l'onde électromagnétique aux désirs de son concepteur ouvre la porte à de nouveaux paradigmes optiques. Réfraction négative, cape d'invisibilité et miniaturisation sans précédent en sont de bons exemples. Bien évidemment, il n'y a qu'un pas entre un concept si novateur et ses applications potentielles. Le fait que ces méta-atomes (les nanostructures posées sur le substrat et qui composent la métasurface) doivent être individuellement analysés avec l'aide de simulations par éléments finis (FDTD) rend la conception et surtout l'optimisation de ces métasurfaces très difficiles. C'est pourquoi les modèles semi-analytiques sont si pertinents. Ces modèles permettent de reproduire avec suffisament de précision les résultats de ces longues simulations en une fraction du temps, souvent de plusieurs ordres de grandeurs inférieurs. La difficulté de ce genre de modélisation est que pour y arriver, plusieurs théories doivent être combinées afin de prendre en compte le plus de facteurs qui sont analysés par les simulations par éléments finis, qui reprennent sommairement les équations de Maxwell sur l'ensemble de la surface sous analyse. De plus, dépendamment du type de nanostructure (de sa forme, de sa taille, du matériau qui la compose), un modèle peut être mathématiquement adéquat et précis pour un méta-atome et être incorrect pour une autre forme. Cependant, si un modèle est validé pour une nanostructure précise, on peut s'en servir pour simuler très rapidement les différentes propriétés optiques qu'une métasurface composée de cette nanostructure aurait si elle était soumise à différents cas d'illumination. Finalement, si plusieurs modèles sont pertinents et validés, le fait de pouvoir les mélanger ouvre la porte à une grande liberté de conception pour un ingénieur qui souhaiterait concevoir une métasurface composée de différents méta-atomes, en permettant un processus d'optimisation itératif par exemple. / Since the second half of the 20th century, new photonic materials have gradually emerged in fundamental and industrial research on an international scale. Metasurfaces, the two-dimensional counterparts of metamaterials, composed of artificial elements with sizes below the wavelength, have revolutionized the way we manipulate light, offering unprecedented control over its amplitude, phase, and polarization. Indeed, the mere ability to design an artificial surface capable of bending electromagnetic waves to the designer's desires opens the door to new optical paradigms. Negative refraction, invisibility cloaks, and unprecedented miniaturization are among the most notable examples. Undoubtedly, there is more than just a step between such innovative concepts and their potential applications. The fact that these meta-atoms (nanostructures placed on the substrate and composing the metasurface) need to be individually analyzed using finite-difference time-domain simulations (FDTD) makes the design and, more importantly, the optimization of these metasurfaces very challenging. This is where semi-analytical models become highly relevant. These models allow reproducing the results of these lengthy simulations with sufficient accuracy in a fraction of the time, often several orders of magnitude faster. The difficulty in this type of modeling lies in the need to combine multiple theories to account for the numerous factors analyzed by finite-difference time-domain simulations, which, in summary, apply Maxwell's equations to the entire surface under analysis. Additionally, depending on the type of nanostructure (its shape, size, and the material it is composed of), a model that is mathematically adequate and accurate for one meta-atom may be incorrect for another form. However, once a model is validated for a specific nanostructure, it can be used to rapidly simulate the different optical properties that a metasurface composed of this nanostructure would exhibit under various illumination scenarios. Ultimately, if multiple models are relevant and validated, the ability to mix them opens the door to significant design freedom for an engineer wishing to create a metasurface composed of different meta-atoms. In this thesis, we will explore the key concepts of semi-analytical modeling of metasurfaces, emphasizing the advantages they offer in design and optimization. Our research aims to accelerate the development of these innovative structures, unlocking new possibilities for advanced and functional optical devices.
6

A mathematical model of Alzheimer's disease

Moravveji, Seyedadel 25 March 2024 (has links)
Titre de l'écran-titre (visionné le 7 août 2023) / L'objet de cette thèse est l'étude de différents modèles mathématiques décrivant le vieillissement du cerveau et l'évolution de la maladie d'Alzheimer. Je porte un regard critique sur les différents modèles publiés et j'en développe un nouveau qui corrige les lacunes des modèles existant. Il n'existe pour l'instant aucun traitement efficace pour les patients atteints de la maladie d'Alzheimer. De plus, étant donné le vieillissement de la population et la perte d'autonomie des personnes atteintes, les coûts humains et sociaux de cette maladie sont dramatiques et ne cessent d'augmenter. Les causes et les mécanismes biologiques impliqués dans le développement de cette maladie sont nombreux et semblent interagir de manière non linéaire. Les recherches se concentrant sur une cause ou un facteur unique n'ont pas donné les résultats escomptés. Pour ces raisons, les modèles mathématiques peuvent nous aider à comprendre l'impact des différents facteurs impliqués et de tester in silico l'impact de différentes stratégies thérapeutiques. Dans un premier temps, j'ai effectué une revue systématique des différents articles publiés contenant des modèles mathématiques décrivant le développement de la maladie d'Alzheimer, ce qui constitue le chapitre 1 de cette thèse. Les modèles utilisent pour la plupart des systèmes d'équations différentielles ordinaires(EDOs) et/ou des systèmes d'équations aux dérivées partielles (EDPs). Dans le chapitre 2, je présente les outils mathématiques nécessaires pour résoudre ces modèles. Il existe de nombreuses recettes numériques pour résoudre des systèmes d'EDOs ou d'EDPs. Étant donné les différentes échelles de temps impliquées dans la développement de la maladie d'Azheimer, le système résultant d'ÉDOs peut être délicat à résoudre numériquement. Je discute des méthodes adaptées à la résolution de notre problème. Au chapitre 3, je donne une introduction à l'analyse de sensibilité. L'analyse de sensibilité est importante pour plusieurs raisons que ce soit pour quantifier l'incertitude ou pour l'identification de paramètres critiques. Du point de de vue mathématique, il existe plusieurs outils pour calculer les sensibilités et le choix de la méthode dépend du contexte. Dans ce chapitre, je discute de l'importance d'effectuer des analyses de sensibilité et je présente les méthodes les plus appropriées pour notre cas. Au chapitre 4, je présente en détail le modèle développé par Hao et Friedman. Ce modèle comporte un système de 18 EDOs. Je discute des forces et des faiblesses de ce modèle et en particulier des facteurs qui rendent les résultats impossibles à reproduire. Je développe finalement une version améliorée de ce modèle avec une description plus réaliste des différents facteurs impliqués dans le développement de la maladie d'Alzheimer. / The main objective of this thesis is to study different mathematical models describing brain aging and the progression of Alzheimer's disease (AD). I critically review different published papers with mathematical models of AD and I develop a new one improving upon existing works. There exists no efficient treatment to help patients suffering from AD. Given the worldwide population aging and the loss of autonomy caused by AD, the human and social economical costs of AD are staggering and keep increasing. The causes and mechanisms involved in the development of AD are numerous and seem to interact in a nonlinear fashion. Research focusing on a single factor has not yielded the expected results. Given all this, mathematical modeling can be a useful tool to help us understand how the different elements of interest interact with each other and play a role in AD progression. Mathematical models can also be used to test in silico different potential therapeutic strategies. I first performed a scoping review of different published papers describing mathematical models of AD on set and progression. This corresponds to chapter 1 of this thesis. For the most part, mathematical models use either systems of ordinary differential equations (ODEs) or systems of partial differential equations (PDEs). In chapter 2, I present and discuss the different mathematical tools needed to solve these models. There exist numerous numerical recipes to solve systems of ODEs or PDEs. Given the different temporal scales implied in AD, the resulting ODE system can be delicate to handle numerically. I discuss numerical methods which are well-suited to the resolution of our particular problem. In chapter 3, I give an introduction to sensitivity analysis and present different methods with which one can assess which parameters or factors have a significant impact on the prediction of the models. Sensitivity analysis is important for many reasons, be it to quantify uncertainty or to identify critical parameters. From a mathematical point of view, several tools exist to compute sensitivities and the choice of a particular technique depends on the context and objectives. I discuss the importance of sensitivity analysis and present different algorithms with which one can perform this analysis. I discuss which methods are the most appropriate for our specific problem. In chapter 4, I present in detail the model developed by Hao and Friedman. This model has 18 ODEs. I discuss the strengths and weaknesses of this model and in particular the reasons making the results of Hao and Friedman impossible to reproduce. Finally, I develop an improved version of this model with a more realistic description of the different factors involved in the onset and progression of AD.
7

Intégration de métasurfaces dans le processus de conception optique

Cléroux Cuillerier, Alexandre 14 September 2022 (has links)
L'arrivée au début du millénaire des métasurfaces offre une approche novatrice à la manipulation des ondes électromagnétiques. De l'interaction du front d'onde incident et des méta-atomes, structures fondamentales de la métasurface, émerge des propriétés optiques exotiques que l'on ne retrouve pas chez des matériaux ordinaires. Bien que cette technologie promette de s'affranchir des limitations de l'optique classique, l'intégration de métasurfaces à des systèmes optiques déjà existants demeure une avenue peu explorée. Toutefois, de récents développements dans la modélisation de métasurfaces auraient le potentiel de promouvoir cette intégration. En effet, par la conjonction de modèles et d'outils de conception optique traditionnelle, il serait possible d'extraire efficacement les propriétés optiques de métasurfaces au cœur d'un système optique complexe. Ce projet propose donc une méthode d'intégration des métasurfaces en conception optique grâce à des modèles semi-analytiques permettant de caractériser des structures rectangulaires et cylindriques agissant comme méta-atomes. De cette façon, les propriétés des méta-atomes utiles à la conception optique ont pu être étudiées. En plus de pouvoir obtenir les dimensions de structures permettant à la métasurface d'opérer adéquatement, les comportements de ces structures sous différentes conditions d'illumination ont été établis. Des analyses subséquentes sur la performance et la dispersion chromatique de métalentilles ont révélé des particularités fondamentalement distinctes de l'optique classique. Pour conclure, une démonstration de systèmes combinant métasurfaces avec éléments réfractifs a servi de preuve de concept pour la méthode proposée de conception optique exploitant les métasurfaces de manière avantageuse. / The arrival at the beginning of the millennium of metasurfaces offers an innovative approach to the manipulation of electromagnetic waves. From the interaction of the incident wavefront and the meta-atoms, fundamental structures of the metasurface, emerge exotic optical properties not found in ordinary materials. Although this technology promises to overcome the limitations of conventional optics, the integration of metasurfaces into existing optical systems remains an unexplored avenue. However, recent developments in metasurface modelling have the potential to promote this integration. Indeed, by combining models and traditional optical design tools, it would be possible to efficiently extract the optical properties of metasurfaces within a complex optical system. This project proposes a method for integrating metasurfaces in optical design using semi-analytical models to characterize rectangular and cylindrical structures acting as meta-atoms. In this way, the properties of meta-atoms useful for optical design could be studied. In addition to being able to obtain the dimensions of structures allowing the metasurface to operate adequately, the behavior of these structures under different illumination conditions has been established. Subsequent analyzes of the performance and chromatic dispersion of metalenses have revealed features fundamentally distinct from conventional optics. To conclude, demonstrations of systems combining metasurfaces with refractive elements served as proof of concept for the proposed method of optical design exploiting metasurfaces in an advantageous way.
8

Automated medical scheduling : fairness and quality

Picard-Cantin, Émilie 02 February 2024 (has links)
Dans cette thèse, nous étudions les façons de tenir compte de la qualité et de l’équité dans les algorithmes de confection automatique d’horaires de travail. Nous découpons ce problème en deux parties. La modélisation d’un problème d’horaires permet de créer des horaires plus rapidement qu’un humain peut le faire manuellement, puisqu’un ordinateur peut évaluer plusieurs horaires simultanément et donc prendre des décisions en moins de temps. La première partie du problème étudié consiste à améliorer la qualité des horaires en encodant des contraintes et des préférences à l’aide de modèles mathématiques. De plus, puisque la création est plus rapide à l’aide d’un ordinateur, il est plus facile pour un ordinateur de trouver l’horaire ayant la meilleure qualité lorsque les règles et préférences sont clairement définies. Toutefois, déterminer les règles et préférences d’un groupe de personne n’est pas une tâche facile. Ces individus ont souvent de la difficulté à exprimer formellement leurs besoins et leurs préférences. Par conséquent, la création d’un bon modèle mathématique peut prendre beaucoup de temps, et cela même pour un expert en création d’horaires de travail. C’est pourquoi la deuxième partie de cette thèse concerne la réduction du temps de modélisation à l’aide d’algorithmes capable d’apprendre un modèle mathématique à partir de solutions données comme par exemple, dans notre cas, des horaires de travail. / In this thesis, we study the ways to take quality and fairness into account in the algorithms of automatic creation of work schedules. We separate this problem into two subproblems. The modeling of a scheduling problem allows a faster creation of schedules than what a human can produce manually. A computer can generate and evaluate multiple schedules at a time and therefore make decisions in less time. This first part of the studied problem consists in improving the quality of medical schedules by encoding constraints and preferences using mathematical models. Moreover, since the creation is faster, it is easier for a computer to find the schedule with the highest quality when the rules and the preferences are clearly defined. However, determining the rules and preferences of a group of people is not an easy task. Those individuals often have difficulties formally expressing their requirements and preferences. Therefore, the creation a good mathematical model might take a long time, even for a scheduling expert. This is why the second part of this thesis concerns the reduction of modeling time using algorithms able to learn mathematical models from given solutions, in our case schedules.
9

Impact populationnel de la vaccination contre les virus du papillome humain : revue systématique et synthèse des prédictions de 16 modèles mathématiques dynamiques

Bénard, Élodie 30 July 2024 (has links)
Tableau d'honneur de la Faculté des études supérieures et postdoctorales, 2016-2017 / Introduction: En 2015, 65 pays avaient des programmes de vaccination contre les VPH. La modélisation mathématique a joué un rôle crucial dans leur implantation. Objectifs: Nous avons réalisé une revue systématique et analysé les prédictions de modèles mathématiques de l’efficacité populationnelle de la vaccination sur la prévalence des VPH-16/18/6/11 chez les femmes et les hommes, afin d’évaluer la robustesse/variabilité des prédictions concernant l’immunité de groupe, le bénéfice ajouté par la vaccination des garçons et l’élimination potentielle des VPH-16/18/6/11. Méthodes: Nous avons cherché dans Medline/Embase afin d’identifier les modèles dynamiques simulant l’impact populationnel de la vaccination sur les infections par les VPH-16/18/6/11 chez les femmes et les hommes. Les équipes participantes ont réalisé des prédictions pour 19 simulations standardisées. Nous avons calculé la réduction relative de la prévalence (RRprev) 70 ans après l’introduction de la vaccination. Les résultats présentés correspondent à la médiane(10ème; 90èmeperccentiles) des prédictions. Les cibles de la vaccination étaient les filles seulement ou les filles & garçons. Résultats: 16/19 équipes éligibles ont transmis leurs prédictions. Lorsque 40% des filles sont vaccinées, la RRprev du VPH-16 est 53%(46%; 68%) chez les femmes et 36%(28%; 61%) chez les hommes. Lorsque 80% des filles sont vaccinées, la RRprev est 93%(90%; 100%) chez les femmes et 83%(75%; 100%) chez les hommes. Vacciner aussi les garçons augmente la RRprev de 18%(13%; 32%) chez les femmes et 35%(27%; 39%) chez les hommes à 40% de couverture, et 7%(0%; 10%) et 16%(1%; 25%) à 80% de couverture. Les RRprev étaient plus élevées pour les VPH-18/6/11 (vs. VPH-16). Si 80% des filles & garçons sont vaccinés, les VPH-16/18/6/11 pourraient être éliminés. Interprétation: Même si les modèles diffèrent entre eux, les prédictions s’accordent sur: 1)immunité de groupe élevée même à basse couverture, 2)RRprev supérieures pour les VPH-18/6/11 (vs. VPH-16), 3)augmenter la couverture chez les filles a un meilleur impact qu’ajouter les garçons, 4)vacciner 80% des filles & garçons pourraient éliminer les VPH-16/18/6/11. / Background: As of 2015, 65 countries have introduced HPV vaccination programmes. Mathematical models have played a key role in the implementation of these programmes. Objectives: We conducted a systematic review and pooled-analysis of model predictions of population-level effectiveness of HPV vaccination against HPV-16/18/6/11 infection in women and men, to examine the robustness/variability of predicted populationnal effects, incremental benefit of vaccinating boys, and potential for HPV vaccine-type elimination. Methods: We searched Medline and Embase (2009-2015) for transmission-dynamic modeling studies predicting the population-level impact of vaccination on HPV-16/18/6/11 infections among women and men in high-income countries. Participating modeling teams produced predictions for 19 standardized scenarios. We derived pooled relative reduction in HPV prevalence (RRprev) 70 years after vaccination, using the median (10th; 90thpercentile) of model predictions. Strategies investigated were Girls-Only and Girls & Boys vaccination at 12 years of age. Findings: 16/19 eligible models, from ten high-income countries provided predictions. With 40% Girls-Only vaccination coverage, HPV-16 RRprev among women and men was 53%(46%; 68%) and 36%(28%; 61%), respectively. With 80% Girls-Only vaccination coverage, HPV-16 RRprev among women and men was 93%(90%; 100%) and 83%(75%; 100%), respectively. Vaccinating boys in addition to girls increased HPV-16 RRprev among women and men by 18%(13%; 32%) and 35%(27%; 39%) for 40% coverage, and 7%(0%; 10%) and 16%(1%; 25%) for 80% coverage, respectively. RRprev were greater for HPV-18/6/11 than HPV-16 for all scenarios. Finally at 80% coverage, most models predicted that Girls & Boys vaccination would eliminate HPV-16/18/6/11, with a median RRprev of 100% for women and men for all types. Interpretation: Although HPV models differ in structure, data used for calibration and setting, population-level predictions were generally concordant: 1) strong herd effects from vaccinating Girls-Only, even with low coverage, 2) greater post-vaccination reductions in HPV-18/6/11 infection (vs. HPV-16), 3) increasing coverage in girls provides greater impact than including boys, and 4) reaching 80% coverage in Girls would eliminate HPV-16/18/6/11, with a median RRprev of 100% for women and men for all types. Interpretation: Although HPV models differ in structure, data used for calibration and setting, population-level predictions were generally concordant: 1) strong herd effects from vaccinating Girls-Only, even with low coverage, 2) greater post-vaccination reductions in HPV-18/6/11 infection (vs. HPV-16), 3) increasing coverage in girls provides greater impact than including boys, and 4) reaching 80% coverage in Girls would eliminate HPV-16/18/6/11, with a median RRprev of 100% for women and men for all types. Interpretation: Although HPV models differ in structure, data used for calibration and setting, population-level predictions were generally concordant: 1) strong herd effects from vaccinating Girls-Only, even with low coverage, 2) greater post-vaccination reductions in HPV-18/6/11 infection (vs. HPV-16), 3) increasing coverage in girls provides greater impact than including boys, and 4) reaching 80% coverage in Girls & Boys could eliminate HPV-16/18/6/11.
10

Modeling of the thermo-chemo-poromechanical properties of a carbon anode during the baking process

Chen, Bowen 10 February 2024 (has links)
Dans le procédé d'électrolyse Hall-Héroult pour la production d'aluminium primaire, l'anode de carbone est utilisée comme une électrode positive. Par rapport aux autres matériaux carbonés dans l'industrie, les anodes sont consommées dans les cuves d'électrolyse. Ainsi, des anodes de haute qualité sont nécessaires pour maintenir la durabilité du fonctionnement, ce qui augmente considérablement l'efficacité du procédé d'électrolyse. L'une des solutions prometteuses pourrait être de contrôler et d'améliorer la qualité des anodes via ses processus de production. Dans la production d'anode, la cuisson des anodes est considérée comme l'étape la plus coûteuse ainsi que la cause la plus fréquente des problèmes d'anode. Formée artificiellement par un procédé de compactage/vibro-compactage, une anode verte est constituée d'un mélange de carbone et de pores. Les mélanges de carbone sont généralement composés d'agrégats de coke pétrolier (? 65 wt.%), de brai de goudron (? 15 wt.%) et de mégots d'anode recyclés (? 20 wt.%). Le processus de cuisson transforme une anode verte en anode précuite. Au cours de ce processus, le brai de goudron se carbonise en liant les agrégats de coke et dégage de légers gaz volatils de sorte qu'un système solide-gaz du mélange anodique se forme. Quatre facteurs qui conduisent à modifier les propriétés et les structures internes de l'anode de la cuisson peuvent être résumés comme suit: i) les charges externes des anodes supérieures; ii) la dilatation thermique induite par le transfert de chaleur; iii) la dilatation causée par l'augmentation de la pression dans les pores due au processus de pyrolyse du brai et iv) la contraction chimique due au processus de pyrolyse du brai. Par conséquent, le processus de cuisson des anodes nécessite une compréhension approfondie des mécanismes qui régissent les évolutions des propriétés du mélange anodique à des températures plus élevées. Dans ce projet, un modèle thermo-chimio-poromécanique est développé pour la cuisson de l'anode en utilisant la théorie des milieux poreux réactifs basée sur la théorie des mélanges, et ce dans le cadre de la thermodynamique des processus irréversible. À cet effet, une variable d'état interne appelée "indice de contraction" est définie pour caractériser la progression chimique de la pyrolyse du brai dans le squelette anodique et l'inégalité de Clausius-Duhem est développée selon le formalisme lagrangien. En introduisant un tenseur de déformations de Green-Lagrange réduit, une énergie lagrangienne libre est formulée pour dériver l'ensemble des équations d'état. Ensuite, la dissipation thermodynamique de ce mélange solide-gaz est dérivée et un modèle constitutif reliant la pyrolyse chimique au comportement mécanique est réalisé. Un potentiel de dissipation est défini pour assurer la non-négativité de la dissipation thermodynamique et pour obtenir les lois de comportement visqueux. Les équations de champ régissant la diffusion des gaz volatils et le transfert de chaleur à travers le corps du mélange drainant sont dérivées à partir de l'équilibre entropique. Du plus, afin d'acquérir une meilleure connaissance de la modélisation du processus de cuisson, les propriétés physiques et le comportement mécanique du mélange anodique à haute température ont été caractérisés expérimentalement. À cette fin, quatre caractérisations expérimentales principales ont été réalisées: 1) une mesure pycnométrique à l'hélium a été réalisée à température ambiante pour mesurer la densité réelle pycnométrique de la pâte d'anode cuite à différentes températures; 2) une analyse thermogravimétrique (TGA) a été réalisée pour obtenir la perte de masse de l'anode due à la réaction chimique de la pyrolyse du brai à haute température; 3) la dilatométrie a été réalisée pour trois objectifs: i) caractériser les déplacements dues à la dilatation thermique et à la pyrolyse chimique de l'anode de carbone; ii) identifier le coefficient d'expansion thermique (CET) de l'anode aux températures élevées et iii) estimer l'évolution du changement de volume en fonction de la température et 4) une caractérisation du comportement de fluage a été réalisée pour étudier les comportements viscoélastique et viscoplastique de la pâte d'anode à haute température. En outre, la perméabilité à l'air des anodes cuites à différentes températures a été mesurée par le partenaire industriel Alcoa Deschambault pour estimer l'évolution de la porosité ouverte en fonction de la température. À cette fin, une méthode de compactage améliorée pour la fabrication d'échantillons d'anode à l'échelle du laboratoire a été proposée pour satisfaire aux exigences d'un échantillon qui a une densité apparente uniforme. En utilisant les résultats expérimentaux obtenus, les paramètres liés à la cinétique de la pyrolyse et aux lois de comportement développées ont été identifiés par une méthode inverse. Ils comprennent: 1) les paramètres cinétiques impliqués dans la réaction de pyrolyse tels que l'énergie d'activation et le facteur pré-exponentiel; 2) le coefficient d'expansion thermique à différentes températures et 3) les coefficients de Lamé et "Lamé-like" liés au modèle de Burger qui décrit le comportement viscoélastique-viscoplastique de l'anode à haute température. Enfin, en utilisant l'indice de contraction, l'évolution de la pression dans les pores fermées de la matrice liante a été estimée. Les propriétés physiques et mécaniques ont été réexprimées en fonction de l'indice de contraction afin de refléter l'influence de la transformation physico-chimique et des couplages chimico-mécaniques sur les propriétés de l'anode de carbone pendant la cuisson. / In the Hall-Héroult process for the production of primary aluminium, the carbon anode is used as a positive electrode. Compared with other industrial carbonaceous materials, the anodes are highly consumed in the electrolysis cell. Thus, high-quality anodes are required to maintain the sustainability of operation, which substantially increases the efficiency of the electrolysis process. One of the promising solutions could be controlling and improving the anode quality via its production process. In anode production, the anode baking is considered as the most cost-intensive stage as well as the most frequent cause of anode problems. Artificially formed by the compaction/vibrocompaction process, a green anode mixture consists of carbon mixtures and pores. The carbon mixtures are typically composed of petroleum coke aggregates (? 65 wt.%), the coal tar pitch (? 15 wt.%) and the recycled anode butts (? 20 wt.%). The baking process transforms a green anode into a prebaked anode. During this process, the coal tar pitch carbonises binding the coke aggregates and discharges light binder volatile such that a solidgas system of the anode mixture is formed. Four factors that lead to the modification of the properties and internal structures of the anode can be summarised as follows: i) external loadings from upper anodes; ii) the thermal expansion induced by the heat transfer; iii) the expansion of the apparent volume caused by the pore pressure increase due to the pitch pyrolysis process and iv) the chemical shrinkage due to the pitch pyrolysis process. Therefore, the anode baking process calls for a deep understanding of mechanisms that govern the properties evolution of the anode mixture at high temperatures. In this project, a thermo-chemo-poromechanical model is established for the baking anode by using the theory of reactive porous media based on the theory of mixtures within the thermodynamic framework. For this purpose, an internal state variable called "shrinking index" is defined to characterize the chemical progress of the pitch pyrolysis in the anode skeleton and the Clausius-Duhem inequality is developed according to the Lagrangian formalism. By introducing a reduced Green-Lagrange strain tensor, a Lagrangian free energy is formulated to find a set of state equations. Then, the thermodynamic dissipation for this pyrolyzing solidgas mixture is derived and a constitutive model linking the chemical pyrolysis with the mechanical behaviour is achieved. A dissipation potential is defined to ensure the non-negativeness of the thermodynamic dissipation and to obtain the constitutive laws for viscous behaviours. Field equations governing the volatile diffusion and the heat transfer through the draining mixture body are derived from the entropy balance. Furthermore, to gain a better knowledge in modelling the baking process, physical properties and mechanical behaviours of the anode mixture at high temperatures were experimentally characterized. For this purpose, four main experimental characterizations were achieved: 1) helium-pycnometric measurement was carried out at room temperature to measure the real pycnometric density of the anode paste; 2) thermogravimetric analysis (TGA) was performed to obtain the mass loss of the anode due to the chemical reaction of the pitch pyrolysis at high temperatures; 3) dilatometry was realized for three purposes: i) to characterize displacements due to the thermal expansion and the chemical shrinkage of carbon anode; ii) to identify the thermal expansion coefficient (TEC) of the anode at high temperatures and iii) to estimate the evolution of the volume change with respect to the temperature and 4) characterization of creep behaviour was achieved to investigate the viscoelastic and viscoplastic behaviours of the anode paste at high temperatures. Additionally, the air permeability of the anodes baked up to different high temperatures were measured by our industrial partner Alcoa Deschambault to estimate the evolution of open porosity as a function of temperature. To this end, an improved compaction method for the fabrication of lab-scale anode samples was proposed to satisfy the requirement of a sample with apparent uniform density. By using obtained experimental results, parameters involved in the kinetics of pyrolysis and the developed constitutive laws were inversely identified. They include: 1) kinetic parameters involved in the pyrolysis reaction such as the activation energy and the pre-exponential factor; 2) thermal expansion coefficients at different high temperatures; and 3) Lamé and Lamé-like coefficients involved in the Burger's model which describes the viscoelastic-viscoplastic behaviours of the anode at high temperatures. Finally, using the shrinking index, the pressure evolution in pores entrapping the volatile was estimated. Some mechanical properties were re-expressed as a function of the shrinking index to reflect the influences of physio-chemical transformation and chemo-mechanical couplings on the properties of the carbon anode mixture during the baking process.

Page generated in 0.0764 seconds