• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 2998
  • 1249
  • 255
  • 3
  • 2
  • 2
  • 1
  • 1
  • Tagged with
  • 4431
  • 1271
  • 866
  • 763
  • 729
  • 540
  • 497
  • 477
  • 473
  • 451
  • 341
  • 339
  • 313
  • 303
  • 297
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Impact populationnel de la vaccination contre les virus du papillome humain : revue systématique et synthèse des prédictions de 16 modèles mathématiques dynamiques

Bénard, Élodie 24 April 2018 (has links)
Tableau d'honneur de la Faculté des études supérieures et postdoctorales, 2016-2017 / Introduction: En 2015, 65 pays avaient des programmes de vaccination contre les VPH. La modélisation mathématique a joué un rôle crucial dans leur implantation. Objectifs: Nous avons réalisé une revue systématique et analysé les prédictions de modèles mathématiques de l’efficacité populationnelle de la vaccination sur la prévalence des VPH-16/18/6/11 chez les femmes et les hommes, afin d’évaluer la robustesse/variabilité des prédictions concernant l’immunité de groupe, le bénéfice ajouté par la vaccination des garçons et l’élimination potentielle des VPH-16/18/6/11. Méthodes: Nous avons cherché dans Medline/Embase afin d’identifier les modèles dynamiques simulant l’impact populationnel de la vaccination sur les infections par les VPH-16/18/6/11 chez les femmes et les hommes. Les équipes participantes ont réalisé des prédictions pour 19 simulations standardisées. Nous avons calculé la réduction relative de la prévalence (RRprev) 70 ans après l’introduction de la vaccination. Les résultats présentés correspondent à la médiane(10ème; 90èmeperccentiles) des prédictions. Les cibles de la vaccination étaient les filles seulement ou les filles & garçons. Résultats: 16/19 équipes éligibles ont transmis leurs prédictions. Lorsque 40% des filles sont vaccinées, la RRprev du VPH-16 est 53%(46%; 68%) chez les femmes et 36%(28%; 61%) chez les hommes. Lorsque 80% des filles sont vaccinées, la RRprev est 93%(90%; 100%) chez les femmes et 83%(75%; 100%) chez les hommes. Vacciner aussi les garçons augmente la RRprev de 18%(13%; 32%) chez les femmes et 35%(27%; 39%) chez les hommes à 40% de couverture, et 7%(0%; 10%) et 16%(1%; 25%) à 80% de couverture. Les RRprev étaient plus élevées pour les VPH-18/6/11 (vs. VPH-16). Si 80% des filles & garçons sont vaccinés, les VPH-16/18/6/11 pourraient être éliminés. Interprétation: Même si les modèles diffèrent entre eux, les prédictions s’accordent sur: 1)immunité de groupe élevée même à basse couverture, 2)RRprev supérieures pour les VPH-18/6/11 (vs. VPH-16), 3)augmenter la couverture chez les filles a un meilleur impact qu’ajouter les garçons, 4)vacciner 80% des filles & garçons pourraient éliminer les VPH-16/18/6/11. / Background: As of 2015, 65 countries have introduced HPV vaccination programmes. Mathematical models have played a key role in the implementation of these programmes. Objectives: We conducted a systematic review and pooled-analysis of model predictions of population-level effectiveness of HPV vaccination against HPV-16/18/6/11 infection in women and men, to examine the robustness/variability of predicted populationnal effects, incremental benefit of vaccinating boys, and potential for HPV vaccine-type elimination. Methods: We searched Medline and Embase (2009-2015) for transmission-dynamic modeling studies predicting the population-level impact of vaccination on HPV-16/18/6/11 infections among women and men in high-income countries. Participating modeling teams produced predictions for 19 standardized scenarios. We derived pooled relative reduction in HPV prevalence (RRprev) 70 years after vaccination, using the median (10th; 90thpercentile) of model predictions. Strategies investigated were Girls-Only and Girls & Boys vaccination at 12 years of age. Findings: 16/19 eligible models, from ten high-income countries provided predictions. With 40% Girls-Only vaccination coverage, HPV-16 RRprev among women and men was 53%(46%; 68%) and 36%(28%; 61%), respectively. With 80% Girls-Only vaccination coverage, HPV-16 RRprev among women and men was 93%(90%; 100%) and 83%(75%; 100%), respectively. Vaccinating boys in addition to girls increased HPV-16 RRprev among women and men by 18%(13%; 32%) and 35%(27%; 39%) for 40% coverage, and 7%(0%; 10%) and 16%(1%; 25%) for 80% coverage, respectively. RRprev were greater for HPV-18/6/11 than HPV-16 for all scenarios. Finally at 80% coverage, most models predicted that Girls & Boys vaccination would eliminate HPV-16/18/6/11, with a median RRprev of 100% for women and men for all types. Interpretation: Although HPV models differ in structure, data used for calibration and setting, population-level predictions were generally concordant: 1) strong herd effects from vaccinating Girls-Only, even with low coverage, 2) greater post-vaccination reductions in HPV-18/6/11 infection (vs. HPV-16), 3) increasing coverage in girls provides greater impact than including boys, and 4) reaching 80% coverage in Girls would eliminate HPV-16/18/6/11, with a median RRprev of 100% for women and men for all types. Interpretation: Although HPV models differ in structure, data used for calibration and setting, population-level predictions were generally concordant: 1) strong herd effects from vaccinating Girls-Only, even with low coverage, 2) greater post-vaccination reductions in HPV-18/6/11 infection (vs. HPV-16), 3) increasing coverage in girls provides greater impact than including boys, and 4) reaching 80% coverage in Girls would eliminate HPV-16/18/6/11, with a median RRprev of 100% for women and men for all types. Interpretation: Although HPV models differ in structure, data used for calibration and setting, population-level predictions were generally concordant: 1) strong herd effects from vaccinating Girls-Only, even with low coverage, 2) greater post-vaccination reductions in HPV-18/6/11 infection (vs. HPV-16), 3) increasing coverage in girls provides greater impact than including boys, and 4) reaching 80% coverage in Girls & Boys could eliminate HPV-16/18/6/11.
52

Essays on Social Networks and Time Series with Structural Breaks

Houndetoungan, Elysée Aristide 27 January 2024 (has links)
Cette thèse, structurée en trois (03) essais, développe de nouveaux modèles économétriques pour l'analyse des interactions sociales et des séries temporelles. Le premier chapitre (coécrit avec le Professeur Vincent Boucher) étudie une méthode d'estimation des effets de pairs à travers les réseaux sociaux lorsque la structure du réseau n'est pas observée. Nous supposons que nous connaissons (avons une estimation convergente de) la distribution du réseau. Nous montrons que cette hypothèse est suffisante pour l'estimation des effets de pairs en utilisant un modèle linéaire en moyennes. Nous proposons un estimateur de variables instrumentales et un estimateur bayésien. Nous présentons et discutons des exemples importants où notre méthodologie peut être appliquée. Nous présentons également une application avec la base de données Add Health largement utilisée et qui comporte de nombreux liens non observés. Nous estimons un modèle des effets de pairs sur la réussite scolaire des élèves. Nous montrons que notre estimateur bayésien reconstruit les liens manquants et permet d'obtenir une estimation valide des effets de pairs. En particulier, nous montrons qu'ignorer les liens manquants sous-estime l'effet endogène des pairs sur la réussite scolaire. Dans le deuxième chapitre, je présente un modèle structurel des effets de pairs dans lequel la variable dépendante est de type comptage (nombre de cigarettes fumées, fréquence des visites au restaurant, fréquence de participation aux activités). Le modèle est basé sur un jeu statique à information incomplète dans lequel, les individus interagissent à travers un réseau dirigé et sont influencés par leur croyance sur la décision de leurs pairs. Je présente des conditions suffisantes sous lesquelles l'équilibre du jeu est unique. Je montre que l'utilisation du modèle spatial autorégressif (SAR) linéaire-en-moyennes ou du modèle Tobit SAR pour estimer les effets de pairs sur des variables de comptage générées à partir du jeu sous-estime asymptotiquement les effets de pairs. Le biais d'estimation diminue lorsque la dispersion de la variable de comptage augmente. Je propose également une application empirique. J'estime les effets de pairs sur le nombre d'activités parascolaires auxquelles les étudiants sont inscrits. En contrôlant l'endogénéité du réseau, je trouve que l'augmentation du nombre d'activités dans lesquelles les amis d'un étudiant sont inscrits d'une unité implique une augmentation du nombre d'activités dans lesquelles l'étudiant est inscrit de 0,295. Je montre également que les effets de pairs sont sous-estimés à 0,150 lorsqu'on ignore la nature de comptage de la variable dépendante. Le troisième chapitre (coécrit avec le Professeur Arnaud Dufays et le Professeur Alain Coen) présente une approche de modélisation de séries temporelles. Les processus avec changements structurels sont une approche flexible pour modéliser des longues séries chronologiques. En considérant un modèle linéaire en moyennes, nous proposons une méthode qui relâche l'hypothèse selon laquelle une cassure structurelle dans une série temporelle implique un changement de tous les paramètres du modèle. Pour ce faire, nous estimons d'abord les dates de cassures potentielles présentées par la série, puis nous utilisons une régression pénalisée pour détecter les paramètres du modèle qui changent à chaque date de cassure. Étant donné que certains segments de la régression peuvent être courts, nous optons pour une fonction de pénalité(presque) non biaisée, appelée fonction de pénalité seamless-L0(SELO). Nous montrons que l'estimateur SELO détecte de manière convergente les paramètres qui varient à chaque cassure et nous proposons d'utiliser un algorithme de maximisation d'espérance de recuit déterministe (DAEM) pour traiter la multimodalité de la fonction objectif. Étant donné que la fonction de pénalité SELO dépend de deux paramètres, nous utilisons un critère pour choisir les meilleurs paramètres et par conséquent le meilleur modèle. Ce nouveau critère présente une interprétation bayésienne qui permet d'évaluer l'incertitude des paramètres ainsi que l'incertitude du modèle. Les simulations de Monte Carlo montrent que la méthode fonctionne bien pour de nombreux modèles de séries temporelles, y compris des processus hétéroscédastiques. Pour un échantillon de 14 stratégies de hedge funds (HF), utilisant un modèle de tarification basé sur l'actif, nous mettons en exergue la capacité prometteuse de notre méthode à détecter la dynamique temporelle des expositions au risque ainsi qu'à prévoir les rendements HF. / This dissertation, composed of three (03) separate chapters, develops new econometric models for peer effects analysis and time series modelling. The first chapter (a joint work with Professor Vicent Boucher) studies a method for estimating peer effects through social networks when researchers do not observe the network structure. We assume that researchers know (a consistent estimate of) the distribution of the network. We show that this assumption is sufficient for the estimation of peer effects using a linear-in-means model. We propose an instrumental variables estimator and a Bayesian estimator. We present and discuss important examples where our methodology can be applied. We also present an application with the widely used Add Health database which presents many missing links. We estimate a model of peer effects on students' academic achievement. We show that our Bayesian estimator reconstructs these missing links and leads to a valid estimate of peer effects. In particular, we show that disregarding missing links underestimates the endogenous peer effect on academic achievement. In the second chapter, I present a structural model of peer effects in which the dependent variable is counting (Number of cigarettes smoked, frequency of restaurant visits, frequency of participation in activities). The model is based on a static game with incomplete information in which individuals interact through a directed network and are influenced by their belief over the choice of their peers. I provide sufficient conditions under which the equilibrium of the game is unique. I show that using the standard linear-in-means spatial autoregressive (SAR) model or the SAR Tobit model to estimate peer effects on counting variables generated from the game asymptotically underestimates the peer effects. The estimation bias decreases when the range of the dependent counting variable increases. I estimate peer effects on the number of extracurricular activities in which students are enrolled. I find that increasing the number of activities in which a student's friends are enrolled by one implies an increase in the number of activities in which the student is enrolled by 0.295, controlling for the endogeneity of the network. I also show that the peer effects are underestimated at 0.150 when ignoring the counting nature of the dependent variable. The third chapter (a joint work with Professor Arnaud Dufays and Professor Alain Coen) presents an approach for time series modelling. Change-point (CP) processes are one flexible approach to model long time series. Considering a linear-in-means models, we propose a method to relax the assumption that a break triggers a change in all the model parameters. To do so, we first estimate the potential break dates exhibited by the series and then we use a penalized likelihood approach to detect which parameters change. Because some segments in the CP regression can be small, we opt for a (nearly) unbiased penalty function, called the seamless-L0 (SELO) penalty function. We prove the consistency of the SELO estimator in detecting which parameters indeed vary over time and we suggest using a deterministic annealing expectation-maximisation (DAEM) algorithm to deal with the multimodality of the objective function. Since the SELO penalty function depends on two tuning parameters, we use a criterion to choose the best tuning parameters and as a result the best model. This new criterion exhibits a Bayesian interpretation which makes possible to assess the parameters' uncertainty as well as the model's uncertainty. Monte Carlo simulations highlight that the method works well for many time series models including heteroskedastic processes. For a sample of 14 Hedge funds (HF) strategies, using an asset based style pricing model, we shed light on the promising ability of our method to detect the time-varying dynamics of risk exposures as well as to forecast HF returns.
53

Bayesian adaptive variable selection in linear models : a generalization of Zellner's informative g-prior

Ndiaye, Djibril 19 November 2023 (has links)
Bayesian inference is about recovering the full conditional posterior distribution of the parameters of a statistical model. This exercise, however, can be challenging to undertake if the model specification is not available a priori, as is typically the case. This thesis proposes a new framework to select the subset of regressors that are the relevant features that explain a target variable in linear regression models. We generalize Zellner's g-prior with a random matrix, and we present a likelihood-based search algorithm, which uses Bayesian tools to compute the posterior distribution of the model parameters over all possible models generated, based on the maximum a posteriori (MAP). We use Markov chain Monte Carlo (MCMC) methods to gather samples of the model parameters and specify all distributions underlying these model parameters. We then use these simulations to derive a posterior distribution for the model parameters by introducing a new parameter that allows us to control how the selection of variables is done. Using simulated datasets, we show that our algorithm yields a higher frequency of choosing the correct variables and has a higher predictive power relative to other widely used variable selection models such as adaptive Lasso, Bayesian adaptive Lasso, and relative to well-known machine learning algorithms. Taken together, this framework and its promising performance under various model environments highlight that simulation tools and Bayesian inference methods can be efficiently combined to deal with well-known problems that have long loomed the variable selection literature. / L'inférence bayésienne consiste à retrouver la distribution conditionnelle a posteriori complète des paramètres d'un modèle statistique. Cet exercice, cependant, peut être difficile à entreprendre si la spécification du modèle n'est pas disponible a priori, comme c'est généralement le cas. Cette thèse propose une nouvelle approche pour sélectionner le sous-ensemble de régresseurs qui sont les caractéristiques pertinentes qui expliquent une variable cible dans les modèles de régression linéaire. Nous généralisons le g-prior de Zellner avec une matrice aléatoire et nous présentons un algorithme de recherche basé sur la vraisemblance, qui utilise des outils bayésiens pour calculer la distribution a posteriori des paramètres du modèle sur tous les modèles possibles générés. La sélection du modèle se fera sur la base du maximum a posteriori (MAP). Nous utilisons les méthodes de Monte Carlo par chaînes de Markov pour échantillonner suivant les distributions a posteriori de ces paramètres du modèle. Nous utilisons ensuite ces simulations pour dériver une estimation a posteriori des paramètres du modèle en introduisant un autre paramètre qui nous permet de contrôler la manière dont la sélection de la variable est effectuée. À l'aide de données simulées, nous montrons que notre méthode donne une fréquence plus élevée de choix des variables importantes et a un pouvoir prédictif plus élevé par rapport à d'autres modèles de sélection de variables largement utilisés tels que le Lasso adaptatif, le Lasso adaptatif bayésien, et par rapport aux algorithmes d'apprentissage automatique bien connus. Pris ensemble, cette approche et ses performances prometteuses dans divers scénarios de données mettent en évidence le fait que les outils de simulation et les techniques d'inférence bayésienne puissent être efficacement combinés pour traiter des problèmes bien connus qui ont longtemps pesé sur la littérature de la sélection de variables (en particulier en grande dimension).
54

Modeling of the thermo-chemo-poromechanical properties of a carbon anode during the baking process

Chen, Bowen 10 February 2024 (has links)
Dans le procédé d'électrolyse Hall-Héroult pour la production d'aluminium primaire, l'anode de carbone est utilisée comme une électrode positive. Par rapport aux autres matériaux carbonés dans l'industrie, les anodes sont consommées dans les cuves d'électrolyse. Ainsi, des anodes de haute qualité sont nécessaires pour maintenir la durabilité du fonctionnement, ce qui augmente considérablement l'efficacité du procédé d'électrolyse. L'une des solutions prometteuses pourrait être de contrôler et d'améliorer la qualité des anodes via ses processus de production. Dans la production d'anode, la cuisson des anodes est considérée comme l'étape la plus coûteuse ainsi que la cause la plus fréquente des problèmes d'anode. Formée artificiellement par un procédé de compactage/vibro-compactage, une anode verte est constituée d'un mélange de carbone et de pores. Les mélanges de carbone sont généralement composés d'agrégats de coke pétrolier (? 65 wt.%), de brai de goudron (? 15 wt.%) et de mégots d'anode recyclés (? 20 wt.%). Le processus de cuisson transforme une anode verte en anode précuite. Au cours de ce processus, le brai de goudron se carbonise en liant les agrégats de coke et dégage de légers gaz volatils de sorte qu'un système solide-gaz du mélange anodique se forme. Quatre facteurs qui conduisent à modifier les propriétés et les structures internes de l'anode de la cuisson peuvent être résumés comme suit: i) les charges externes des anodes supérieures; ii) la dilatation thermique induite par le transfert de chaleur; iii) la dilatation causée par l'augmentation de la pression dans les pores due au processus de pyrolyse du brai et iv) la contraction chimique due au processus de pyrolyse du brai. Par conséquent, le processus de cuisson des anodes nécessite une compréhension approfondie des mécanismes qui régissent les évolutions des propriétés du mélange anodique à des températures plus élevées. Dans ce projet, un modèle thermo-chimio-poromécanique est développé pour la cuisson de l'anode en utilisant la théorie des milieux poreux réactifs basée sur la théorie des mélanges, et ce dans le cadre de la thermodynamique des processus irréversible. À cet effet, une variable d'état interne appelée "indice de contraction" est définie pour caractériser la progression chimique de la pyrolyse du brai dans le squelette anodique et l'inégalité de Clausius-Duhem est développée selon le formalisme lagrangien. En introduisant un tenseur de déformations de Green-Lagrange réduit, une énergie lagrangienne libre est formulée pour dériver l'ensemble des équations d'état. Ensuite, la dissipation thermodynamique de ce mélange solide-gaz est dérivée et un modèle constitutif reliant la pyrolyse chimique au comportement mécanique est réalisé. Un potentiel de dissipation est défini pour assurer la non-négativité de la dissipation thermodynamique et pour obtenir les lois de comportement visqueux. Les équations de champ régissant la diffusion des gaz volatils et le transfert de chaleur à travers le corps du mélange drainant sont dérivées à partir de l'équilibre entropique. Du plus, afin d'acquérir une meilleure connaissance de la modélisation du processus de cuisson, les propriétés physiques et le comportement mécanique du mélange anodique à haute température ont été caractérisés expérimentalement. À cette fin, quatre caractérisations expérimentales principales ont été réalisées: 1) une mesure pycnométrique à l'hélium a été réalisée à température ambiante pour mesurer la densité réelle pycnométrique de la pâte d'anode cuite à différentes températures; 2) une analyse thermogravimétrique (TGA) a été réalisée pour obtenir la perte de masse de l'anode due à la réaction chimique de la pyrolyse du brai à haute température; 3) la dilatométrie a été réalisée pour trois objectifs: i) caractériser les déplacements dues à la dilatation thermique et à la pyrolyse chimique de l'anode de carbone; ii) identifier le coefficient d'expansion thermique (CET) de l'anode aux températures élevées et iii) estimer l'évolution du changement de volume en fonction de la température et 4) une caractérisation du comportement de fluage a été réalisée pour étudier les comportements viscoélastique et viscoplastique de la pâte d'anode à haute température. En outre, la perméabilité à l'air des anodes cuites à différentes températures a été mesurée par le partenaire industriel Alcoa Deschambault pour estimer l'évolution de la porosité ouverte en fonction de la température. À cette fin, une méthode de compactage améliorée pour la fabrication d'échantillons d'anode à l'échelle du laboratoire a été proposée pour satisfaire aux exigences d'un échantillon qui a une densité apparente uniforme. En utilisant les résultats expérimentaux obtenus, les paramètres liés à la cinétique de la pyrolyse et aux lois de comportement développées ont été identifiés par une méthode inverse. Ils comprennent: 1) les paramètres cinétiques impliqués dans la réaction de pyrolyse tels que l'énergie d'activation et le facteur pré-exponentiel; 2) le coefficient d'expansion thermique à différentes températures et 3) les coefficients de Lamé et "Lamé-like" liés au modèle de Burger qui décrit le comportement viscoélastique-viscoplastique de l'anode à haute température. Enfin, en utilisant l'indice de contraction, l'évolution de la pression dans les pores fermées de la matrice liante a été estimée. Les propriétés physiques et mécaniques ont été réexprimées en fonction de l'indice de contraction afin de refléter l'influence de la transformation physico-chimique et des couplages chimico-mécaniques sur les propriétés de l'anode de carbone pendant la cuisson. / In the Hall-Héroult process for the production of primary aluminium, the carbon anode is used as a positive electrode. Compared with other industrial carbonaceous materials, the anodes are highly consumed in the electrolysis cell. Thus, high-quality anodes are required to maintain the sustainability of operation, which substantially increases the efficiency of the electrolysis process. One of the promising solutions could be controlling and improving the anode quality via its production process. In anode production, the anode baking is considered as the most cost-intensive stage as well as the most frequent cause of anode problems. Artificially formed by the compaction/vibrocompaction process, a green anode mixture consists of carbon mixtures and pores. The carbon mixtures are typically composed of petroleum coke aggregates (? 65 wt.%), the coal tar pitch (? 15 wt.%) and the recycled anode butts (? 20 wt.%). The baking process transforms a green anode into a prebaked anode. During this process, the coal tar pitch carbonises binding the coke aggregates and discharges light binder volatile such that a solidgas system of the anode mixture is formed. Four factors that lead to the modification of the properties and internal structures of the anode can be summarised as follows: i) external loadings from upper anodes; ii) the thermal expansion induced by the heat transfer; iii) the expansion of the apparent volume caused by the pore pressure increase due to the pitch pyrolysis process and iv) the chemical shrinkage due to the pitch pyrolysis process. Therefore, the anode baking process calls for a deep understanding of mechanisms that govern the properties evolution of the anode mixture at high temperatures. In this project, a thermo-chemo-poromechanical model is established for the baking anode by using the theory of reactive porous media based on the theory of mixtures within the thermodynamic framework. For this purpose, an internal state variable called "shrinking index" is defined to characterize the chemical progress of the pitch pyrolysis in the anode skeleton and the Clausius-Duhem inequality is developed according to the Lagrangian formalism. By introducing a reduced Green-Lagrange strain tensor, a Lagrangian free energy is formulated to find a set of state equations. Then, the thermodynamic dissipation for this pyrolyzing solidgas mixture is derived and a constitutive model linking the chemical pyrolysis with the mechanical behaviour is achieved. A dissipation potential is defined to ensure the non-negativeness of the thermodynamic dissipation and to obtain the constitutive laws for viscous behaviours. Field equations governing the volatile diffusion and the heat transfer through the draining mixture body are derived from the entropy balance. Furthermore, to gain a better knowledge in modelling the baking process, physical properties and mechanical behaviours of the anode mixture at high temperatures were experimentally characterized. For this purpose, four main experimental characterizations were achieved: 1) helium-pycnometric measurement was carried out at room temperature to measure the real pycnometric density of the anode paste; 2) thermogravimetric analysis (TGA) was performed to obtain the mass loss of the anode due to the chemical reaction of the pitch pyrolysis at high temperatures; 3) dilatometry was realized for three purposes: i) to characterize displacements due to the thermal expansion and the chemical shrinkage of carbon anode; ii) to identify the thermal expansion coefficient (TEC) of the anode at high temperatures and iii) to estimate the evolution of the volume change with respect to the temperature and 4) characterization of creep behaviour was achieved to investigate the viscoelastic and viscoplastic behaviours of the anode paste at high temperatures. Additionally, the air permeability of the anodes baked up to different high temperatures were measured by our industrial partner Alcoa Deschambault to estimate the evolution of open porosity as a function of temperature. To this end, an improved compaction method for the fabrication of lab-scale anode samples was proposed to satisfy the requirement of a sample with apparent uniform density. By using obtained experimental results, parameters involved in the kinetics of pyrolysis and the developed constitutive laws were inversely identified. They include: 1) kinetic parameters involved in the pyrolysis reaction such as the activation energy and the pre-exponential factor; 2) thermal expansion coefficients at different high temperatures; and 3) Lamé and Lamé-like coefficients involved in the Burger's model which describes the viscoelastic-viscoplastic behaviours of the anode at high temperatures. Finally, using the shrinking index, the pressure evolution in pores entrapping the volatile was estimated. Some mechanical properties were re-expressed as a function of the shrinking index to reflect the influences of physio-chemical transformation and chemo-mechanical couplings on the properties of the carbon anode mixture during the baking process.
55

Processus de contagion sur réseaux complexes au-delà des interactions dyadiques

St-Onge, Guillaume 15 September 2023 (has links)
Alors que la pandémie de COVID-19 affecte le monde depuis presque deux ans, il va sans dire qu'une meilleure compréhension des processus de contagion, de leur évolution et des effets des mesures de contrôle est essentielle pour réduire leur impact sur la société. Le cadre théorique pour la modélisation des processus de contagion est très général et permet, bien entendu, de décrire la propagation des maladies infectieuses causées par des agents pathogènes (virus, bactéries, parasites, etc.), mais aussi la propagation des rumeurs et de la désinformation. Peu importe la nature du processus, la transmission s'effectue de proche en proche grâce aux interactions entre les individus. Par conséquent, la structure sociale complexe des populations, qui n'est ni parfaitement ordonnée, ni complètement aléatoire, joue un rôle de premier plan. Dans cette thèse, nous étudions les processus de contagion sur réseaux, où les individus et les interactions entre ces individus sont représentés par des nœuds et des liens respectivement. Nous utilisons une approche théorique principalement basée sur la physique statistique et la dynamique non linéaire. Nous nous concentrons plus spécifiquement sur les réseaux d'ordre supérieur, lesquels mettent les interactions de groupe à l'avant-plan. Notre analyse va donc au-delà des interactions dyadiques. Bien plus qu'une reformulation mathématique de la structure, cette perspective est primordiale pour obtenir une compréhension plus complète de la phénoménologie des processus de contagion. Nous démontrons l'importance des interactions de groupe à l'aide de trois résultats principaux. D'abord, nous caractérisons un phénomène de localisation mésoscopique : pour certaines structures hétérogènes, la propagation persiste uniquement dans les groupes de grande taille. Ce phénomène a notamment une incidence sur l'effet des mesures de contrôle visant à prohiber les regroupements au-delà d'une certaine taille, à l'instar de ce qui fut instauré pour endiguer la pandémie de COVID-19. Ensuite, nous étudions un modèle où les individus doivent accumuler une dose infectieuse minimale pour devenir infectés. Nous montrons qu'une structure d'ordre supérieur et des temps d'exposition hétérogènes induisent une probabilité d'infection non linéaire universelle. L'épidémie résultante peut alors croître de manière super-exponentielle en fonction du temps. Finalement, nous poussons plus en profondeur l'analyse des processus de contagion non linéaire. Dans ce contexte, nous montrons que les groupes peuvent avoir plus d'importance que les individus ultra-connectés pour qu'une épidémie ou un phénomène social envahissent le plus rapidement possible une population. / After almost two years into the COVID-19 pandemic, it is clear that a better understanding of contagion processes, their evolution, and the impact of control measures is essential to reduce their burden on society. The theoretical framework for the modeling of contagion is quite general. It can describe the spread of pathogens causing diseases (viruses, bacteria, parasites, etc.), but also the spread of rumors and disinformation. Irrespective of the nature of the underlying process, the contagion evolves through local interactions between the individuals. Consequently, the complex social structure of populations, which is neither perfectly ordered nor completely random, plays a fundamental role in shaping spreading. In this thesis, we study contagion processes on networks where individuals and the interaction between them are represented by nodes and edges respectively. We use a theoretical approach based on statistical physics and nonlinear dynamics. We focus on higher-order networks, putting group interactions beyond pairwise interactions at the forefront. More than a mere mathematical generalization, we find this perspective is paramount to obtain a complete picture of the phenomenology of contagion dynamics. We demonstrate the importance of group interactions through three principal results. First, we characterize a mesoscopic localization phenomenon where the contagion thrives only in large groups for certain types of heterogeneous structure. This phenomenon significantly affects the results of interventions like the cancelation of events larger than a critical size, similar to the measures being used to limit the spreading of COVID-19. Second, we study a model where individuals must accumulate a minimal infective dose to become infected. We show that a higher-order structure and heterogeneous exposure induce a universal nonlinear infection probability. The epidemic size can then grow super-exponentially with time. Finally, with a more in-depth analysis of nonlinear contagions, we show that groups can be more influential than hubs (super-connected individuals) to maximize the early spread of an epidemic.
56

Intégration de métasurfaces dans le processus de conception optique

Cléroux Cuillerier, Alexandre 13 December 2023 (has links)
L'arrivée au début du millénaire des métasurfaces offre une approche novatrice à la manipulation des ondes électromagnétiques. De l'interaction du front d'onde incident et des méta-atomes, structures fondamentales de la métasurface, émerge des propriétés optiques exotiques que l'on ne retrouve pas chez des matériaux ordinaires. Bien que cette technologie promette de s'affranchir des limitations de l'optique classique, l'intégration de métasurfaces à des systèmes optiques déjà existants demeure une avenue peu explorée. Toutefois, de récents développements dans la modélisation de métasurfaces auraient le potentiel de promouvoir cette intégration. En effet, par la conjonction de modèles et d'outils de conception optique traditionnelle, il serait possible d'extraire efficacement les propriétés optiques de métasurfaces au cœur d'un système optique complexe. Ce projet propose donc une méthode d'intégration des métasurfaces en conception optique grâce à des modèles semi-analytiques permettant de caractériser des structures rectangulaires et cylindriques agissant comme méta-atomes. De cette façon, les propriétés des méta-atomes utiles à la conception optique ont pu être étudiées. En plus de pouvoir obtenir les dimensions de structures permettant à la métasurface d'opérer adéquatement, les comportements de ces structures sous différentes conditions d'illumination ont été établis. Des analyses subséquentes sur la performance et la dispersion chromatique de métalentilles ont révélé des particularités fondamentalement distinctes de l'optique classique. Pour conclure, une démonstration de systèmes combinant métasurfaces avec éléments réfractifs a servi de preuve de concept pour la méthode proposée de conception optique exploitant les métasurfaces de manière avantageuse. / The arrival at the beginning of the millennium of metasurfaces offers an innovative approach to the manipulation of electromagnetic waves. From the interaction of the incident wavefront and the meta-atoms, fundamental structures of the metasurface, emerge exotic optical properties not found in ordinary materials. Although this technology promises to overcome the limitations of conventional optics, the integration of metasurfaces into existing optical systems remains an unexplored avenue. However, recent developments in metasurface modelling have the potential to promote this integration. Indeed, by combining models and traditional optical design tools, it would be possible to efficiently extract the optical properties of metasurfaces within a complex optical system. This project proposes a method for integrating metasurfaces in optical design using semi-analytical models to characterize rectangular and cylindrical structures acting as meta-atoms. In this way, the properties of meta-atoms useful for optical design could be studied. In addition to being able to obtain the dimensions of structures allowing the metasurface to operate adequately, the behavior of these structures under different illumination conditions has been established. Subsequent analyzes of the performance and chromatic dispersion of metalenses have revealed features fundamentally distinct from conventional optics. To conclude, demonstrations of systems combining metasurfaces with refractive elements served as proof of concept for the proposed method of optical design exploiting metasurfaces in an advantageous way.
57

Automated medical scheduling : fairness and quality

Picard-Cantin, Émilie 31 January 2021 (has links)
Dans cette thèse, nous étudions les façons de tenir compte de la qualité et de l’équité dans les algorithmes de confection automatique d’horaires de travail. Nous découpons ce problème en deux parties. La modélisation d’un problème d’horaires permet de créer des horaires plus rapidement qu’un humain peut le faire manuellement, puisqu’un ordinateur peut évaluer plusieurs horaires simultanément et donc prendre des décisions en moins de temps. La première partie du problème étudié consiste à améliorer la qualité des horaires en encodant des contraintes et des préférences à l’aide de modèles mathématiques. De plus, puisque la création est plus rapide à l’aide d’un ordinateur, il est plus facile pour un ordinateur de trouver l’horaire ayant la meilleure qualité lorsque les règles et préférences sont clairement définies. Toutefois, déterminer les règles et préférences d’un groupe de personne n’est pas une tâche facile. Ces individus ont souvent de la difficulté à exprimer formellement leurs besoins et leurs préférences. Par conséquent, la création d’un bon modèle mathématique peut prendre beaucoup de temps, et cela même pour un expert en création d’horaires de travail. C’est pourquoi la deuxième partie de cette thèse concerne la réduction du temps de modélisation à l’aide d’algorithmes capable d’apprendre un modèle mathématique à partir de solutions données comme par exemple, dans notre cas, des horaires de travail. / In this thesis, we study the ways to take quality and fairness into account in the algorithms of automatic creation of work schedules. We separate this problem into two subproblems. The modeling of a scheduling problem allows a faster creation of schedules than what a human can produce manually. A computer can generate and evaluate multiple schedules at a time and therefore make decisions in less time. This first part of the studied problem consists in improving the quality of medical schedules by encoding constraints and preferences using mathematical models. Moreover, since the creation is faster, it is easier for a computer to find the schedule with the highest quality when the rules and the preferences are clearly defined. However, determining the rules and preferences of a group of people is not an easy task. Those individuals often have difficulties formally expressing their requirements and preferences. Therefore, the creation a good mathematical model might take a long time, even for a scheduling expert. This is why the second part of this thesis concerns the reduction of modeling time using algorithms able to learn mathematical models from given solutions, in our case schedules.
58

Modélisation des fluctuations macroéconomiques et comparaison des performances de modèles dynamiques d'équilibre général estimés : une approche par l'estimation bayésienne et les modèles à facteurs

Rugishi, Muhindo G. 12 April 2018 (has links)
Depuis le début des années 1980, la modélisation macroéconomique a subi un renouveau méthodologique marqué par l'avènement des modèles d'équilibre général dynamiques stochastiques (DSGE) et des modèles vectoriels autorégressifs (VAR). Il existe actuellement un consensus dans les milieux académiques et institutionnels que les modèles DSGE peuvent offrir aux débats économiques un cadre d'analyse efficace. L'utilisation des modèles DSGE dans l'analyse des cycles et fluctuations économiques est un des domaines les plus actifs de la recherche macroéconomique. Comme les modèles DSGE sont mieux ancré dans la théorie économique, ils permettent de fournir des explications plus cohérentes de la dynamique du cycle économique et d'analyser les différents types de chocs qui perturbent régulièrement les différentes économies. Les modèles VAR sont un outil utilisé à grande échelle dans la macroéconomie appliquée, notamment dans la validation empirique des modèles DSGE. En dépit de leur faible ancrage dans la théorie économique, les modèles VAR restent assez flexibles pour traiter un éventail de questions concernant la nature et les sources des fluctuations économiques. En outre, ils sont particulièrement adaptés pour faire des tests statistiques d'hypothèses ainsi que pour des exercices de prévision à court terme. C'est ainsi que les résultats des modèles VAR sont souvent perçus comme des faits stylisés qui devraient être reproduits par des modèles économiques. Alors que la spécification des modèles DSGE a connu un développement remarquable aboutissant à une lecture des fluctuations économiques analogue à celle de la synthèse néoclassique (rôle des chocs budgétaires et monétaires à court terme) et que beaucoup des progrès ont été réalisés pour comparer les prédictions des modèles aux données, les méthodes couramment utilisées pour la validation de ces modèles présentent certaines limites. Il se pose actuellement la question de savoir si ces méthodes sont toujours appropriées pour fournir des estimations consistantes des paramètres structurels et pour permettre la comparaison formelle des modèles DSGE concurrents. En effet, il reste encore beaucoup à faire pour développer des outils simples et opérationnels permettant de mesurer l'adéquation entre les prédictions des modèles DSGE et les données. La méthode communément utilisée pour évaluer les modèles DSGE consiste à comparer les moments estimés ou obtenus par simulations stochastiques du modèle et les moments historiques. Si les moments historiques appartiennent à l'intervalle de confiance des moments estimés ou simulés, on considère que cet ensemble de moments est bien reproduit par le modèle. Le problème de cette méthodologie est qu'elle ne permet pas la comparaison de deux modèles quand l'un reproduit plutôt bien certains moments et plus mal d'autres moments qui sont, au contraire, mieux expliqués par l'autre modèle. L'absence d'un critère de choix explicite pour évaluer la portée explicative de différents modèles constitue un problème majeur si on cherche à discriminer entre différents paradigmes et théories concurrentes. L'utilisation de la méthode des moments pour l'évaluation des modèles DSGE et l'explication des fluctuations économiques est, à certains égards, très approximative. Cette insuffisance amène plusieurs chercheurs à opter pour l'utilisation des modèles VAR pour la validation empirique des modèles DSGE. Cependant, les débats à la suite du papier séminal de Gali (1999) portant sur l'impact des chocs technologiques sur les heures travaillées ont suscité de scepticisme concernant l'apport de cette méthodologie alternative et certains chercheurs se demandent actuellement si les modèles VAR peuvent vraiment être utiles pour discriminer des théories concurrentes et si leurs propriétés d'échantillonnage sont assez précises pour justifier leur popularité dans la macroéconomie appliquée. L'échec des modèles VAR d'ordre fini comme outil utile d'évaluation des modèles DSGE est parfois attribué au fait qu'ils ne sont que des approximations des processus VAR d'ordre infini ou bien à la possibilité qu'il n'existe point de représentation VAR. C'est le cas notamment quand l'hypothèse d'inversibilité n'est pas satisfaite. Les méthodes d'estimation par maximum de vraisemblance ou bayésienne des paramètres structurels des modèles DSGE sont maintenant d'utilisation courante dans les milieux académiques et décisionnels. Ces méthodes permettent de comparer les performances de prévision des modèles DSGE à celles d'un modèle VAR ou celles de deux théories concurrentes. Bien que les modèles DSGE fournissent de relativement bonnes prévisions dans certains cas, des problèmes de mauvaise spécification et de non identifiabilité ont comme conséquence que les paramètres structurels et le vecteur d'état de l'économie ne sont pas souvent estimés de manière consistante. Ces insuffisances peuvent entraîner des recommandations de politique économique dangereusement biaisées et posent de sérieux problèmes dans l'évaluation de politiques alternatives. Dans cette thèse, nous proposons une voie de réconciliation qui offre des possibilités d'une meilleure intégration de la théorie et de la mesure en macroéconomie. La méthodologie proposée permet de combiner de manière explicite les modèles factoriels non structurels et les modèles théoriques d'équilibre général micro-fondés. Les modèles factoriels complètent les modèles macroéconomiques structurels destinés à évaluer les évolutions économiques à court et ce, principalement en offrant un cadre qui permet d'améliorer l'estimation et la prévision de plusieurs indicateurs macroéconomiques. En effet, la méthode d'évaluation utilisée permet de prendre en compte toute l'information macroéconomique disponible en recourant aux modèles factoriels, d'estimer et de tester, dans un cadre unifié, les paramètres structurels et les propriétés cycliques d'un modèle DSGE et de comparer des théories concurrentes. Les variables inobservables et les composantes cycliques des modèles sont estimés à l'aide d'un filtre de Kalman et des techniques numériques de Monte Carlo par chaînes de Markov (MCMC). Nous utilisons l'ensemble des outils développés pour faire une comparaison formelle de deux variantes du modèle de cycles réels à la King-Rebelo (2000) et du modèle de thésaurisation du travail de Bumside, Eichenbaum et Rebelo (1993) appliqués à l'économie américaine sur des données trimestrielles allant de 1948 à 2005. L'utilisation des modèles à facteurs permet d'améliorer les qualités prédictives des modèles DSGE et de surpasser dans bon nombre des cas les problèmes de non identifiabilité et de non inversibilité rencontrés dans ces types de modèles. L'étude démontre que le choc technologique identifié par Gali (1999) est non structurel et que l'utilisation des modèles à facteurs devrait être préférée dans certains cas à celle de l'approche VAR. En présence des variables mesurées avec erreur, l'utilisation des filtres de type Hodrick-Prescott (HP) conduit à une estimation non consistante de certains paramètres structurels des modèles DSGE. Le test de stabilité indique une diminution de l'amplitude de chocs exogènes depuis le début des années 1980, ce qui se traduit par une modération des cycles économiques et des fluctuations des taux d'intérêt. Enfin, l'analyse dynamique montre que les réponses de l'investissement au choc de dépenses publiques sont largement liées aux valeurs assignées aux paramètres structurels. / Since the beginning of the 1980s, macroeconomic modeling has undergone a methodological revival marked by the advent of the dynamic stochastic general equilibrium (DSGE) models and vector autoregressive (VAR) models. There is currently a consensus in the académie and institutional circles that DSGE models can offer to the économie debates an effective framework of analysis. The analysis of économie cycles and fluctuations using DSGE models is one of the most active areas of macroeconomic research. As DSGE models are firmly grounded in the économie theory, they are used to provide more cohérent and adéquate explanations for observed dynamics of the business cycle and to analyze a wide range of shocks which buffet regularly various économies. VAR models are a widely used tool in empirical macroeconomics, particularly for the evaluation of DSGE models. Despite they rely so loosely on économie theory, VAR models remain enough flexible to treat a range of questions concerning the nature and the sources of the économie fluctuations. Moreover, they are particularly adapted to perform statistical hypothesis tests as well to provide reliable forecasts in the short-term. Thus the results from VAR models are often viewed as stylized facts that économie models should replicate. Although the specification of DSGE models has seen a remarkable development leading to a reading of the économie fluctuations similar to those of the neoclassical synthesis (rôle of budgetary and monetary shocks in the short-term) and that steps forward hâve also been made in comparing the models' prédictions to the data, the methods usually used for the evaluation of these models présent some limitations. This raises the question of whether or not these methods are always well-adapted to provide consistent estimates of the structural parameters and to allow the formal comparison of competing DSGE models. Indeed, there still remains much to do in the development of simple operational tools that make it possible to measure the gap between the prédictions of DSGE models and the data. The common method used for evaluating DSGE models consists of comparing the estimated moments or those obtained by stochastic simulations of the model and the historical moments. If the historical moments belong to the confidence interval of the estimated or simulated moments, it is considered that this set of moments is well reproduced by the model. The problem of this methodology is that it does not allow the comparison of two models when one matches some moments well and does more badly for other moments that are better explained by the other model. The difficultés in designing explicit sélection criteria to evaluate the success of competing models constitute a major problem if one seeks to discriminate between various paradigms and concurrent theories. The moment-matching techniques for the evaluation of DSGE models and the explanation of the économie fluctuations are, in certain sensé, very approximate. This insufficiency leads several researchers to choose using the VAR models for the empirical evaluation of DSGE models. However, the debates following the séminal paper of Gali (1999) focused on the impact of the technological shocks on hours worked caused scepticism concerning the contribution of this alternative methodology and some researchers currently wonder if the VAR models can actually discriminate between competing DSGE models and whether their sampling properties are good enough to justify their popularity in applied macroeconomics. The failure of finite-order VAR models for evaluating DSGE models is sometimes attributed to the fact that they are only approximations to infinite-order VAR processes or to the possibility that there does not exist a VAR représentation at ail. This is the case particularly when the assumption of invertibility is not satisfied. Bayesian or maximum likelihood estimation methods of the structural parameters are now currently used in académie and policy circles. Thèse methods are tailored to compare the forecasting performances of the DSGE models with those of VAR models and to discriminate between competing DSGE models. Although DSGE models provide, in some cases, relatively good forecasts, the potential model misspecification and identification problems have as consequence the lack of efficiency in the estimated latent variables and structural parameters. These insufficiencies can dangerously bias recommendations of economic policy and pose serious problems in the evaluation of alternative policies. In this thesis, we propose a reconciliation that offers possibilities to better integrate of the theory and measurement in macroeconomics. The suggested methodology is used to combine explicitly the non-structural factor models and the micro-founded general equilibrium theoretical models. The factor models supplement the structural macroeconomic models intended to evaluate the economic evolutions in the short-term and this, mainly by offering a framework which allows the improvement of the estimates and forecasting of several macroeconomic indicators. Indeed, the method evaluation used makes it possible to exploit ail available macroeconomic information by using the factor models and allows us to estimate and test, within a unified framework, the structural parameters and the cyclical properties of the model, and to compare competing theories. The structural parameters, the unobservable variables and the cyclical components are estimated using the Kalman filter and the Markov chain Monte Carlo methods (MCMC). We use the set of the tools developed to make a formal comparison of two variants of the real business cycle model in King and Rebelo (2000) and of an extension of labour market specification consisting in the introduction of labour-hoarding behaviour, as suggested by Burnside, Eichenbaum and Rebelo (1993), which are applied to the US economy with quarterly data from 1948 to 2005. The use of the factor models provide an important set of tools to improve predictive qualities of DSGE models and can help to solve, in numerous cases, the identification and invertibility problems met in these types of models. The study shows that the technological shock identified by Gali (1999) is non-structural and that using the factor models factors should be preferred in some cases to the VAR approach. In the presence of the variables measured with error, using the detrending methods like the Hodrick-Prescott (HP) filter can lead to inconsistent estimates of some structural parameters of DSGE models. The test of stability suggests a reduction in the magnitude of exogenous shocks since the beginning of the 1980s, which implies the moderation of business cycles and fluctuations of interest rates. Lastly, the dynamic analysis shows that the impulse response functions of the investment to the government consumption shock are largely related to the values assigned to the structural parameters.
59

Rôle de l'enképhaline endogène dans la sensibilisation comportementale induite par l'amphétamine

Hodler, Céline 12 April 2018 (has links)
De nombreuses études suggèrent que l'enképhaline (ENK), la dynorphine (DYN) striatales et le facteur de transcription Nur77 sont importants dans la neuroadaptation qui survient après une exposition aux psychostimulants. En utilisant des souris sauvages (ENK (+/+)) et des souris déficientes pour le gène ENK (ENK (-/-)), nous avons investigué le rôle de ces différents protagonistes dans la sensibilisation comportementale induite par l'administration répétée d'amphétamine (AMPH). En réponse à des injections répétées d'AMPH, les souris ENK (-/-) ne développent pas de sensibilisation comportementale, montrent une augmentation de l'expression Nur77 et une dimiOnution dans l'expression de l'ARNm de la DYN alors que les souris ENK (+/+) présentent une sensibilisation de la réponse comportementale et une baisse de Nur77 concomitante à une augmentation de l'expression de la DYN. Notre étude est ainsi la première à démontrer que l'absence d'ENK, pouvait modifier, de façon importante, la sensibilisation comportementale induite par l'AMPH et la modulation de l'expression de la DYN et de Nur77.
60

Caractérisation des cellules interstitielles des quatre différentes valves cardiaques chez le porc

Bouchard Martel, Joanie 13 April 2018 (has links)
La sténose aortique (SA) est la maladie valvulaire la plus importante des pays industrialisés et la troisième en importance au niveau des maladies cardiovasculaires. Cette maladie dégénérative entraîne un épaississement des feuillets valvulaires menant, dans certains cas, à la calcification de ceux-ci. Malheureusement, dans les débuts de la maladie, les effets néfastes de ces modifications sur la valve sont asymptomatiques et lorsque le diagnostic est posé, en raison des symptômes, il ne reste souvent qu'un traitement possible : le remplacement valvulaire. Plusieurs études sont aujourd'hui centrées sur la pathogénèse de la SA, mais très peu d'entre elles se sont intéressées à investiguer pourquoi la valve aortique (VA), parmi les quatre valves cardiaques, est celle qui se calcifié le plus rapidement. Cette étude cherche donc à identifier des différences entre la VA normale et les trois aux autres valves, pouvant expliquer sa propension à calcifier

Page generated in 0.0589 seconds