• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 2982
  • 1239
  • 248
  • 3
  • 2
  • 2
  • 1
  • 1
  • Tagged with
  • 4398
  • 1262
  • 855
  • 763
  • 729
  • 538
  • 497
  • 476
  • 472
  • 450
  • 340
  • 335
  • 312
  • 302
  • 293
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Immunothérapie anti-tumorale par transfert adoptif de LT Vγ9Vδ2 : utilisation préclinique de LT Vγ9Vδ2 humains allogéniques en immunothérapie anti-tumorale dans des modèles murins de xénogreffes orthotopiques / Anti-tumor immunotherapy by adoptive transfer of Vγ9Vδ2 T lymphocytes : preclinical use of allogeneic human Vγ9Vδ2 T lymphocytes for antitumor immunotherapy in mouse models of orthotopic xenografts

Joalland, Noémie 16 November 2018 (has links)
Le cancer est une pathologie caractérisée par la prolifération anarchique de cellules tumorales. Malgré de nombreuses avancées technologiques en terme de dépistage, d’imagerie médicale, de chirurgie et de traitements, le cancer représente encore un challenge thérapeutique. Depuis quelques années, le développement d’immunothérapies, telles que le transfert adoptif cellulaire, fait l’objet de nombreuses études. Les Lymphocytes T Vγ9Vδ2 (LT Vγ9Vδ2) font partie des effecteurs immunitaires candidats du fait de leurs nombreuses fonctions effectrices et de leur nonalloréactivité. En effet, la reconnaissance de leurs cibles n’est par restreinte au complexe majeur d’histocompatibilité, il est donc possible de créer une banque cellulaire de LT Vγ9Vδ2 allogéniques qui pourront être administrés aux patients sans risque de réaction allogénique contre l’hôte. De plus, cette reconnaissance peut être induite grâce à des molécules pharmacologiques telles que le zolédronate. L’objectif de cette thèse a donc été d’évaluer l’efficacité thérapeutique de LT Vγ9Vδ2 humains allogéniques dans des modèles murins précliniques de xénogreffes orthotopiques. Deux modèles ont été mis en place : (i) un modèle de cancer épithélial de l’ovaire incluant le traitement standard des patientes par chirurgie et chimiothérapie, suivie d’une rechute avec carcinose péritonéale ; (ii) un modèle de glioblastome multiforme basé sur l’implantation intracérébrale de cellules tumorales primaires. Ainsi, le bénéfice thérapeutique du transfert adoptif de LT Vγ9Vδ2 humains allogéniques, associés ou non au zolédronate, a pu être démontré dans plusieurs modèles précliniques, ouvrant la voie vers un transfert en clinique. / Cancer is a pathology characterized by uncontrolled proliferation of tumor cells. Despite many technological advances in terms of screening, medical imaging, surgery and treatments, cancer is still a therapeutic challenge. In recent years, development of immunotherapies, such as adoptive cell transfer, has been the aim of many studies. Vγ9Vδ2 T lymphocytes are interesting immune effectors because of their numerous effector functions and their nonalloreactivity. In fact, their targets recognition is not restricted to the major histocompatibility complex, so it is possible to create allogeneic Vγ9Vδ2 T cell banks that could be used to treat patients without risk of allogeneic reaction against the host. Moreover, this recognition can be induced by pharmacological molecules such as zoledronate. The aim of this thesis was to evaluate the therapeutically efficacy of allogeneic human Vγ9Vδ2 T lymphocytes in preclinical mouse models of orthotopic xenografts. Two models have been developed: (i) a model of epithelial ovarian cancer including standard treatment of patients by surgery and chemotherapy, followed by relapse with peritoneal carcinosis ; (ii) a model of glioblastoma multiforme based on intracranial injection of primary tumor cells. Thus, the therapeutically efficacy of adoptive transfer of allogeneic human Vγ9Vδ2 T lymphocytes, whether or not associated with zoledronate, has been demonstrated in several preclinical models, paving the way for clinical transfer.
42

Model-based covariable decorrelation in linear regression (CorReg) : application to missing data and to steel industry / Décorrélation de covariables à base de modèles en régression linéaire (CorReg) : application aux données manquantes et à l’industrie sidérurgique

Théry, Clément 08 July 2015 (has links)
Les travaux effectués durant cette thèse ont pour but de pallier le problème des corrélations au sein des bases de données, particulièrement fréquentes dans le cadre industriel. Une modélisation explicite des corrélations par un système de sous-régressions entre covariables permet de pointer les sources des corrélations et d'isoler certaines variables redondantes. Il en découle une pré-sélection de variables sans perte significative d'information et avec un fort potentiel explicatif (la structure de sous-régression est explicite et simple). Un algorithme MCMC (Monte-Carlo Markov Chain) de recherche de structure de sous-régressions est proposé, basé sur un modèle génératif complet sur les données. Ce prétraitement ne dépend pas de la variable réponse et peut donc être utilisé de manière générale pour toute problématique de corrélations. Par la suite, un estimateur plug-in pour la régression linéaire est proposé pour ré-injecter l'information résiduelle de manière séquentielle sans souffrir des corrélations entre covariables. Enfin, le modèle génératif complet peut être utilisé pour gérer des valeurs manquantes dans les données. Cela permet l'imputation multiple des données manquantes, préalable à l'utilisation de méthodes classiques incompatibles avec la présence de valeurs manquantes. Le package R intitulé CorReg implémente les méthodes développées durant cette thèse. / This thesis was motivated by correlation issues in real datasets, in particular industrial datasets. The main idea stands in explicit modeling of the correlations between covariates by a structure of sub-regressions, that simply is a system of linear regressions between the covariates. It points out redundant covariates that can be deleted in a pre-selection step to improve matrix conditioning without significant loss of information and with strong explicative potential because this pre-selection is explained by the structure of sub-regressions, itself easy to interpret. An algorithm to find the sub-regressions structure inherent to the dataset is provided, based on a full generative model and using Monte-Carlo Markov Chain (MCMC) method. This pre-treatment does not depend on a response variable and thus can be used in a more general way with any correlated datasets. In a second part, a plug-in estimator is defined to get back the redundant covariates sequentially. Then all the covariates are used but the sequential approach acts as a protection against correlations. Finally, the generative model defined here allows, as a perspective, to manage missing values both during the MCMC and then for imputation. Then we are able to use classical methods that are not compatible with missing datasets. Once again, linear regression is used to illustrate the benefits of this method but it remains a pre-treatment that can be used in other contexts, like clustering and so on. The R package CorReg implements the methods created during this thesis.
43

Caractérisations et modélisations des technologies CMOS et BiCMOS de dernières générations jusque 220 GHz / Characterisation and modelling of CMOS and BiCMOS technologies up to 220 GHz

Waldhoff, Nicolas 04 December 2009 (has links)
Le contexte de ce travail de thèse s’inscrit dans les récents progrès des performances en gamme millimétrique des composants silicium tels que les MOSFET et les HBT SiGe. La situation actuelle en termes de circuits à base de silicium est limitée en fréquence autour de 60 GHz, seuls quelques résultats au-delà de 100 GHz ont d’ores et déjà été publiés. Dans ce contexte, il est maintenant nécessaire de savoir si les nouvelles et futures générations de transistors silicium peuvent adresser des fréquences encore plus élevées (jusque 220 GHz). Ces applications pourraient être des blocs d’émission réception à faible portée et très haut débit. Les aspects inconnus sont : 1) la validité des techniques de mesures sur silicium jusque 220 GHz ; 2) le comportement fréquentiel des transistors silicium jusque 220 GHz ; 3) la modélisation des transistors dans ces gammes de fréquences nécessaire à la conception de fonctions millimétriques. Des études à partir de simulations électromagnétiques ont été menées afin d’optimiser les structures de test (accès et topologie optimale des transistors). Ce travail est accentué sur les techniques de calibrage et d’épluchage sous pointes jusque 220 GHz. De plus, les études ont été orientées, d’une part, sur l’amélioration des modèles électriques des transistors jusque 220 GHz et d’autre part, la validité des modèles de bruit jusqu’en bande W (75-110 GHz). Pour cet aspect, le travail a été orienté sur l’élaboration de deux méthodes de mesure permettant de valider les modèles de bruit par des méthodes de mesures transférables en milieu industriel. A partir de ces modèles établis et validés, des démonstrateurs ont été réalisés fonctionnant en bande G. / The motivation of this work inherits from the recent progress in terms of cut-off frequencies of silicon transistors such as MOSFET (bulk and SOI) and SiGe HBT. In 2006, the state-of-the-art cut-off frequencies achieved more than 300 GHz. Nowadays, silicon circuits are limited around 60 GHz, only few with the exception of few circuits which operate at frequencies higher than 100 GHz (VCO at 130 GHz with SiGe HBT). In this context, it is highly required to check the ability of new and future generations of silicon transistors to provide higher cut-off frequencies especially in G band (140-220 GHz). These applications could be transmitter-receiver systems with high data rates and short distances. The unknown aspects are: 1) the validation of silicon transistors measurement up to 220 GHz; 2) the frequency behaviour of silicon transistors up to 220 GHz; 3) the modelling of these transistors. Electromagnetic simulations have been employed to optimize the test structures (the layout of the transistor). This work is particularly interested in calibration and de-embedding techniques for on-wafer measurements up to 220 GHz. Studies have been carried out on the small signal equivalent circuit improvement as well as the validation of the noise models in W band (75-110 GHz). From these validated models, pre-adapted transistors have been realised in G band. The development of measurement techniques adequate for the industry is the purpose of this work.
44

Modèles génératifs pour la classification et la séparation de sources sonores en temps-réel / Generative models for real-time audio sources classification and separation

Baelde, Maxime 20 September 2019 (has links)
Cette thèse s'inscrit dans le cadre de l'entreprise A-Volute, éditrice de logiciels d'amélioration d'expérience audio. Elle propose un radar qui transpose l'information sonore multi-canale en information visuelle en temps-réel. Ce radar, bien que pertinent, manque d'intelligence car il analyse uniquement le flux audio en terme d'énergie et non en termes de sources sonores distinctes. Le but de cette thèse est de développer des algorithmes de classification et de séparation de sources sonores en temps-réel. D'une part, la classification de sources sonores a pour but d'attribuer un label (par exemple voix) à un son monophonique (un label) ou polyphonique (plusieurs labels). La méthode développée utilise un attribut spécifique, le spectre de puissance normalisé, utile à la fois dans le cas monophonique et polyphonique de part sa propriété d'additivité des sources sonores. Cette méthode utilise un modèle génératif qui permet de dériver une règle de décision basée sur une estimation non paramétrique. Le passage en temps-réel est réalisé grâce à un pré-traitement des prototypes avec une classification hiérarchique ascendante. Les résultats sont encourageants sur différentes bases de données (propriétaire et de comparaison), que ce soit en terme de précision ou de temps de calcul, notamment dans le cas polyphonique. D'autre part, la séparation de sources consiste à estimer les sources en terme de signal dans un mélange. Deux approches de séparation ont été considérées dans la thèse. La première considère les signaux à retrouver comme des données manquantes et à les estimer via un schéma génératif et une modélisation probabiliste. L'autre approche consiste, à partir d'exemples sonores présent dans une base de données, à calculer des transformations optimales de plusieurs exemples dont la combinaison tends vers le mélange observé. Les deux propositions sont complémentaires, avec chacune des avantages et inconvénients (rapidité de calcul pour la première, interprétabilité du résultat pour la deuxième). Les résultats expérimentaux semblent prometteurs et nous permettent d'envisager des perspectives de recherches intéressantes pour chacune des propositions. / This thesis is part of the A-Volute company, an audio enhancement softwares editor. It offers a radar that translates multi-channel audio information into visual information in real-time. This radar, although relevant, lacks intelligence because it only analyses the audio stream in terms of energy and not in terms of separate sound sources. The purpose of this thesis is to develop algorithms for classifying and separating sound sources in real time. On the one hand, audio source classification aims to assign a label (e.g. voice) to a monophonic (one label) or polyphonic (several labels) sound. The developed method uses a specific feature, the normalized power spectrum, which is useful in both monophonic and polyphonic cases due to its additive properties of the sound sources. This method uses a generative model that allows to derive a decision rule based on a non-parametric estimation. The real-time constraint is achieved by pre-processing the prototypes with a hierarchical clustering. The results are encouraging on different databases (owned and benchmark), both in terms of accuracy and computation time, especially in the polyphonic case. On the other hand, source separation consists in estimating the sources in terms of signal in a mixture. Two approaches to this purpose were considered in this thesis. The first considers the signals to be found as missing data and estimates them through a generative process and probabilistic modelling. The other approach consists, from sound examples present in a database, in computing optimal transformations of several examples whose combination tends towards the observed mixture. The two proposals are complementary, each having advantages and drawbacks (computation time for the first, interpretability of the result for the second). The experimental results seem promising and allow us to consider interesting research perspectives for each of the proposals.
45

Trois essais sur les banques et le pouvoir de marché

Gagnon-April, Jérôme January 2016 (has links)
Cette thèse examine le rôle du pouvoir de marché dans le marché bancaire. L’emphase est mis sur la prise de risque, les économies d’échelle, l’efficacité économique du marché et la transmission des chocs. Le premier chapitre présente un modèle d’équilibre général dynamique stochastique en économie ouverte comprenant un marché bancaire en concurrence monopolistique. Suivant l’hypothèse de Krugman (1979, 1980) sur la relation entre les économies d’échelle et les exportations, les banques doivent défrayer un coût de transaction pour échanger à l’étranger qui diminue à mesure que le volume de leurs activités locales augmente. Cela incite les banques à réduire leur marge locale afin de profiter davantage du marché extérieur. Le modèle est solutionné et simulé pour divers degrés de concentration dans le marché bancaire. Les résultats obtenus indiquent que deux forces contraires, les économies d’échelle et le pouvoir de marché, s’affrontent lorsque le marché se concentre. La concentration permet aussi aux banques d’accroître leurs activités étrangères, ce qui les rend en contrepartie plus vulnérables aux chocs extérieurs. Le deuxième chapitre élabore un cadre de travail semblable, mais à l’intérieur duquel les banques font face à un risque de crédit. Celui-ci est partiellement assuré par un collatéral fourni par les entrepreneurs et peut être limité à l’aide d’un effort financier. Le modèle est solutionné et simulé pour divers degrés de concentration dans le marché bancaire. Les résultats montrent qu’un plus grand pouvoir de marché réduit la taille du marché financier et de la production à l’état stationnaire, mais incite les banques à prendre moins de risques. De plus, les économies dont le marché bancaire est fortement concentré sont moins sensibles à certains chocs puisque les marges plus élevés donnent initialement de la marge de manoeuvre aux banques en cas de chocs négatifs. Cet effet modérateur est éliminé lorsqu’il est possible pour les banques d’entrer et de sortir librement du marché. Une autre extension avec économies d’échelle montre que sous certaines conditions, un marché moyennement concentré est optimal pour l’économie. Le troisième chapitre utilise un modèle en analyse de portefeuille de type Moyenne-Variance afin de représenter une banque détenant du pouvoir de marché. Le rendement des dépôts et des actifs peut varier selon la quantité échangée, ce qui modifie le choix de portefeuille de la banque. Celle-ci tend à choisir un portefeuille dont la variance est plus faible lorsqu’elle est en mesure d’obtenir un rendement plus élevé sur un actif. Le pouvoir de marché sur les dépôts amène un résultat sembable pour un pouvoir de marché modéré, mais la variance finit par augmenter une fois un certain niveau atteint. Les résultats sont robustes pour différentes fonctions de demandes. / This thesis looks at the role of power market in banking. Emphasis is put on risk taking, economies of scale, economic efficiency and shocks transmission. Chapter 1 presents a dynamic stochastic general equilibrium model with monopolistically competitive banks à la Salop (1979). Following Krugman (1979, 1980) hypothesis about the link between economies of scale and exports, banks have to support a transaction cost on foreign trades that decreases with the size of their local assets (loans). This lead the banks to increase their local loans by reducing their margin. The model is solved and simulated under various degrees of market power in the banking system. Results show that two forces, economies of scale and market power, oppose to each other when the market concentrates. Concentration also leads foreign activities to increase, which makes banks more sensible to foreign shocks. Chapter 2 takes the same basic framework, but where banks face credit risk partially insured by collateral pledged by entrepreneurs and can limit this risk via costly effort. The model is solved and simulated under various degrees of market power in the banking system. We find that higher market power reduces the size of the financial market and steady-state production, but leads to safer banks. In addition, economies with highly concentrated banking systems experience milder fluctuations following most types of shocks, because the higher margins associated with market power serve as a buffer to cushion the economy from adverse shocks, at least initially. This buffer effect is eliminated once we allow for free entry into the banking sector. An other extension with economies of scale shows that a moderately concentrated market can be optimal for the economy. Chapter 3 uses a Mean-Variance portfolio analysis to depict a bank with market power. Return on deposits and assets varies with the quantity traded, which change the bank’s portfolio. Market power on assets lead the bank to choose a more stable portfolio, even if it causes the return to decrease. Similar results occur in the case of deposits, but variance increase for higher degrees of market power. Results are robust for a variety of demand functions.
46

Modeling of the thermo-chemo-poromechanical properties of a carbon anode during the baking process

Chen, Bowen January 2021 (has links)
Dans le procédé d'électrolyse Hall-Héroult pour la production d'aluminium primaire, l'anode de carbone est utilisée comme une électrode positive. Par rapport aux autres matériaux carbonés dans l'industrie, les anodes sont consommées dans les cuves d'électrolyse. Ainsi, des anodes de haute qualité sont nécessaires pour maintenir la durabilité du fonctionnement, ce qui augmente considérablement l'efficacité du procédé d'électrolyse. L'une des solutions prometteuses pourrait être de contrôler et d'améliorer la qualité des anodes via ses processus de production. Dans la production d'anode, la cuisson des anodes est considérée comme l'étape la plus coûteuse ainsi que la cause la plus fréquente des problèmes d'anode. Formée artificiellement par un procédé de compactage/vibro-compactage, une anode verte est constituée d'un mélange de carbone et de pores. Les mélanges de carbone sont généralement composés d'agrégats de coke pétrolier (? 65 wt.%), de brai de goudron (? 15 wt.%) et de mégots d'anode recyclés (? 20 wt.%). Le processus de cuisson transforme une anode verte en anode précuite. Au cours de ce processus, le brai de goudron se carbonise en liant les agrégats de coke et dégage de légers gaz volatils de sorte qu'un système solide-gaz du mélange anodique se forme. Quatre facteurs qui conduisent à modifier les propriétés et les structures internes de l'anode de la cuisson peuvent être résumés comme suit: i) les charges externes des anodes supérieures; ii) la dilatation thermique induite par le transfert de chaleur; iii) la dilatation causée par l'augmentation de la pression dans les pores due au processus de pyrolyse du brai et iv) la contraction chimique due au processus de pyrolyse du brai. Par conséquent, le processus de cuisson des anodes nécessite une compréhension approfondie des mécanismes qui régissent les évolutions des propriétés du mélange anodique à des températures plus élevées. Dans ce projet, un modèle thermo-chimio-poromécanique est développé pour la cuisson de l'anode en utilisant la théorie des milieux poreux réactifs basée sur la théorie des mélanges, et ce dans le cadre de la thermodynamique des processus irréversible. À cet effet, une variable d'état interne appelée "indice de contraction" est définie pour caractériser la progression chimique de la pyrolyse du brai dans le squelette anodique et l'inégalité de Clausius-Duhem est développée selon le formalisme lagrangien. En introduisant un tenseur de déformations de Green-Lagrange réduit, une énergie lagrangienne libre est formulée pour dériver l'ensemble des équations d'état. Ensuite, la dissipation thermodynamique de ce mélange solide-gaz est dérivée et un modèle constitutif reliant la pyrolyse chimique au comportement mécanique est réalisé. Un potentiel de dissipation est défini pour assurer la non-négativité de la dissipation thermodynamique et pour obtenir les lois de comportement visqueux. Les équations de champ régissant la diffusion des gaz volatils et le transfert de chaleur à travers le corps du mélange drainant sont dérivées à partir de l'équilibre entropique. Du plus, afin d'acquérir une meilleure connaissance de la modélisation du processus de cuisson, les propriétés physiques et le comportement mécanique du mélange anodique à haute température ont été caractérisés expérimentalement. À cette fin, quatre caractérisations expérimentales principales ont été réalisées: 1) une mesure pycnométrique à l'hélium a été réalisée à température ambiante pour mesurer la densité réelle pycnométrique de la pâte d'anode cuite à différentes températures; 2) une analyse thermogravimétrique (TGA) a été réalisée pour obtenir la perte de masse de l'anode due à la réaction chimique de la pyrolyse du brai à haute température; 3) la dilatométrie a été réalisée pour trois objectifs: i) caractériser les déplacements dues à la dilatation thermique et à la pyrolyse chimique de l'anode de carbone; ii) identifier le coefficient d'expansion thermique (CET) de l'anode aux températures élevées et iii) estimer l'évolution du changement de volume en fonction de la température et 4) une caractérisation du comportement de fluage a été réalisée pour étudier les comportements viscoélastique et viscoplastique de la pâte d'anode à haute température. En outre, la perméabilité à l'air des anodes cuites à différentes températures a été mesurée par le partenaire industriel Alcoa Deschambault pour estimer l'évolution de la porosité ouverte en fonction de la température. À cette fin, une méthode de compactage améliorée pour la fabrication d'échantillons d'anode à l'échelle du laboratoire a été proposée pour satisfaire aux exigences d'un échantillon qui a une densité apparente uniforme. En utilisant les résultats expérimentaux obtenus, les paramètres liés à la cinétique de la pyrolyse et aux lois de comportement développées ont été identifiés par une méthode inverse. Ils comprennent: 1) les paramètres cinétiques impliqués dans la réaction de pyrolyse tels que l'énergie d'activation et le facteur pré-exponentiel; 2) le coefficient d'expansion thermique à différentes températures et 3) les coefficients de Lamé et "Lamé-like" liés au modèle de Burger qui décrit le comportement viscoélastique-viscoplastique de l'anode à haute température. Enfin, en utilisant l'indice de contraction, l'évolution de la pression dans les pores fermées de la matrice liante a été estimée. Les propriétés physiques et mécaniques ont été réexprimées en fonction de l'indice de contraction afin de refléter l'influence de la transformation physico-chimique et des couplages chimico-mécaniques sur les propriétés de l'anode de carbone pendant la cuisson. / In the Hall-Héroult process for the production of primary aluminium, the carbon anode is used as a positive electrode. Compared with other industrial carbonaceous materials, the anodes are highly consumed in the electrolysis cell. Thus, high-quality anodes are required to maintain the sustainability of operation, which substantially increases the efficiency of the electrolysis process. One of the promising solutions could be controlling and improving the anode quality via its production process. In anode production, the anode baking is considered as the most cost-intensive stage as well as the most frequent cause of anode problems. Artificially formed by the compaction/vibrocompaction process, a green anode mixture consists of carbon mixtures and pores. The carbon mixtures are typically composed of petroleum coke aggregates (? 65 wt.%), the coal tar pitch (? 15 wt.%) and the recycled anode butts (? 20 wt.%). The baking process transforms a green anode into a prebaked anode. During this process, the coal tar pitch carbonises binding the coke aggregates and discharges light binder volatile such that a solidgas system of the anode mixture is formed. Four factors that lead to the modification of the properties and internal structures of the anode can be summarised as follows: i) external loadings from upper anodes; ii) the thermal expansion induced by the heat transfer; iii) the expansion of the apparent volume caused by the pore pressure increase due to the pitch pyrolysis process and iv) the chemical shrinkage due to the pitch pyrolysis process. Therefore, the anode baking process calls for a deep understanding of mechanisms that govern the properties evolution of the anode mixture at high temperatures. In this project, a thermo-chemo-poromechanical model is established for the baking anode by using the theory of reactive porous media based on the theory of mixtures within the thermodynamic framework. For this purpose, an internal state variable called "shrinking index" is defined to characterize the chemical progress of the pitch pyrolysis in the anode skeleton and the Clausius-Duhem inequality is developed according to the Lagrangian formalism. By introducing a reduced Green-Lagrange strain tensor, a Lagrangian free energy is formulated to find a set of state equations. Then, the thermodynamic dissipation for this pyrolyzing solidgas mixture is derived and a constitutive model linking the chemical pyrolysis with the mechanical behaviour is achieved. A dissipation potential is defined to ensure the non-negativeness of the thermodynamic dissipation and to obtain the constitutive laws for viscous behaviours. Field equations governing the volatile diffusion and the heat transfer through the draining mixture body are derived from the entropy balance. Furthermore, to gain a better knowledge in modelling the baking process, physical properties and mechanical behaviours of the anode mixture at high temperatures were experimentally characterized. For this purpose, four main experimental characterizations were achieved: 1) helium-pycnometric measurement was carried out at room temperature to measure the real pycnometric density of the anode paste; 2) thermogravimetric analysis (TGA) was performed to obtain the mass loss of the anode due to the chemical reaction of the pitch pyrolysis at high temperatures; 3) dilatometry was realized for three purposes: i) to characterize displacements due to the thermal expansion and the chemical shrinkage of carbon anode; ii) to identify the thermal expansion coefficient (TEC) of the anode at high temperatures and iii) to estimate the evolution of the volume change with respect to the temperature and 4) characterization of creep behaviour was achieved to investigate the viscoelastic and viscoplastic behaviours of the anode paste at high temperatures. Additionally, the air permeability of the anodes baked up to different high temperatures were measured by our industrial partner Alcoa Deschambault to estimate the evolution of open porosity as a function of temperature. To this end, an improved compaction method for the fabrication of lab-scale anode samples was proposed to satisfy the requirement of a sample with apparent uniform density. By using obtained experimental results, parameters involved in the kinetics of pyrolysis and the developed constitutive laws were inversely identified. They include: 1) kinetic parameters involved in the pyrolysis reaction such as the activation energy and the pre-exponential factor; 2) thermal expansion coefficients at different high temperatures; and 3) Lamé and Lamé-like coefficients involved in the Burger's model which describes the viscoelastic-viscoplastic behaviours of the anode at high temperatures. Finally, using the shrinking index, the pressure evolution in pores entrapping the volatile was estimated. Some mechanical properties were re-expressed as a function of the shrinking index to reflect the influences of physio-chemical transformation and chemo-mechanical couplings on the properties of the carbon anode mixture during the baking process.
47

Bayesian adaptive variable selection in linear models : a generalization of Zellner's informative g-prior

Ndiaye, Djibril 14 May 2022 (has links)
Bayesian inference is about recovering the full conditional posterior distribution of the parameters of a statistical model. This exercise, however, can be challenging to undertake if the model specification is not available a priori, as is typically the case. This thesis proposes a new framework to select the subset of regressors that are the relevant features that explain a target variable in linear regression models. We generalize Zellner's g-prior with a random matrix, and we present a likelihood-based search algorithm, which uses Bayesian tools to compute the posterior distribution of the model parameters over all possible models generated, based on the maximum a posteriori (MAP). We use Markov chain Monte Carlo (MCMC) methods to gather samples of the model parameters and specify all distributions underlying these model parameters. We then use these simulations to derive a posterior distribution for the model parameters by introducing a new parameter that allows us to control how the selection of variables is done. Using simulated datasets, we show that our algorithm yields a higher frequency of choosing the correct variables and has a higher predictive power relative to other widely used variable selection models such as adaptive Lasso, Bayesian adaptive Lasso, and relative to well-known machine learning algorithms. Taken together, this framework and its promising performance under various model environments highlight that simulation tools and Bayesian inference methods can be efficiently combined to deal with well-known problems that have long loomed the variable selection literature. / L'inférence bayésienne consiste à retrouver la distribution conditionnelle a posteriori complète des paramètres d'un modèle statistique. Cet exercice, cependant, peut être difficile à entreprendre si la spécification du modèle n'est pas disponible a priori, comme c'est généralement le cas. Cette thèse propose une nouvelle approche pour sélectionner le sous-ensemble de régresseurs qui sont les caractéristiques pertinentes qui expliquent une variable cible dans les modèles de régression linéaire. Nous généralisons le g-prior de Zellner avec une matrice aléatoire et nous présentons un algorithme de recherche basé sur la vraisemblance, qui utilise des outils bayésiens pour calculer la distribution a posteriori des paramètres du modèle sur tous les modèles possibles générés. La sélection du modèle se fera sur la base du maximum a posteriori (MAP). Nous utilisons les méthodes de Monte Carlo par chaînes de Markov pour échantillonner suivant les distributions a posteriori de ces paramètres du modèle. Nous utilisons ensuite ces simulations pour dériver une estimation a posteriori des paramètres du modèle en introduisant un autre paramètre qui nous permet de contrôler la manière dont la sélection de la variable est effectuée. À l'aide de données simulées, nous montrons que notre méthode donne une fréquence plus élevée de choix des variables importantes et a un pouvoir prédictif plus élevé par rapport à d'autres modèles de sélection de variables largement utilisés tels que le Lasso adaptatif, le Lasso adaptatif bayésien, et par rapport aux algorithmes d'apprentissage automatique bien connus. Pris ensemble, cette approche et ses performances prometteuses dans divers scénarios de données mettent en évidence le fait que les outils de simulation et les techniques d'inférence bayésienne puissent être efficacement combinés pour traiter des problèmes bien connus qui ont longtemps pesé sur la littérature de la sélection de variables (en particulier en grande dimension).
48

Impact populationnel de la vaccination contre les virus du papillome humain : revue systématique et synthèse des prédictions de 16 modèles mathématiques dynamiques

Bénard, Élodie 24 April 2018 (has links)
Tableau d'honneur de la Faculté des études supérieures et postdoctorales, 2016-2017 / Introduction: En 2015, 65 pays avaient des programmes de vaccination contre les VPH. La modélisation mathématique a joué un rôle crucial dans leur implantation. Objectifs: Nous avons réalisé une revue systématique et analysé les prédictions de modèles mathématiques de l’efficacité populationnelle de la vaccination sur la prévalence des VPH-16/18/6/11 chez les femmes et les hommes, afin d’évaluer la robustesse/variabilité des prédictions concernant l’immunité de groupe, le bénéfice ajouté par la vaccination des garçons et l’élimination potentielle des VPH-16/18/6/11. Méthodes: Nous avons cherché dans Medline/Embase afin d’identifier les modèles dynamiques simulant l’impact populationnel de la vaccination sur les infections par les VPH-16/18/6/11 chez les femmes et les hommes. Les équipes participantes ont réalisé des prédictions pour 19 simulations standardisées. Nous avons calculé la réduction relative de la prévalence (RRprev) 70 ans après l’introduction de la vaccination. Les résultats présentés correspondent à la médiane(10ème; 90èmeperccentiles) des prédictions. Les cibles de la vaccination étaient les filles seulement ou les filles & garçons. Résultats: 16/19 équipes éligibles ont transmis leurs prédictions. Lorsque 40% des filles sont vaccinées, la RRprev du VPH-16 est 53%(46%; 68%) chez les femmes et 36%(28%; 61%) chez les hommes. Lorsque 80% des filles sont vaccinées, la RRprev est 93%(90%; 100%) chez les femmes et 83%(75%; 100%) chez les hommes. Vacciner aussi les garçons augmente la RRprev de 18%(13%; 32%) chez les femmes et 35%(27%; 39%) chez les hommes à 40% de couverture, et 7%(0%; 10%) et 16%(1%; 25%) à 80% de couverture. Les RRprev étaient plus élevées pour les VPH-18/6/11 (vs. VPH-16). Si 80% des filles & garçons sont vaccinés, les VPH-16/18/6/11 pourraient être éliminés. Interprétation: Même si les modèles diffèrent entre eux, les prédictions s’accordent sur: 1)immunité de groupe élevée même à basse couverture, 2)RRprev supérieures pour les VPH-18/6/11 (vs. VPH-16), 3)augmenter la couverture chez les filles a un meilleur impact qu’ajouter les garçons, 4)vacciner 80% des filles & garçons pourraient éliminer les VPH-16/18/6/11. / Background: As of 2015, 65 countries have introduced HPV vaccination programmes. Mathematical models have played a key role in the implementation of these programmes. Objectives: We conducted a systematic review and pooled-analysis of model predictions of population-level effectiveness of HPV vaccination against HPV-16/18/6/11 infection in women and men, to examine the robustness/variability of predicted populationnal effects, incremental benefit of vaccinating boys, and potential for HPV vaccine-type elimination. Methods: We searched Medline and Embase (2009-2015) for transmission-dynamic modeling studies predicting the population-level impact of vaccination on HPV-16/18/6/11 infections among women and men in high-income countries. Participating modeling teams produced predictions for 19 standardized scenarios. We derived pooled relative reduction in HPV prevalence (RRprev) 70 years after vaccination, using the median (10th; 90thpercentile) of model predictions. Strategies investigated were Girls-Only and Girls & Boys vaccination at 12 years of age. Findings: 16/19 eligible models, from ten high-income countries provided predictions. With 40% Girls-Only vaccination coverage, HPV-16 RRprev among women and men was 53%(46%; 68%) and 36%(28%; 61%), respectively. With 80% Girls-Only vaccination coverage, HPV-16 RRprev among women and men was 93%(90%; 100%) and 83%(75%; 100%), respectively. Vaccinating boys in addition to girls increased HPV-16 RRprev among women and men by 18%(13%; 32%) and 35%(27%; 39%) for 40% coverage, and 7%(0%; 10%) and 16%(1%; 25%) for 80% coverage, respectively. RRprev were greater for HPV-18/6/11 than HPV-16 for all scenarios. Finally at 80% coverage, most models predicted that Girls & Boys vaccination would eliminate HPV-16/18/6/11, with a median RRprev of 100% for women and men for all types. Interpretation: Although HPV models differ in structure, data used for calibration and setting, population-level predictions were generally concordant: 1) strong herd effects from vaccinating Girls-Only, even with low coverage, 2) greater post-vaccination reductions in HPV-18/6/11 infection (vs. HPV-16), 3) increasing coverage in girls provides greater impact than including boys, and 4) reaching 80% coverage in Girls would eliminate HPV-16/18/6/11, with a median RRprev of 100% for women and men for all types. Interpretation: Although HPV models differ in structure, data used for calibration and setting, population-level predictions were generally concordant: 1) strong herd effects from vaccinating Girls-Only, even with low coverage, 2) greater post-vaccination reductions in HPV-18/6/11 infection (vs. HPV-16), 3) increasing coverage in girls provides greater impact than including boys, and 4) reaching 80% coverage in Girls would eliminate HPV-16/18/6/11, with a median RRprev of 100% for women and men for all types. Interpretation: Although HPV models differ in structure, data used for calibration and setting, population-level predictions were generally concordant: 1) strong herd effects from vaccinating Girls-Only, even with low coverage, 2) greater post-vaccination reductions in HPV-18/6/11 infection (vs. HPV-16), 3) increasing coverage in girls provides greater impact than including boys, and 4) reaching 80% coverage in Girls & Boys could eliminate HPV-16/18/6/11.
49

Modélisation des fluctuations macroéconomiques et comparaison des performances de modèles dynamiques d'équilibre général estimés : une approche par l'estimation bayésienne et les modèles à facteurs

Rugishi, Muhindo G. 12 April 2018 (has links)
Depuis le début des années 1980, la modélisation macroéconomique a subi un renouveau méthodologique marqué par l'avènement des modèles d'équilibre général dynamiques stochastiques (DSGE) et des modèles vectoriels autorégressifs (VAR). Il existe actuellement un consensus dans les milieux académiques et institutionnels que les modèles DSGE peuvent offrir aux débats économiques un cadre d'analyse efficace. L'utilisation des modèles DSGE dans l'analyse des cycles et fluctuations économiques est un des domaines les plus actifs de la recherche macroéconomique. Comme les modèles DSGE sont mieux ancré dans la théorie économique, ils permettent de fournir des explications plus cohérentes de la dynamique du cycle économique et d'analyser les différents types de chocs qui perturbent régulièrement les différentes économies. Les modèles VAR sont un outil utilisé à grande échelle dans la macroéconomie appliquée, notamment dans la validation empirique des modèles DSGE. En dépit de leur faible ancrage dans la théorie économique, les modèles VAR restent assez flexibles pour traiter un éventail de questions concernant la nature et les sources des fluctuations économiques. En outre, ils sont particulièrement adaptés pour faire des tests statistiques d'hypothèses ainsi que pour des exercices de prévision à court terme. C'est ainsi que les résultats des modèles VAR sont souvent perçus comme des faits stylisés qui devraient être reproduits par des modèles économiques. Alors que la spécification des modèles DSGE a connu un développement remarquable aboutissant à une lecture des fluctuations économiques analogue à celle de la synthèse néoclassique (rôle des chocs budgétaires et monétaires à court terme) et que beaucoup des progrès ont été réalisés pour comparer les prédictions des modèles aux données, les méthodes couramment utilisées pour la validation de ces modèles présentent certaines limites. Il se pose actuellement la question de savoir si ces méthodes sont toujours appropriées pour fournir des estimations consistantes des paramètres structurels et pour permettre la comparaison formelle des modèles DSGE concurrents. En effet, il reste encore beaucoup à faire pour développer des outils simples et opérationnels permettant de mesurer l'adéquation entre les prédictions des modèles DSGE et les données. La méthode communément utilisée pour évaluer les modèles DSGE consiste à comparer les moments estimés ou obtenus par simulations stochastiques du modèle et les moments historiques. Si les moments historiques appartiennent à l'intervalle de confiance des moments estimés ou simulés, on considère que cet ensemble de moments est bien reproduit par le modèle. Le problème de cette méthodologie est qu'elle ne permet pas la comparaison de deux modèles quand l'un reproduit plutôt bien certains moments et plus mal d'autres moments qui sont, au contraire, mieux expliqués par l'autre modèle. L'absence d'un critère de choix explicite pour évaluer la portée explicative de différents modèles constitue un problème majeur si on cherche à discriminer entre différents paradigmes et théories concurrentes. L'utilisation de la méthode des moments pour l'évaluation des modèles DSGE et l'explication des fluctuations économiques est, à certains égards, très approximative. Cette insuffisance amène plusieurs chercheurs à opter pour l'utilisation des modèles VAR pour la validation empirique des modèles DSGE. Cependant, les débats à la suite du papier séminal de Gali (1999) portant sur l'impact des chocs technologiques sur les heures travaillées ont suscité de scepticisme concernant l'apport de cette méthodologie alternative et certains chercheurs se demandent actuellement si les modèles VAR peuvent vraiment être utiles pour discriminer des théories concurrentes et si leurs propriétés d'échantillonnage sont assez précises pour justifier leur popularité dans la macroéconomie appliquée. L'échec des modèles VAR d'ordre fini comme outil utile d'évaluation des modèles DSGE est parfois attribué au fait qu'ils ne sont que des approximations des processus VAR d'ordre infini ou bien à la possibilité qu'il n'existe point de représentation VAR. C'est le cas notamment quand l'hypothèse d'inversibilité n'est pas satisfaite. Les méthodes d'estimation par maximum de vraisemblance ou bayésienne des paramètres structurels des modèles DSGE sont maintenant d'utilisation courante dans les milieux académiques et décisionnels. Ces méthodes permettent de comparer les performances de prévision des modèles DSGE à celles d'un modèle VAR ou celles de deux théories concurrentes. Bien que les modèles DSGE fournissent de relativement bonnes prévisions dans certains cas, des problèmes de mauvaise spécification et de non identifiabilité ont comme conséquence que les paramètres structurels et le vecteur d'état de l'économie ne sont pas souvent estimés de manière consistante. Ces insuffisances peuvent entraîner des recommandations de politique économique dangereusement biaisées et posent de sérieux problèmes dans l'évaluation de politiques alternatives. Dans cette thèse, nous proposons une voie de réconciliation qui offre des possibilités d'une meilleure intégration de la théorie et de la mesure en macroéconomie. La méthodologie proposée permet de combiner de manière explicite les modèles factoriels non structurels et les modèles théoriques d'équilibre général micro-fondés. Les modèles factoriels complètent les modèles macroéconomiques structurels destinés à évaluer les évolutions économiques à court et ce, principalement en offrant un cadre qui permet d'améliorer l'estimation et la prévision de plusieurs indicateurs macroéconomiques. En effet, la méthode d'évaluation utilisée permet de prendre en compte toute l'information macroéconomique disponible en recourant aux modèles factoriels, d'estimer et de tester, dans un cadre unifié, les paramètres structurels et les propriétés cycliques d'un modèle DSGE et de comparer des théories concurrentes. Les variables inobservables et les composantes cycliques des modèles sont estimés à l'aide d'un filtre de Kalman et des techniques numériques de Monte Carlo par chaînes de Markov (MCMC). Nous utilisons l'ensemble des outils développés pour faire une comparaison formelle de deux variantes du modèle de cycles réels à la King-Rebelo (2000) et du modèle de thésaurisation du travail de Bumside, Eichenbaum et Rebelo (1993) appliqués à l'économie américaine sur des données trimestrielles allant de 1948 à 2005. L'utilisation des modèles à facteurs permet d'améliorer les qualités prédictives des modèles DSGE et de surpasser dans bon nombre des cas les problèmes de non identifiabilité et de non inversibilité rencontrés dans ces types de modèles. L'étude démontre que le choc technologique identifié par Gali (1999) est non structurel et que l'utilisation des modèles à facteurs devrait être préférée dans certains cas à celle de l'approche VAR. En présence des variables mesurées avec erreur, l'utilisation des filtres de type Hodrick-Prescott (HP) conduit à une estimation non consistante de certains paramètres structurels des modèles DSGE. Le test de stabilité indique une diminution de l'amplitude de chocs exogènes depuis le début des années 1980, ce qui se traduit par une modération des cycles économiques et des fluctuations des taux d'intérêt. Enfin, l'analyse dynamique montre que les réponses de l'investissement au choc de dépenses publiques sont largement liées aux valeurs assignées aux paramètres structurels. / Since the beginning of the 1980s, macroeconomic modeling has undergone a methodological revival marked by the advent of the dynamic stochastic general equilibrium (DSGE) models and vector autoregressive (VAR) models. There is currently a consensus in the académie and institutional circles that DSGE models can offer to the économie debates an effective framework of analysis. The analysis of économie cycles and fluctuations using DSGE models is one of the most active areas of macroeconomic research. As DSGE models are firmly grounded in the économie theory, they are used to provide more cohérent and adéquate explanations for observed dynamics of the business cycle and to analyze a wide range of shocks which buffet regularly various économies. VAR models are a widely used tool in empirical macroeconomics, particularly for the evaluation of DSGE models. Despite they rely so loosely on économie theory, VAR models remain enough flexible to treat a range of questions concerning the nature and the sources of the économie fluctuations. Moreover, they are particularly adapted to perform statistical hypothesis tests as well to provide reliable forecasts in the short-term. Thus the results from VAR models are often viewed as stylized facts that économie models should replicate. Although the specification of DSGE models has seen a remarkable development leading to a reading of the économie fluctuations similar to those of the neoclassical synthesis (rôle of budgetary and monetary shocks in the short-term) and that steps forward hâve also been made in comparing the models' prédictions to the data, the methods usually used for the evaluation of these models présent some limitations. This raises the question of whether or not these methods are always well-adapted to provide consistent estimates of the structural parameters and to allow the formal comparison of competing DSGE models. Indeed, there still remains much to do in the development of simple operational tools that make it possible to measure the gap between the prédictions of DSGE models and the data. The common method used for evaluating DSGE models consists of comparing the estimated moments or those obtained by stochastic simulations of the model and the historical moments. If the historical moments belong to the confidence interval of the estimated or simulated moments, it is considered that this set of moments is well reproduced by the model. The problem of this methodology is that it does not allow the comparison of two models when one matches some moments well and does more badly for other moments that are better explained by the other model. The difficultés in designing explicit sélection criteria to evaluate the success of competing models constitute a major problem if one seeks to discriminate between various paradigms and concurrent theories. The moment-matching techniques for the evaluation of DSGE models and the explanation of the économie fluctuations are, in certain sensé, very approximate. This insufficiency leads several researchers to choose using the VAR models for the empirical evaluation of DSGE models. However, the debates following the séminal paper of Gali (1999) focused on the impact of the technological shocks on hours worked caused scepticism concerning the contribution of this alternative methodology and some researchers currently wonder if the VAR models can actually discriminate between competing DSGE models and whether their sampling properties are good enough to justify their popularity in applied macroeconomics. The failure of finite-order VAR models for evaluating DSGE models is sometimes attributed to the fact that they are only approximations to infinite-order VAR processes or to the possibility that there does not exist a VAR représentation at ail. This is the case particularly when the assumption of invertibility is not satisfied. Bayesian or maximum likelihood estimation methods of the structural parameters are now currently used in académie and policy circles. Thèse methods are tailored to compare the forecasting performances of the DSGE models with those of VAR models and to discriminate between competing DSGE models. Although DSGE models provide, in some cases, relatively good forecasts, the potential model misspecification and identification problems have as consequence the lack of efficiency in the estimated latent variables and structural parameters. These insufficiencies can dangerously bias recommendations of economic policy and pose serious problems in the evaluation of alternative policies. In this thesis, we propose a reconciliation that offers possibilities to better integrate of the theory and measurement in macroeconomics. The suggested methodology is used to combine explicitly the non-structural factor models and the micro-founded general equilibrium theoretical models. The factor models supplement the structural macroeconomic models intended to evaluate the economic evolutions in the short-term and this, mainly by offering a framework which allows the improvement of the estimates and forecasting of several macroeconomic indicators. Indeed, the method evaluation used makes it possible to exploit ail available macroeconomic information by using the factor models and allows us to estimate and test, within a unified framework, the structural parameters and the cyclical properties of the model, and to compare competing theories. The structural parameters, the unobservable variables and the cyclical components are estimated using the Kalman filter and the Markov chain Monte Carlo methods (MCMC). We use the set of the tools developed to make a formal comparison of two variants of the real business cycle model in King and Rebelo (2000) and of an extension of labour market specification consisting in the introduction of labour-hoarding behaviour, as suggested by Burnside, Eichenbaum and Rebelo (1993), which are applied to the US economy with quarterly data from 1948 to 2005. The use of the factor models provide an important set of tools to improve predictive qualities of DSGE models and can help to solve, in numerous cases, the identification and invertibility problems met in these types of models. The study shows that the technological shock identified by Gali (1999) is non-structural and that using the factor models factors should be preferred in some cases to the VAR approach. In the presence of the variables measured with error, using the detrending methods like the Hodrick-Prescott (HP) filter can lead to inconsistent estimates of some structural parameters of DSGE models. The test of stability suggests a reduction in the magnitude of exogenous shocks since the beginning of the 1980s, which implies the moderation of business cycles and fluctuations of interest rates. Lastly, the dynamic analysis shows that the impulse response functions of the investment to the government consumption shock are largely related to the values assigned to the structural parameters.
50

Assessment of the actuator line method applied to ducted fan geometries

Breault, Marc-Antoine 04 October 2023 (has links)
Thèse ou mémoire avec insertion d’articles / L'électrification des transports, de pair avec l'émergence de la mobilité aérienne urbaine, créer un regain d'intérêt du secteur de l'aéronautique envers les hélices carénées. Cette technologie se veut intéressante pour ces deux champs d'application en raison du gain d'efficacité qu'elle peut permettre pour les missions où le vol stationnaire ou à basse vitesse représente une partie significative du temps de vol de l'appareil. Ceci est sans compter leur émission sonore réduite et leur sécurité améliorée, deux aspects inhérents aux hélices carénées. Lors de la conception de ces systèmes, l'ingénieur peut, en fonction de ses besoins, utiliser des outils simples et rapides comme la théorie de la quantité de mouvement et les méthodes numériques en découlant ou encore des outils plus fidèles à la vraie physique, mais côuteux en temps et en ressources comme la CFD (Computational Fluid Dynamics). Il existe, pour des rotors non-carénés, des outils numériques pouvant être qualifiés de fidélité moyenne et qui sont intéressants au moment de la conception préliminaire lorsqu'une précision supplémentaire est nécessaire, mais que l'utilisation de la CFD résolvant la couche limite jusqu'à la paroi n'est pas envisageable. L'adaptation de ces outils de moyenne fidélité aux rotors carénés est, toutefois, des années en retard en comparaison à l'état de l'art pour des rotors non-carénés. Inspiré d'une de ces méthodes de moyenne fidélité nommée la modélisation par ligne actuatrice (acronyme anglais ALM) qui est bien implémentée pour des rotors non-carénés, le présent travail cherche à étendre l'utilisation de cette technique à des hélices carénées et à en évaluer les performances. Le projet est mené en collaboration avec Bell Textron Canada® qui fournit les géométries à l'étude ainsi que des données expérimentales pour la validation des simulations par ligne actuatrice. Comme la physique d'une hélice carénée est complexe et dépend d'une forte interaction entre l'hélice et le carénage, des cas de validation plus simples sont aussi utilisés pour valider différents aspects du code de simulation. Les résultats obtenus avec l'ALM montrent que cette technique peut être utilisée comme outil de simulation pour les géométries carénées, notamment pour calculer les courbes de performance d'un système, ainsi que pour étudier l'effet de changements macroscopiques tels que le nombre de pales, la vitesse de rotation ou le diamètre du rotor. Certaines faiblesses de la technique sont aussi soulevées. Il s'agit particulièrement d'effets plus locaux comme le comportement du chargement en bout de pale. Néanmoins, l'ALM appliqué aux géométries carénées permet d'identifier rapidement, et à un coût de calcul moindre, les idées de conception ou les conditions d'opération les plus intéressantes. Ce travail aborde la théorie pertinente au modèle numérique de l'ALM, les modèles physiques sous-jacents, ainsi qu'une comparaison détaillée des résultats ALM avec ceux obtenus en CFD et en soufflerie. Plusieurs pistes d'améliorations sont aussi proposées pour de futurs travaux de recherche. / The emerging market of urban air mobility alongside the increasing number of hybrid-electric or purely electric propulsion systems has renewed the interest of the aeronautical sector for ducted fans. Ducted propulsion systems are particularly well suited for these use cases, as they often result in power savings during flight missions where hovering and low flight speed are prominent. Other advantages of ducted fans include lower and more directional sound emissions and inherently increased safety. When designing these systems, the aerodynamicist can choose between rapid but low-fidelity tools such as numerical methods based on the momentum theory, or more accurate but also more time-consuming tools such as wall-resolved CFD. In between these two extremes, there are also medium-fidelity tools available if a more detailed solution is needed but resorting to wall-resolved CFD is still cost-prohibitive. Although medium-fidelity methods are well developed and continue to make progress for conventional unducted rotors, their application to their ducted counterpart is years behind the state of the art for open rotors. Inspired by one of these medium-fidelity methods called the Actuator Line Method (ALM), which is widely adopted by the scientific community and extensively used for open rotor simulations, the aim of this work is to extend the ALM to ducted geometries. This research project is conducted in collaboration with the industrial partner Bell Textron Canada® which provided the studied ducted fan geometry as well as experimental data used to validate the ALM code. Since the flow inside a ducted propulsion system is quite complex and involves a strong interaction between the duct and the rotor, simpler validation cases are also used to validate specific attributes of the ALM code. The ALM results indicate that the technique is suitable for simulating ducted propulsion systems. It is particularly interesting for rapid computation of performance curves and for evaluating the effect of macroscopic changes such as the number of blades, rotational speed or rotor diameter. Shortcomings in the predictive capabilities are also reported concerning more local effects, such as the behaviour of the blade loading at the tip of the blade. Nevertheless, the ALM developed in this work still allows the design space to be explored rapidly and at a reduced computational cost when compared with wall-resolved CFD. This work presents the theory behind the ALM code, the underlying physical models as well as a detailed comparison of the ALM results with wind tunnel and wall-resolved CFD data. Numerous improvements to the code are also proposed for future research on the subject.

Page generated in 0.0827 seconds