• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 586
  • 184
  • 3
  • Tagged with
  • 775
  • 775
  • 489
  • 237
  • 106
  • 100
  • 97
  • 91
  • 90
  • 85
  • 83
  • 77
  • 73
  • 62
  • 62
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
91

Monitoring and mathematical modeling of in vitro human megakaryocyte expansion and maturation dynamics

Leysi-Derilou, Younes 17 April 2018 (has links)
La mégakaryopoïèse est un processus complexe, qui prend naissance à partir des cellules souches hématopoïétiques (HSC). Ces dernières se différencient par étapes successives en mégakaryocytes (MKs) qui, suite à leur maturation, libèrent les plaquettes. Afin de modéliser le sort des HSCs lors de la mégakaryopoïèse en culture, un nouveau modèle mathématique a été développé, basé sur un programme de différenciation tridimensionnelle (3-D) où chaque sous-population est représentée par un compartiment. Dans le but d’évaluer la prolifération, la différenciation des MKs immatures puis matures, la cinétique de mort cellulaire ainsi que le nombre de plaquettes produites, à partir des cellules de sang de cordon (CB) ombilical enrichies en CD34+, un ensemble d'équations différentielles a été déployé. Les cellules CD34+ ont été placées en culture dans un milieu optimisé pour la différenciation mégakaryocytaire. Les paramètres cinétiques ont été estimés pour deux températures d'incubation (37°C versus 39°C). Les résultats des régressions ont été validés par l'évaluation de l'estimabilité des paramètres, en utilisant des analyses de sensibilité locale et globale, puis la détermination d'un intervalle de confiance. Ceux-ci ont été comparés par le biais de tests statistiques et d’analyses en composante principale (ACP). Le modèle proposé pourrait permettre de mieux comprendre les phénomènes complexes observés. Les MKs sont uniques parmi les cellules hématopoïétiques, étant les seules à devenir polyploïdes au cours de leur développement par l’entremise de l’endomitose, un processus mitotique qui se termine prématurément durant la cytocinèse. Pour obtenir une image plus complète et exhaustive de la mégacaryopoïèse, une approche d’imagerie cellulaire à grand champ et à long terme a été développée permettant de suivre individuellement l'évolution des HSCs lors de leur différenciation ex vivo. Cela a permis de démontrer que les MKs polyploïdes sont encore capables de se diviser et de produire des cellules filles polyploïdes, et que ce processus est plus fréquent chez les MKs issues de CB que de moelle osseuse d'adulte. De plus, le processus de formation des proplaquettes semble également réversible. Les phénomènes énoncés plus haut étaient inversement proportionnels au niveau de ploïdie des MKs. En conclusion, cette étude a dévoilé de nouvelles propriétés jusqu’ici inconnues des MKs. / Megakaryopoiesis is a complex process, which is initiated with the proliferation and the differentiation of hematopoietic stem cells (HSC) into megakaryocytes (MK), followed by the maturation of MK and ended by platelet release. To describe the fates of HSC during ex vivo megakaryopoiesis, a new mathematical model was developed based on a 3-dimensional kinetic developmental program. To address this, a set of differential equations was applied to analyze the proliferation, differentiation and death kinetic rates of purified cord blood (CB)-CD34+ cells, immature and mature MKs, as well as platelet number and productivity. CB-CD34+ cells were placed in culture optimized for MK differentiation. The kinetic parameters were estimated for two incubation temperatures (37°C vs. 39°C). The regression results have been validated by assessing the parameter identifiability using local and global sensitivity analyses and confidence intervals, and compared using statistical tests and principal component analysis (PCA). Furthermore, PCA was applied on the solution matrix to construct a simplified MK differentiation pathway model, and to reveal dependencies among the model parameters. The proposed model provides insight into phenomena that would be otherwise difficult to interpret. MKs are unique among mammalian marrow cells as they polyploidize during their natural development. It is universally accepted that MK becomes polyploid by repeatedly deviating from normal cell cycling, where it ceases to complete cytokinesis and divide. To challenge this long-standing hypothesis and to obtain a more comprehensive picture of megakaryopoiesis, a long-term and large-field live cell imaging approach of in vitro MK culture was developed. Using CB- and bone marrow (BM)-CD34+ as starting cells, the direct observation of cells undergoing differentiation and maturation over a 5-day culture period is reported for the first time. Herein, direct visual proof that polyploid MKs can complete cytokinesis during its normal development is presented. This phenomenon was found not restricted to CB- as the BM-derived polyploid MK also underwent division. However the latter showed significantly lower proliferation rate. This new finding explains in part the unresolved issue of low ploidy levels observed in CB-MK and contests the notion that polyploid MKs do not divide.
92

Modélisation multi-factorielle de pathologies cérébrales dans le contexte de la maladie d'Alzheimer

Chamberland, Eléonore 22 August 2023 (has links)
Titre de l'écran-titre (visionné le 14 août 2023) / La maladie d'Alzheimer (MA) est la cause la plus commune de démence chez les personnes de 65 ans et plus. Qu'est-ce qui déclenche réellement cette maladie ? La réponse est probablement une interaction dynamique de diverses voies, y compris l'amyloïde-bêta, les protéines tau hyperphosphorylées et les cytokines inflammatoires, modulées par des facteurs de risque tels que la génétique et le sexe. Cependant, tester une telle hypothèse multifactorielle chez l'humain est logistiquement presque impossible. Les modèles mathématiques pourraient résoudre ce problème en offrant un moyen de démêler les relations causales. Dans le cadre de ce mémoire, nous avons construit un modèle mathématique décrivant l'évolution d'un cerveau normal vers un état pathologique. Il est composé de dix-neuf équations différentielles ordinaires utilisant des paramètres issus de la littérature. Nos variables incluent l'amyloïde-bêta, les protéines tau, les neurones, les astrocytes activés, les microglies et macrophages, et certaines cytokines. Nous obtenons des résultats pour ces variables pour le vieillissement entre 30 et 80 ans d'âge. En raison de son importance dans la MA, nous avons séparé l'accumulation d'amyloïde-bêta en plusieurs composantes, soit les monomères intracellulaires et extracellulaires, les oligomères et les plaques. L'effet du sexe et la présence de l'allèle APOE4 ont été pris en compte via des paramètres sélectionnés. Le modèle est également sensible à l'insuline, étant donné que le diabète est un facteur de risque bien connu de la MA. Notre modèle relie avec succès la plupart des variables par rapport à l'âge. Nous présentons aussi deux variations du modèle, soit sans la variation de la concentration d'insuline, ou avec une diminution du taux d'activation des microglies. Les résultats obtenus sont cohérents avec les observations expérimentales. Malgré cela, notre modèle est encore sujet à plusieurs améliorations et une validation avec des données expérimentales est à faire. / Alzheimer's disease (AD) is the most common cause of dementia in people aged 65 and over. What actually triggers this disease? The solution is likely a dynamic interplay of various pathways, including amyloid-beta, hyperphosphorylated tau proteins, and inflammatory cytokines, modulated by risk factors such as genetics and gender. However, testing such a multifactorial hypothesis is logistically almost impossible to achieve in humans in practice. Mathematical models could solve this problem by offering a way to untangle causal relationships. As part of this thesis, we have built a mathematical model presenting the evolution of a normal brain towards a pathological state. It is composed of nineteen ordinary differential equations using parameters taken from the literature. Our variables include amyloid-beta, tau proteins, neurons, activated astrocytes, microglia and macrophages, and some cytokines. We obtain results for these variables for aging between 30 and 80 years of age. Because of its importance in AD, we have separated amyloid-beta accumulation into several components, namely intracellular and extracellular monomers, oligomers and plaques. The effect of sex and the presence of the APOE4 allele were taken into account via selected parameters. The model is also insulin sensitive, as diabetes is a well-known risk factor for AD. Our model successfully links most of the variables with age. We also present two variations of the model, either without the variation in insulin concentration, or with a decrease in the rate of activation of microglia. The results obtained are consistent with the experimental observations. Despite this, our model is still subject to several improvements and a validation with experimental data is to be done.
93

Caractérisation numérique d'une jauge biaxiale dans un champ de glace

Tchamba, Thiery Wilson 18 April 2018 (has links)
Mesurer les poussées des glaces sur les barrages hydroélectriques nécessite la mesure des contraintes dans les couverts de glace (CdG). Ces derniers sont des couches de glace qui se forment en hiver sur des réservoirs d'eau des barrages dans des zones hivernales (exemple, Québec). Le CdG se dilate lors d'une hausse de température, et est déstabilisé par la variation du niveau d'eau (VNE) dans le réservoir. Si de plus, le CdG est en contact avec le mur du barrage, des forces naissent sur le mur. Pour mesurer ces forces, dans un cadre de sécurité des barrages, des panneaux capteur de pression sont placés sur le mur du barrage, et des jauges sont positionnées dans le CdG. Parmi les jauges figurent les jauges biaxiales (JB) de 12 pouces (JB12) ou 30.48 cm de hauteur, et celles de 4 pouces (JB4) ou 10.16cm de hauteur. La petite hauteur de la JB4 lui permet de mesurer les contraintes selon la profondeur à laquelle elle est placée. Vu sa forte rigidité, la JB4 attire les forces sur le plan horizontal et sur le plan vertical. Une théorie mathématique permet de traiter le problème d'attraction des forces à l'horizontale (Savin, 1961), mais le problème d'attraction des forces en trois dimensions (effets 3D du CdG) n'est pas résolu. Or, les effets 3D causeraient le fait que la JB4 surestime les mesures. L'objectif de ce mémoire est de quantifier les effets 3D et évaluer l'impact du fluage de la glace, sur les contraintes estimées par la JB4 et sur l'amplification des contraintes (AC) autour d'elle. Pour se faire, sont développés, à l'aide du logiciel ANSYS, deux modèles numériques basés sur la méthode des éléments finis. Le premier modèle, en 2D, permet de valider l'approche numérique et évaluer l'impact du fluage. Le modèle 3D, sert à quantifier les effets 3D. Glace et JB4 sont homogènes et isotropes dans tout le projet. Le modèle 2D de base s'est avéré robuste, car les champs de contrainte et de déplacement ont au plus 0.5 % d'écart par rapport à la théorie de Savin. À partir du modèle robuste, est développé un modèle 2D (véritable outil) pour étudier l'impact du fluage sur PAC autour de la JB4 et sur la mesure de la JB4. Les résultats qui en découlent sont indicatifs en raison de la limitation au fluage secondaire. Un modèle de fluage plus complet permettrait de valider l'impact du fluage secondaire. Cet impact s'est avéré plus important pour des contraintes plus élevées. Par exemple, pour un chargement uniaxial de 250kPa, la diminution horaire moyenne de la contrainte principale maximale est de 0.92kPa/h, contre 1.79kPa/h pour une charge de 500kPa. Les effets 3D ont été évalués (matériaux uniquement élastiques). L'AC en 3D est au maximum de 5% plus élevé que TAC en 2D. Cet impact maximal correspond aux épaisseurs du CdG supérieures à 30 cm. Mais, la force moyenne (suivant la hauteur) reçue par le capteur est difficile à évaluer. En effet, le champ de contrainte autour de la JB4 et dans la direction verticale est très complexe et doit être profondément examiné. Cette complexité est due à la brusque variation de l'épaisseur du capteur le long de la hauteur. Ainsi, le modèle 3D doit faire l'objet d'une validation.
94

Contribution à la modélisation et à l'optimisation des machines à flux transverse : application au cas de la machine à flux transverse "claw-pole" à stator hybride

Dehlinger, Nicolas 18 April 2018 (has links)
La grande densité de couple qui fait la réputation des machines à flux transverse (MFT) est attribuable à l’agencement particulier de ses circuits magnétiques et électriques. Cependant, cet agencement complique aussi l’étape de modélisation nécessaire à la conception de la machine. Des facteurs tels que le flux de fuite, la saturation et l’aspect tridimensionnel du flux expliquent en grande partie la difficulté à élaborer un modèle magnétique analytique précis pour la machine. Par ailleurs, l’emploi d’un modèle imprécis pour l’optimisation des caractéristiques de la machine peut conduire à des résultats erronés. Pour cette raison, la plupart des concepteurs fait appel à une modélisation numérique avec des outils de calcul des champs 3-D, coûteux en ressources informatiques, en temps de calcul et malheureusement peu adaptée au processus de conception itératif d’une machine électrique. La thèse défendue dans ce document propose une alternative : elle présente une approche de modélisation hybride, faisant appel à un modèle magnétique analytique assisté par le calcul des champs. L’approche est appliquée pour l’optimisation des performances d’une structure de MFT particulière : la MFT à griffes (ou "claw-pole") à stator hybride (MFTCPSH). Dans un premier temps, on montre comment des facteurs de corrections, dont les valeurs sont déterminées à partir de simulations par éléments finis 3-D, peuvent permettre de palier aux problèmes de précision d’un modèle analytique au cours de l’optimisation de la machine. Un exemple de maximisation du flux à vide d’une MFTCPSH démontre la rapidité, l’efficacité et la précision de l’approche proposée. Dans un second temps, le modèle hybride et la méthode d’optimisation sont développés pour maximiser le couple d’une MFTCPSH. En se basant sur le cahier des charges d’une application de traction électrique de type moteur-roue, il est montré comment le modèle et la méthode proposés permettent, en quelques heures seulement, de déterminer les dimensions géométriques optimales qui maximisent la densité de couple de la machine. / The high power and torque capabilities of Transverse Flux Machines (TFM) are well known. The particular arrangement of the TFM’s electric and magnetic circuits, which mainly explains its exceptional features, also greatly complicates the TFM design process. Building an accurate analytical magnetic model for a TFM is a hard task: factors as the leakage flux, magnetic saturation or 3-D flux paths greatly affect the model accuracy. As the use of an inaccurate model can lead to erroneous results, TFM designers extensively use numerical models, as 3-D finite element analysis (FEA). Despite their accuracy, such numerical tools are still time and resource consuming but also tricky to use for optimization purpose. This thesis proposes an alternative approach for the design of TFM: a hybrid model, based on analytical calculations, corrected with finite element results inside the optimization process. Such an approach is used in order to optimize the performances of a claw-pole TFM with hybrid stator (CTFMHS). This work first presents how FEA-derived correction factors can be inserted in the analytical model to improve the model accuracy, in the course of the design process. The principles and the effectiveness of the proposed approach are shown through an example of CTFMHS no-load flux maximization. The approach is then derived in order to maximize the torque density of the CTFMHS. Considering the specifications of an in-wheel motor application, it is shown how the developed approach can determine, in a few hours only, the optimal machine geometry maximizing its torque density.
95

Modélisation et optimisation des performances et de la maintenance des systèmes multi-états

Soro, Wassy Isaac 17 April 2018 (has links)
Cette thèse traite d'une problématique globale qui porte sur la modélisation, l'évaluation et l'optimisation des performances des systèmes multi-états dont les caractéristiques opératoires sont soumises à la dégradation et à des défaillances aléatoires. Dans le domaine de la fiabilité, l'étude du fonctionnement des systèmes (équipements) technologiques a, longtemps, été entreprise en se basant sur la modélisation binaire où deux états sont considérés : l'état d'opération et l'état de défaillance complète. Cependant, de plus en plus de travaux dans la littérature scientifique tiennent compte des nombreuses situations qui peuvent survenir durant la vie utile de certains systèmes. De tels systèmes sont appelés des systèmes multi-états (SME). Les SME sont généralement soumis à divers modes de défaillance avec différents effets sur leurs performances. L'un de ces modes de défaillance, la dégradation, permet aux SME de continuer à assurer leur fonction (service) malgré l'occurrence d'une panne entraînant une réduction partielle de leurs performances nominales. Dans ce cas, la continuité du service est souvent assurée par la redondance, les stocks tampons, la maintenance, les mécanismes de reconfiguration, la tolérance aux fautes, etc. Une abondante littérature a été dédiée aux systèmes ne pouvant être qu'en état d'opération ou hors d'usage (binaires). Ainsi, les stratégies d'amélioration ou de restauration des performances de ces systèmes binaires ont souvent été basées sur l'emploi de la redondance, la maintenance préventive, etc. Cependant, peu de travaux ont été publiés sur les systèmes multi-états (SME). D'où la pertinence de : (a) caractériser les SME, (b) explorer des méthodes de modélisation, d'évaluation et d'amélioration de leurs mesures de performance, (c) mettre en oeuvre des stratégies d'optimisation de ces mesures de performance et des ressources requises
96

Cadre décisionnel pour l'analyse d'investissements et de stratégies de production dans l'industrie du bois d'oeuvre

Henri, Réjean 20 April 2018 (has links)
Depuis quelques années, l’industrie québécoise de production de bois d’œuvre opère dans un contexte économique difficile expliqué par plusieurs facteurs. Parmi ceux-ci, mentionnons notamment une plus forte concurrence sur les marchés internationaux, l’accès limité au marché américain résultant d’un conflit commercial, un dollar canadien fort, la présence de matériaux de substitution et la rareté croissante de la matière première ainsi que la diminution de sa qualité. Parmi les pistes de solutions les plus souvent évoquées, on trouve la mise en place de réseaux logistiques plus efficaces. L’industrie possède des outils permettant d’estimer l’augmentation de la production associée à l’achat d’un équipement. Cependant, ces outils ne considèrent généralement qu’une seule étape du procédé de production. Or, il est fréquent que la modification d’une étape du procédé de production affecte les autres également. De plus, la rentabilité globale de l’investissement dépendra de quelle façon la stratégie de production et de vente de l’entreprise sera ajustée suite à l’investissement. Par conséquent, nous proposons un cadre décisionnel permettant d’analyser l’impact combiné d’investissements au sein de plusieurs étapes de production, tout en définissant simultanément la meilleure stratégie de production et de vente. Alors que de manière classique, ces décisions sont prises de manière indépendantes, nous préconisons plutôt l’utilisation d’un modèle mathématique afin d’intégrer ces niveaux de décision. Le cadre proposé spécifie les étapes qui devraient être suivies par le décideur pour utiliser ce modèle mathématique; il comprend également modèle de données et des interfaces-utilisateur supportant l’analyse du décideur. Afin de s’assurer de l’applicabilité du cadre décisionnel proposé, deux études de cas ont été réalisées en industrie. Elles ont permis de montrer les avantages du cadre décisionnel et l’importance d’analyser les plans tactiques lors de la prise de décision d’investissement. De plus, ces études ont permis de mettre en évidence certaines embuches pouvant être rencontrées lors de l’application de la démarche.
97

Three essays in international finance and macroeconomics

Nono, Simplice Aimé 24 April 2018 (has links)
Cette thèse examine l’effet de l’information sur la prévision macroéconomique. De façon spécifique, l’emphase est d’abord mise sur l’impact des frictions d’information en économie ouverte sur la prévision du taux de change bilatéral et ensuite sur le rôle de l’information issue des données d’enquêtes de conjoncture dans la prévision de l’activité économique réelle. Issu du paradigme de la nouvelle macroéconomie ouverte (NOEM), le premier essai intègre des frictions d’informations et des rigidités nominales dans un modèle d’équilibre général dynamique stochastique (DSGE) en économie ouverte. Il présente ensuite une analyse comparative des résultats de la prévision du taux de change obtenu en utilisant le modèle avec et sans ces frictions d’information. Tandis que le premier essai développe un modèle macroéconomique structurel de type DSGE pour analyser l’effet de la transmission des choc en information incomplète sur la dynamique du taux de change entre deux économies, le deuxième et troisième essais utilisent les modèles factorielles dynamiques avec ciblage pour mettre en exergue la contribution de l’information contenu dans les données d’enquêtes de confiance (soit au niveau de l’économie nationale que internationale) sur la prévision conjoncturelle de l’activité économique réelle. « The Forward Premium Puzzle : a Learning-based Explanation » (Essai 1) est une contribution à la littérature sur la prévision du taux de change. Cet essai a comme point de départ le résultat théorique selon lequel lorsque les taux d’intérêt sont plus élevés localement qu’ils le sont à l’étranger, cela annonce une dépréciation future de la monnaie locale. Cependant, les résultats empiriques obtenus sont généralement en contradiction avec cette intuition et cette contradiction a été baptisée l’énigme de la parité des taux d’intérêt non-couverte ou encore «énigme de la prime des contrats à terme ». L’essai propose une explication de cette énigme basée sur le mécanisme d’apprentissage des agents économiques. Sous l’hypothèse que les chocs de politique monétaire et de technologie peuvent être soit de type persistant et soit de type transitoire, le problème d’information survient lorsque les agents économiques ne sont pas en mesure d’observer directement le type de choc et doivent plutôt utiliser un mécanisme de filtrage de l’information pour inférer la nature du choc. Nous simulons le modèle en présence de ces frictions informationnelles, et ensuite en les éliminant, et nous vérifions si les données artificielles générées par les simulations présentent les symptômes de l’énigme de la prime des contrats à terme. Notre explication à l’énigme est validée si et seulement si seules les données générées par le modèle avec les frictions informationnelles répliquent l’énigme. « Using Confidence Data to Forecast the Canadian Business Cycle » (Essai 2) s’appuie sur l’observation selon laquelle la confiance des agents économiques figure désormais parmi les principaux indicateurs de la dynamique conjoncturelle. Cet essai analyse la qualité et la quantité d’information contenu dans les données d’enquêtes mesurant la confiance des agents économiques. A cet effet, il évalue la contribution des données de confiance dans la prévision des points de retournement (« turning points ») dans l’évolution de l’économie canadienne. Un cadre d’analyse avec des modèles de type probit à facteurs est spécifié et appliqué à un indicateur de l’état du cycle économique canadien produit par l’OCDE. Les variables explicatives comprennent toutes les données canadiennes disponibles sur la confiance des agents (qui proviennent de quatre enquêtes différentes) ainsi que diverses données macroéconomiques et financières. Le modèle est estimé par le maximum de vraisemblance et les données de confiance sont introduites dans les différents modèles sous la forme de variables individuelles, de moyennes simples (des « indices de confiance ») et de « facteurs de confiance » extraits d’un ensemble de données plus grand dans lequel toutes les données de confiance disponibles ont été regroupées via la méthode des composantes principales, . Nos résultats indiquent que le plein potentiel des données sur la confiance pour la prévision des cycles économiques canadiens est obtenu lorsque toutes les données sont utilisées et que les modèles factoriels sont utilisés. « Forecasting with Many Predictors: How Useful are National and International Confidence Data? » (Essai 3) est basé sur le fait que dans un environnement où les sources de données sont multiples, l’information est susceptible de devenir redondante d’une variable à l’autre et qu’une sélection serrée devient nécessaire pour identifier les principaux déterminants de la prévision. Cet essai analyse les conditions selon lesquelles les données de confiance constituent un des déterminants majeurs de la prévision de l’activité économique dans un tel environnement. La modélisation factorielle dynamique ciblée est utilisé pour évaluer le pouvoir prédictif des données des enquêtes nationales et internationales sur la confiance dans la prévision de la croissance du PIB Canadien. Nous considérons les données d’enquêtes de confiance désagrégées dans un environnement riche en données (c’est-à-dire contenant plus d’un millier de séries macro-économiques et financières) et évaluons leur contenu informatif au-delà de celui contenu dans les variables macroéconomiques et financières. De bout en bout, nous étudions le pouvoir prédictif des données de confiance en produisant des prévisions du PIB avec des modèles à facteurs dynamiques où les facteurs sont dérivés avec et sans données de confiance. Les résultats montrent que la capacité de prévision est améliorée de façon robuste lorsqu’on prend en compte l’information contenue dans les données nationales sur la confiance. En revanche, les données internationales de confiance ne sont utiles que lorsqu’elles sont combinées dans le même ensemble avec celles issues des enquêtes nationales. En outre, les gains les plus pertinents dans l’amelioration des prévisions sont obtenus à court terme (jusqu’à trois trimestres en avant). / This thesis examines the effect of information on macroeconomic forecasting. Specifically, the emphasis is firstly on the impact of information frictions in open economy in forecasting the bilateral exchange rate and then on the role of information from confidence survey data in forecasting real economic activity. Based on the new open-economy macroeconomics paradigm (NOEM), the first chapter incorporates information frictions and nominal rigidities in a stochastic dynamic general equilibrium (DSGE) model in open economy. Then, it presents a comparative analysis of the results of the exchange rate forecast obtained using the model with and without these information frictions. While the first chapter develops a structural macroeconomic model of DSGE type to analyze the effect of shock transmission in incomplete information on exchange rate dynamics between two economies, the second and third chapters use static and dynamic factor models with targeting to highlight the contribution of information contained in confidence-based survey data (either at the national or international level) in forecasting real economic activity. The first chapter is entitled The Forward Premium Puzzle: a Learning-based Explanation and is a contribution to the exchange rate forecasting literature. When interest rates are higher in one’s home country than abroad, economic intuition suggests this signals the home currency will depreciate in the future. However, empirical evidence has been found to be at odds with this intuition: this is the "forward premium puzzle." I propose a learning-based explanation for this puzzle. To do so, I embed an information problem in a two-country open-economy model with nominal rigidities. The information friction arises because economic agents do not directly observe whether shocks are transitory or permanent and must infer their nature using a filtering mechanism each period. We simulate the model with and without this informational friction and test whether the generated artificial data exhibits the symptoms of the forward premium puzzle. Our leaning-based explanation is validated as only the data generated with the active informational friction replicates the puzzle. The second chapter uses dynamic factor models to highlight the contribution of the information contained in Canadian confidence survey data for forecasting the Canadian business cycle: Using Confidence Data to Forecast the Canadian Business Cycle is based on the fact that confidence (or sentiment) is one key indicators of economic momentum. The chapter assesses the contribution of confidence -or sentiment-data in predicting Canadian economic slowdowns. A probit framework is applied to an indicator on the status of the Canadian business cycle produced by the OECD. Explanatory variables include all available Canadian data on sentiment (which arise from four different surveys) as well as various macroeconomic and financial data. Sentiment data are introduced either as individual variables, as simple averages (such as confidence indices) and as confidence factors extracted, via principal components’ decomposition, from a larger dataset in which all available sentiment data have been collected. Our findings indicate that the full potential of sentiment data for forecasting future business cycles in Canada is attained when all data are used through the use of factor models. The third chapter uses dynamic factor models to highlight the contribution of the information contained in confidence survey data (either in Canadian or International surveys) for forecasting the Canadian economic activity. This chapter entitled Forecasting with Many Predictors: How Useful are National and International Confidence Data? is based on the fact that in a data-rich environment, information may become redundant so that a selection of forecasting determinants based on the quality of information is required. The chapter investigates whether in such an environment; confidence data can constitute a major determinant of economic activity forecasting. To do so, a targeted dynamic factor model is used to evaluate the performance of national and international confidence survey data in predicting Canadian GDP growth. We first examine the relationship between Canadian GDP and confidence and assess whether Canadian and international (US) improve forecasting accuracy after controlling for classical predictors. We next consider dis-aggregated confidence survey data in a data-rich environment (i.e. containing more than a thousand macroeconomic and financial series) and assess their information content in excess of that contained in macroeconomic and financial variables. Throughout, we investigate the predictive power of confidence data by producing GDP forecasts with dynamic factor models where the factors are derived with and without confidence data. We find that forecasting ability is consistently improved by considering information from national confidence data; by contrast, the international counterpart are helpful only when combined in the same set with national confidence. Moreover most relevant gains in the forecast performance come in short-horizon (up to three-quarters-ahead).
98

Analyse de l'écoulement dans la roue d'une turbine hydraulique axiale de type hélice : prise en considération du jeu de bout d'aube

Roman Ortiz, Edwin 17 April 2018 (has links)
Ce travail de mémoire présente la modélisation numérique et l'analyse de l'écoulement dans un seul passage de la roue d'une turbine hydraulique axiale de type hélice à l'aide du logiciel ANS YS CFX 11.0. Une approche Reynolds Averaged Navier-Stokes (RANS), basé sur le modèle Shear Stress Transport (SST), a été utilisée pour modéliser numériquement l'écoulement. Les simulations prennent en considération le jeu à l'extrémité des aubes. Souvent, le jeu est omis dans les simulations numériques dans les roues de turbines hydrauliques. Cependant, il donne lieu à l'écoulement de fuite interne et autres phénomènes turbulents, tel que le tourbillon de bout d'aube. La comparaison des simulations avec les mesures expérimentales réalisées dans la roue du modèle réduit de la turbine hélice démontrent que l'inclusion du jeu dans les simulations est essentielle pour mieux représenter les caractéristiques réelles de l'écoulement dans la roue de la turbine hélice et ainsi améliorer la prédiction de la performance de la roue d'une turbine hydraulique axiale.
99

Estimation des effets de pairs dans le milieu scolaire québécois

Turgeon, Félix 13 April 2018 (has links)
Le comportement des individus est influencé par leur environnement, notamment le comportement de leurs pairs. Cette influence est particulièrement forte pour les enfants et les adolescents dans le milieu scolaire qui interagissent régulièrement avec le même petit ensemble de personnes. Dans ce mémoire, les effets de pairs sur la performance scolaire en français ont été estimés à l'aide d'une banque de données du ministère de l'Éducation, du Loisir et du Sport du Québec. Cette banque de données permet l'observation des résultats à l'examen commun de français des étudiants québécois de secondaire 5. Tout d'abord, un modèle naïf (linéaire simple) est estimé par MCO. Ce type de modèle ne permet pas la prise en compte de la simultanéité dans les décisions ainsi que les effets corrélés qui ne sont pas des effets sociaux. Ensuite, un modèle linéaire en moyenne avec effet fixe de groupe est estimé par la méthode de variables instrumentales généralisée. Ce modèle est d'abord estimé en ignorant l'un des deux effets sociaux, soit l'effet endogène (impact de la performance scolaire des pairs) ou les effets exogènes (impact des caractéristiques des pairs). La méthode d'estimation par variables instrumentales généralisée permet l'obtention d'estimateur asymptotiquement efficace. Grâce à la non-linéarité introduite par la variation dans les tailles de groupe, l'estimation simultanée de l'effet endogène et des effets exogènes est possible, même en prenant en compte les effets corrélés. Les résultats de l'effet endogène se sont avérés quelque peu surprenants. En effet, les estimations ont révélé un effet endogène négatif dans les spécifications pour lesquelles il est significatif. Un tel résultat pourrait s'expliquer par un effet de découragement ou par le fait que le professeur porte plus d'attention aux meilleurs élèves qu'aux élèves en difficultés.
100

Exploration of novel fuels for gas turbine (ENV-406) : modeling of T60 test rig with diesel & biodiesel fuels

Youssef, Moafaq Mohamed 20 April 2018 (has links)
Dans cette thèse, un modèle numérique a été proposé pour simuler la combustion liquide des carburants conventionnels et non-conventionnels, en particulier le mélange de biodiesel B20. La matrice de test numérique constitue de quatre cas d’écoulement réactifs c.à.d. avec combustion et d’un cinquième avec injection liquide sans combustion (écoulement non-réactif). Les modèles sont calculés à l’aide du logiciel FLUENT™ v.14 en 3D et a l’état stationnaire. Les flammes de diffusion turbulentes sont modélisées en utilisant l’approche de flammelette laminaire stable, avec une fonction de densité de probabilité jointe (PDF). La Validation est effectuée en comparant les mesures expérimentales disponibles avec les résultats obtenus de la CFD. L’aérodynamique de la chambre de combustion, ainsi que les températures de parois extérieures sont captures avec un degré de précision satisfaisant. La validation des principaux produits de combustion, tels que : CO2, H2O et O2, montre des résultats satisfaisants pour tous les cas d'écoulement réactifs, mais certaines incohérences ont été relevées pour les émissions de CO. On pense que le banc d'essai (la géométrie de la chambre de combustion et son état de fonctionnement) n'est pas suffisamment adéquat pour la combustion de combustibles liquides. D’autre part, et d’un point de vue numérique, l’approche de flammelette laminaire stable a été trouvé raisonnablement hors mesure de saisir les effets profonds du non-équilibre chimique qui sont souvent associés au processus de lente formation d’un polluant, comme le CO. / In this thesis, a CFD model was proposed to simulate the liquid combustion of conventional and non-conventional biodiesel fuels, in particularly the B20 biodiesel blend. The numerical test matrix consists of four reacting flow cases, and one non-reacting liquid fuel injection case. The models are computed using FLUENT™ v.14 in a 3D steady-state fashion. The turbulent non-premixed diffusion flames are modeled using the steady laminar flamelet approach; with a joint presumed Probability density function (PDF) distribution. Validation is achieved by comparing available experimental measurements with the obtained CFD results. Combustor aerodynamics and the outer wall temperatures are captured with a satisfactory degree of accuracy. Validation of the main combustion products, such as: CO2, H2O, and O2, shows satisfactory results for all the reacting flow cases; however, some inconsistencies were found for the CO emissions. It is believed that the test rig (combustor geometry and operating condition) is not sufficiently adequate for burning liquid fuels. On the other hand, from a numerical combustion point of view, the steady laminar flamelet approach was found not reasonably able to capture the deep non-equilibrium effects associated with the slow formation process of a pollutant, such as CO.

Page generated in 0.0969 seconds