• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 3023
  • 1273
  • 267
  • 3
  • 2
  • 2
  • 1
  • 1
  • Tagged with
  • 4495
  • 1283
  • 888
  • 763
  • 731
  • 541
  • 497
  • 479
  • 475
  • 456
  • 343
  • 342
  • 315
  • 307
  • 306
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
81

Evaluation of hydrological ensemble prediction systems for operational forecasting

Velázquez Zapata, Juan Alberto 17 April 2018 (has links)
La prévision hydrologique consiste à évaluer quelle sera l'évolution du débit au cours des prochains pas de temps. En utilisant les systèmes actuels de prévisions hydrologiques déterministes, il est impossible d'apprécier simplement l'incertitude associée à ce type de prévision, ce que peut nuire à la prise de décisions. La prévision hydrologique d'ensemble (PHE) cherche à étayer cette incertitude en proposant, à chaque pas de temps, une distribution de probabilité, la prévision probabiliste, en place et lieu d'une estimation unique du débit, la prévision déterministe. La PHE offre de nombreux bénéfices : elle informe l'utilisateur de l'incertitude; elle permet aux autorités qui prennent des décisions de déterminer des critères d'alerte et de mettre en place des scénarios d'urgence; elle fournit les informations nécessaires à la prise de décisions tenant compte du risque. L'objectif principal de cette thèse est l'évaluation de prévisions hydrologiques d'ensemble, en mettant l'accent sur la performance et la fiabilité de celles-ci. Deux techniques pour construire des ensembles sont explorées: a) une première reposant sur des prévisions météorologiques d'ensemble (PME) et b) une seconde exploitant simultanément un ensemble de modèles hydrologiques (multimodèle). En termes généraux, les objectifs de la thèse ont été établis afin d'évaluer : a) les incertitudes associées à la structure du modèle : une étude qui repose sur des simulations journalières issues de dix-sept modèles hydrologiques globaux, pour plus de mille bassins versants français; b) les incertitudes associées à la prévision météorologique : une étude qui exploite la PME du Service Météorologique du Canada et un modèle hydrologique opérationnel semi-distribué, pour un horizon de 3 jours sur douze bassins versants québécois; c) les incertitudes associées à la fois à la structure du modèle et à la prévision météorologique : une étude qui repose à la fois sur la PME issue du ECMWF (European Centre for Medium-Range Weather Forecasts) et seize modèles hydrologiques globaux, pour un horizon de 9 jours sur 29 bassins versants français. Les résultats mets en évidence les avantages des systèmes probabilistes par rapport aux les déterministes. Les prévisions probabilistes sont toutefois souvent affectées par une sous dispersion de leur distribution prédictive. Elles exigent alors un post traitement avant d'être intégrées dans un processus de prise de décision. Plus intéressant encore, les résultats ont également montré le grand potentiel de combiner plusieurs sources d'incertitude, notamment celle associée à la prévision météorologique et celle associée à la structure des modèles hydrologiques. Il nous semble donc prioritaire de continuer à explorer davantage cette approche combinatoire.
Read more
82

Rôle de l'activité sensorielle dans la spécification du type cellulaire des neurones nouvellement générées dans le bulbe olfactif chez l'adulte

Bastien-Dionne, Pierre-Olivier 13 April 2018 (has links)
Le système olfactif conserve une remarquable capacité à renouveler certaines de ses populations cellulaires tout au long de la vie animale. Les progeniteurs des neurones sensoriels de l'épithélium olfactif sont produits localement, tandis que les précurseurs neuronaux qui donnent naissance aux intemeurones du bulbe olfactif (BO) sont générés dans la zone sous-ventriculaire et doivent migrer une longue distance avant d'atteindre le BO. Dans le BO adulte, ces précurseurs neuronaux se différencient en types neuronaux distincts, incluant les cellules GABAergiques situées dans la couche granulaire et divers groupes de neurones dans la couche glomérulaire, incluant des intemeurones GABAergiques et dopaminergiques, en plus d'autres sous types neuronaux exprimant la calrétinine et la calbindine. Bien que le rôle de l'activité sensorielle dans l'intégration et/ou la survie des cellules nouvellement générées dans le système olfactif soit bien établi, très peu est connu à propos de comment l'activité induite par des odeurs affecte la spécification du phénotype des cellules nouvellement générées, ou le maintient de celui-ci dans les populations neuronales générées chez l'adulte déjà existantes. Pour investiguer la possibilité que l'activité sensorielle puisse jouer un rôle dans ces processus, nous avons effectué une occlusion nasale unilatérale sur des souris adultes avant et après l'intégration de cellules nouvellement générées dans le réseau fonctionnel. Nous démontrons que la privation sensorielle diminue non seulement le nombre de cellules nouvellement générées dans le BO, mais réduit aussi la densité des cellules granulaires et périglomérulaires générées avant l'occlusion nasale. Nous montrons aussi que l'activité sensorielle joue un rôle important dans l' acquisition et le maintient du phénotype dopaminergique, mais pas pour les phénotypes GABAergique, calrétinine+ ou calbindine+. Nos données révèlent que l'activité induite par les odeurs est importante pour la survie des intemeurones bulbaires nouveau-nés ou déjà existants générés à l'âge adulte et suggèrent que ces populations chémospécifiques sont différemment affectées par la privation sensorielle.
Read more
83

Caractérisation de la tyrosine kinase hck et de son isoforme tronqué, hck-tr, dans les gamètes mâles

Bordeleau, Louis-Jean 13 April 2018 (has links)
Le spermatozoïde doit subir une série de modifications membranaires et biochimiques, nommée capacitation, lui permettant ainsi d'acquérir son pouvoir fécondant. La phosphorylation en tyrosine de certaines protéines spermatiques, observée durant la capacitation, fait partie des modifications que doit subir le spermatozoïde pour être en mesure de féconder l'ovule. Au cours des dernières années, plusieurs tyrosine kinases, les enzymes responsables de cette phosphorylation, ont été identifiées dans les spermatozoïdes de différents mammifères. Des études réalisées par l'utilisation d'inhibiteurs de ces enzymes ont démontré que les membres de la famille des src pouvaient être, en partie, responsables de l'élévation du contenu en phosphotyrosine lors de la capacitation. Il a donc été entrepris de détecter la présence des différents membres de cette famille dans les spermatozoïdes. Au cours de l'étude pour l'identification des tyrosine kinases de la famille des src dans le spermatozoïde, des isofolmes codant pour yes, lyn, lck et hck ont été identifiés. De plus, un isofonne tronqué de hck, nomlné hck-tr, a été identifié dans les cellules germinales haploïdes de taureau. Le but de ce projet de doctorat était donc de déterminer si la protéine hck et/ou son isoforme tronqué étaient impliqués dans la capacitation, réaction de l'acrosome et l'hyperactivité; processus menant à la fécondation. La première partie du projet avait pour objectif de confirmer la présence des ARNm encodant les isoformes de hck dans les cellules germinales et déterminer si la protéine correspondante était exprimée au niveau des spermatozoïdes matures. Les résultats obtenus ont permis de confirmer la présence des messagers identifiés et de montrer la présence, par l'utilisation d'anticorps spécifiques, des deux protéines dans les différentes cellules spermatogéniques. La caractérisation de ces isoformes a par la suite été entreprise permettant ainsi la localisation de hck -tr dans le testicule et le spermatozoïde bovin. La présence d'une forme active de la kinase pleine longueur a, quant à elle, été démontrée dans le testicule ainsi que dans les spermatozoïdes épididymaires et éjaculés. La dernière partie du projet consistait en la détermination des rôles potentiels que pouvaient avoir les isoformes de hck dans les événements menant à la fécondation. Hck-tr pourrait ainsi agir comme un inhibiteur puisque sa présence a provoqué une importante diminution de l'activité enzymatique de hck. Les résultats obtenus ont aussi permis d'identifier plusieurs protéines qui interagissaient spécifiquement avec hck, hck-tr ou les deux isoformes. Bien que certaines de ces protéines soient associées à des structures présentes dans la tête du spermatozoïde, la majorité des candidats identifiés sont retrouvés au niveau du flagelle. Cette étude permettra de mieux comprendre les implications de cette tyrosine kinase dans la phosphorylation en tyrosine observée durant la capacitation, la réaction de l'acrosome et l'hyperactivation du spermatozoïde
Read more
84

Modélisation de l'intégration des entrées synaptiques excitatrices chez les cellules thalamocorticales

Lajeunesse, Francis 18 April 2018 (has links)
Tableau d'honneur de la Faculté des études supérieures et postdoctorales, 2011-2012 / Les cellules thalamocorticales (TC) du noyau ventro-postéro-latéral (VPL) du thalamus relayent l'information du système somatosensoriel (synapses excitatrices lemniscales aux dendrites proximaux) à la région correspondante du cortex, mais reçoivent également en rétro-propagation des projections du cortex (synapses excitatrices corticothalamiques aux dendrites distaux). Afin d'étudier l'intégration synaptique aux différentes parties de la cellule TC, nous avons bâti un modèle multi-compartimental à partir de reconstructions tridimensionnelles de cellules du noyau VPL, ce qui consiste en une discrétisation spatiale des dendrites en une multitude de segments associés à des circuits RC interconnectés. Nous avons pu dégager quantitativement l'impact de la géométrie cellulaire (taille d'arborisation et diamètre dendritique) sur l'amplitude et sur la durée des réponses au soma. Nous avons par la suite comparé l'intégration synaptique pour différentes distributions des entrées aux dendrites proximaux et distaux et sous différentes conditions de courants intrinsèques et de potentiel membranaire. Dans tous les cas, la sommation des entrées proximales induisait une réponse indépendante de la distribution, alors que la réponse aux entrées distales saturait lorsqu'elles étaient localisées aux mêmes branches. Nos résultats ont permis d'apporter une explication physiologique au patron d'organisation synaptique chez les cellules TC. / Thalamocortical (TC) cells from the ventroposterolateral (VPL) nucleus of the thalamus relay the somatosensory inputs (excitatory lemniscal synapses at proximal dendrites) to the corresponding cortical area, but also receive feedback excitatory inputs from the cortex (corticothalamic synapses at distal dendrites). The goal of this study was to compare the synaptic integration of inputs coming to proximal vs. distal dendrites. A multicompartmental model was drawn from fully reconstructed cells of the VPL nucleus. Dendrites were spatially discretized in multiple segments associated to interconnected RC circuits. We were able to characterize the impact of neuronal size and dendritic diameter on the amplitude and on the time course of the somatic response. We also compared the synaptic integration for different distributions of proximal or distal inputs under different conditions of membrane potential and active properties. In all cases, the summation of proximal inputs was independent of their distribution, while the response induced by distal inputs saturated when those inputs were located at the same branches. The results obtained in this study suggest a physiological explanation of the synaptic pattern at TC cells.
Read more
85

Three essays in international finance and macroeconomics

Nono, Simplice Aimé 12 December 2024 (has links)
Cette thèse examine l’effet de l’information sur la prévision macroéconomique. De façon spécifique, l’emphase est d’abord mise sur l’impact des frictions d’information en économie ouverte sur la prévision du taux de change bilatéral et ensuite sur le rôle de l’information issue des données d’enquêtes de conjoncture dans la prévision de l’activité économique réelle. Issu du paradigme de la nouvelle macroéconomie ouverte (NOEM), le premier essai intègre des frictions d’informations et des rigidités nominales dans un modèle d’équilibre général dynamique stochastique (DSGE) en économie ouverte. Il présente ensuite une analyse comparative des résultats de la prévision du taux de change obtenu en utilisant le modèle avec et sans ces frictions d’information. Tandis que le premier essai développe un modèle macroéconomique structurel de type DSGE pour analyser l’effet de la transmission des choc en information incomplète sur la dynamique du taux de change entre deux économies, le deuxième et troisième essais utilisent les modèles factorielles dynamiques avec ciblage pour mettre en exergue la contribution de l’information contenu dans les données d’enquêtes de confiance (soit au niveau de l’économie nationale que internationale) sur la prévision conjoncturelle de l’activité économique réelle. « The Forward Premium Puzzle : a Learning-based Explanation » (Essai 1) est une contribution à la littérature sur la prévision du taux de change. Cet essai a comme point de départ le résultat théorique selon lequel lorsque les taux d’intérêt sont plus élevés localement qu’ils le sont à l’étranger, cela annonce une dépréciation future de la monnaie locale. Cependant, les résultats empiriques obtenus sont généralement en contradiction avec cette intuition et cette contradiction a été baptisée l’énigme de la parité des taux d’intérêt non-couverte ou encore «énigme de la prime des contrats à terme ». L’essai propose une explication de cette énigme basée sur le mécanisme d’apprentissage des agents économiques. Sous l’hypothèse que les chocs de politique monétaire et de technologie peuvent être soit de type persistant et soit de type transitoire, le problème d’information survient lorsque les agents économiques ne sont pas en mesure d’observer directement le type de choc et doivent plutôt utiliser un mécanisme de filtrage de l’information pour inférer la nature du choc. Nous simulons le modèle en présence de ces frictions informationnelles, et ensuite en les éliminant, et nous vérifions si les données artificielles générées par les simulations présentent les symptômes de l’énigme de la prime des contrats à terme. Notre explication à l’énigme est validée si et seulement si seules les données générées par le modèle avec les frictions informationnelles répliquent l’énigme. « Using Confidence Data to Forecast the Canadian Business Cycle » (Essai 2) s’appuie sur l’observation selon laquelle la confiance des agents économiques figure désormais parmi les principaux indicateurs de la dynamique conjoncturelle. Cet essai analyse la qualité et la quantité d’information contenu dans les données d’enquêtes mesurant la confiance des agents économiques. A cet effet, il évalue la contribution des données de confiance dans la prévision des points de retournement (« turning points ») dans l’évolution de l’économie canadienne. Un cadre d’analyse avec des modèles de type probit à facteurs est spécifié et appliqué à un indicateur de l’état du cycle économique canadien produit par l’OCDE. Les variables explicatives comprennent toutes les données canadiennes disponibles sur la confiance des agents (qui proviennent de quatre enquêtes différentes) ainsi que diverses données macroéconomiques et financières. Le modèle est estimé par le maximum de vraisemblance et les données de confiance sont introduites dans les différents modèles sous la forme de variables individuelles, de moyennes simples (des « indices de confiance ») et de « facteurs de confiance » extraits d’un ensemble de données plus grand dans lequel toutes les données de confiance disponibles ont été regroupées via la méthode des composantes principales, . Nos résultats indiquent que le plein potentiel des données sur la confiance pour la prévision des cycles économiques canadiens est obtenu lorsque toutes les données sont utilisées et que les modèles factoriels sont utilisés. « Forecasting with Many Predictors: How Useful are National and International Confidence Data? » (Essai 3) est basé sur le fait que dans un environnement où les sources de données sont multiples, l’information est susceptible de devenir redondante d’une variable à l’autre et qu’une sélection serrée devient nécessaire pour identifier les principaux déterminants de la prévision. Cet essai analyse les conditions selon lesquelles les données de confiance constituent un des déterminants majeurs de la prévision de l’activité économique dans un tel environnement. La modélisation factorielle dynamique ciblée est utilisé pour évaluer le pouvoir prédictif des données des enquêtes nationales et internationales sur la confiance dans la prévision de la croissance du PIB Canadien. Nous considérons les données d’enquêtes de confiance désagrégées dans un environnement riche en données (c’est-à-dire contenant plus d’un millier de séries macro-économiques et financières) et évaluons leur contenu informatif au-delà de celui contenu dans les variables macroéconomiques et financières. De bout en bout, nous étudions le pouvoir prédictif des données de confiance en produisant des prévisions du PIB avec des modèles à facteurs dynamiques où les facteurs sont dérivés avec et sans données de confiance. Les résultats montrent que la capacité de prévision est améliorée de façon robuste lorsqu’on prend en compte l’information contenue dans les données nationales sur la confiance. En revanche, les données internationales de confiance ne sont utiles que lorsqu’elles sont combinées dans le même ensemble avec celles issues des enquêtes nationales. En outre, les gains les plus pertinents dans l’amelioration des prévisions sont obtenus à court terme (jusqu’à trois trimestres en avant). / This thesis examines the effect of information on macroeconomic forecasting. Specifically, the emphasis is firstly on the impact of information frictions in open economy in forecasting the bilateral exchange rate and then on the role of information from confidence survey data in forecasting real economic activity. Based on the new open-economy macroeconomics paradigm (NOEM), the first chapter incorporates information frictions and nominal rigidities in a stochastic dynamic general equilibrium (DSGE) model in open economy. Then, it presents a comparative analysis of the results of the exchange rate forecast obtained using the model with and without these information frictions. While the first chapter develops a structural macroeconomic model of DSGE type to analyze the effect of shock transmission in incomplete information on exchange rate dynamics between two economies, the second and third chapters use static and dynamic factor models with targeting to highlight the contribution of information contained in confidence-based survey data (either at the national or international level) in forecasting real economic activity. The first chapter is entitled The Forward Premium Puzzle: a Learning-based Explanation and is a contribution to the exchange rate forecasting literature. When interest rates are higher in one’s home country than abroad, economic intuition suggests this signals the home currency will depreciate in the future. However, empirical evidence has been found to be at odds with this intuition: this is the "forward premium puzzle." I propose a learning-based explanation for this puzzle. To do so, I embed an information problem in a two-country open-economy model with nominal rigidities. The information friction arises because economic agents do not directly observe whether shocks are transitory or permanent and must infer their nature using a filtering mechanism each period. We simulate the model with and without this informational friction and test whether the generated artificial data exhibits the symptoms of the forward premium puzzle. Our leaning-based explanation is validated as only the data generated with the active informational friction replicates the puzzle. The second chapter uses dynamic factor models to highlight the contribution of the information contained in Canadian confidence survey data for forecasting the Canadian business cycle: Using Confidence Data to Forecast the Canadian Business Cycle is based on the fact that confidence (or sentiment) is one key indicators of economic momentum. The chapter assesses the contribution of confidence -or sentiment-data in predicting Canadian economic slowdowns. A probit framework is applied to an indicator on the status of the Canadian business cycle produced by the OECD. Explanatory variables include all available Canadian data on sentiment (which arise from four different surveys) as well as various macroeconomic and financial data. Sentiment data are introduced either as individual variables, as simple averages (such as confidence indices) and as confidence factors extracted, via principal components’ decomposition, from a larger dataset in which all available sentiment data have been collected. Our findings indicate that the full potential of sentiment data for forecasting future business cycles in Canada is attained when all data are used through the use of factor models. The third chapter uses dynamic factor models to highlight the contribution of the information contained in confidence survey data (either in Canadian or International surveys) for forecasting the Canadian economic activity. This chapter entitled Forecasting with Many Predictors: How Useful are National and International Confidence Data? is based on the fact that in a data-rich environment, information may become redundant so that a selection of forecasting determinants based on the quality of information is required. The chapter investigates whether in such an environment; confidence data can constitute a major determinant of economic activity forecasting. To do so, a targeted dynamic factor model is used to evaluate the performance of national and international confidence survey data in predicting Canadian GDP growth. We first examine the relationship between Canadian GDP and confidence and assess whether Canadian and international (US) improve forecasting accuracy after controlling for classical predictors. We next consider dis-aggregated confidence survey data in a data-rich environment (i.e. containing more than a thousand macroeconomic and financial series) and assess their information content in excess of that contained in macroeconomic and financial variables. Throughout, we investigate the predictive power of confidence data by producing GDP forecasts with dynamic factor models where the factors are derived with and without confidence data. We find that forecasting ability is consistently improved by considering information from national confidence data; by contrast, the international counterpart are helpful only when combined in the same set with national confidence. Moreover most relevant gains in the forecast performance come in short-horizon (up to three-quarters-ahead).
Read more
86

Enrichissement chimique du milieu intergalactique par des vents galactiques anisotropes

Pinsonneault, Steve 18 April 2018 (has links)
Nous avons utilisé un algorithme P³M afin de simuler la formation de galaxies dans une boîte cosmologique de (15 Mpc)³ dans un univers ΛCDM d'un décalage spectral de 24 à 2. Nous avons ensuite simulé des vents galactiques anisotropes et suivi l'effet de rétroaction de ces vents sur l'évolution des galaxies naines simulées. Les vents sont modélisés comme étant bipolaires et les angles d'ouverture étudiés sont de α=60°, 90°, 120°, 150° et 180°. Ces vents modélisés ont tendance à se propager dans une direction perpendiculaire à la structure à grande échelle (filament, crêpe) hébergeant la galaxie. Nous incluons l'effet de la suppression de galaxies par la photoionisation à partir d'un décalage spectral z=6 dans cinq de nos simulations et l'ignorons dans les cinq autres afin de comparer cette dernière série de résultats avec des travaux antérieurs. Nous incluons aussi les interactions entre les halos (accrétion, fusion et fission) pour modéliser l'apparition de sursauts d'étoiles produisant des supernovae. Les vents anisotropes sont les plus susceptibles d'enrichir les régions de faibles densités. De plus, ils ont moins de chances de se superposer, ce qui augmente la fraction de milieu intergalactique enrichie en métaux. L'anisotropie grandissante des vents diminue aussi la probabilité qu'un halo soit frappé et dépossédé de son gaz, empêchant ainsi la formation d'une galaxie. Lorsque l'on diminue l'angle d'ouverture des vents de α=180° (un vent isotrope) à un angle α=60°, le nombre de galaxies créées double. Cela a pour effet de produire le double de vents. Ces vents étant plus anisotropes, ils se superposent moins, ce qui a pour résultat que la fraction de volume enrichie passe de 8%, dans le cas de vents isotropes, à 28% pour des vents ayant un angle d'ouverture de 60°. L'anisotropie des vents augmente l'enrichissement des régions de toutes densités, ce qui est dû en partie au fait que les vents de hautes anisotropies sont plus nombreux. Lorsque nous ne tenons pas compte de cet effet, nous remarquons que l'anisotropie des vents crée une augmentation de l'enrichissement pour des densités allant jusqu'à 10p̄, où p̄ est la densité moyenne. Nous attribuons cet effet à l'évolution dynamique de nos simulations. Le gaz situé dans les régions de faible densité est fortement enrichi par les vents anisotropes, mais une partie de ce gaz est ensuite accrétée par les structures à grandes échelles. Les régions de hautes densités sont plus efficacement enrichies que les régions de faibles densités (~80% comparé à ~20%), mais celles-ci sont privilégiées (un maximum d'enrichissement par volume à 0.3p̄). L'effet de photoionisation diminue grandement le nombre de galaxies de faibles masses formées à z<3, ce qui produit une baisse de la fraction de volume enrichie après z=3 puisque l'effet d'accrétion l'emporte sur le nombre de vents créés, particulièrement dans les régions de faibles densités.
Read more
87

Modélisation multi-factorielle de pathologies cérébrales dans le contexte de la maladie d'Alzheimer

Chamberland, Eléonore 25 March 2024 (has links)
Titre de l'écran-titre (visionné le 14 août 2023) / La maladie d'Alzheimer (MA) est la cause la plus commune de démence chez les personnes de 65 ans et plus. Qu'est-ce qui déclenche réellement cette maladie ? La réponse est probablement une interaction dynamique de diverses voies, y compris l'amyloïde-bêta, les protéines tau hyperphosphorylées et les cytokines inflammatoires, modulées par des facteurs de risque tels que la génétique et le sexe. Cependant, tester une telle hypothèse multifactorielle chez l'humain est logistiquement presque impossible. Les modèles mathématiques pourraient résoudre ce problème en offrant un moyen de démêler les relations causales. Dans le cadre de ce mémoire, nous avons construit un modèle mathématique décrivant l'évolution d'un cerveau normal vers un état pathologique. Il est composé de dix-neuf équations différentielles ordinaires utilisant des paramètres issus de la littérature. Nos variables incluent l'amyloïde-bêta, les protéines tau, les neurones, les astrocytes activés, les microglies et macrophages, et certaines cytokines. Nous obtenons des résultats pour ces variables pour le vieillissement entre 30 et 80 ans d'âge. En raison de son importance dans la MA, nous avons séparé l'accumulation d'amyloïde-bêta en plusieurs composantes, soit les monomères intracellulaires et extracellulaires, les oligomères et les plaques. L'effet du sexe et la présence de l'allèle APOE4 ont été pris en compte via des paramètres sélectionnés. Le modèle est également sensible à l'insuline, étant donné que le diabète est un facteur de risque bien connu de la MA. Notre modèle relie avec succès la plupart des variables par rapport à l'âge. Nous présentons aussi deux variations du modèle, soit sans la variation de la concentration d'insuline, ou avec une diminution du taux d'activation des microglies. Les résultats obtenus sont cohérents avec les observations expérimentales. Malgré cela, notre modèle est encore sujet à plusieurs améliorations et une validation avec des données expérimentales est à faire. / Alzheimer's disease (AD) is the most common cause of dementia in people aged 65 and over. What actually triggers this disease? The solution is likely a dynamic interplay of various pathways, including amyloid-beta, hyperphosphorylated tau proteins, and inflammatory cytokines, modulated by risk factors such as genetics and gender. However, testing such a multifactorial hypothesis is logistically almost impossible to achieve in humans in practice. Mathematical models could solve this problem by offering a way to untangle causal relationships. As part of this thesis, we have built a mathematical model presenting the evolution of a normal brain towards a pathological state. It is composed of nineteen ordinary differential equations using parameters taken from the literature. Our variables include amyloid-beta, tau proteins, neurons, activated astrocytes, microglia and macrophages, and some cytokines. We obtain results for these variables for aging between 30 and 80 years of age. Because of its importance in AD, we have separated amyloid-beta accumulation into several components, namely intracellular and extracellular monomers, oligomers and plaques. The effect of sex and the presence of the APOE4 allele were taken into account via selected parameters. The model is also insulin sensitive, as diabetes is a well-known risk factor for AD. Our model successfully links most of the variables with age. We also present two variations of the model, either without the variation in insulin concentration, or with a decrease in the rate of activation of microglia. The results obtained are consistent with the experimental observations. Despite this, our model is still subject to several improvements and a validation with experimental data is to be done.
Read more
88

Modèle de vents galactiques destiné aux simulations cosmologiques à grande échelle

Côté, Benoit 17 April 2018 (has links)
Les vents galactiques sont des éléments importants à considérer dans les simulations numériques à grande échelle car ils ont des impacts sur la formation des galaxies environnantes. Puisque les galaxies sont mal résolues dans de telles simulations, les vents galactiques sont habituellement générés par des méthodes semi-analytiques. Dans le cadre de ce projet, un modèle galactique a été développé afin d'améliorer le modèle semi-analytique de Pieri et al. (2007). Ce nouveau modèle permet de suivre de manière consistante l'évolution de l'enrichissement des galaxies en tenant compte des vents stellaires, des supernovae et de différents scénarios de formation stellaire. Les vents galactiques sont générés par l'énergie thermique provenant des supernovae et des vents stellaires à l'intérieur des galaxies. Avec ce formalisme, seules les galaxies ayant une masse inférieure ou égale à 10¹⁰ MQ risquent de contribuer à l'enrichissement du milieu intergalactique. La distribution des vents galactiques dans ce milieu est calculée en respectant l'ordre chronologique des éjectas. De plus, la composition de ce vent peut désormais être décomposée en 31 éléments chimiques. Pour la même quantité d'étoiles formées durant l'évolution galactique, un taux de formation stellaire de longue durée produit un plus long vent galactique qu'un taux de formation stellaire de courte durée. Cependant, ce vent est alors moins dense et moins concentré en métaux. En augmentant l'efficacité de formation stellaire, la portée et la métallicité du vent galactique augmentent également. Par contre, dans certains cas, une trop grande quantité d'étoiles peut complètement balayer le milieu interstellaire de son gaz, ce qui altère l'évolution du vent galactique. Pour respecter la quantité de métaux observée dans le milieu intergalactique, les vents galactiques doivent provenir des galaxies ayant possédé une métallicité initiale différente de zéro au moment de leur formation. Dans ce cas et lors d'une collision galactique, les vents stellaires peuvent contribuer de manière significative au bilan énergétique et à la quantité de carbone et d'azote éjectée dans le milieu intergalactique.
Read more
89

Implication des acides gras oméga-3 à longue chaîne dans la régulation de la sensibilité musculaire à l'insuline des métabolismes du glucose et des acides aminés chez les bouvillons en croissance

Gingras, Andrée-Anne 13 April 2018 (has links)
Le déclin développemental de la sensibilité musculaire à 1'insuline est associé à une réduction de l'anabolisme protéique durant la période néonatale. Certaines études montrent que la sensibilité musculaire à l'insuline du métabolisme du glucose est améliorée par l'incorporation d'acides gras n-3 à longue chaîne (20 carbones et plus) dans les membranes musculaires. Le présent mémoire montre qu'un enrichissement des phospholipides membranaires des muscles de 31 % à 186 % en acides gras n-3 à longue chaîne chez les bouvillons en croissance améliore la sensibilité musculaire à l'insuline du métabolisme des acides aminés (+108 %) et du glucose (+37 %). Ceci est accompagné par une activation de la voie de signalisation insulinique initiant la synthèse protéique musculaire concomitante à une réduction des voies oxydatives corporelles (-82 %).
90

Applications des méthodes multigrilles à l'assimilation de données en géophysique

Neveu, Emilie 31 March 2011 (has links) (PDF)
Depuis ces trente dernières années, les systèmes d'observation de la Terre et les modèles numériques se sont perfectionnés et complexifiés pour nous fournir toujours plus de données, réelles et numériques. Ces données, de nature très diverse, forment maintenant un ensemble conséquent d'informations précises mais hétérogènes sur les structures et la dynamique des fluides géophysiques. Dans les années 1980, des méthodes d'optimisation, capables de combiner les informations entre elles, ont permis d'estimer les paramètres des modèles numériques et d'obtenir une meilleure prévision des courants marins et atmosphériques. Ces méthodes puissantes, appelées assimilation variationnelle de données, peinent à tirer profit de la toujours plus grande complexité des informations de par le manque de puissance de calcul disponible. L'approche, que nous développons, s'intéresse à l'utilisation des méthodes multigrilles, jusque là réservées à la résolution de systèmes d'équations différentielles, pour résoudre l'assimilation haute résolution de données. Les méthodes multigrilles sont des méthodes de résolution itératives, améliorées par des corrections calculées sur des grilles de plus basses résolutions. Nous commençons par étudier dans le cas d'un modèle linéaire la robustesse de l'approche multigrille et en particulier l'effet de la correction par grille grossière. Nous dérivons ensuite les algorithmes multigrilles dans le cadre non linéaire. Les deux types d'algorithmes étudiés reposent d'une part sur la méthode de Gauss Newton multigrille et d'autre part sur une méthode sans linéarisation globale : le Full Approximation Scheme (FAS). Ceux-ci sont appliqués au problème de l'assimilation variationnelle de données dans le cadre d'une équation de Burgers 1D puis d'un modèle Shallow-water 2D. Leur comportement est analysé et comparé aux méthodes plus traditionnelles de type incrémentale ou multi-incrémentale.
Read more

Page generated in 0.027 seconds