Spelling suggestions: "subject:"modèles mathématiques"" "subject:"modèles athématiques""
91 |
Application of stochastic differential equations and Monte Carlo approaches to the modeling of the neurotransmitters diffusion in the synaptic cleftLi, Xiaoting 26 March 2024 (has links)
Titre de l'écran-titre (visionné le 10 octobre 2023) / Cette thèse porte sur l'utilisation de différents outils mathématiques pour décrire la transmission synaptique. Le but de mon travail est double. Sur le plan biologique, j'ai effectué des simulations pour aider à mieux comprendre la transmission synaptique, en particulier le rôle des nanocolonnes dans la formation du courant synaptique. Les nanocolonnes sont des structures sous-microscopiques qui alignent les récepteurs postsynaptique et les vésicules présynaptiques. Étant donné qu'il est très difficile d'étudier expérimentalement les nanocolonnes, la modélisation mathématique devient un outil important pour mieux comprendre leur rôle et leur fonction. Cette partie de mon travail m'a amenée à publier un article de recherche dans la revue Frontiers in Comuptational Neuroscience intitulé "Computational modeling of trans-synaptic nanocolumns, a modulator of synaptic transmission". Dans cet article, nous montrons à travers des simulations mathématiques que les nanocolonnes pourraient jouer un rôle dans le renforcement des courants synaptiques dans les synapses de petites tailles. Le deuxième objectif de cette thèse est d'étudier différents outils mathématiques qui pourraient a priori être utilisés pour décrire la transmission synaptique. Une étape importante de la transmission synaptique est la diffusion des neurotransmetteurs dans la fente synaptique. D'un point de vue mathématique, une approche courante consiste à considérer la concentration des neurotransmetteurs comme une quantité continue et à décrire son évolution en résolvant l'équation de la chaleur. Dans le chapitre 1 de cette thèse, je discute des solutions et de l'approximation des solutions des équations de la chaleur sur des domaines cylindriques avec différentes conditions limites. Une approche plus précise est de décrire le mouvement des neurotransmetteurs individuels par une marche aléatoire. C'est cette méthode que j'ai utilisée dans mon article de recherche. Bien que plus précise, la description du mouvement des neurotransmetteurs individuels par des marches aléatoires est également plus coûteuse en calcul. De plus, étant donné la nature stochastique des simulations, une seule réalisation ne donnera qu'un résultat possible alors que de multiples simulations sont essentielles pour avoir une idée de la distribution des solutions. Cela peut être réalisé grâce à une approche Monte Carlo. Les marches aléatoires seront abordées dans le chapitre 3 de la thèse. Une troisième approche mathématique possible consiste à utiliser des équations différentielles stochastiques pour décrire le mouvement brownien des neurotransmetteurs. Les équations différentielles stochastiques ont l'avantage que leur solution fournit une distribution à partir de laquelle on peut déduire la probabilité d'une réalisation donnée. Cependant, les équations différentielles stochastiques sont généralement plus difficiles à résoudre et constituent un objet mathématique délicat à manipuler. Les équations différentielles stochastiques et la façon dont elles peuvent être appliquées à la description de la diffusion des neurotransmetteurs dans la synapse sont discutées au chapitre 2. / This thesis focuses on using different mathematical tools to describe synaptic transmission. The goal of my work is twofold. On the biological side, I performed simulations to help to better understand synaptic transmission, in particular the role of nanocolumns in shaping synaptic current. Nanocolumns are submicroscopic structures which align the postsynaptic receptors with the presynaptic vesicles. Given that it is very difficult to investigate experimentally nanocolumns, mathematical modeling becomes an important tool to better understand their role and function. This part of my work led me to publish a research paper in the journal Frontiers in Computational Neuroscience entitled "Computational modeling of trans-synaptic nanocolumns, a modulator of synaptic transmission" . In this research paper, we show through mathematical simulations that nanocolumns could play a role in reinforcing synaptic currents in weak synapses. The second goal of this thesis is to investigate different mathematical tools that could a priori be used to describe synaptic transmission. An important step in synaptic transmission is the diffusion of neurotransmitters in the synpatic cleft. From a mathematical standpoint, a common approach is to consider the concentration of neurotransmitters as a continuous quantity and to describe its evolution by solving the heat equation. In Chapter 1 of this thesis, I discuss solutions and approximation of solutions of heat equations on cylindrical domains with different boundaries conditions. A more accurate way to describe the movement of the neurotransmitters in the synaptic cleft is to describe the movement of individual neurotransmitters by a random walk. This second approach is the one I used in my research paper. While more accurate, the description of the movement of individual neurotransmitters by random walks is also more computationally expensive. Furthermore, given the stochastic nature of the simulations in this approach, a single realization will only give a possible outcome while performing multiple simulations is essential to get an idea of the distribution of solutions. This can be achieved through a Monte Carlo approach. Random walks will be discussed in chapter 3 of the thesis. A third possible mathematical approach is to use stochastic differential equations to describe the Brownian motion of neurotransmitters. Stochastic differential equations have the advantage that their solution provides a distribution from which one can deduce the probability of any given realization. However, stochastic differential are usually more difficult to solve and are a delicate mathematical object to handle. Stochastic differential equations and how they can be applied to the description of neurotransmitter diffusion in the synapse is discussion in chapter 2.
|
92 |
Méthode numérique de résolution de l'équation de diffusion par collocation de fonctions radialesGagnon, Frédérick 11 April 2018 (has links)
Le présent mémoire constitue une étude numérique sur la méthode globale de collocation par fonctions radiales pour la résolution de l'équation de diffusion. Ce type de méthode ne comporte pas de maillage contrairement aux méthodes par différences finies ou éléments finis. Elle peut s'appliquer à des ensembles de points dispersés au hasard. La résolution de l'équation de diffusion avec des conditions de Neumann de flux massique nul à la surface a été expérimentée en une dimension et deux dimensions. Divers paramètres ont été étudiés tel que le nombre de points, leur disposition spatiale et autres configurations pertinentes afin d'optimiser la méthode. D'excellents résultats ont été obtenus en une dimension avec un faible nombre de points comparativement aux méthodes classiques. Par contre, une résolution adéquate en deux dimensions s'est avérée impossible pour cause de diverses instabilités numériques.
|
93 |
The bid construction problem for truckload transportation services procurement in combinatorial auctions : new formulations and solution methodsHammami, Farouk 02 February 2024 (has links)
De nos jours, l'évolution du commerce électronique ainsi que des niveaux de la consommation requièrent des acteurs de la chaine logistique et en particulier les transporteurs de gérer efficacement leurs opérations. Afin de rester concurrentiels et maximiser leurs profits, ils doivent optimiser leurs opérations de transport. Dans cette thèse de doctorat, nous nous focalisons sur les enchères combinatoires en tant que mécanisme de négociation pour les marchés d'approvisionnement des services de transport routier par camions permettant à un expéditeur d'externaliser ses opérations de transport et aux transporteurs d'acquérir des contrats de transport. Les mises combinatoires permettent à un transporteur participant à l'enchère d'exprimer ses intérêts pour une combinaison de contrats mis à l'enchère dans une même mise. Si la mise gagne, tous les contrats qui la forment seront alloués au transporteur au tarif exigé. Les défis majeurs pour le transporteur sont de déterminer les contrats de transport sur lesquels miser, les regrouper dans plusieurs mises combinatoires, s'il y a lieu, et décider des prix à soumettre pour chaque mise générée. Ces défis décisionnels définissent le problème de construction de mises combinatoires (BCP pour Bid Construction Problem). Chaque transporteur doit résoudre le BCP tout en respectant ses engagements préexistants et ses capacités de transport et en tenant compte des offres des compétiteurs, ce qui rend le problème difficile à résoudre. Dans la pratique, la majorité des transporteurs se basent sur leur connaissance du marché et leur historique pour fixer leurs prix des mises. Dans la littérature, la majorité des travaux sur le BCP considèrent des modèles déterministes où les paramètres sont connus et se limitent à un contexte de flotte homogène. En plus, nous notons qu'un seul travail à considérer une variante stochastique du BCP. Dans cette thèse de doctorat, nous visons à faire avancer les connaissances dans ce domaine en introduisant de nouvelles formulations et méthodes de résolution pour le BCP Le premier chapitre de cette thèse introduit une nouvelle variante du BCP avec une flotte hétérogène. En partant d'une comparaison des similitudes et des différences entre le BCP et les problèmes classiques de de tournées de véhicules, nous proposons une nouvelle formulation basée sur les arcs avec de nouvelles contraintes de bris de symétrie pour accélérer la résolution. Ensuite, nous proposons une approche heuristique et une autre exacte pour résoudre ce problème. L'heuristique développée est une recherche adaptative à grands voisinages (ALNS pour Adaptive Large Neighborhood Search) et se base sur le principe de destruction puis réparation de la solution à l'aide d'opérateurs conçus spécifiquement pour le BCP traité. La méthode exacte utilise la meilleure solution heuristique pour résoudre notre modèle mathématique avec le solveur CPLEX. Les résultats obtenus montrent la pertinence de nos méthodes en termes de qualités des solutions et des temps de calculs et ce pour des instances de grande taille. Dans le deuxième chapitre, nous nous attaquons à un cas particulier du BCP où le transporteur n'a pas d'engagements existants et vise à déterminer un ensemble de contrats mis à l'enchère profitables à miser dessus. Cette problématique correspond à un problème de tournées de véhicules avec profits (TOP pour Team Orienteering Problem). Nous proposons pour le TOP une heuristique ALNS hybride avec de nouveaux opérateurs ainsi que de nouvelles fonctionnalités tenant compte de la nature du problème. Ensuite, nous comparons les performances de notre méthode avec toutes les méthodes déjà publiées dans la littérature traitant du TOP. Les résultats montrent que notre méthode surpasse généralement toutes les approches existantes en termes de qualité des solutions et/ou temps de calculs quand elle est testée sur toutes les instances de la littérature. Notre méthode améliore la solution d'une instance de grande taille, ce qui surligne sa performance. Dans le troisième chapitre, nous nous focalisons sur l'incertitude associée aux prix de cessions des contrats mis à l'enchère et sur les offres des transporteurs concurrents. Il n'existe qu'un seul article qui traite de l'incertitude dans le BCP cependant il ne permet pas de générer des mises multiples. Ainsi, nous proposons une nouvelle formulation pour le BCP avec des prix stochastiques permettant de générer des mises combinatoires et disjointes. Nous présentons deux méthodes pour résoudre ce problème. La première méthode est hybride et à deux étapes. Dans un premier temps, elle résout un problème de sélection pour déterminer un ensemble de contrats profitables. Dans un second temps, elle résout simultanément un problème de sélection de contrats et de détermination de prix des mises (CSPP pour Contracts Selection and Pricing Problem) en ne considérant que les contrats sélectionnés dans la première étape. Notre méthode exacte résout, avec l'algorithme de branch-and-cut, le CSPP sans présélectionner des contrats. Les résultats expérimentaux et de simulations que nous rapportons soulignent la performance de nos deux méthodes et évaluent l'impact de certains paramètres sur le profit réel du transporteur. Dans le quatrième chapitre, nous nous focalisons sur l'incertitude liée au succès des mises et à la non-matérialisation des contrats. Généralement, le transporteur souhaite avoir la garantie que si certaines des mises ne sont pas gagnées ou un contrat ne se matérialise pas, il n'encourra pas de perte en servant le sous-ensemble de contrats gagnés. Dans cette recherche, nous adressons le BCP avec prix stochastiques et développons une méthode exacte qui garantit un profit non négatif pour le transporteur peu importe le résultat des enchères. Nos simulations des solutions optimales démontrent, qu'en moyenne, notre approche permet au transporteur d'augmenter son profit en plus de garantir qu'il reste non-négatif peu importe les mises gagnées ou la matérialisation des contrats suivant l'enchère. / Nowadays, the evolution of e-commerce and consumption levels require supply chain actors, in particular carriers, to efficiently manage their operations. In order to remain competitive and to maximize their profits, they must optimize their transport operations. In this doctoral thesis, we focus on Combinatorial Auctions (CA) as a negotiation mechanism for truckload (TL) transportation services procurement allowing a shipper to outsource its transportation operations and for a carrier to serve new transportation contracts. Combinatorial bids offer a carrier the possibility to express his valuation for a combination of contracts simultaneously. If the bid is successful, all the contracts forming it will be allocated to the carrier at the submitted price. The major challenges for a carrier are to select the transportation contracts to bid on, formulate combinatorial bids and associated prices. These decision-making challenges define the Bid Construction Problem (BCP). Each carrier must solve a BCP while respecting its pre-existing commitments and transportation capacity and considering unknown competitors' offers, which makes the problem difficult to solve. In practice, the majority of carriers rely on their historical data and market knowledge to set their prices. In the literature, the majority of works on the BCP propose deterministic models with known parameters and are limited to the problem with a homogeneous fleet. In addition, we found a single work addressing a stochastic BCP. In this thesis, we aim to advance knowledge in this field by introducing new formulations and solution methods for the BCP. The first chapter of this thesis introduces the BCP with a heterogeneous fleet. Starting from a comparison between the BCP and classical Vehicle Routing Problems (VRPs), we propose a new arc-based formulation with new symmetry-breaking constraints for the BCP. Next, we propose exact and heuristic approaches to solve this problem. Our Adaptive Large Neighborhood Search (ALNS) heuristic is based on a destroy-repair principle using operators designed for this problem. Our exact method starts from the heuristic solution and solves our mathematical model with CPLEX. The results we obtained revealed the relevance of our methods in terms of solutions quality and computational times for large instances with up to 500 contracts and 50 vehicles. In the second chapter, we tackle a particular case of the BCP where the carrier has no pre-existing commitments and aims to select a set of profitable auctioned contracts to bid on. This problem corresponds to a Team Orienteering Problem (TOP). We propose a hybrid ALNS heuristic for the TOP with new operators as well as new features taking into account the nature of the problem. Then, we compare the performance of our algorithm against the best solutions from the literature. The results show that our method generally outperforms all the existing ones in terms of solutions quality and/or computational times on benchmark instances. Our method improves one large instance solution, which highlights its performance. In the third chapter, we focus on the uncertainty associated with the auctioned contracts clearing prices and competing carriers offers. Only one article dealing with uncertainty in the BCP existed but it does not allow to generate multiple bids. Thus, we propose a new formulation for the BCP with stochastic prices allowing to generate non-overlapping combinatorial bids. We present two methods to solve this problem. The first one is a two-step hybrid heuristic. First, it solves a Contracts Selection Problem to determine a set of profitable contracts to bid on. Secondly, it simultaneously solves a Contracts Selection and Pricing Problem (CSPP) by considering only the set of auctioned contracts selected in the first stage. Our exact method solves a CSPP by branch-and-cut without pre-selecting contracts. The experimental and simulation results underline the performance of our two methods and evaluate the impact of certain parameters on the carrier's real profit. In the fourth chapter, we focus on the uncertainty associated with bids success and contracts non-materialization. Generally, the carrier seeks to be assured that if some of the submitted bids are not won or a contract does not materialize, it will not incur a loss by serving the remaining contracts. In this research, we address the BCP with stochastic prices and develop an exact method that ensures a non-negative profit for the carrier regardless of the auction outcomes and contracts materialization. Our simulations of the optimal solutions show that, on average, our approach increases the carrier's profit in addition to guaranteeing its non-negativity regardless of the bids won or the contracts materialization.
|
94 |
Dynamique de modèles épidémiologiques : applications au cas du virus du Nil occidentalNoël, Pierre-André 12 April 2018 (has links)
Des modèles épidémiologiques capables de représenter des situations naturelles peuvent en principe permettre de caractériser et quantifier les risques d'épidémies ainsi que d'optimiser les moyens de les contrôler. On présente d'abord quelques modèles épidémiologiques d'usage courant et évalue leur capacité à représenter correctement une situation biologique. L'emphase est placée sur l'importance des délais ainsi que sur l'impact des conditions environnantes. On montre que des modèles basés sur l'équation de diffusion répondent particulièrement bien à ces critères et mènent à une formulation générale, directe et élégante. Sous certaines hypothèses, ces systèmes peuvent être partiellement solutionnés analytiquement, réduisant substantiellement les traitements numériques et permettant une meilleure compréhension de structures sous-jacentes. On compare ensuite certains de ces modèles dans le contexte particulier du virus du Nil Occidental et élabore une approche spécifique et réaliste afin de fournir des outils supplémentaires au processus décisionnel de prévention de cette maladie. / Epidemiological models capable of representing naturally occurring situations may in principle permit the characterization of the risks of epidemies as well as the optimization of means for controlling them. First, we present some typical epidemiological models currently in use and evaluate their ability to correctly describe a biological situation. Emphasis is placed on the possibility of the treatment of delays and on the inclusion of the effects of environmental conditions. We show that models based on a diffusion-type equation are particularly well suited to satisfy these conditions and lead to a general, direct and elegant formulation. Under not too restrictive hypotheses, the corresponding models can in part be treated analytically, reducing substantially the computational efforts, and allowing for a better understanding of the associated underlying structures. We then compare some of the models for the application to the West Nile virus and develop a specific and realistic approach to provide additional tools for the decision process in matters of prevention and propagation of the disease.
|
95 |
Modélisation et optimisation de la recharge bidirectionnelle de véhicules électriques : application à la régulation électrique d'un complexe immobilierTanguy, Kevin 19 April 2018 (has links)
La démocratisation des véhicules hybrides branchables ainsi que des véhicules purement électriques implique un surplus de demande sur les réseaux de distribution. Le Vehicle-to-Grid (V2G) ou le Vehicle-to-Building (V2B) visent à répondre à cette demande accrue en utilisant les véhicules non plus comme de simples charges pour le réseau électrique mais comme des acteurs effectuant des échanges bidirectionnels. Les travaux présentés dans ce mémoire montrent, avec des données réelles du campus de l’Université Laval, une modélisation de flottes de véhicules et l’application d’un modèle d’optimisation linéaire que le V2B peut permettre de réaliser des gains financiers partagés entre les acteurs tout en rechargeant efficacement les véhicules participants. / The democratization of plug-in hybrid electric vehicles along with purely electric vehicles causes an increased electric demand on the power grid. Vehicle-to-Grid (V2G) or Vehicle-to-Building (V2B) aim to bring an appropriate response to this increased demand, by not simply considering vehicles as loads for the grid but as actors making bidirectionnal exchanges. The works presented in this master’s thesis show, with real data on the Université Laval campus, a modelling of vehicle fleets and the application of a linear optimization model, that V2B can provide financial gain shared between the actors of the system, while charging the vehicles efficiently.
|
96 |
Caractérisation numérique d'une jauge biaxiale dans un champ de glaceTchamba, Thiery Wilson 18 April 2018 (has links)
Mesurer les poussées des glaces sur les barrages hydroélectriques nécessite la mesure des contraintes dans les couverts de glace (CdG). Ces derniers sont des couches de glace qui se forment en hiver sur des réservoirs d'eau des barrages dans des zones hivernales (exemple, Québec). Le CdG se dilate lors d'une hausse de température, et est déstabilisé par la variation du niveau d'eau (VNE) dans le réservoir. Si de plus, le CdG est en contact avec le mur du barrage, des forces naissent sur le mur. Pour mesurer ces forces, dans un cadre de sécurité des barrages, des panneaux capteur de pression sont placés sur le mur du barrage, et des jauges sont positionnées dans le CdG. Parmi les jauges figurent les jauges biaxiales (JB) de 12 pouces (JB12) ou 30.48 cm de hauteur, et celles de 4 pouces (JB4) ou 10.16cm de hauteur. La petite hauteur de la JB4 lui permet de mesurer les contraintes selon la profondeur à laquelle elle est placée. Vu sa forte rigidité, la JB4 attire les forces sur le plan horizontal et sur le plan vertical. Une théorie mathématique permet de traiter le problème d'attraction des forces à l'horizontale (Savin, 1961), mais le problème d'attraction des forces en trois dimensions (effets 3D du CdG) n'est pas résolu. Or, les effets 3D causeraient le fait que la JB4 surestime les mesures. L'objectif de ce mémoire est de quantifier les effets 3D et évaluer l'impact du fluage de la glace, sur les contraintes estimées par la JB4 et sur l'amplification des contraintes (AC) autour d'elle. Pour se faire, sont développés, à l'aide du logiciel ANSYS, deux modèles numériques basés sur la méthode des éléments finis. Le premier modèle, en 2D, permet de valider l'approche numérique et évaluer l'impact du fluage. Le modèle 3D, sert à quantifier les effets 3D. Glace et JB4 sont homogènes et isotropes dans tout le projet. Le modèle 2D de base s'est avéré robuste, car les champs de contrainte et de déplacement ont au plus 0.5 % d'écart par rapport à la théorie de Savin. À partir du modèle robuste, est développé un modèle 2D (véritable outil) pour étudier l'impact du fluage sur PAC autour de la JB4 et sur la mesure de la JB4. Les résultats qui en découlent sont indicatifs en raison de la limitation au fluage secondaire. Un modèle de fluage plus complet permettrait de valider l'impact du fluage secondaire. Cet impact s'est avéré plus important pour des contraintes plus élevées. Par exemple, pour un chargement uniaxial de 250kPa, la diminution horaire moyenne de la contrainte principale maximale est de 0.92kPa/h, contre 1.79kPa/h pour une charge de 500kPa. Les effets 3D ont été évalués (matériaux uniquement élastiques). L'AC en 3D est au maximum de 5% plus élevé que TAC en 2D. Cet impact maximal correspond aux épaisseurs du CdG supérieures à 30 cm. Mais, la force moyenne (suivant la hauteur) reçue par le capteur est difficile à évaluer. En effet, le champ de contrainte autour de la JB4 et dans la direction verticale est très complexe et doit être profondément examiné. Cette complexité est due à la brusque variation de l'épaisseur du capteur le long de la hauteur. Ainsi, le modèle 3D doit faire l'objet d'une validation.
|
97 |
Modélisation multi-factorielle de pathologies cérébrales dans le contexte de la maladie d'AlzheimerChamberland, Eléonore 25 March 2024 (has links)
Titre de l'écran-titre (visionné le 14 août 2023) / La maladie d'Alzheimer (MA) est la cause la plus commune de démence chez les personnes de 65 ans et plus. Qu'est-ce qui déclenche réellement cette maladie ? La réponse est probablement une interaction dynamique de diverses voies, y compris l'amyloïde-bêta, les protéines tau hyperphosphorylées et les cytokines inflammatoires, modulées par des facteurs de risque tels que la génétique et le sexe. Cependant, tester une telle hypothèse multifactorielle chez l'humain est logistiquement presque impossible. Les modèles mathématiques pourraient résoudre ce problème en offrant un moyen de démêler les relations causales. Dans le cadre de ce mémoire, nous avons construit un modèle mathématique décrivant l'évolution d'un cerveau normal vers un état pathologique. Il est composé de dix-neuf équations différentielles ordinaires utilisant des paramètres issus de la littérature. Nos variables incluent l'amyloïde-bêta, les protéines tau, les neurones, les astrocytes activés, les microglies et macrophages, et certaines cytokines. Nous obtenons des résultats pour ces variables pour le vieillissement entre 30 et 80 ans d'âge. En raison de son importance dans la MA, nous avons séparé l'accumulation d'amyloïde-bêta en plusieurs composantes, soit les monomères intracellulaires et extracellulaires, les oligomères et les plaques. L'effet du sexe et la présence de l'allèle APOE4 ont été pris en compte via des paramètres sélectionnés. Le modèle est également sensible à l'insuline, étant donné que le diabète est un facteur de risque bien connu de la MA. Notre modèle relie avec succès la plupart des variables par rapport à l'âge. Nous présentons aussi deux variations du modèle, soit sans la variation de la concentration d'insuline, ou avec une diminution du taux d'activation des microglies. Les résultats obtenus sont cohérents avec les observations expérimentales. Malgré cela, notre modèle est encore sujet à plusieurs améliorations et une validation avec des données expérimentales est à faire. / Alzheimer's disease (AD) is the most common cause of dementia in people aged 65 and over. What actually triggers this disease? The solution is likely a dynamic interplay of various pathways, including amyloid-beta, hyperphosphorylated tau proteins, and inflammatory cytokines, modulated by risk factors such as genetics and gender. However, testing such a multifactorial hypothesis is logistically almost impossible to achieve in humans in practice. Mathematical models could solve this problem by offering a way to untangle causal relationships. As part of this thesis, we have built a mathematical model presenting the evolution of a normal brain towards a pathological state. It is composed of nineteen ordinary differential equations using parameters taken from the literature. Our variables include amyloid-beta, tau proteins, neurons, activated astrocytes, microglia and macrophages, and some cytokines. We obtain results for these variables for aging between 30 and 80 years of age. Because of its importance in AD, we have separated amyloid-beta accumulation into several components, namely intracellular and extracellular monomers, oligomers and plaques. The effect of sex and the presence of the APOE4 allele were taken into account via selected parameters. The model is also insulin sensitive, as diabetes is a well-known risk factor for AD. Our model successfully links most of the variables with age. We also present two variations of the model, either without the variation in insulin concentration, or with a decrease in the rate of activation of microglia. The results obtained are consistent with the experimental observations. Despite this, our model is still subject to several improvements and a validation with experimental data is to be done.
|
98 |
Monitoring and mathematical modeling of in vitro human megakaryocyte expansion and maturation dynamicsLeysi-Derilou, Younes 17 April 2018 (has links)
La mégakaryopoïèse est un processus complexe, qui prend naissance à partir des cellules souches hématopoïétiques (HSC). Ces dernières se différencient par étapes successives en mégakaryocytes (MKs) qui, suite à leur maturation, libèrent les plaquettes. Afin de modéliser le sort des HSCs lors de la mégakaryopoïèse en culture, un nouveau modèle mathématique a été développé, basé sur un programme de différenciation tridimensionnelle (3-D) où chaque sous-population est représentée par un compartiment. Dans le but d’évaluer la prolifération, la différenciation des MKs immatures puis matures, la cinétique de mort cellulaire ainsi que le nombre de plaquettes produites, à partir des cellules de sang de cordon (CB) ombilical enrichies en CD34+, un ensemble d'équations différentielles a été déployé. Les cellules CD34+ ont été placées en culture dans un milieu optimisé pour la différenciation mégakaryocytaire. Les paramètres cinétiques ont été estimés pour deux températures d'incubation (37°C versus 39°C). Les résultats des régressions ont été validés par l'évaluation de l'estimabilité des paramètres, en utilisant des analyses de sensibilité locale et globale, puis la détermination d'un intervalle de confiance. Ceux-ci ont été comparés par le biais de tests statistiques et d’analyses en composante principale (ACP). Le modèle proposé pourrait permettre de mieux comprendre les phénomènes complexes observés. Les MKs sont uniques parmi les cellules hématopoïétiques, étant les seules à devenir polyploïdes au cours de leur développement par l’entremise de l’endomitose, un processus mitotique qui se termine prématurément durant la cytocinèse. Pour obtenir une image plus complète et exhaustive de la mégacaryopoïèse, une approche d’imagerie cellulaire à grand champ et à long terme a été développée permettant de suivre individuellement l'évolution des HSCs lors de leur différenciation ex vivo. Cela a permis de démontrer que les MKs polyploïdes sont encore capables de se diviser et de produire des cellules filles polyploïdes, et que ce processus est plus fréquent chez les MKs issues de CB que de moelle osseuse d'adulte. De plus, le processus de formation des proplaquettes semble également réversible. Les phénomènes énoncés plus haut étaient inversement proportionnels au niveau de ploïdie des MKs. En conclusion, cette étude a dévoilé de nouvelles propriétés jusqu’ici inconnues des MKs. / Megakaryopoiesis is a complex process, which is initiated with the proliferation and the differentiation of hematopoietic stem cells (HSC) into megakaryocytes (MK), followed by the maturation of MK and ended by platelet release. To describe the fates of HSC during ex vivo megakaryopoiesis, a new mathematical model was developed based on a 3-dimensional kinetic developmental program. To address this, a set of differential equations was applied to analyze the proliferation, differentiation and death kinetic rates of purified cord blood (CB)-CD34+ cells, immature and mature MKs, as well as platelet number and productivity. CB-CD34+ cells were placed in culture optimized for MK differentiation. The kinetic parameters were estimated for two incubation temperatures (37°C vs. 39°C). The regression results have been validated by assessing the parameter identifiability using local and global sensitivity analyses and confidence intervals, and compared using statistical tests and principal component analysis (PCA). Furthermore, PCA was applied on the solution matrix to construct a simplified MK differentiation pathway model, and to reveal dependencies among the model parameters. The proposed model provides insight into phenomena that would be otherwise difficult to interpret. MKs are unique among mammalian marrow cells as they polyploidize during their natural development. It is universally accepted that MK becomes polyploid by repeatedly deviating from normal cell cycling, where it ceases to complete cytokinesis and divide. To challenge this long-standing hypothesis and to obtain a more comprehensive picture of megakaryopoiesis, a long-term and large-field live cell imaging approach of in vitro MK culture was developed. Using CB- and bone marrow (BM)-CD34+ as starting cells, the direct observation of cells undergoing differentiation and maturation over a 5-day culture period is reported for the first time. Herein, direct visual proof that polyploid MKs can complete cytokinesis during its normal development is presented. This phenomenon was found not restricted to CB- as the BM-derived polyploid MK also underwent division. However the latter showed significantly lower proliferation rate. This new finding explains in part the unresolved issue of low ploidy levels observed in CB-MK and contests the notion that polyploid MKs do not divide.
|
99 |
Contribution à la modélisation et à l'optimisation des machines à flux transverse : application au cas de la machine à flux transverse "claw-pole" à stator hybrideDehlinger, Nicolas 18 April 2018 (has links)
La grande densité de couple qui fait la réputation des machines à flux transverse (MFT) est attribuable à l’agencement particulier de ses circuits magnétiques et électriques. Cependant, cet agencement complique aussi l’étape de modélisation nécessaire à la conception de la machine. Des facteurs tels que le flux de fuite, la saturation et l’aspect tridimensionnel du flux expliquent en grande partie la difficulté à élaborer un modèle magnétique analytique précis pour la machine. Par ailleurs, l’emploi d’un modèle imprécis pour l’optimisation des caractéristiques de la machine peut conduire à des résultats erronés. Pour cette raison, la plupart des concepteurs fait appel à une modélisation numérique avec des outils de calcul des champs 3-D, coûteux en ressources informatiques, en temps de calcul et malheureusement peu adaptée au processus de conception itératif d’une machine électrique. La thèse défendue dans ce document propose une alternative : elle présente une approche de modélisation hybride, faisant appel à un modèle magnétique analytique assisté par le calcul des champs. L’approche est appliquée pour l’optimisation des performances d’une structure de MFT particulière : la MFT à griffes (ou "claw-pole") à stator hybride (MFTCPSH). Dans un premier temps, on montre comment des facteurs de corrections, dont les valeurs sont déterminées à partir de simulations par éléments finis 3-D, peuvent permettre de palier aux problèmes de précision d’un modèle analytique au cours de l’optimisation de la machine. Un exemple de maximisation du flux à vide d’une MFTCPSH démontre la rapidité, l’efficacité et la précision de l’approche proposée. Dans un second temps, le modèle hybride et la méthode d’optimisation sont développés pour maximiser le couple d’une MFTCPSH. En se basant sur le cahier des charges d’une application de traction électrique de type moteur-roue, il est montré comment le modèle et la méthode proposés permettent, en quelques heures seulement, de déterminer les dimensions géométriques optimales qui maximisent la densité de couple de la machine. / The high power and torque capabilities of Transverse Flux Machines (TFM) are well known. The particular arrangement of the TFM’s electric and magnetic circuits, which mainly explains its exceptional features, also greatly complicates the TFM design process. Building an accurate analytical magnetic model for a TFM is a hard task: factors as the leakage flux, magnetic saturation or 3-D flux paths greatly affect the model accuracy. As the use of an inaccurate model can lead to erroneous results, TFM designers extensively use numerical models, as 3-D finite element analysis (FEA). Despite their accuracy, such numerical tools are still time and resource consuming but also tricky to use for optimization purpose. This thesis proposes an alternative approach for the design of TFM: a hybrid model, based on analytical calculations, corrected with finite element results inside the optimization process. Such an approach is used in order to optimize the performances of a claw-pole TFM with hybrid stator (CTFMHS). This work first presents how FEA-derived correction factors can be inserted in the analytical model to improve the model accuracy, in the course of the design process. The principles and the effectiveness of the proposed approach are shown through an example of CTFMHS no-load flux maximization. The approach is then derived in order to maximize the torque density of the CTFMHS. Considering the specifications of an in-wheel motor application, it is shown how the developed approach can determine, in a few hours only, the optimal machine geometry maximizing its torque density.
|
100 |
Three essays in international finance and macroeconomicsNono, Simplice Aimé 24 April 2018 (has links)
Cette thèse examine l’effet de l’information sur la prévision macroéconomique. De façon spécifique, l’emphase est d’abord mise sur l’impact des frictions d’information en économie ouverte sur la prévision du taux de change bilatéral et ensuite sur le rôle de l’information issue des données d’enquêtes de conjoncture dans la prévision de l’activité économique réelle. Issu du paradigme de la nouvelle macroéconomie ouverte (NOEM), le premier essai intègre des frictions d’informations et des rigidités nominales dans un modèle d’équilibre général dynamique stochastique (DSGE) en économie ouverte. Il présente ensuite une analyse comparative des résultats de la prévision du taux de change obtenu en utilisant le modèle avec et sans ces frictions d’information. Tandis que le premier essai développe un modèle macroéconomique structurel de type DSGE pour analyser l’effet de la transmission des choc en information incomplète sur la dynamique du taux de change entre deux économies, le deuxième et troisième essais utilisent les modèles factorielles dynamiques avec ciblage pour mettre en exergue la contribution de l’information contenu dans les données d’enquêtes de confiance (soit au niveau de l’économie nationale que internationale) sur la prévision conjoncturelle de l’activité économique réelle. « The Forward Premium Puzzle : a Learning-based Explanation » (Essai 1) est une contribution à la littérature sur la prévision du taux de change. Cet essai a comme point de départ le résultat théorique selon lequel lorsque les taux d’intérêt sont plus élevés localement qu’ils le sont à l’étranger, cela annonce une dépréciation future de la monnaie locale. Cependant, les résultats empiriques obtenus sont généralement en contradiction avec cette intuition et cette contradiction a été baptisée l’énigme de la parité des taux d’intérêt non-couverte ou encore «énigme de la prime des contrats à terme ». L’essai propose une explication de cette énigme basée sur le mécanisme d’apprentissage des agents économiques. Sous l’hypothèse que les chocs de politique monétaire et de technologie peuvent être soit de type persistant et soit de type transitoire, le problème d’information survient lorsque les agents économiques ne sont pas en mesure d’observer directement le type de choc et doivent plutôt utiliser un mécanisme de filtrage de l’information pour inférer la nature du choc. Nous simulons le modèle en présence de ces frictions informationnelles, et ensuite en les éliminant, et nous vérifions si les données artificielles générées par les simulations présentent les symptômes de l’énigme de la prime des contrats à terme. Notre explication à l’énigme est validée si et seulement si seules les données générées par le modèle avec les frictions informationnelles répliquent l’énigme. « Using Confidence Data to Forecast the Canadian Business Cycle » (Essai 2) s’appuie sur l’observation selon laquelle la confiance des agents économiques figure désormais parmi les principaux indicateurs de la dynamique conjoncturelle. Cet essai analyse la qualité et la quantité d’information contenu dans les données d’enquêtes mesurant la confiance des agents économiques. A cet effet, il évalue la contribution des données de confiance dans la prévision des points de retournement (« turning points ») dans l’évolution de l’économie canadienne. Un cadre d’analyse avec des modèles de type probit à facteurs est spécifié et appliqué à un indicateur de l’état du cycle économique canadien produit par l’OCDE. Les variables explicatives comprennent toutes les données canadiennes disponibles sur la confiance des agents (qui proviennent de quatre enquêtes différentes) ainsi que diverses données macroéconomiques et financières. Le modèle est estimé par le maximum de vraisemblance et les données de confiance sont introduites dans les différents modèles sous la forme de variables individuelles, de moyennes simples (des « indices de confiance ») et de « facteurs de confiance » extraits d’un ensemble de données plus grand dans lequel toutes les données de confiance disponibles ont été regroupées via la méthode des composantes principales, . Nos résultats indiquent que le plein potentiel des données sur la confiance pour la prévision des cycles économiques canadiens est obtenu lorsque toutes les données sont utilisées et que les modèles factoriels sont utilisés. « Forecasting with Many Predictors: How Useful are National and International Confidence Data? » (Essai 3) est basé sur le fait que dans un environnement où les sources de données sont multiples, l’information est susceptible de devenir redondante d’une variable à l’autre et qu’une sélection serrée devient nécessaire pour identifier les principaux déterminants de la prévision. Cet essai analyse les conditions selon lesquelles les données de confiance constituent un des déterminants majeurs de la prévision de l’activité économique dans un tel environnement. La modélisation factorielle dynamique ciblée est utilisé pour évaluer le pouvoir prédictif des données des enquêtes nationales et internationales sur la confiance dans la prévision de la croissance du PIB Canadien. Nous considérons les données d’enquêtes de confiance désagrégées dans un environnement riche en données (c’est-à-dire contenant plus d’un millier de séries macro-économiques et financières) et évaluons leur contenu informatif au-delà de celui contenu dans les variables macroéconomiques et financières. De bout en bout, nous étudions le pouvoir prédictif des données de confiance en produisant des prévisions du PIB avec des modèles à facteurs dynamiques où les facteurs sont dérivés avec et sans données de confiance. Les résultats montrent que la capacité de prévision est améliorée de façon robuste lorsqu’on prend en compte l’information contenue dans les données nationales sur la confiance. En revanche, les données internationales de confiance ne sont utiles que lorsqu’elles sont combinées dans le même ensemble avec celles issues des enquêtes nationales. En outre, les gains les plus pertinents dans l’amelioration des prévisions sont obtenus à court terme (jusqu’à trois trimestres en avant). / This thesis examines the effect of information on macroeconomic forecasting. Specifically, the emphasis is firstly on the impact of information frictions in open economy in forecasting the bilateral exchange rate and then on the role of information from confidence survey data in forecasting real economic activity. Based on the new open-economy macroeconomics paradigm (NOEM), the first chapter incorporates information frictions and nominal rigidities in a stochastic dynamic general equilibrium (DSGE) model in open economy. Then, it presents a comparative analysis of the results of the exchange rate forecast obtained using the model with and without these information frictions. While the first chapter develops a structural macroeconomic model of DSGE type to analyze the effect of shock transmission in incomplete information on exchange rate dynamics between two economies, the second and third chapters use static and dynamic factor models with targeting to highlight the contribution of information contained in confidence-based survey data (either at the national or international level) in forecasting real economic activity. The first chapter is entitled The Forward Premium Puzzle: a Learning-based Explanation and is a contribution to the exchange rate forecasting literature. When interest rates are higher in one’s home country than abroad, economic intuition suggests this signals the home currency will depreciate in the future. However, empirical evidence has been found to be at odds with this intuition: this is the "forward premium puzzle." I propose a learning-based explanation for this puzzle. To do so, I embed an information problem in a two-country open-economy model with nominal rigidities. The information friction arises because economic agents do not directly observe whether shocks are transitory or permanent and must infer their nature using a filtering mechanism each period. We simulate the model with and without this informational friction and test whether the generated artificial data exhibits the symptoms of the forward premium puzzle. Our leaning-based explanation is validated as only the data generated with the active informational friction replicates the puzzle. The second chapter uses dynamic factor models to highlight the contribution of the information contained in Canadian confidence survey data for forecasting the Canadian business cycle: Using Confidence Data to Forecast the Canadian Business Cycle is based on the fact that confidence (or sentiment) is one key indicators of economic momentum. The chapter assesses the contribution of confidence -or sentiment-data in predicting Canadian economic slowdowns. A probit framework is applied to an indicator on the status of the Canadian business cycle produced by the OECD. Explanatory variables include all available Canadian data on sentiment (which arise from four different surveys) as well as various macroeconomic and financial data. Sentiment data are introduced either as individual variables, as simple averages (such as confidence indices) and as confidence factors extracted, via principal components’ decomposition, from a larger dataset in which all available sentiment data have been collected. Our findings indicate that the full potential of sentiment data for forecasting future business cycles in Canada is attained when all data are used through the use of factor models. The third chapter uses dynamic factor models to highlight the contribution of the information contained in confidence survey data (either in Canadian or International surveys) for forecasting the Canadian economic activity. This chapter entitled Forecasting with Many Predictors: How Useful are National and International Confidence Data? is based on the fact that in a data-rich environment, information may become redundant so that a selection of forecasting determinants based on the quality of information is required. The chapter investigates whether in such an environment; confidence data can constitute a major determinant of economic activity forecasting. To do so, a targeted dynamic factor model is used to evaluate the performance of national and international confidence survey data in predicting Canadian GDP growth. We first examine the relationship between Canadian GDP and confidence and assess whether Canadian and international (US) improve forecasting accuracy after controlling for classical predictors. We next consider dis-aggregated confidence survey data in a data-rich environment (i.e. containing more than a thousand macroeconomic and financial series) and assess their information content in excess of that contained in macroeconomic and financial variables. Throughout, we investigate the predictive power of confidence data by producing GDP forecasts with dynamic factor models where the factors are derived with and without confidence data. We find that forecasting ability is consistently improved by considering information from national confidence data; by contrast, the international counterpart are helpful only when combined in the same set with national confidence. Moreover most relevant gains in the forecast performance come in short-horizon (up to three-quarters-ahead).
|
Page generated in 0.1597 seconds