• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 585
  • 184
  • 2
  • Tagged with
  • 773
  • 773
  • 489
  • 237
  • 106
  • 100
  • 97
  • 91
  • 90
  • 85
  • 83
  • 77
  • 73
  • 62
  • 62
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Interim trading bias in mutual fund performance evaluation

Ghali, Ali 06 July 2023 (has links)
Titre de l'écran-titre (visionné le 26 juin 2023) / Des recherches récentes sur les fonds communs de placement et les fonds spéculatifs montrent qu'il est important de tenir compte des transactions intérimaires, parce que les gestionnaires effectuent souvent des transactions au cours du mois en fonction de signaux d'information ou pour des raisons de liquidité. Cette thèse examine les effets du biais de transactions intérimaires sur la performance d'un large échantillon de fonds mutuels d'actions américaines gérés activement. Elle développe de nouvelles mesures ajustées pour le biais pour répondre à une série de questions dans le contexte de la performance des fonds communs de placement et du biais de transactions intérimaires. D'abord, en utilisant l'approche par facteur d'escompte stochastique (SDF), nous développons deux nouvelles mesures ajustées pour le biais de transactions intérimaires. Lorsque les rendements quotidiens des fonds sont disponibles, nous proposons une mesure basée sur la capitalisation d'alphas sous-périodiques quotidiens. Lorsque les rendements quotidiens des fonds ne sont pas disponibles, nous capturons les opportunités d'investissement intérimaires grâce aux données quotidiennes sur les facteurs de risque. Nous développons la mesure SDF capitalisée dans le temps, qui est une mesure alternative à l'approche basée sur l'agrégation des facteurs dans le temps, telle que proposée par la littérature. Nous démontrons la pertinence théorique et l'équivalence de la mesure basée sur la capitalisation temporelle des alphas et celle basée sur la capitalisation temporelle des SDFs dans la saisie des opportunités d'investissement intérimaires. Empiriquement, nous documentons l'importance du biais de transactions intérimaires en comparant les alphas estimés avec la mesure mensuelle non ajustée avec ceux estimés avec les mesures ajustées pour le biais. Nous montrons que le biais moyen à travers les fonds n'est pas différent de zéro. Cependant, plus de 25% des fonds observent des changements statistiquement significatifs de leur performance traditionnelle lorsque le biais est pris en compte. En comparaison, les deux mesures existantes détectent peu de biais significatifs. Deuxièmement, nous étudions la persistance du biais de transactions intérimaires dans la performance des fonds ainsi que sa relation avec divers attributs de fonds, styles d'investissement et indicateurs de marché. Nous examinons ces aspects non seulement pour le biais de transactions intérimaires, mais aussi pour la performance ajustée pour le biais. Nous constatons que le biais de transactions intérimaires est persistant à long terme uniquement pour les fonds ayant un biais positif. Lorsque nous examinons la persistance de l'alpha ajusté pour le biais, nous montrons que les fonds dont la performance passée est négative continuent à fournir un alpha négatif. Le résultat est inversé pour les fonds ayant des performances passées positives. Dans l'analyse des déterminants, nous utilisons à la fois une approche par portefeuille et une approche par régression. Dans l'ensemble, les résultats montrent que les petits fonds, les fonds jeunes et les fonds dont les gestionnaires ont peu d'expérience ont un biais de transactions intérimaires plus important. La rotation impliquée par les flux de liquidité et les avoirs liquides ont des relations positives, statistiquement et économiquement significatives, avec le biais de transactions intérimaires. Enfin, les fonds les plus actifs présentent un biais positif élevé. Lorsque nous étudions les déterminants de l'alpha ajusté du biais, nous obtenons des résultats qui sont généralement cohérents avec la littérature antérieure. Plus précisément, nous constatons que les fonds dont la volatilité, la sélectivité, le taux de rotation, le taux de rotation lié aux flux, les liquidités et les dépenses sont les plus élevés affichent une performance ajustée inférieure. La performance est légèrement améliorée pour les fonds qui sont matures, de grande taille et dont les gestionnaires sont expérimentés. Troisièmement, nous examinons la robustesse de nos conclusions sur le biais de transactions intérimaires. Nous nous concentrons principalement sur le pourcentage important de fonds dont la performance est significativement modifiée par les nouvelles mesures SDF capitalisées dans le temps, ainsi que sur la capacité supérieure des mesures capitalisée par rapport aux mesures agrégées à atténuer le problème du biais de transactions intérimaires. Nos tests confirment que ces résultats sont robustes aux spécifications alternatives, aux différents choix méthodologiques et aux problèmes d'échantillons finis. / Recent research on mutual funds and hedge funds documents the importance of accounting for interim trading, as managers often trade within each month based on information signals or for liquidity reasons. This thesis examines the effects of the interim trading bias on the performance of a large cross section of actively managed open-ended U.S. equity mutual funds. It develops new interim-trading-bias-adjusted measures to address a range of questions in the context of mutual fund performance and the interim trading bias. First, using the stochastic discount factor (SDF) approach, we develop two new interim-trading-bias-adjusted measures. When daily fund returns are available, we propose a measure based on the time-compounding of daily alphas. When daily fund returns are not available, we can instead capture the interim investment opportunities with daily factor data. We develop the time-compounded SDF measure, which is an alternative measure to the time-averaged factor approach proposed by the literature. We show the theoretical relevance and equivalence of our time-compounded alpha and time-compounded SDF measures in capturing interim investment opportunities. Empirically, we document the importance of the interim trading bias by comparing alphas estimated with an unadjusted monthly measure with those estimated with bias-adjusted measures. We show that the mean bias across funds is not different from zero. However, more that 25% of the funds have statistically significant changes in performance when controlling for the bias. By comparison, two existing measures detect few significant biases. Second, we study the persistence of the interim trading bias in fund performance and its relation with various fund attributes, investment styles and market indicators. We examine these aspects not only for the interim trading bias, but also for the performance adjusted for interim trading. We find that the interim trading bias is persistent in the long run only for funds with positive bias. When we look at the persistence of the bias-adjusted alpha, we show that funds with negative past performance continue to deliver negative alpha. The pattern is reversed for funds with positive past performance. In the determinant analysis, we use both a portfolio approach and a regression approach. Overall, the results show that small funds, young funds and funds with low manager tenure have larger interim trading bias. Flow-driven turnover and cash holdings have statistically and economically significant positive relations with the interim trading bias. Finally, funds that are the most active exhibit a high positive bias. When we investigate the determinants of the interim-trading-bias-adjusted alpha, we obtain results that are generally consistent with the prior literature. Specifically, we find that funds with the highest volatility, selectivity, turnover, flow-driven turnover, cash holdings and expenses exhibit lower adjusted performance. Performance is somewhat improved for funds that are mature, large and with experienced managers. Third, we examine the robustness of our findings on the interim trading bias. The main focuses are on the important percentage of funds that have their performance significantly changed by the new time-compounded SDF measures and on the superior ability of time-compounded measures over time-averaged measures in alleviating the problem of interim trading bias. Our checks confirm that these findings are robust to alternative specifications, various methodological choices and finite sample issues.
62

Exploration de nouvelles structures de modélisation hydrologique globale conceptuelle

Kittavong, Sisouvanh 19 January 2021 (has links)
Plusieurs modèles hydrologiques ont été développés au cours des dernières décennies. Un modèle hydrologique devrait être capable de représenter tous les bassins versants. Les performances des modèles dépendent des caractéristiques du bassin versant étudié; aucun modèle ne convient à toutes les tâches de modélisation. Cette thèse de doctorat a pour but de proposer une méthode de sélection de modèles parmi un grand nombre de candidats. Elle prend en compte : l'identification d'une banque de modèles performants pour des conditions climatiques différentes et la sélection de modèles appropriés selon les conditions climatiques du bassin versant (aride, tempéré ou continentale) et les objectifs de modélisation (débits élevés, moyens ou faibles). La recherche est basée sur 1446 modèles construits en utilisant l‘approche multistructure empirique (Ensemble Multistructure Framework, EMF) et 100 bassins versants états-uniens aux conditions climatiques diversifiées. L'objectif de cette étude est de valoriser les approches flexibles afin d'identifier des modèles performants pour une diversité de climats. La sélection des modèles est ainsi basée sur les performances individuelles de 1446 modèles en les comparant avec un modèle de référence (GR4J). Sur la base de cette étude, une banque de 80 modèles diversifiés, issus des 1446 modèles initiaux, a été proposée pour d‘autres applications. Pour évaluer l'impact du climat et de la métrique sur la performance du modèle, les 80 modèles présélectionnés ont été évalués sur les trois types de climat et sur les trois objectifs de modélisation. Cette étude propose au final quatre nouveaux modèles hydrologiques conceptuels, adaptés à des conditions climatiques et hydrologiques spécifiques. La modélisation hydrologique demeure imparfaite en raison d'un grand nombre d'incertitudes liées notamment à la description de la transformation pluie-débit par les structures du modèle hydrologique. L'approche multimodèle est une solution alternative, parce que la combinaison de modèles existants peut mener à de meilleurs résultats par rapport aux modèles individuels. La diversité des structures des modèles constitue souvent un des premiers principes du fonctionnement d‘un multimodèle de manière à compenser les erreurs et à améliorer les performances. Les 80 modèles présélectionnés et l'algorithme Backward Greedy Selection (BGS) sont ainsi utilisés afin de sélectionner l‘ensemble des modèles à combiner. Les tests ont été effectués sur six critères (MCRPS, KGEsqrt, Mlogs, NRD, PIT et RDmse). Les résultats montrent que l'optimisation par MCRPS est la plus intéressante. / Many hydrologic models were developed in the last few decades. They should be capable of simulating all of the catchments but, in practice, their performance is dependent on the geology and climate, so no model structure is suitable for all modeling tasks. This doctoral thesis aims at proposing a model selection method, from a grand pool of candidates, which accounts for the identification of a pool of successful models in diversified climates conditions and the selection of appropriate models for the catchment climatic conditions (arid, humid, and continental) and modeling objectives (high, medium and low flows). It is based on 1446 models constructed using the Ensemble Multistructure Framework (EMF) and 100 climatically diversified American catchments. The focus of this study is to value flexible modeling approaches to identify successful models for a variety of climates. The model selection is first based on the individual performance of the 1446 models, comparing them to a reference model (GR4J). A pool of 80 diversified models is then identified for further investigation. To evaluate the impact of climate and metric on model performance, the 80 preselected models are evaluated on the three types of climates and three modeling objectives. At the end, four new lumped conceptual hydrologic models are tailored for specific climate and flow conditions. Hydrological modeling remains imperfect due to a large number of uncertainties, particularly related to the description of rainfall-flow transformation by hydrological model structures. The multimodel approach is an alternative solution, because the combination of existing models gives better results than individual ones. The diversity of model structures touches one of the first principles of the operation of a multimodel is the compensation of the errors to improve the performances. The 80 preselected models and the Backward Greedy Selection (BGS) algorithm are then used to select the models set to combine. Tests are performed on six optimizations (MCRPS, KGEsqrt, Mlogs, NRD, PIT and RDmse). Results show that, the optimization by the MCRPS is most interesting when compare to other criterions.
63

Modélisation de l'efficacité populationnelle du vaccin contre le virus du papillome humain au Canada

Van de Velde, Nicolas 19 April 2018 (has links)
Objectif: Les deux objectifs principaux de cette thèse étaient de développer 1) des modèles mathématiques pour prédire l’efficacité populationnelle de la vaccination contre les VPH et 2) des méthodes pour quantifier l’incertitude autour des prédictions de ces modèles. Méthode: Nous avons développé trois modèles mathématiques: 1) un modèle statique compartimental de l’histoire naturelle du cancer du col de l’utérus (Modèle1), 2) un modèle dynamique individus-centré de l’infection aux VPH (Modèle2), et 3) un modèle dynamique individus-centré de l’histoire naturelle des maladies associées aux VPH (Modèle3). Résultats: Les trois modèles ont prédit que la vaccination des filles pourrait diminuer substantiellement le fardeau des maladies associées aux VPH, au Canada. La durée de protection vaccinale a été identifiée comme étant le paramètre influençant le plus les résultats d’efficacité populationnelle. Le modèle 3 a prédit que le vaccin bivalent pourrait prévenir légèrement plus de cas de cancer du col sur le long terme, alors que le vaccin quadrivalent a le potentiel de réduire drastiquement les condylomes sur le court terme. Finalement, le modèle 3 a suggéré que le vaccin nonavalent actuellement en développement pourrait rapporter des bénéfices additionnels importants si son efficacité et sa durée de protection sont supérieures à 85% et 30 ans, respectivement. D’un point de vue méthodologique, nous avons développé une procédure de calibration multivariée capable de quantifier l’incertitude paramétrique dans les modèles. Elle nous a permis de montrer l’importance de cette incertitude et la nécessité de la représenter dans les résultats. Pour finir, nous avons quantifié l’incertitude structurelle liée aux hypothèses de modélisation suivantes: immunité de groupe, immunité naturelle, durée des partenariats, groupement des génotypes VPH et fonctions de temps utilisées pour représenter le déclin de la protection vaccinale. Conclusion: Nous avons développé des modèles de complexité croissante, en parallèle avec les méthodes de calibration adéquates, afin de pouvoir suivre et répondre aux questions de santé publique du moment. Notre dernier modèle est présentement utilisé pour examiner l’impact de la vaccination sur les inégalités de santé et sera utilisé dans le futur pour évaluer le rapport de coût-efficacité des nouveaux vaccins et optimiser les programmes de dépistage. / Objective: The two main objectives of this thesis were to develop 1) mathematical models to predict the population-level impact of HPV vaccination in Canada, and 2) methods to quantify uncertainty around model predictions. Methods: We developed three mathematical models: 1) a static compartmental model of cervical cancer natural history (Model 1), 2) an individual-based dynamic model of HPV infection (Model 2), and 3) the first individual-based transmission-dynamic model of partnership formation and dissolution, and natural history of multi-type HPV infection and disease (anogenital warts, and cervical, anogenital and oropharyngeal cancers) (Model 3). For each model, an extensive fitting procedure was conducted, which identified multiple posterior parameter combinations (out of hundreds of thousands of prior parameter sets) that fit simultaneously highly stratified behavioral and epidemiologic data, taken from the literature, population-based datasets, and original studies. Parameter uncertainty was illustrated by presenting the median [10th; 90th percentiles] of predictions, using the posterior parameter combinations. Sensitivity analysis was conducted varying vaccine efficacy, duration of protection, coverage and vaccination strategies. Results: We provided the following evidence for HPV vaccination recommendations. Models 1-3 predicted that girls-only HPV vaccination can substantially reduce HPV-related burden of disease. Predictions were most sensitive to duration of vaccine protection. Model 3 predicted that the bivalent vaccine will be slightly more effective at preventing cervical cancer in the longer term. However, the quadrivalent vaccine will substantially reduce anogenital warts. Finally, the candidate nonavalent vaccine has the potential to produce substantial incremental benefits if its efficacy and duration of protection are at least 85% and 30 years, respectively. From a methodological point of view, we illustrated that parameter uncertainty surrounding HPV natural history parameters is important and must be presented when providing predictions to decision makers. Finally, we identified key structural assumptions that influence predictions: herd immunity, natural immunity, partnership duration, individual genotypes and vaccine waning function. Conclusion: We developed increasingly sophisticated HPV models and calibration techniques to keep track with the increasingly complex policy questions being asked. Our final model is being used to examine the impact of HPV vaccination on health inequalities, evaluate the cost-effectiveness of HPV vaccination, and optimize screening.
64

Stratégies de localisation du (des) composant(s) défaillant(s) pour un système multi-composant

Arous, Ahmed 18 April 2018 (has links)
Dans ce mémoire nous traitons le problème de localisation du (des) composant(s) responsable(s) de la défaillance. Chaque composant est assujetti à des défaillances aléatoires. La détection de l’état d’un composant ou d’un sous-système est effectuée à l’aide de tests. L’objectif de cette recherche est d’exploiter les techniques et connaissances disponibles pour générer la séquence de tests qui permet de localiser rapidement le(s) composant(s) responsable(s) de la défaillance du système. On considère un système opérant suivant une structure série pour lequel on connaît le coût de tests et la probabilité conditionnelle qu’un composant (i) soit responsable de la défaillance. On analyse les différentes stratégies de diagnostic. Des exemples, empruntés à la littérature, sont utilisés pour illustrer chaque procédure traitée. Des extensions sont proposées pour traiter le cas où le diagramme de fonctionnement du système n’est pas nécessairement "série". Les algorithmes traités font appel à l’analyse probabiliste des systèmes, à la théorie de l’information, à l’approche heuristique et à la programmation dynamique. / In this paper, we address the problem of the localization of the component(s) responsible(s) for the failure. Each component is subjected to random failures. Some tests help the detection of the state of a component or a subsystem. The objective of this research is to exploit the available knowledge and techniques to generate the tests sequence that locate quickly the (s) component (s) responsible (s) of system failure. We consider a system which operates according to a structure series and of which we know the test costs and the conditional probability that a component (i) is out of service. We analyze the different diagnostic strategies. Some examples, taken from the literature, are used to illustrate each procedure covered. Many extensions are proposed to handle the case where the diagram of the system is not necessarily "series". The algorithms treated are based of probabilistic analysis of systems, the information theory, the heuristic approach and the dynamic programming.
65

Analyse non-linéaire du comportement dynamique des sols granulaires lâches

Simoneau, Kevin 18 April 2018 (has links)
Les calculs numériques peuvent désormais modéliser des comportements non-linéaires observés lors du chargement cyclique des sols granulaires lâches tels le comportement hystérétique, la déformation plastique et la génération de surpressions interstitielles. La fiabilité et les modalités d'utilisation de ces nouveaux outils de calculs demeurent toutefois à être évaluées, tout particulièrement dans le contexte sismique de l'est canadien. Le but de ce projet de maîtrise est de faire le point sur 4 modèles de comportement dynamiques disponibles à ce jour pour évaluer la réponse sismique d'un sol potentiellement liquéfiable. Le premier modèle considéré dans l'étude est le modèle linéaire-équivalent du logiciel ProShake. Les trois autres modèles considérés sont le modèle en élasticité non-linéaire hystérétique, le modèle hystérétique avec un critère de plasticité de Mohr-Coulomb et le modèle hystérétique avec critère de plasticité de Mohr-Coulomb et génération de surpressions interstitielles. Ces trois derniers modèles sont implantés dans le logiciel FLAC 6.0. La réponse dynamique de site est calculée pour le site instrumenté de Wildlife pour lequel des enregistrements d'accélération, de surpressions interstitielles et de déformations sont disponibles et pour le site de Témiscouata, un site de l'est canadien qui a été le sujet de 4 campagnes d'investigations géotechniques majeures et constitué des sols granulaires lâches. La comparaison des modèles est effectuée sur la base du calcul des accélérations en surface, des contraintes et des déformations ainsi que sur le calcul de la résistance de site. Au terme des analyses, il a été trouvé que le modèle linéaire équivalent et le modèle en élasticité non-linéaire hystérétique montrent des résultats similaires, mais que le modèle linéaire-équivalent sous-estime les déformations élastiques et amortit plus les vibrations de faible amplitude. Le modèle en élasticité non-linéaire hystérétique avec critère de plasticité de Mohr-Coulomb permet d'évaluer l'atteinte de la résistance, mais pas les déplacements plastiques subséquents. Le modèle en élasticité non-linéaire hystérétique avec critère plasticité de Mohr-Coulomb et génération de surpressions interstitielles a calculé des surpressions interstitielles qui ne sont pas consistantes avec les résultats des autres modèles et les données de la littérature. Une méthodologie devrait être mise en place pour l'utilisation du modèle à partir d'investigations géotechniques de routine.
66

An integrated planning model for multi-supplier, multi-facility, multi-customer, multi-product and multi-period : application to the wood furniture industry

Ouhimmou, Mustapha 16 April 2018 (has links)
Typiquement, un réseau de création de valeur dans l'industrie du meuble en bois, est composé de fournisseurs de billes de bois, de scieries, de séchoirs, d'usines de meubles, de centres de distribution et de détaillants. Dans cette thèse, nous nous concentrons sur l'étude du réseau qui assure l'approvisionnement des usines de meubles en bois. La problématique à laquelle font face les entreprises de ce réseau se situe principalement au niveau de la synchronisation des flux de matière. Ces derniers doivent respecter les contraintes de capacité, de procédés, de transport et la diversité des produits, pour satisfaire la demande. La planification, dans ce contexte, repose sur une vision locale ce qui affecte la performance globale du réseau. L'objectif de cette thèse est de proposer un modèle de planification intégrée dans un contexte, multifoumisseurs, multiusines, multiproduits, multiclients et multipériodes, qui vise la synchronisation des flux, et la maximisation de la performance globale tout en respectant les différentes contraintes du réseau. Nous proposons un modèle générique du problème de planification intégrée qui permet de déterminer les décisions tactiques d'approvisionnement, d'inventaire, de flux de matière et de sous-traitance. Ce modèle est un programme linéaire mixte en nombres entiers de grande taille. Nous avons développé une heuristique basée sur la décomposition dans le temps qui exploite l'aspect multipériodes du problème de planification. Nous avons aussi proposé deux solutions basées sur la décomposition de Benders et la décomposition croisée pour réduire le temps de résolution. Enfin, ce modèle a été validé en utilisant les données réelles de l'entreprise partenaire du projet et les résultats, montrent des réductions potentielles du coût total des opérations de l'ordre de 22%. L'approche de planification intégrée adoptée ainsi que les méthodes de résolution proposées dans cette thèse peuvent être exploitées pour la planification des réseaux dans d'autres secteurs d'activités ayant des similarités avec la problématique traitée dans cette thèse.
67

Analysis and application of Poisson-Nernst Planck equations in neural structures

Boahen, Frank 02 June 2023 (has links)
Titre de l'écran-titre (visionné le 22 mai 2023) / Les modèles mathématiques sont souvent employés en neurosciences pour mieux comprendre le comportement des neurones et des réseaux neuronaux. De nombreux outils mathématiques sont utilisés pour décrire les différents aspects de l'activité et des structures neuronales sur des échelles temporelles et temporelles s'étendant sur plusieurs ordres de grandeur. Par exemple, les systèmes d'équations différentielles ordinaires tels que le modèle de Hodgkin-Huxley sont utilisés depuis plusieurs décennies pour décrire les mécanismes de génération de potentiels d'action dans les neurones. À une échelle spatiale plus grande, les équations aux dérivées partielles (EDP) telles que les équations de Maxwell sont utilisées pour comprendre la distribution du champ électrique sur l'ensemble du cerveau. Un nombre moins important de recherches ont été consacrées à l'étude de la distribution des concentrations ioniques et du champ électrique dans les petites structures neuronales (∼ 1μm) telles que les nœuds de Ranvier, les épines dendritiques ou les vésicules présynaptiques. Une manière de modéliser ces structures est de résoudre le système EDP des équations de Poisson Nernst Planck. Ce système d'équations peut être utilisé pour calculer la distribution des concentrations ioniques en résolvant les équations de Nernst-Planck et résoudre la distribution des champs électriques par l'équation de Poisson. L'avantage d'une telle approche est qu'elle permet d'étudier des structures aux géométries arbitrairement complexes. L'objectif principal de cette thèse est d'utiliser le système d'équations de Poisson Nernst-Planck pour modéliser l'activité des épines dendritiques et des nœuds de Ranvier afin de mieux comprendre les les fluctuations des concentrations ioniques dans ces structures. Une contribution importante du projet projet est l'implémentation d'une méthode numériquement efficace pour résoudre ces équations. En effet, la résolution de l'EDP sur des géométries non triviales peut rapidement devenir coûteuse en termes de calcul ce qui rend important le choix d'une approche numérique efficace. Nous avons utilisé la méthode des éléments finis avec des éléments de second ordre. Notre code est implémenté sur le logiciel MEF++, un code développé par le groupe de recherche GIREF de l'Université Laval. Les deux structures d'intérêt, les épines dendritiques et les nœuds de Ranvier, ont été choisies parce qu'elles jouent des rôles importants dans la signalisation neuronale et parce que leurs fonctions sont susceptibles d'être modulées par des altérations de leurs géométries. Les épines dendritiques sont des structures en forme de champignon qui recouvrent les branches dendritiques. Une grande partie des synapses excitatrices sont situées sur les épines dendritiques et l'on pense donc que ces structures jouent un rôle dans la façon dont le signal électrique est transmis au corps cellulaire du neurone. Nous avons simulé des événements synaptiques se produisant sur des épines de géométries différentes afin de déchiffrer la relation entre leur forme et leur fonction. Les événements survenant au niveau des synapses excitatrices déclenchent deux types de réponses, une dépolarisation électrique et une augmentation de la concentration en calcium. Notre modèle décrit ces deux réponses. Nos simulations suggèrent que la forme des épines dendritiques est un déterminant important de la dynamique du calcium alors que son impact sur la signalisation électrique reste limité sur une large gamme de géométries. Les axones sont des structures filiformes qui transmettent des signaux électriques d'un neurone à d'autres. Les axones sont isolés électriquement par des gaines de myéline qui accélèrent la propagation des signaux. Les nœuds de Ranvier sont de petites sections non myélinisées de l'axone, espacées à des intervalles à peu près réguliers. Ces structures sont caractérisées par une forte densité de canaux commandés par le voltage qui maintiennent l'amplitude du potentiel d'action pendant sa propagation. Nous étudions numériquement l'effet de la longueur du nœud, de l'épaisseur de la myéline et de l'angle que fait la myéline avec le nœud de Ranvier sur la propagation du potentiel électrique dans la membrane de l'axone. Nous montrons que la perte de myéline dans le nœud de Ranvier pourrait avoir un impact important sur les potentiels extracellulaires. La méthodologie développée dans cette thèse pourrait être appliquée à de nombreuses autres structures telles que la fente synaptique ou les vésicules présynaptiques. / Mathematical models are often employed in neuroscience to better understand the behaviour of neurons and neural networks. Many mathematical tools are used to describe the different aspects of neural activity and structures over temporal and time scales spanning over several order of magnitudes. For example, systems of ordinary differential equations (ODE's) such as the Hodgkin-Huxley model have been used for several decades to describe the spike generating mechanisms in neurons. On a larger spatial scale, partial differential equations (PDE's) such as Maxwell equations are used to understand the distribution of the electrical field over the whole brain. A lesser amount of research has been devoted to the investigation of the distribution of ionic concentrations and electrical field in small neural structures (∼ 1 μm) such as nodes of Ranvier, dendritic spines or presynaptic vesicles. One way to perform such investigations is to solve the PDE system of Poisson Nernst Planck equations. This system of equations can be used to compute the distribution of ionic concentrations by solving the Nernst-Planck equations and resolve the distribution of electric fields through the Poisson equation. The advantage of such an approach is that it allows the investigation of structures with arbitrarily complex geometries. The main aim of this thesis is to use the Poisson Nernst-Planck system of equations to model the electrical activity of dendritic spines and nodes of Ranvier and to better understand the fluctuations of ionic concentrations in these structures. A significant contribution of the project is the implementation of a numerically efficient way to solve these equations. Indeed, the resolution of PDE on non trivial geometries can rapidly become computationally expensive making the choice of an efficient numerical approach important. We used the finite element method with second order elements. Our code is implemented on the MEF++ software, a code developed by the GIREF research group at Laval University. The two structures of interest, dendritic spines and nodes of Ranvier were chosen because they play important roles in signaling in neural signaling and because their functions is likely to be modulated by alterations in their geometries. Dendritic spines are mushroom like structures covering dendritic branches. A large proportion of excitatory synapses are located on dendritic spines and it is thus believed that these structures play a role in how the electric signal is transmitted to the neuron's cell body. We simulated synaptic events occurring on spines with many different geometries to decipher the elusive relationship between their shape and function. Events at excitatory synapses trigger two types of responses: an electrical depolarization and an increase in calcium concentration. Our model describes these two responses. Our simulations suggest that the shape of the spine is an important determinant of calcium dynamics while its impact on electric signaling remains limited over a wide range of geometries. Axons are wire like structures transmitting electric signals from one neuron to others. Axons are electrically insulated by myelin sheaths which accelerates signal propagation. Nodes of Ranvier are small unmyelinated sections of the axon spaced at roughly regular intervals. Theses structures are characterized by a high density of voltage gated channels which maintain the amplitude of the action potential during its propagation. Numerically, we investigate the effect of the node length, myelin thickness and the angle which the myelin makes with the node of Ranvier on the propagation of electric potential in the membrane of the axon. We show that loss of myelin in the node of Ranvier might have an important impact on extracellular potentials. The methodology developed in this thesis could be applied to many other structures such as the synaptic cleft or presynaptic vesicles.
68

Modélisation des capacités de transformation et des marchés : support à la planification stratégique dans l'industrie forestière

Jacques, Jovani 17 April 2018 (has links)
Il a été noté que les approches de planification forestière au niveau stratégique ont traditionnellement ignoré l'interaction avec le reste de la chaîne de valeur [57]. En effet, bien que les décisions prises à ce niveau soient à l'heure actuelle supportées par des modèles d'approvisionnement forestier, elles portent peu d'attention à la valeur et aux coûts des produits forestiers, aux capacités de transformation et à la localisation des usines et des marchés [27]. Afin de faciliter l'intégration de ces éléments dans la planification forestière, ce mémoire propose un formalisme de représentation et de description des unités d'affaires, des produits, des flux de matière, des processus et des marchés. Le modèle proposé dans ce mémoire a comme objectif de supporter la planification stratégique dans l'industrie forestière.
69

Evaluation of hydrological ensemble prediction systems for operational forecasting

Velázquez Zapata, Juan Alberto 17 April 2018 (has links)
La prévision hydrologique consiste à évaluer quelle sera l'évolution du débit au cours des prochains pas de temps. En utilisant les systèmes actuels de prévisions hydrologiques déterministes, il est impossible d'apprécier simplement l'incertitude associée à ce type de prévision, ce que peut nuire à la prise de décisions. La prévision hydrologique d'ensemble (PHE) cherche à étayer cette incertitude en proposant, à chaque pas de temps, une distribution de probabilité, la prévision probabiliste, en place et lieu d'une estimation unique du débit, la prévision déterministe. La PHE offre de nombreux bénéfices : elle informe l'utilisateur de l'incertitude; elle permet aux autorités qui prennent des décisions de déterminer des critères d'alerte et de mettre en place des scénarios d'urgence; elle fournit les informations nécessaires à la prise de décisions tenant compte du risque. L'objectif principal de cette thèse est l'évaluation de prévisions hydrologiques d'ensemble, en mettant l'accent sur la performance et la fiabilité de celles-ci. Deux techniques pour construire des ensembles sont explorées: a) une première reposant sur des prévisions météorologiques d'ensemble (PME) et b) une seconde exploitant simultanément un ensemble de modèles hydrologiques (multimodèle). En termes généraux, les objectifs de la thèse ont été établis afin d'évaluer : a) les incertitudes associées à la structure du modèle : une étude qui repose sur des simulations journalières issues de dix-sept modèles hydrologiques globaux, pour plus de mille bassins versants français; b) les incertitudes associées à la prévision météorologique : une étude qui exploite la PME du Service Météorologique du Canada et un modèle hydrologique opérationnel semi-distribué, pour un horizon de 3 jours sur douze bassins versants québécois; c) les incertitudes associées à la fois à la structure du modèle et à la prévision météorologique : une étude qui repose à la fois sur la PME issue du ECMWF (European Centre for Medium-Range Weather Forecasts) et seize modèles hydrologiques globaux, pour un horizon de 9 jours sur 29 bassins versants français. Les résultats mets en évidence les avantages des systèmes probabilistes par rapport aux les déterministes. Les prévisions probabilistes sont toutefois souvent affectées par une sous dispersion de leur distribution prédictive. Elles exigent alors un post traitement avant d'être intégrées dans un processus de prise de décision. Plus intéressant encore, les résultats ont également montré le grand potentiel de combiner plusieurs sources d'incertitude, notamment celle associée à la prévision météorologique et celle associée à la structure des modèles hydrologiques. Il nous semble donc prioritaire de continuer à explorer davantage cette approche combinatoire.
70

Application de la fonction bêta et des polynômes de jacobi en hydrologie

Díaz Delgado, Carlos 11 April 2018 (has links)
En hydrologie, l'étude statistique de débits est souvent concentrée sur l'analyse des valeurs extrêmes (crues et étiages). Cette étude porte sur l'analyse des crues, en considérant l'existence de la crue maximale probable (CMP), comme la limite physique supérieure du phénomène. Un appel à la fonction Bêta a été requis, étant donné que cette courbe analytique peut représenter une fonction de densité de probabilité, ayant la particularité d'avoir deux bornes, ainsi qu'en possèdent grand nombre de phénomènes naturels. Cette étude délimite les formes possibles de la fonction Bêta à partir des caractéristiques propres de l'échantillon et des limites supérieure et inférieure du phénomène. L'emploi d'une série de polynômes orthogonaux, de type Jacobi, a permis d'augmenter le degré de convergence vers la vraie fonction de densité de probabilité du phénomène. De cette façon, une amélioration dans les prévisions des crues de rivières peut ainsi être atteinte par l'utilisation de cette nouvelle méthode. En effet, pour la validation du modèle, une série de mille données aléatoires suivant une loi Bêta [0;1000] a été générée, et l'application de cette nouvelle méthode a permis un ajustement très satisfaisant. De plus, une analyse de sensibilité de la fonction Bêta-Jacobi par rapport au nombre optimum des moments à utiliser a démontré que le degré de la fonction à employer se situe entre quatre et six. Il faut cependant souligner que la grandeur de l'échantillon joue un rôle primordial dans l'accroissement de la précision du modèle Bêta - Jacobi. D'autre part, afin de rendre la méthode efficace, précise et facile à utiliser, un logiciel de ce modèle mathématique a été conçu et écrit en langage turbo Pascal (version quatre) pour microordinateur. Finalement, quelques applications pratiques ont été réalisées sur des rivières importantes de la province de Québec, au Canada; ces applications ont révélé un très bon degré d'ajustement entre la fonction de distribution expérimentale et la fonction Bêta-Jacobi. De tels résultats justifient l'applicabilité du nouveau modèle mathématique ici proposé, pour l'analyse d'événements extrêmes en hydrologie, notamment dans l'analyse des crues des rivières. / Québec Université Laval, Bibliothèque 2014

Page generated in 0.0756 seconds