• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 589
  • 185
  • 3
  • Tagged with
  • 779
  • 779
  • 489
  • 237
  • 106
  • 100
  • 97
  • 91
  • 90
  • 85
  • 83
  • 78
  • 73
  • 64
  • 62
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
201

Modélisation des fluctuations macroéconomiques et comparaison des performances de modèles dynamiques d'équilibre général estimés : une approche par l'estimation bayésienne et les modèles à facteurs

Rugishi, Muhindo G. 12 April 2018 (has links)
Depuis le début des années 1980, la modélisation macroéconomique a subi un renouveau méthodologique marqué par l'avènement des modèles d'équilibre général dynamiques stochastiques (DSGE) et des modèles vectoriels autorégressifs (VAR). Il existe actuellement un consensus dans les milieux académiques et institutionnels que les modèles DSGE peuvent offrir aux débats économiques un cadre d'analyse efficace. L'utilisation des modèles DSGE dans l'analyse des cycles et fluctuations économiques est un des domaines les plus actifs de la recherche macroéconomique. Comme les modèles DSGE sont mieux ancré dans la théorie économique, ils permettent de fournir des explications plus cohérentes de la dynamique du cycle économique et d'analyser les différents types de chocs qui perturbent régulièrement les différentes économies. Les modèles VAR sont un outil utilisé à grande échelle dans la macroéconomie appliquée, notamment dans la validation empirique des modèles DSGE. En dépit de leur faible ancrage dans la théorie économique, les modèles VAR restent assez flexibles pour traiter un éventail de questions concernant la nature et les sources des fluctuations économiques. En outre, ils sont particulièrement adaptés pour faire des tests statistiques d'hypothèses ainsi que pour des exercices de prévision à court terme. C'est ainsi que les résultats des modèles VAR sont souvent perçus comme des faits stylisés qui devraient être reproduits par des modèles économiques. Alors que la spécification des modèles DSGE a connu un développement remarquable aboutissant à une lecture des fluctuations économiques analogue à celle de la synthèse néoclassique (rôle des chocs budgétaires et monétaires à court terme) et que beaucoup des progrès ont été réalisés pour comparer les prédictions des modèles aux données, les méthodes couramment utilisées pour la validation de ces modèles présentent certaines limites. Il se pose actuellement la question de savoir si ces méthodes sont toujours appropriées pour fournir des estimations consistantes des paramètres structurels et pour permettre la comparaison formelle des modèles DSGE concurrents. En effet, il reste encore beaucoup à faire pour développer des outils simples et opérationnels permettant de mesurer l'adéquation entre les prédictions des modèles DSGE et les données. La méthode communément utilisée pour évaluer les modèles DSGE consiste à comparer les moments estimés ou obtenus par simulations stochastiques du modèle et les moments historiques. Si les moments historiques appartiennent à l'intervalle de confiance des moments estimés ou simulés, on considère que cet ensemble de moments est bien reproduit par le modèle. Le problème de cette méthodologie est qu'elle ne permet pas la comparaison de deux modèles quand l'un reproduit plutôt bien certains moments et plus mal d'autres moments qui sont, au contraire, mieux expliqués par l'autre modèle. L'absence d'un critère de choix explicite pour évaluer la portée explicative de différents modèles constitue un problème majeur si on cherche à discriminer entre différents paradigmes et théories concurrentes. L'utilisation de la méthode des moments pour l'évaluation des modèles DSGE et l'explication des fluctuations économiques est, à certains égards, très approximative. Cette insuffisance amène plusieurs chercheurs à opter pour l'utilisation des modèles VAR pour la validation empirique des modèles DSGE. Cependant, les débats à la suite du papier séminal de Gali (1999) portant sur l'impact des chocs technologiques sur les heures travaillées ont suscité de scepticisme concernant l'apport de cette méthodologie alternative et certains chercheurs se demandent actuellement si les modèles VAR peuvent vraiment être utiles pour discriminer des théories concurrentes et si leurs propriétés d'échantillonnage sont assez précises pour justifier leur popularité dans la macroéconomie appliquée. L'échec des modèles VAR d'ordre fini comme outil utile d'évaluation des modèles DSGE est parfois attribué au fait qu'ils ne sont que des approximations des processus VAR d'ordre infini ou bien à la possibilité qu'il n'existe point de représentation VAR. C'est le cas notamment quand l'hypothèse d'inversibilité n'est pas satisfaite. Les méthodes d'estimation par maximum de vraisemblance ou bayésienne des paramètres structurels des modèles DSGE sont maintenant d'utilisation courante dans les milieux académiques et décisionnels. Ces méthodes permettent de comparer les performances de prévision des modèles DSGE à celles d'un modèle VAR ou celles de deux théories concurrentes. Bien que les modèles DSGE fournissent de relativement bonnes prévisions dans certains cas, des problèmes de mauvaise spécification et de non identifiabilité ont comme conséquence que les paramètres structurels et le vecteur d'état de l'économie ne sont pas souvent estimés de manière consistante. Ces insuffisances peuvent entraîner des recommandations de politique économique dangereusement biaisées et posent de sérieux problèmes dans l'évaluation de politiques alternatives. Dans cette thèse, nous proposons une voie de réconciliation qui offre des possibilités d'une meilleure intégration de la théorie et de la mesure en macroéconomie. La méthodologie proposée permet de combiner de manière explicite les modèles factoriels non structurels et les modèles théoriques d'équilibre général micro-fondés. Les modèles factoriels complètent les modèles macroéconomiques structurels destinés à évaluer les évolutions économiques à court et ce, principalement en offrant un cadre qui permet d'améliorer l'estimation et la prévision de plusieurs indicateurs macroéconomiques. En effet, la méthode d'évaluation utilisée permet de prendre en compte toute l'information macroéconomique disponible en recourant aux modèles factoriels, d'estimer et de tester, dans un cadre unifié, les paramètres structurels et les propriétés cycliques d'un modèle DSGE et de comparer des théories concurrentes. Les variables inobservables et les composantes cycliques des modèles sont estimés à l'aide d'un filtre de Kalman et des techniques numériques de Monte Carlo par chaînes de Markov (MCMC). Nous utilisons l'ensemble des outils développés pour faire une comparaison formelle de deux variantes du modèle de cycles réels à la King-Rebelo (2000) et du modèle de thésaurisation du travail de Bumside, Eichenbaum et Rebelo (1993) appliqués à l'économie américaine sur des données trimestrielles allant de 1948 à 2005. L'utilisation des modèles à facteurs permet d'améliorer les qualités prédictives des modèles DSGE et de surpasser dans bon nombre des cas les problèmes de non identifiabilité et de non inversibilité rencontrés dans ces types de modèles. L'étude démontre que le choc technologique identifié par Gali (1999) est non structurel et que l'utilisation des modèles à facteurs devrait être préférée dans certains cas à celle de l'approche VAR. En présence des variables mesurées avec erreur, l'utilisation des filtres de type Hodrick-Prescott (HP) conduit à une estimation non consistante de certains paramètres structurels des modèles DSGE. Le test de stabilité indique une diminution de l'amplitude de chocs exogènes depuis le début des années 1980, ce qui se traduit par une modération des cycles économiques et des fluctuations des taux d'intérêt. Enfin, l'analyse dynamique montre que les réponses de l'investissement au choc de dépenses publiques sont largement liées aux valeurs assignées aux paramètres structurels. / Since the beginning of the 1980s, macroeconomic modeling has undergone a methodological revival marked by the advent of the dynamic stochastic general equilibrium (DSGE) models and vector autoregressive (VAR) models. There is currently a consensus in the académie and institutional circles that DSGE models can offer to the économie debates an effective framework of analysis. The analysis of économie cycles and fluctuations using DSGE models is one of the most active areas of macroeconomic research. As DSGE models are firmly grounded in the économie theory, they are used to provide more cohérent and adéquate explanations for observed dynamics of the business cycle and to analyze a wide range of shocks which buffet regularly various économies. VAR models are a widely used tool in empirical macroeconomics, particularly for the evaluation of DSGE models. Despite they rely so loosely on économie theory, VAR models remain enough flexible to treat a range of questions concerning the nature and the sources of the économie fluctuations. Moreover, they are particularly adapted to perform statistical hypothesis tests as well to provide reliable forecasts in the short-term. Thus the results from VAR models are often viewed as stylized facts that économie models should replicate. Although the specification of DSGE models has seen a remarkable development leading to a reading of the économie fluctuations similar to those of the neoclassical synthesis (rôle of budgetary and monetary shocks in the short-term) and that steps forward hâve also been made in comparing the models' prédictions to the data, the methods usually used for the evaluation of these models présent some limitations. This raises the question of whether or not these methods are always well-adapted to provide consistent estimates of the structural parameters and to allow the formal comparison of competing DSGE models. Indeed, there still remains much to do in the development of simple operational tools that make it possible to measure the gap between the prédictions of DSGE models and the data. The common method used for evaluating DSGE models consists of comparing the estimated moments or those obtained by stochastic simulations of the model and the historical moments. If the historical moments belong to the confidence interval of the estimated or simulated moments, it is considered that this set of moments is well reproduced by the model. The problem of this methodology is that it does not allow the comparison of two models when one matches some moments well and does more badly for other moments that are better explained by the other model. The difficultés in designing explicit sélection criteria to evaluate the success of competing models constitute a major problem if one seeks to discriminate between various paradigms and concurrent theories. The moment-matching techniques for the evaluation of DSGE models and the explanation of the économie fluctuations are, in certain sensé, very approximate. This insufficiency leads several researchers to choose using the VAR models for the empirical evaluation of DSGE models. However, the debates following the séminal paper of Gali (1999) focused on the impact of the technological shocks on hours worked caused scepticism concerning the contribution of this alternative methodology and some researchers currently wonder if the VAR models can actually discriminate between competing DSGE models and whether their sampling properties are good enough to justify their popularity in applied macroeconomics. The failure of finite-order VAR models for evaluating DSGE models is sometimes attributed to the fact that they are only approximations to infinite-order VAR processes or to the possibility that there does not exist a VAR représentation at ail. This is the case particularly when the assumption of invertibility is not satisfied. Bayesian or maximum likelihood estimation methods of the structural parameters are now currently used in académie and policy circles. Thèse methods are tailored to compare the forecasting performances of the DSGE models with those of VAR models and to discriminate between competing DSGE models. Although DSGE models provide, in some cases, relatively good forecasts, the potential model misspecification and identification problems have as consequence the lack of efficiency in the estimated latent variables and structural parameters. These insufficiencies can dangerously bias recommendations of economic policy and pose serious problems in the evaluation of alternative policies. In this thesis, we propose a reconciliation that offers possibilities to better integrate of the theory and measurement in macroeconomics. The suggested methodology is used to combine explicitly the non-structural factor models and the micro-founded general equilibrium theoretical models. The factor models supplement the structural macroeconomic models intended to evaluate the economic evolutions in the short-term and this, mainly by offering a framework which allows the improvement of the estimates and forecasting of several macroeconomic indicators. Indeed, the method evaluation used makes it possible to exploit ail available macroeconomic information by using the factor models and allows us to estimate and test, within a unified framework, the structural parameters and the cyclical properties of the model, and to compare competing theories. The structural parameters, the unobservable variables and the cyclical components are estimated using the Kalman filter and the Markov chain Monte Carlo methods (MCMC). We use the set of the tools developed to make a formal comparison of two variants of the real business cycle model in King and Rebelo (2000) and of an extension of labour market specification consisting in the introduction of labour-hoarding behaviour, as suggested by Burnside, Eichenbaum and Rebelo (1993), which are applied to the US economy with quarterly data from 1948 to 2005. The use of the factor models provide an important set of tools to improve predictive qualities of DSGE models and can help to solve, in numerous cases, the identification and invertibility problems met in these types of models. The study shows that the technological shock identified by Gali (1999) is non-structural and that using the factor models factors should be preferred in some cases to the VAR approach. In the presence of the variables measured with error, using the detrending methods like the Hodrick-Prescott (HP) filter can lead to inconsistent estimates of some structural parameters of DSGE models. The test of stability suggests a reduction in the magnitude of exogenous shocks since the beginning of the 1980s, which implies the moderation of business cycles and fluctuations of interest rates. Lastly, the dynamic analysis shows that the impulse response functions of the investment to the government consumption shock are largely related to the values assigned to the structural parameters.
202

Modélisation de la qualité de l'eau et prévision des débits par la méthode des réseaux de neurones

Filion, Mélanie 12 April 2018 (has links)
L'objectif premier de cette étude vise à modéliser, à l'aide des réseaux de neurones, deux paramètres de qualité de l'eau : les nitrates et la matière en suspension. L'intérêt d'une telle simulation est de pouvoir développer un outil d'aide à la décision en matière de gestion des pratiques agricoles. Bien que les réseaux aient montré plus de difficulté à modéliser les MES que les N-NO3, ils ont réussi à approximer les signaux avec une précision suffisante pour le but poursuivi. Le deuxième objectif vise à vérifier si l'ajout de données de teneur en eau du sol améliore la prévision des débits et de comparer le gain apporté, à celui apporté par l'ajout d'un indice de teneur en eau. Les résultats montrent que la couche intermédiaire du sol apporte le gain de performance le plus important quoique l'indice de teneur en eau soit une alternative intéressante.
203

Détermination d'un modèle en trois dimensions de la réfractivité troposphérique à partir d'un réseau de récepteurs GPS au sol

Macias-Valadez, Daniel 12 April 2018 (has links)
Le délai troposphérique subi par les signaux GPS entre les satellites et le récepteur affecte la précision du positionnement mais contient aussi de l'information utile sur l'état de la troposphère. Le délai troposphérique consiste en une composante hydrostatique et une composante humide qu'il est possible de séparer. Avec un réseau permanent de récepteurs GPS, où la position des sites est connue avec précision, et en utilisant l'information sur les délais en pente humides (SWD, de l'anglais Slant Wet Delays) estimés entre chaque station et tous les satellites visibles, il est possible de dresser un modèle en trois dimensions de la réfractivité humide au-dessus du réseau. La présente recherche porte sur l'utilisation de fonctions en séries de Taylor en trois dimensions afin de modéliser la réfractivité humide. Un réseau permanent de 43 stations en Suisse a été utilisé afin d'estimer en post-traitement les SWD et de les utiliser comme données d'entrée au modèle de la réfractivité humide proposé. Cette modélisation permet de calculer les délais troposphériques zénithaux humides en tout point à l'intérieur du réseau pour que d'autres récepteurs GPS qui ne font pas partie du réseau puissent corriger l'effet troposphérique. Une comparaison des résultats a été effectuée par rapport à l'utilisation traditionnelle d'une atmosphère standard et un facteur d'amélioration moyen de 30\% a été atteint. D'autre part, des données météorologiques recueillies dans des stations indépendantes du réseau GPS ont été utilisées afin de valider les valeurs de réfractivité humides calculées par le modèle. La concordance entre ces valeurs et celles de validation est à 2 unités près en moyenne. / Le délai troposphérique subi par les signaux GPS entre les satellites et le récepteur affecte la précision du positionnement mais contient aussi de l'information utile sur l'état de la troposphère. Le délai troposphérique consiste en une composante hydrostatique et une composante humide qu'il est possible de séparer. Avec un réseau permanent de récepteurs GPS, où la position des sites est connue avec précision, et en utilisant l'information sur les délais en pente humides (SWD, de l'anglais Slant Wet Delays) estimés entre chaque station et tous les satellites visibles, il est possible de dresser un modèle en trois dimensions de la réfractivité humide au-dessus du réseau. La présente recherche porte sur l'utilisation de fonctions en séries de Taylor en trois dimensions afin de modéliser la réfractivité humide. Un réseau permanent de 43 stations en Suisse a été utilisé afin d'estimer en post-traitement les SWD et de les utiliser comme données d'entrée au modèle de la réfractivité humide proposé. Cette modélisation permet de calculer les délais troposphériques zénithaux humides en tout point à l'intérieur du réseau pour que d'autres récepteurs GPS qui ne font pas partie du réseau puissent corriger l'effet troposphérique. Une comparaison des résultats a été effectuée par rapport à l'utilisation traditionnelle d'une atmosphère standard et un facteur d'amélioration moyen de 30\% a été atteint. D'autre part, des données météorologiques recueillies dans des stations indépendantes du réseau GPS ont été utilisées afin de valider les valeurs de réfractivité humides calculées par le modèle. La concordance entre ces valeurs et celles de validation est à 2 unités près en moyenne.
204

Étude expérimentale du pénétromètre à déformation contrôlé dans des argiles

Bustamente Bedoya, Jose Marcel 13 April 2018 (has links)
Cette thèse s'inscrit dans le cadre d'une étude géotechnique. Son objectif général consiste à élaborer un appareil pouvant être utile dans le futur et servant à mesurer les caractéristiques des argiles dans le but d'arriver éventuellement à la résistance au cisaillement non drainé. Le programme d'essais consiste en la pénétration par l'appareil d'une argile de Louiseville et d'une argile artificielle, toutes deux dans des états remanié et intact.Quelques résultats de contraintes sont aussi évalués avec la méthode des éléments finis(MEF) avec le logiciel Geoslope. Le modèle utilisé est le Cam clay. Le logiciel SAS est mis en oeuvre pour faire la relation entre la contrainte, la vitesse de pénétration et la teneur en eau, en utilisant une régression linéaire multiple.
205

Les entrées et les sorties de la pauvreté au Québec et en Ontario : une analyse comparative

Bernard, Marie-Pier 09 October 2018 (has links)
En raison de la faible disponibilité des données longitudinales, la plupart des études portant sur la pauvreté utilisent une approche statique, alors qu’une analyse dynamique fournirait un bien meilleur portrait des inégalités de revenu. À cet effet, la présente recherche utilise une analyse de survie en temps discret afin d’évaluer les caractéristiques des ménages qui influencent la probabilité de transition dans la pauvreté à des fins de comparaisons entre le Québec et l’Ontario. À l’aide de l’Étude longitudinale et internationale des adultes (ÉLIA), différents scénarios d’entrée et de sortie de la pauvreté ont été analysés. Les résultats suggèrent que la composition d’un ménage, la scolarité, les caractéristiques socio-démographiques ainsi que les antécédents en matière de pauvreté influencent les transitions dans la pauvreté.
206

Analyse théorique et numérique des conditions de glissement pour les fluides et les solides par la méthode de pénalisation

Dione, Ibrahima 19 April 2018 (has links)
Nous nous intéressons aux équations classiques de Stokes et de l’élasticité linéaire stationnaires, posées dans un domaine [symbol] de frontière [symbol] courbe et régulière, associées à des conditions de glissement et de contact idéal, respectivement. L’approximation par éléments finis de tels problèmes est délicate en raison d’un paradoxe de type Babuška-Sapondžyan : les solutions dans des domaines polygonaux approchant le domaine à frontière courbe et régulière ne convergent pas vers la solution dans le domaine limite. L’objectif de cette thèse est d’explorer l’application de la méthode de pénalisation à ces conditions de glissement dans le but, notamment, de remédier à ce paradoxe. C’est une méthode classique et très répandue en pratique, car elle permet de travailler dans des espaces sans contraintes et d’éviter par exemple l’ajout de nouvelles inconnues comme dans la méthode des multiplicateurs de Lagrange. La première partie de cette thèse est consacrée à l’étude numérique en 2D de différents choix d’éléments finis et, surtout, de différents choix de l’approximation de la normale au bord du domaine. Avec la normale (discontinue) aux domaines polygonaux [symbol] engendrés avec les maillages de [symbol], les solutions par éléments finis ne semblent pas converger vers la solution exacte. En revanche, si on utilise des régularisations de la normale, des éléments finis isoparamétriques de degré 2 en vitesse (déplacement pour l’élasticité) ou une sous-intégration du terme de pénalisation, on observe une convergence, avec des taux optimaux dans certains cas. Dans une seconde partie, nous faisons une analyse théorique (en dimensions 2 et 3) de la convergence. Les estimations a priori obtenues permettent de dire que même avec la normale discontinue aux domaines polygonaux, l’approximation par éléments finis converge vers la solution exacte si le paramètre de pénalisation est choisi convenablement en fonction de la taille des éléments, démontrant ainsi que le paradoxe peut être évité avec la méthode de pénalisation. / We are interested in the classical stationary Stokes and linear elasticity equations posed in a bounded domain [symbol] with a curved and smooth boundary [symbol], associated with slip and ideal contact boundary conditions, respectively. The finite element approximation of such problems can present difficulties because of a Babuška-Sapondžyan’s like paradox: solutions in polygonal domains approaching the smooth domain do not converge to the solution in the limit domain. The objective of this thesis is to explore the application of the penalty method to these slip boundary conditions, in particular in order to overcome this paradox. The penalty method is a classic method widely used in practice because it allows to work in functional spaces without constraints and avoids adding new unknowns like with the Lagrange multiplier method. The first part of this thesis is devoted to the 2D numerical study of different finite elements choices and, most importantly, of different choices of the approximation of the normal vector to the boundary of the domain. With the (discontinuous) normal vector to polygonal domains [symbol] generated with the meshing of [symbol], the finite element solutions do not seem to converge to the exact solution. However, if we use a (continuous) regularization of the normal, isoparametric finite elements of degree 2 for the velocity (or the displacement for elasticity) or a reduced integration of the penalty term, convergence is obtained, with optimal rates in some cases. In a second part, we make a theoretical analysis (in dimensions 2 and 3) of the convergence. The a priori estimates obtained allow to say that even with the (discontinuous) normal vector to polygonal domains, the finite element approximation converges to the exact solution when the penalty parameter is selected appropriately in terms of the size of the elements, showing that the paradox can be circumvented with the penalty method.
207

Modélisation des effets de la configuration spatiale des interventions de coupes sur la mortalité du caribou des bois en forêt boréale

Vanlandeghem, Virginie 18 December 2019 (has links)
Ce projet vise à évaluer l’effet de la configuration spatiale des coupes forestières et des routes sur la mortalité des adultes du caribou des bois (Ranfiger tarandus), écotype forestier, dans des paysages habités par le loup gris (Canis lupus) et une proie alternative, l’orignal (Alces alces). Nous avons utilisé un modèle centré sur l’individu pour modéliser les déplacements d’agents, représentant des individusfictifs de chaque espèce, dans des environnements virtuels. Les agents se déplaçaient selon des règles de déplacement établies à partir de l’analyse des données de suivis télémétriques de caribous, d’orignaux et de loups. Les environnements virtuels étaient façonnés par différents aménagements forestiers se distinguant par leur niveau de perturbations et par la configuration spatiale des coupes et du réseau routier. Le nombre de caribous morts par la prédation augmentait avec le niveau de perturbations des scénarios d’aménagement forestier. De plus, pour un même niveau de perturbations, la mortalité des caribous différait selon la configuration spatiale des activités forestières. Le risque de prédation des caribous était plus élevé lorsque la configuration des coupes dans le paysage engendrait un dense et vaste réseau routier et une fragmentation importante de l’habitat du caribou. Ainsi, en plus du niveau de perturbations, les plans de gestion de l’habitat de l’écotype forestier du caribou des bois devraient prendre en compte l’effet de la configuration spatiale des coupes et des routes sur la mortalité du caribou afin d’atténuer l’impact dela prédation sur ces populations dû à l’extraction des ressources. / The aim of this project was to assess the impact of the spatial configuration of cuts and roads on adult mortality of the boreal ecotype of woodland caribou (Ranfiger tarandus)in landscapes inhabited by the gray wolf (Canis lupus) and an alternative prey, the moose (Alces alces). We used an individual-based model to simulate movements of agents, which are virtual individuals of each species, moving in virtual landscapes. Agents moved according to movement rules determined from field studies conducted on radio-collared caribou, moose and wolves. Virtual landscapes were shaped by various forest managements, differing in disturbance level sand spatial configuration of cuts and roads. The number of caribou killed by wolves increased with increasing disturbance levels. Also, for a given level of disturbance, caribou mortality varied with the spatial distribution of forest activities. Predation risk of caribou was higher in landscapes with extensive road networksand high degree of forest fragmentation. Thus, habitat management plans for boreal caribou should not only focus on assessing habitat disturbance thresholds but also consider the effect of the spatial configuration of cuts and roads on caribou mortality in order to reduce the impact of predation due to natural resource extraction on the ecotype’s populations.
208

Modélisation de la diffusion intermembranaire des ions de chlorure dans un neurone pyramidal hippocampique

Fontaine, Charlotte 12 April 2018 (has links)
L'hippocampe est l'endroit central où s'élaborent les processus de mémorisation et d'apprentissage. C'est aussi le siège de plusieurs maladies dégénératives telles que Pépilepsie, l'ischémie et autres désordres psychiatriques. Le récepteur ionotropique GABAA et le co-transporteur KCC2 sont des composants complexes qui résident dans les synapses GABAergiques de l'hippocampe. Leur fonctionnement est régi par une relation de coopération dynamique assurée par des échanges ioniques. Les ions chlorure jouent un rôle prépondérant et leur distribution hétérogène serait un indicateur d'anomalie : pathologie ou trouble de mémorisation. Dans le cadre de cette maîtrise, nous proposons un travail portant sur la modélisation du comportement diffusif des ions chlorure géré par l'action coopérative GABAA et KCC2. Dans une première partie nous présenterons une revue bibliographique sur les fondements de neurobiologie. Nous développerons particulièrement les aspects touchant les phénomènes de connectivité des neurones, de localisation et de structure des différents récepteurs et canaux ioniques. Dans la deuxième partie, nous démontrerons les principes fondamentaux des phénomènes de diffusion. Nous nous limiterons aux cas essentiels de la diffusion macroscopique avec ou sans force externe et à la théorie de la marche aléatoire. Un chapitre sera consacré aux éléments finis, méthode de résolution des équations différentielles partielles, et code Femlab utilisés pour représenter la dynamique des mouvements intermembranaires des ions chlorures. Nous mettrons l'accent sur les exigences et les pièges à éviter pour obtenir un modèle stable et près de la réalité de l'objet. Finalement, nous donnerons les résultats obtenus en modélisation et en simulation. / The hippocampus is the central place where the processes of memorizing and training are worked out. It is also the seat of several degenerative diseases such as the psychiatric disorders, epilepsy and ischaemia. The ligand-gated channel GABAA and the KCC2 cotransporter are complex components which reside in GABAergics synapses of the hippocampus. Their operation is governed by a dynamic relation of co-operation ensured by ionic exchanges. The chloride ions play a dominating part and their heterogeneous distribution would be an indicator of anomaly: pathology or disorder of memorizing. Within the framework of this control, we propose a bearing work on the modeling pf the diffusive behavior of the chloride ions managed by the co-operative action of GABAA and KCC2. In a first part we will present a bibliographical review on the bases of neurobiology. Wc will particularly develop the aspects concerning the phenomena of connectivity of the neurons, localization and structure of the various ionic channels. In the second part, we will show the fundamental principles of the phenomena of diffusion. We will limit ourselves to the essential cases of the macroscopic diffusion with or without external force and to the theory of random walk. A chapter will be devoted to the finite elements, a method of resolution of partial differential equations, and Femlab codes used to represent the dynamics of the intermembrane movements of chloride ions. We will stress the requirements and the traps to avoid to obtain a stable model and close to the reality of the object. Finally, we will give the results obtained in modeling and simulation.
209

Conservative characteristic-based schemes for shallow flows

Mohammadian, Abdolmajid 12 April 2018 (has links)
Tableau d'honneur de la Faculté des études supérieures et postdoctorales, 2005-2006 / Les équations en eaux peu profondes, encore appelées équations de Saint-Venant, sont utilisées dans de nombreux cas importants comme les fleuves, les lacs, les estuaires et les océans. La conservation de certaines quantités est une propriété importante qui est habituellement désirée pour assurer la précision des simulations à long terme et également pour le cas des écoulements complexes avec présence d'ondes de choc. Cette thèse examine tout d'abord la formulation de schémas semi-Lagrangiens, qui sont bien connus pour demeurer stables pour des nombres très élevés de CFL. Cependant, ces schémas perdent leur propriété de stabilité lorsque la conservation totale des quantités, qui est cruciale pour une simulation correcte les ondes de chocs, est imposée. Un schéma semi- Lagrangien entièrement conservatif est développé ici et ce dernier demeure stable pour des nombres élevés de CFL. L'approche proposée est ensuite étendue à la méthode des caractéristiques (MOC) et une version conservative du schéma MOC est développée. Contrairement au schéma MOC original, qui ne peut pas simuler correctement les ondes de choc à cause du manque de conservation, le schéma proposé les simule avec succès. De plus, le nouveau schéma présente des avantages sur le plan numérique, tant pour la diffusion et la dispersion que pour la stabilité. Le cas 2D est ensuite considéré, et la méthode de volume finie est utilisée à cause de son conservation inhérente. Le cas 2D est ensuite considéré, et la méthode de volumes finis est utilisée à cause de ses qualités inhérentes de conservation. La plupart des méthodes numériques disponibles sont sensibles au problème du déséquilibre entre les termes source et de flux, particulièrement en présence d'un maillage non structuré. D'autre part, la plupart des schémas numériques disponibles (par exemple les schémas HLL et ENO) induisent un niveau élevé de diffusion numérique en simulant des écoulements tourbillonnaires. Trois approches différentes, applicables sur des maillages non structurés sont développées ici. Elles peuvent simuler des conditions complexes d'écoulement comprenant les topographies variables, les écoulements tourbillonnaires, trans-critiques et discontinus. Finalement plusieurs méthodes de volumes finis upwind sont utilisées, via une analyse de type Fourier, pour évaluer le niveau d`amortissement des modes de Rossby. Contrairement aux bons résultats habituellement obtenus par les méthodes de volumes finis upwind dans iii le cas d'écoulements dominés par la convection, on remarque ici que les ondes de Rossby sont amorties de manière excessive. / Shallow water equations arise in many important cases such as in rivers, lakes, estuaries and oceans. Conservation is an important property which is usually desired to ensure the accuracy of the long term simulations and also for the case of complex flows with shockwaves. This thesis begins with semi-Lagrangian schemes, which are well known to remain stable for very high CFL numbers. However, they lose their high stability property when the fully conservative property, which is crucial for a correct simulation of shock waves, is imposed. An inherently fully conservative semi-Lagrangian scheme is developed here which remains stable for high CFL numbers. The proposed approach is then extended to the method of characteristics (MOC) and a conservative extension of MOC is developed. Contrary to the original MOC, which is unable to simulate shockwaves due to the lack of conservation, the proposed scheme easily simulates them. Further, the new scheme presents favorable features in terms of numerical diffusion and dispersion. The 2D case is then considered, and the finite volume method is employed due to its inherent conservation properties. Most available numerical methods face the problem of imbalance between the source and flux terms, particularly when unstructured grids are used. On the other hand, most available numerical schemes (such as the HLL and the ENO schemes) induce a high level of numerical diffusion in simulating recirculating flows. Three different approaches using unstructured grids are successfully developed here. The new schemes can simulate complex flow conditions including recirculating, trans-critical and discontinuous flows over variable topographies. Finally, the performance of the upwind finite volume schemes, for Rossby waves, is studied using a Fourier analysis approach. Contrary to the usual good results obtained for those schemes in the case of convection dominated flows, it is observed here that they lead to an excessive damping of the Rossby modes.
210

Numerical simulations of thermal loads exerted on dams by laterally confined ice covers

Kharik, Ekaterina 23 May 2018 (has links)
Les barrages hydro-électriques construits dans les climats froids subissent des poussées des glaces importantes. Ces charges doivent être prises en compte pour l’évaluation de la sécurité de ces structures. Bien que les barrages aient été construits et exploités dans différents pays pendant de nombreuses années, il n’y a pas de consensus sur les critères de charge de glace. Les valeurs de conception varient considérablement – plus de 3 fois d’une autorité internationale à l’autre. La nature complexe des poussées des glaces implique de nombreux facteurs et incertitudes qui empêchent encore la pleine compréhension des processus en jeu, malgré les avancées récentes. Cette recherche doctorale vise à donner une nouvelle approche aux calculs des poussées des glaces sur les barrages et, ainsi, faire progresser l’objectif d’harmonisation des critères de conception pour les poussées des glaces. L’approche méthodologique de cette recherche consiste à compiler les modèles existants de comportement rhéologique de la glace et les inclure dans la simulation numérique des principaux événements historiques de poussées des glaces mesurés au Canada. La construction d’un modèle numérique commence par un choix de processus et d’hypothèses clés, ainsi que par des modèles rhéologiques à inclure. Par conséquent, une revue compréhensive de la littérature sur le comportement rhéologique de la glace a été réalisée. Cette thèse décrit un modèle de fluage 3D du comportement rhéologique pour deux types de glace (glace columnaire et glace de neige). Le modèle construit peut être implémenté dans un logiciel d’éléments finis pour simuler le comportement de la glace sous les charges statiques. Au cours du projet, le logiciel ANSYS a été utilisé pour construire un modèle d’éléments finis pour des simulations d’événements mesurés. Le modèle d’éléments finis a été validé et étalonné par rapport à des expériences en laboratoire provenant de la littérature. Par la suite, il a été utilisé dans la simulation d’événements de poussées des glaces sur des barrages au Canada. Seule expansion thermique de la glace a été simulée par le modèle d’éléments finis. Les fluctuations de niveau d’eau ont été indirectement incluses dans le modèle par la simulation de la glace confinée latéralement. L’influence de différents facteurs sur la poussée des glaces simulées a été étudiée. Les conseils et les lignes directrices pour le choix et l’implémentation du modèle rhéologique de fluage dans un logiciel d’éléments finis commercial sont également fournis. La thèse est basée sur des résultats d’études qui ont été publiés dans deux articles de colloques et dans un article de journal. La thèse inclut l’introduction des poussées des glaces sur les barrages, les objectifs du projet, les revues de littérature sur les processus influents des poussées des glaces, sur les propriétés rhéologiques des deux types de glace fréquents sur un réservoir et la modélisation du comportement de la glace, ainsi que la présentation des données de terrain, la description du modèle, les études non encore publiées, la conclusion et les recommandations. La thèse discute du lien entre les expériences en laboratoire sur la glace et les mesures in situ des poussées des glaces sur les barrages. L’étude documente le fait que le fluage élastique retardé de la glace a un effet limité sur les poussées des glaces résultantes pour les grandeurs de grains de 3 mm à 20 mm, et son calcul peut être omis dans des évaluations approximatives des poussées des glaces avec cettes grandeurs de grains moyennes. Il est également montré que la variabilité du coefficient de dilatation thermique de la glace avec la température n’est pas importante pour les températures étudiées. L’importance des conditions initiales et du comportement de la glace en tension pour les poussées des glaces résultantes est également montrée. La thèse met l’accent sur l’importance de la considération correcte du confinement latéral et du type de glace pour les calculs de poussées des glaces sur les barrages. Il a été montré que la hausse du niveau d’eau et le confinement latéral de la glace peuvent produire très grandes forces de poussées, si la glace est principalement columnaire. De ce fait, il devient important d’évaluer la possibilité d’avoir des hivers secs ayant peu d’accumulation de neige sur la glace (les conditions favorables à la formation de la glace columnaire) pour la sélection de la charge de conception. / Hydroelectric dams are subjected to ice loads in cold climates. Withstanding such loads is an important safety requirement for the structures. Although dams have been built and operated by different countries for many years, there is no consensus on a design ice load criteria. Design values vary considerably – by more than 3 times from one international authority to another. The complex nature of ice loads involves many factors and uncertainties that still prevent the full understanding of ice field processes in spite of much progress done in this direction. This doctoral research aims to give new insights into reservoir ice loads, and, thus, to move forward the objective of harmonization of ice load design criteria. The main approach of this research is a compilation of existing models of ice material behaviour and their inclusion in the numerical simulation of key historical ice load events measured in Canada. A construction of a numerical model begins with a choice of key processes and key assumptions as well as material models to include. Therefore, a comprehensive literature review on the topic is required. During the project, diverse literature on ice material behaviour was reviewed. This thesis describes a 3D creep material model for rheological behaviour of two types of ice, namely columnar (S2) ice and snow (T1) ice. The constructed model can be implemented into software to simulate behaviour of ice under the static loads. In this project, the commercial software ANSYS was used for this purpose to build a finite element model (FEM) for simulations of field events. After the FEM was built, it was validated and calibrated against laboratory experiments taken from the literature. Subsequently, the resulting FEM was used for simulation of key Canadian field events. Only thermal expansion of ice was simulated by the FEM with indirect accounting of the impact of water level fluctuations through the modelling of ice cover under lateral confinement. The influence of different factors on the simulated ice load was studied, namely, the influence (i) of selected material constants, (ii) of lateral confinement, (iii) of grain size and of delayed elastic creep, (iv) of variable or constant coefficient of thermal dilatation, (v) of ice type, (vi) of initial stresses as well as (vii) the influence of ice behaviour in tension. The advice and guidelines for the choice and implementation of a creep material model into commercial finite element software are also given. The thesis is based on studies conducted for two conference papers and one journal paper. The thesis includes introduction to the ice loads on dams, objectives of the project, literature reviews on governing ice loading processes, on material properties of two types of ice of frequent occurrence on a reservoir and on modelling of ice behaviour as well as field data presentation, model description, yet unpublished studies, conclusion and recommendations. The thesis discusses the linkage between laboratory experiments on ice and in situ measurements of reservoir ice loads on dams through the numerical modelling of field events. It documents the fact that delayed elastic creep has a limited effect on the resulting ice load for grain sizes of 3 mm – 20 mm, and its calculation can be omitted in approximate assessments of field ice loads for ice cover with these average grain sizes. It is also shown that variability of coefficient of thermal dilatation of ice with temperature is not important for the temperature range studied. The importance of initial conditions and ice behaviour in tension for the resulting ice load is also shown. The thesis emphasizes the importance of correct accounting of lateral confinement and ice type for ice load calculations. It is shown that when water level rises and the ice is confined laterally, if the reservoir consists primarily of columnar ice, the loads can be very substantial. As such, it is recommended that engineers pay particular attention to the possibility of having cold dry winters with little snow accumulations on an ice cover (favorable conditions for columnar ice formation) when choosing their design criteria.

Page generated in 0.059 seconds