• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 587
  • 185
  • 3
  • Tagged with
  • 777
  • 777
  • 489
  • 237
  • 106
  • 100
  • 97
  • 91
  • 90
  • 85
  • 83
  • 78
  • 73
  • 63
  • 62
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
321

Résolution des problèmes de tournées de véhicules pour le transport des échantillons biomédicaux au Québec

Chabot, Thomas 23 April 2018 (has links)
Afin d’offrir un service de diagnostic fiable à l’ensemble de la communauté, les spécialistes de la santé doivent user d’un réseau de centres de prélèvement et de laboratoires d’analyse biomédical. Les laboratoires ont des équipements de pointe servant à fournir aux spécialistes les informations sur les diagnostics. Ce travail présente un riche problème de planification de tournées de véhicules dans le contexte du réseau des laboratoires du Québec. Les centres de prélèvement sont soumis à un ensemble de contraintes techniques qui en font un problème difficile à résoudre. En effet, nous verrons qu’un ensemble d’exigences doit être respecté de la part des transporteurs afin d’éviter certaines sources de gaspillage. Dans le cadre d’une démarche d’optimisation des opérations du réseau des laboratoires et de l’offre de service aux patients, le Ministère de la Santé et des Services Sociaux (MSSS) a mandaté l’Université Laval et notre équipe pour le développement d’une méthode de planification du transport. Nous présentons d’abord une description en profondeur du contexte étudié et de la problématique de transport, qui par notre revue de littérature, semble encore un problème peu exploré. Deux modèles d’optimisation mathématiques sont proposés ainsi que des méthodes heuristiques afin d’identifier des plans de transport qui minimisent les coûts de transport. Les performances de ces diverses méthodes sont discutées et analysées en détail.
322

Frictions financières : théories et évidences

Manadir, Abdellah 24 April 2018 (has links)
Cette thèse évalue la contribution de deux types de frictions financières à améliorer la capacité des modèles dynamiques stochastiques d'équilibre général (DSGE) de type néo-keynésien à répliquer les cycles économiques, et la capacité des modèles hybrides (DSGE-VAR) à mieux prévoir les aggrégats macroéconomiques. Motivé par un problème de Costly State Verification à la Bernanke et al. [1999] affectant les contrats de dette, le premier type de friction financière induit un écart entre le rendement attendu du capital et le taux sans risque, écart qui dépend du ratio de levier entrepreneurial. Le deuxième type de friction, justifié par un problème de Costly Enforcement à la Gertler and Karadi [2011], induit quant à lui un écart entre le rendement attendu du capital et le taux sans risque qui dépend du changement dans le ratio de levier. Le premier chapitre de la thèse estime trois versions du modèle macroéconomique de Smets and Wouters [2003, 2007] à l'aide de l'approche bayésienne. La première version, utilisée comme point de comparaison, considère les marchés financiers comme un voile et ne contient pas de friction financière. La deuxième version incorpore la friction de type Costly State Verification à la Bernanke et al. [1999], tandis que la troisième version inclut la friction de style Costly Enforcement à la Gertler and Karadi [2011]. Ce chapitre utilise ensuite les résultats d'estimation pour répondre aux deux questions suivantes : (i) Est-ce que les modèles avec frictions financières sont plus compatibles avec les données macroéconomiques des États-Unis que ceux qui font abstraction de ces frictions ? Si c'est le cas, (ii) quel type de friction financière est plus compatible avec ces mêmes données ? Les résultats d'estimation mettent en évidence les points suivants. Premièrement, l'ajout des frictions financières améliore l'ajustement du modèle néo-keynésien aux données. Ces améliorations semblent être marginales et non robustes, dans le cas du problème de Costly State Verification, tandis qu'elles sont substantielles et robustes dans le cas du problème de Costly Enforcement. Deuxièment, estimer l'élasticité de la prime du risque au ratio de levier entrepreneurial, plutôt que la calibrer à une valeur commune utilisée dans la littérature, induit une amélioration subtancielle de la performance du modèle à la Bernanke et al. [1999]. Ceci suggère que cette élasticité devrait être révisée (à la baisse) par rapport à la position à priori prise dans la littérature. Le deuxième chapitre de la thèse estime trois versions du modèle de Smets and Wouters [2003, 2007] à l'aide de la méthodologie bayésienne, et ceci pour l'économie des États-Unis et pour celle de la zone Euro. La première version, servant du modèle de base, considère les marchés financiers comme un voile et n'incorpore pas de friction financière. La deuxième version lève le voile sur les marchés financiers et incorpore la friction de type Costly State Verification à la Bernanke et al. [1999], tandis que la troisième version inclut la friction de style Costly Enforcement à la Gertler and Karadi [2011]. Les trois versions accordent une attention particulière aux tendances de long terme reflétées dans les données et considèrent donc un processus déterministe de la technologie, qui accroit la productivité des heures de travail. Par la suite, ce chapitre emploie les résultats d'estimation pour répondre aux deux questions suivantes. (i) Est-ce que l'importance des frictions financières est différente dans l'économie des États-Unis et dans celle de la zone Euro ? Si c'est le cas, (ii) quels facteurs peuvent expliquer cette différence ? Les résultats obtenus mentionnent les points suivants. D'abord, la friction de type Costly State Verification à la Bernanke et al. [1999] est plus importante dans l'économie de la zone euro que dans celle des États-Unis. Par contre, la friction de type Costly Enforcement à la Gertler and Karadi [2011] n'est pas importante ni dans l'économie de la zone Euro, ni dans l'économie des États-Unis. Ensuite, l'importance relativement élevée de la friction dans l'économie de la zone Euro peut être expliquée par l'élasticité élevée de la prime du risque au ratio de levier dans cette économie. Finalement, le troisième chapitre de la thèse développe trois types d'information à priori pour un modèle vectoriel auto-régressif, et ce à partir d'un modèle néo-keynésien DSGE sans friction financière, d'un modèle incorporant la friction de type Costly State Verification à la Bernanke et al. [1999] et d'un modèle incluant la friction de style Costly Enforcement à la Gertler and Karadi [2011]. Ce chapitre compare ensuite la performance prévisionnelle des trois modèles hybrides (DSGE-VAR) pour répondre à la question suivante : Jusqu'à quel point l'introduction des structures (frictions) financières améliore-t-elle les prévisions d'un modèle hybride DSGEVAR? Les résultats obtenus indiquent que les modèles DSGE-VAR incluant des frictions financières ne semblent pas performer mieux que les modèles DSGE-VAR standard. / This thesis assesses the extent to which two types of financial frictions contribute to the ability of New-Keynesian-type-stochastic dynamic general equilibrium models (DSGE) to reproduce business cycles and the ability of hybrid models (DSGE-VAR) to forecast macroeconomic aggregates. The first type of financial friction originates from a problem of Costly State Verification à la Bernanke et al. [1999] and appears in debt contracts. This type of friction implies a wedge between the expected return on capital and the risk-free rate that depends on entrepreneurial leverage, whereas the wedge is absent in models with no frictions. The second type of friction results from a problem of Costly Enforcement à la Gertler and Karadi [2011], which also induces a wedge between the expected return on capital and the risk-free rate, that is now determined by the change in entrepreneurial leverage. The first chapter of thesis estimates three versions of Smets and Wouters [2003, 2007] using a Bayesian approach. Used as a benchmark, the first version considers financial markets as a veil and thus contains no financial friction. The second version incorporates the Costly State Verification-type-friction à la Bernanke et al. [1999], while the third version includes the Costly Enforcement-type-friction à la Gertler and Karadi [2011]. The estimation results are used to answer to following questions: (i) Are models including financial frictions more compatible with U.S. macroeconomic data than those with no frictions? (ii) which types of financial friction are preferred by the data? Our findings indicate that adding financial frictions improves the New-Keynesian model's fit to data, in terms of data marginal density. In the case of Costly Enforcement problem, these improvements are both substantial and robust, while they are marginal and not robust in the case of the Costly State Verification problem. Second, estimating the risk premium elasticity to entrepreneurial leverage, rather than calibrating it to values commonly used in the literature, helps the Bernanke et al. [1999] model version to perform more well. This finding suggests that this elasticity should be revised (downwards), relative to the prior belief established in the literature. The second chapter estimates three versions of Smets and Wouters [2003, 2007] via the Bayesian methodology for both the U.S. and Euro economies. The first version serves as a basic model and considers financial markets as veil, thereby contains no financial frictions. The second version includes a Costly State Verification-type problem à la Bernanke et al. [1999], while the third one incorporates a Costly Enforcement problem à la Gertler and Karadi [2011]. These three versions pay particular attention to long term trends that are present in data and thus incorporate a labour-augmenting technology process. The chapter then uses estimation results to answer to the following questions: (i) Is the importance of financial frictions different in the U.S. economy and in the Euro economy? Then, (ii) which factors can explain this difference? The main results are: First, the Costly State Verification-type-friction à la Bernanke et al. [1999] is more important in the Euro economy than in the U.S. economy, while the Costly Enforcement-type-friction à la Gertler and Karadi [2011] doesn't appear important to the both economies. Second, the relative importance of financial frictions in the Euro area can be explained by the high estimate of the risk premium elasticity to the leverage in the Euro economy. The third chapter of thesis develops three types of prior information for a VAR model, from a New-Keynesian model with no financial friction, a model incorporating a friction of Costly state Verification à la Bernanke et al. [1999] and a model including a friction of Costly Enforcement à la Gertler and Karadi [2011]. This last chapter then compares the three hybrid models (DSGE-VAR) via the root mean squared forecast errors, in order to answer to the following question: To which extent can the presence of financial structures (frictions) improve the forecasting ability of hybrid model DSGE-VAR? In terms of out-sample forecasts, the results show that the hybrid models with no financial frictions perform as well as those with frictions.
323

Trois essais sur le contenu informatif de la distribution des rendements implicite aux prix des options = : Three essays on the informative content of the option-implied return distribution / Three essays on the informative content of the option-implied return distribution

Toupin, Dominique 31 January 2021 (has links)
Chapitre 1 - Prévoir les rendements internationaux à l'aide de mesures de risque implicites aux options Ce chapitre examine la prévisibilité des rendements d’indices internationaux à l'aide d'informations quotidiennes en utilisant des régressions prédictives et de la prévision hors échantillon. Nous documentons le pouvoir prédictif significatif de la prime de risque de variance (VRP), de la mesure de risque généralisé (GR) et des moments d'ordre supérieur pour des horizons allant de 1 à 250 jours. Ces quatre mesures de risque, qui saisissent les «craintes» cumulatives du marché, fonctionnent bien aux États-Unis et à l'étranger. VRP et GR sont des prédicteurs significatifs et complémentaires pour plusieurs horizons, y compris ceux inférieurs à un mois (VRP) ainsi que des horizons plus lointains (GR). L'asymétrie et la kurtose sont significatifs pour plusieurs pays à travers de multiples horizons. Les calculs des gains d'utilité confirment l'importance économique de ces variables à l'échelle internationale. Chapitre 2 - Prévision de la volatilité des indices boursiers à l'aide de distributions récupérées à l’aide du théorème de Ross Le théorème de récupération montre que les données d’options peuvent révéler les véritables attentes du marché. Nous adaptons cette approche aux données d'options sur indices internationaux (S&P500, FTSE, CAC, SMI et DAX) et séparons la volatilité implicite en volatilité attendue récupérée par Ross et un proxy relié aux préférences des investisseurs pour le risque. Nous étudions les performances de prévision de la volatilité de ces variables, construites au niveau national et international. Les résultats montrent que les prévisions sont significativement améliorées et celles-ci fournissent de nouvelles informations sur la dynamique internationale des attentes et des préférences en matière de risque. Pour tous les indices, les modèles utilisant des mesures globales de Ross sont les plus performantes. Les résultats suggèrent que le théorème de récupération est empiriquement utile. Chapitre 3 - Le facteur d’escompte stochastique contemporain Ce chapitre étudie le facteur d’escompte stochastique contemporain obtenu en appliquant le théorème de récupération aux options de l'indice S&P500. Comme pour la littérature existante sur le casse-tête du facteur d’escompte stochastique, je trouve que les facteurs récupérés sont en forme de U, mais seulement une partie du temps. Les différentes formes observées pour les facteurs d’escompte stochastique semblent être regroupées dans le temps, ce qui indique qu'elles sont une véritable caractéristique des préférences face au risque et non pas seulement un artefact créé par des estimations bruyantes. Bien que les facteurs contemporains récupérés ne puissent pas prédire de manière significative les rendements futurs réalisés sur l'ensemble de la distribution, c’est possible pour les 3 premiers quartiles. Un praticien ayant besoin d'une mesure instantanée du risque de perte pourrait donc utiliser le théorème de Ross. / Chapter 1 - The sum of all fears: forecasting international returns using option-implied risk measures This chapter investigates international index return predictability using daily-updated option-implied information in predictive regressions and out-of-sample forecasts. We document the significant predictive power of the variance risk premium (VRP), Generalized Riskiness (GR), and higher-order moments for horizons ranging from 1 to 250 days. These four risk metrics, which capture cumulative market “fears”, perform well in the US and internationally. VRP and GR are significant and complementary predictors for several horizons, including under one month (VRP) and longer horizons (GR). Risk-neutral skewness and kurtosis are significant for several countries across multiple horizons. Utility gain calculations confirm the economic significance of these riskneutral variables internationally. Chapter 2 - Forecasting market index volatility using Ross-recovered distributions The recovery theorem shows that option data can reveal the market’s true (physical) expectations. We adapt this approach to international index options data (S&P500, FTSE, CAC, SMI, and DAX) and separate implied volatility into Ross-recovered expected volatility and a risk preference proxy. We investigate the volatility forecasting performance of these variables, constructed domestically or globally. The results show evidence of significantly improved forecasts, and yield new insights on the international dynamics of risk expectations and preferences. Across indices, models using Ross-recovered, value-weighted global measures of risk preferences perform best. The findings suggest that the recovery theorem is empirically useful. Chapter 3 – The contemporaneous pricing kernel This chapter investigates the contemporaneous pricing kernel obtained by applying the recovery theorem to options on the S&P500 index. Similarly to the literature on the pricing kernel puzzle, I find evidence that the recovered pricing kernels are U-shape, but only some of the time. The different shapes observed for the recovered kernels appear to be clustered in time, indicating that they are a genuine feature of risk preferences and not just an artifact created by noisy pricing kernel estimates. Although the recovered contemporaneous kernels cannot significantly predict future realized returns over the whole distribution, they are successful for the first 3 quartiles. A practitioner needing an instantaneous measure of downside risk could therefore obtain such information by applying the recovery theorem to options data.
324

Résolution du problème d'allocation optimale de ressources multiples à l'aide d'un algorithme génétique

Ben Jabeur, Marouene 16 April 2018 (has links)
Les opérations de recherche et de sauvetage font partie des activités humanitaires que le gouvernement canadien offre. Ces opérations doivent être mises à la disposition de tous les vols aériens dans un espace de plus de vingt millions de kilomètres carrés et de tous les bateaux naviguant dans les eaux maritimes du gouvernement fédéral dont les océans, le fleuve Saint-Laurent et les Grands Lacs. L'ultime objectif que se fixe le gouvernement canadien en mettant à l'oeuvre ce genre d'opérations consiste à "prévenir les pertes de vie et les blessures en utilisant les ressources privées et publiques pour alerter, répondre et aider dans les situations de détresse". Leur travail, humanitaire, consiste à trouver un objet perdu dans les meilleurs délais afin de ne pas risquer de perdre des vies. Ce but pourrait être atteint si l'on arrive à trouver un moyen d'affecter d'une manière optimale les ressources dont on dispose à des secteurs sur lesquels les opérations de recherche vont être effectuées. L'objectif de nos travaux est d'examiner de plus près et d'essayer de résoudre le problème d'allocation de ressources multiples que vivent les centres de coordination des opérations de recherche et de sauvetage. Ce problème se résume à mettre en place un plan d'affectation des ressources à des zones de recherche permettant de maximiser l'efficience de leurs utilisations et d'augmenter les chances de trouver des survivants en peu de temps. Pour ce faire, nous définissons un algorithme génétique capable de trouver une solution au problème à résoudre. Ensuite, nous adapterons la solution proposée afin de prendre en charge et manipuler les contraintes imposées par le problème. Lors de nos expérimentations, nous avons cherché à améliorer la performance et l'efficacité de notre algorithme en y introduisant plusieurs méthodes basées sur le principe de la satisfaction des contraintes. Notre bilan nous indique que nos meilleurs résultats sont obtenus en mettant en place un algorithme génétique dont le fonctionnement des opérateurs de reproduction ne tolère aucune violation de contraintes. En les comparant à ceux obtenus en résolvant le problème par l'approche d'optimisation combinatoire, nous avons constaté qu'on n'a pas pu égaler le niveau de succès atteint. Ceci est dû à l'aspect aléatoire sur lequel les algorithmes génétiques se basent pour parcourir l'espace de recherche, sélectionner et améliorer une solution.
325

Commande prédictive basée sur la simulation. Application à la flottation en colonne

Bouchard, Jocelyn 13 April 2018 (has links)
Les structures de commande prédictive (MPC) utilisant des simulateurs dynamiques comme modèles de procédé ne font pas légion. Cette rareté s'explique en grande partie par la difficulté de résolution des problèmes d'optimisation résultants. En effet, les algorithmes de programmation non linéaire ne sont pas toujours adaptés pour atteindre efficacement l'optimum des fonctions basées sur des modèles physiques, à plus forte raison encore si les équations utilisées sont inconnues (modèles de type boîte noire). C'est en s'appuyant sur ce constat qu'une nouvelle approche pour la MPC est proposée. Le principe consiste à substituer la minimisation explicite de la fonction objectif par une simulation du système en boucle fermée pour solutionner de façon généralement sous-optimale le problème de contrôle en boucle ouverte. Cette nouvelle méthode permet d'exploiter plusieurs des avantages de la commande prédictive sans être limitée par la complexité des modèles. Deux algorithmes sont présentés: décentralisé et découplé. Bien qu'avantageuse sur le plan du réglage, la structure découplée ne permet pas la même liberté que la structure décentralisée pour le choix de l'horizon de prédiction qui doit généralement être du même ordre de grandeur que le temps de réponse en boucle ouverte. Le développement d'une structure de simulation du comportement dynamique de la flottation en colonne, un procédé de séparation des minéraux, représente la seconde contribution de cette thèse. Une grande lacune des simulateurs proposés à ce jour demeure que même lorsque les équations différentielles de conservation sont utilisées, les variations dynamiques du niveau de pulpe ne sont jamais considérées. La structure présentée ici s'intéresse à la simulation des mouvements des phases présentes et de leurs effets sur le niveau de pulpe et sur les débits de sortie. Par ailleurs, comme bien d'autres procédés minéralurgiques, la flottation en colonne a peu bénéficié des avancées en contrôle de procédés. C'est donc sur ce terrain que les deux thèmes étudiés se rencontrent lors d'une mise à l'épreuve conjointe. L'étude de cas proposée s'intéresse à l'asservissement de trois variables d'opération critiques pour le bon fonctionnement du procédé à savoir, la concentration d'air dans la zone de pulpe, le flux net d'eau à l'interface et le niveau de pulpe à l'aide d'un contrôleur prédictif basé sur la simulation. / Applications of dynamic simulators for model predictive controllers design are rather scarce in the litterature. The complexity of solving the resulting optimization problems may explain this lack of popularity. In fact, nonlinear programming algorithms are not always well suited to efficiently reach the optimum of a fundamentaly-based cost function. The situation is even worse when the equations used in the model are unknown by the control designers (black box models). The simulation-based model predictive controller is an alternative formulation to perform model predictive control (MPC) without making use of any explicit optimization solver, but rather based on an easy-to-compute closed-loop simulation. The resulting scheme generally provides a sub-optimal solution and benefits from many interesting features of conventional MPC without being restricted by the model complexity. Two algorithms are proposed: decentralized and decoupled. The decentralized simulation structure allows a flexible setting of the prediction horizon (Hp) that is not possible in the decoupled case, easier to tune, but where Hp must generally be in the same order of magnitude that the system settling time. A second contribution of this thesis is the development of a framework for the dynamic simulation of a mineral separation process: column flotation. Until now, most of the proposed models or simulators were restricted to the steady-state behavior. When dynamic mass-balance equations were considered, a constant pulp level during the simulation was always assumed. The presented framework aims to simulate water, solids and gas motion and their effect on the pulp level and output flow rates. As it often happens in mineral processing, the column flotation process has not benefited from advanced control techniques. This is where the two previous subjects merge. The proposed simulation framework is used to design a simulation-based model predictive controller for process variables having a strong influence on metallurgical results (grade and recovery). A case study is presented where the pulp level, bias and air hold-up in the pulp zone are kept within an acceptable operating region.
326

Bayesian analysis of volatility models with semi-heavy tails, skewness and leverage effects

Amedah, Sid Ali 13 April 2018 (has links)
Cette thèse considère des modèles de volatilité où la distribution conditionnelle des données est un cas particulier de la loi "Generalized Hyperbolic" de Barndorff-Nielsen (1977). Ces modèles permettent de capter les principales caractéristiques des séries financières à haute fréquence, à savoir le groupement de volatilité (volatility clustering), l'excès de kurtosis et de skewness ainsi que l'effet de levier qui s'applique au rendements des marchés boursiers. Etant donnée la forme fortement non linéaire de cette densité, nous utilisons l'approche Bayesienne basée sur les méthodes Markov Chain Monte Carlo pour l'estimation et l'inférence Cette approche est relativement simple à mettre en oeuvre et permet une inférence exacte et valable en échantillon fini ainsi que la comparaison de modèles qui ne sont pas forcément emboîtés. A titre illustratif, nous proposons des applications empiriques en employons des données journalières de l'indice boursier S&P500. D'abord, nous considérons un modèle de volatilité stochastique basé sur un mélange des lois normale et inverse-Gaussien où la variance conditionnelle est considérée comme un processus stochastique latent généré par la loi inverse-Gaussian. Conditionnellement à la volatilité, la loi des données est une normale. Il en résulte la loi normal inverse Gaussian (NIG) de Barndorff-Nielsen (1997) pour les données qui présente beaucoup de flexibilité pour capter les excès de kurtosis et de skewness. Dans ce modèle la volatilité est traitée de façon similaire aux paramètres du modèle et elle est simulée par l'échantillonneur de Gibbs. Ce modèle s'avère plus performant que les modèles GARCH asymétriques de Ding et al (1993). Par ailleurs, nous proposons les lois NIG de Barndorff-Nielsen (1997) et GH-skew student de de Barndorff-Nielsen et Shepard (2001) comme densités alternatives aux modèles GARCH asymétriques. Formellement, nous considérons deux modèles GARCH asymétriques à la Ding et al (1993), l'un avec une loi NIG et l'autre avec une loi GH-skew student. Dans ce contexte la volatilité est calculée de façon récursive sur la base de données passées. Les résultats sont quelque peu décevants pour la loi GH-skew student, puisque la performance de ce modèle est comparable à celle d'un modèle GARCH asymétrique standard
327

Detached eddy simulation of unsteady turbulent flows in the draft tube of a bulb turbine

Taheri, Arash 24 April 2018 (has links)
Les aspirateurs de turbines hydrauliques jouent un rôle crucial dans l’extraction de l’énergie disponible. Dans ce projet, les écoulements dans l’aspirateur d’une turbine de basse chute ont été simulés à l'aide de différents modèles de turbulence dont le modèle DDES, un hybride LES/RANS, qui permet de résoudre une partie du spectre turbulent. Déterminer des conditions aux limites pour ce modèle à l’entrée de l’aspirateur est un défi. Des profils d’entrée 1D axisymétriques et 2D instationnaires tenant compte des sillages et vortex induits par les aubes de la roue ont notamment été testés. Une fluctuation artificielle a également été imposée, afin d’imiter la turbulence qui existe juste après la roue. Les simulations ont été effectuées pour deux configurations d’aspirateur du projet BulbT. Pour la deuxième, plusieurs comparaisons avec des données expérimentales ont été faites pour deux conditions d'opération, à charge partielle et dans la zone de baisse rapide du rendement après le point de meilleur rendement. Cela a permis d’évaluer l'efficacité et les lacunes de la modélisation turbulente et des conditions limites à travers leurs effets sur les quantités globales et locales. Les résultats ont montrés que les structures tourbillonnaires et sillages sortant de la roue sont adéquatement résolus par les simulations DDES de l’aspirateur, en appliquant les profils instationnaires bidimensionnels et un schéma de faible dissipation pour le terme convectif. En outre, les effets de la turbulence artificielle à l'entrée de l’aspirateur ont été explorés à l'aide de l’estimation de l’intermittence du décollement, de corrélations en deux points, du spectre d'énergie et du concept de structures cohérentes lagrangiennes. Ces analyses ont montré que les détails de la dynamique de l'écoulement et de la séparation sont modifiés, ainsi que les patrons des lignes de transport à divers endroits de l’aspirateur. Cependant, les quantités globales comme le coefficient de récupération de l’aspirateur ne sont pas influencées par ces spécificités locales. / Draft tubes play a crucial role in elevating the available energy extraction of hydroturbines. In this project, turbulent flows in the draft tube of a low-head bulb turbine were simulated using, among others, an advance hybrid LES/RANS turbulent model, called DDES, which can resolve portions of the turbulent spectrum. Providing appropriate inflow boundary conditions for such models is a challenging issue. In this regard, different inflow boundary conditions were tested, including axisymmetric 1D profiles, and unsteady 2D inflow profiles that take runner blade wakes and vortices into account. Artificial fluctuation at the inlet section of the draft tube was also included to mimic the turbulence existing after the runner. Simulations were conducted for two draft tube configurations of the BulbT project. For one of them, intensive comparisons with experimental data were done for two operating conditions, one at part load and another in the sharp drop-off portion of the efficiency hill after the best efficiency point. This allowed to assess the effectiveness and shortcomings of the adopted turbulence modeling and boundary conditions through their effects on the global and local quantities. The results showed that the runner-related vortical structures and wakes are appropriately resolved using stand-alone DDES simulation of the draft tube flows. This is achieved by applying unsteady 2D inflow profiles along with adopting low dissipation scheme for the convective term. Furthermore, the effects of applying artificial turbulence at inlet were explored using separation intermittency, two-point correlation, energy spectrum and Lagrangian coherent structure concepts. These analyses revealed that the type of inflow boundary conditions modifies the details of the flow and separation dynamics as well as patterns of the transport barriers in different regions of the draft tube. However, the global quantities such as recovery coefficient are not influenced by these local features.
328

Multi-skyrmions quasi-BPS et noyaux atomiques : énergie de Coulomb et configurations pleines

Harbour, Louis 19 April 2018 (has links)
Le modèle de Skyrme est une théorie des champs classique non-linéaire qui possède des solitons topologiques comme solutions. De façon innovatrice, ces solutions sont utilisées par Skyrme pour décrire les baryons. Ceci est justifié puisque le modèle est une théorie efficace de la chromodynamique quantique à basse énergie et puisque les solutions possèdent un nombre topologique conservé qu'on associe au nombre baryonique. Le modèle original permet de décrire les propriétés des nucléons avec une précision de 30% ou mieux, mais a de la difficulté à reproduire les caractéristiques des baryons de masse élevé. En effet, l'énergie de liaison des multi-skyrmions est très grande et les densités baryonique possèdent des structures spatiales complexes et de type coquille ce qui s'éloignent des observations expérimentales. On propose alors une extension du modèle afin d'améliorer précisément les deux problèmes précédents. Ce travail introduit le modèle de Skyrme quasi-BPS dont les solutions analytiques saturent presque la borne de Bogomol'nyi améliorant les prédictions de l'énergie de liaison des multi-skyrmions. Le choix d'un potentiel permettant d'obtenir des densités baryonique de configurations pleines et l'ajout de l'énergie de Coulomb et de brisure de symétrie d'isospin à la masse du skyrmion sont les contributions originales de ce travail. Ceci permet d'obtenir des meilleurs prédictions physiques pour les multi-skyrmions de nombre baryonique très élevé que dans le modèle original et l'analyticité des solutions en simplifie le traitement. Pour ces raisons, le modèle de Skyrme quasi-BPS s'avère une bonne théorie efficace pour la descriptions des noyaux atomiques.
329

Mesures de risque et dépendance

Mailhot, Mélina 19 April 2018 (has links)
En théorie du risque, la tâche principale de l'actuaire consiste à gérer les risques souscrits par l'entreprise afin qu'elle soit à tout moment en mesure de remplir ses obligations. Les mesures de risque sont de précieux outils à cet effet. Dans cette thèse, les mesures de risque et méthodes d'allocation de capital en fonction de la dépendance entre les risques sont étudiées. Aussi, de nouvelles mesures de risque et méthodes d'allocation de capital sont développées, dans le cadre de portefeuilles multivariés partiellement agrégés avec dépendance entre les risques. L'introduction présente une revue de la littérature ainsi que les concepts traités dans cette thèse. Dans un second chapitre, l'allocation de capital basée sur la mesure Tail Value-at-Risk (TVaR) pour un portefeuille de risques agrégés, suivant des distributions composées multivariées avec sévérités continues est présentée. Le troisième chapitre fait l'étude de la mesure Value-at-Risk (VaR) bivariée. Cette dernière est redéfinie, afin de pouvoir étudier son comportement, en fonction de la dépendance entre les risques. Plusieurs résultats sur les conditions de convexité et par rapport aux ordres de concordance ainsi qu'aux bornes en fonction de cette mesure sont montrés. Une application intéressante en assurance est aussi présentée. Les nouvelles mesures de risque TVaR bivarié de quadrant inférieur et supérieur sont présentées dans le quatrième chapitre. Ces mesures sont motivées, étudiées et appliquées pour des annuités liées à des actifs. Le cinquième chapitre fait part de méthodes numériques efficaces pour calculer des bornes inférieures et supérieures d'une fonction de répartition représentant une somme de variables aléatoires. Cet algorithme permet aussi le calcul de bornes pour la VaR d'une somme de variables aléatoires. Une brève conclusion rappelle les apports de cette thèse et suggère quelques avenues de recherche intéressantes en lien avec les sujets traités. / In risk theory, the main task of the actuary is to manage the risks underwritten by the company so that, at any time, it will be able to fulfill its obligations. Risk measures are valuable tools for this purpose. In this thesis, risk measures and capital allocation methods based on the dependence between multivariate risks are studied. Also, new measures of risk and capital allocation methods are developed within the framework of multivariate portfolios with partially aggregated dependencies between risks. The introduction presents a literature review and the concepts discussed in this thesis. In the second chapter, the capital allocation based on the measure Tail Value-at- Risk (TVaR) for a portfolio of risks following multivariate distributions with continuous severities is presented. The third chapter is the study of the bivariate Value-at-Risk (VaR). The latter is studied and illustrated, according to the dependence between risks. Several results on the conditions of convexity and relative to concordance orders and bounds of this metric are set. An interesting application in insurance is also presented. The new bivariate lower and upper orthant TVaR are presented in chapter four. These measures are motivated, studied and applied to Equity Indexed Annuities associated with correlated assets. The fifth chapter presents a numerical algorithm in order to calculate lower and upper bounds for sums of random variables. The method suggested is concise and parsimonious. It also allows to compute bounds for the VaR for sums of random variables. A brief conclusion recalls the contributions of this thesis and suggests some interesting research venues in connection with topics discussed in the previous chapters.
330

Modélisation des écoulements turbulents à surface libre par éléments finis de frontière

Chang, Philippe 13 April 2018 (has links)
La recherche sur les écoulements à surface libre turbulents, et sur le cisaillement turbulent spécifiquement progresse depuis les années 1970. Les équations décrivant le mouvement d'agitation turbulente sont bien connues. Elles sont reliées directement aux équations non moyennées de continuité et de conservation de la quantité de mouvement qui forment le système d'équations de Navier-Stokes ainsi que les différentes équations de corrélations du mouvement turbulent. Pour un écoulement turbulent, ce système d'équations présente un problème de fermeture relié à la présence des termes associés aux contraintes de Reynolds. L'échelle du phénomène et plusieurs processus importants du mouvement turbulent ne peuvent ainsi être résolus de façon exacte, et un degré d'approximation devient donc nécessaire. La recherche sur le phénomène de la turbulence a permis de développer plusieurs concepts et approches reliés, notamment, à la viscosité turbulente, à l'isotropie locale de la turbulence et aux équations de transport des termes fluctuants afin de résoudre le problème de fermeture du système d'équations de Navier-Stokes. Ces approches présentent évidemment certaines limitations. De fait, la turbulence est fortement dépendante des conditions aux frontières par rapport à l'écoulement moyen et ne permet pas de prédétermination de la forme des distributions des vitesses moyennes de l'écoulement dans le cadre de la recherche d'une solution approximative. Ce travail de recherche présente un modèle hydrodynamique turbulent 2D vertical, en vue de résoudre une problématique d'écoulement à surface libre à partir de la méthode des éléments finis de frontière ainsi qu'une démarche en laboratoire, afin de caractériser les fluctuations de vitesses et de pression d'un écoulement turbulent à l'aide d'une méthode de vélocimétrie par imagerie de particules. Pour notre modèle numérique, notre approche procède à partir d'une formulation intégrale des équations moyennées de conservation de la quantité de mouvement et de continuité et l'équation associée des corrélations de vitesses turbulentes. En spécifiant les conditions aux limites pour les vitesses, la corrélation et les tractions à la frontière, le calcul du champ de vitesses peut être déterminé en termes des variables primaires à la frontière. Dans ces conditions, il n'est pas requis de discrétiser le domaine à l'aide d'un maillage ou de cellules ce qui pennet une utilisation plus efficiente des ressources et du temps de calcul. Des applications à des cas d'écoulements simples permettent de démontrer la validité du modèle bien que l'imposition des contraintes à la frontière peut être difficile à interpréter et que dans certains cas, l'intégration numérique pour des fonctions singulières peut être hasardeuse. À tenne, notre modèle prédit correctement les solutions analytiques de l'équation de Navier-Stokes pour un écoulement de Couette et ce, sans imposer de distribution à priori des variables primaires de l'écoulement sur le domaine, dans la recherche d'une solution numérique. Le système d'équations de Navier-Stokes, pour un écoulement turbulent, peut donc être envisagé à partir d'une formulation intégrale sur la frontière uniquement. Cette situation étant en accord et cohérente avec le comportement physique attendu du phénomène où les propriétés d'un écoulement turbulent sont directement reliées aux conditions aux limites et que l'action des contraintes fluctuantes est inter-reliée avec l'écoulement moyen. D'autre part, la démarche expérimentale à l'aide de vélocimétrie par imagerie de particules a permis une meilleure compréhension des spécificités des écoulements turbulents à surface libre, à Reynolds modéré. Notre analyse sur les conditions turbulentes à la frontière de l'écoulement tend à corroborer que les corrélations de vitesses turbulentes sont en équilibre avec le gradient de pression et bien que l'écoulement moyen puisse être stationnaire, il apparaît que les corrélations varient continuellement dans le temps selon une action dissipative, ce qui signifie que le gradient de pression est en constante évolution pour équilibrer le système. De plus, il apparaît que les conditions de pression moyenne dans un modèle, ne peuvent représenter adéquatement la réalité physique de l'action de la pression instantanée selon l'agitation turbulente. Enfin, remarquons que l'étude de la turbulence en laboratoire peut être entreprise de manière adéquate, aujourd'hui, avec des moyens limités malgré l'échelle du phénomène. Mots clés: équations de Navier-Stokes, écoulement turbulent, corrélations de vitesses, éléments finis de frontière, vélocimétrie par imagerie de particules.

Page generated in 0.0652 seconds