• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 407
  • 194
  • 43
  • 4
  • 1
  • Tagged with
  • 646
  • 217
  • 137
  • 109
  • 76
  • 66
  • 65
  • 58
  • 52
  • 50
  • 48
  • 43
  • 42
  • 42
  • 41
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
121

Secteur informel et concurrence fiscale

Djaojoma, Marcel Auguste January 2010 (has links) (PDF)
Le secteur informel est incontestablement un phénomène qui a pris de l'ampleur au cours des dernières années dans les pays en voie de développement selon le Bureau International du Travail (BIT). Les études montrent que d'une part, ces pays sont confrontés à l'insuffisance des revenus fiscaux dont l'une des principales causes est le poids grandissant du secteur informel dans leur économie. D'autre part, les pays en développement font face à une concurrence fiscale ardue comme les autres pays. La concurrence contraint les gouvernements des pays en compétition à ne pas fixer un taux d'imposition au-dessus d'un certain niveau afin d'attirer les investissements. Et aussi, les gouvernements ne vont jamais fixer un taux d'imposition au dessous d'un certain niveau pour s'assurer un minimum de revenu fiscal. La présente étude propose un modèle de concurrence fiscale qui intègre le secteur informel. Notre modèle se base sur l'article «Why do most countries set high tax rates on capital? ». Cet article ne tient pas en compte un secteur où le revenu de la production n'est pas soumis à la taxation. Nous avons voulu prendre en considération ce secteur spécifique que nous définissons comme secteur informel dans notre modèle. Nous allons utiliser les outils de la microéconomie moderne entre autre la théorie des jeux. La résolution du problème dans le modèle consiste à faire apparaître les décisions que les gouvernements vont prendre pour fixer les niveaux de taxation dans un jeu dynamique. Ces taux forment l'équilibre parfait en sous-jeux. Et la résolution du jeu va être solutionnée à rebours. Étant donné que les capitaux immobiles sont de tailles différentes, les capitaux mobiles vont certainement se localiser dans celui qui possède la plus petite taille. Ce qui va lui permettre d'obtenir un meilleur revenu quelque soit l'ordre du jeu.
122

Infrastructures et taxation en lien avec la concurrence fiscale

Nguyen, Thanh Huong January 2010 (has links) (PDF)
Ce mémoire examine l'impact du niveau d'infrastructures sur la productivité et le choix du taux d'imposition de chaque pays afin d'attirer les capitaux mobiles dans un contexte de concurrence fiscale. Par les outils microéconomiques comme la théorie des jeux et la théorie de l'information, on trouve que, selon l'ordre du jeu et de quelques restrictions concernant les niveaux d'infrastructures possibles, l'équilibre existe avec la concentration du capital mobile dans le pays possédant la combinaison de taux de taxation et de niveau d'infrastructures la plus avantageuse. Ce pays choisira le niveau d'infrastructures le plus élevé associé à un taux d'imposition le plus faible comparé à celui des autres pays. Les pays abandonnant la concurrence vont adopter un niveau d'infrastructures faible ou élevé, en fonction de la valeur des paramètres qui déterminent la productivité et le coût d'installation d'infrastructures de chaque pays. Ensuite, ils vont choisir le taux d'imposition le plus élevé possible qui correspond à leur niveau d'infrastructures. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Concurrence fiscale, Capital mobile, Infrastructures, Paradis fiscal.
123

Estimation de paramètres dans des modèles d'épidémies

Leduc, Hugues 04 1900 (has links) (PDF)
Ce mémoire porte sur l'estimation de paramètres dans des modèles de propagation des épidémies dans le temps. On considère le cas d'une population fermée dans laquelle chacun des individus est soit susceptible, soit infecté, soit retiré (S-I-R). Un individu est dit infecté lorsqu'il est atteint d'une maladie infectieuse et qu'il est contagieux. Un individu qui n'a pas encore été infecté est dit susceptible, alors qu'un individu qui a été atteint par la maladie et qui n'est plus infecté est dit retiré (immunisé ou décédé). Un paramètre important dans ce type de modèles est le taux de reproduction R0, qui s'interprète comme le nombre moyen d'individus à qui un individu infecté transmet la maladie, au début de l'épidémie. Plus la valeur de R0 > 1 est grande, plus l'épidémie est importante. On propose d'abord deux modèles stochastiques pour l'évolution d'une épidémie en se basant sur un modèle déterministe classique, le modèle SIR de Kermack et McKendrick (1927). Les modèles tiennent compte du type de données disponibles en pratique. Par la suite, on étudie une nouvelle méthode d'estimation de R0 et on construit un intervalle de confiance asymptotique pour R0. Finalement, on présente des résultats obtenus en appliquant la méthode d'estimation de R0 sur des données simulées à l'aide des modèles proposés. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : modèle SIR de propagation d'une épidémie, taux de reproduction R0, estimation, processus de naissance ct de mort non homogène, processus de Poisson non homogène.
124

Est-ce que les récentes bonifications des politiques sociales et familiales ont eu un impact sur le taux de fécondité?

Morin, Nicolas 12 1900 (has links) (PDF)
Face au déclin démographique, le gouvernement québécois mit de l'avant des politiques cherchant à accroître le taux de natalité depuis plusieurs années. Également, il bonifia certaines d'entre elles pour tenter d'influencer un peu plus le nombre de naissance. Cette recherche s'intéresse aux programmes orchestrés et/ou bonifiés par le gouvernement québécois depuis 1993 jusqu'à 2008. L'objectif de cette recherche est de savoir si les bonifications apportées aux politiques sociales et familiales influencèrent positivement la fécondité. La recherche emploie des données longitudinales provenant des panels un à cinq de l'Enquête sur la dynamique du travail et du revenu de Statistique Canada. Seules les femmes âgées de 25 à 38 ans entrent dans l'échantillon utilisé par le modèle à effets aléatoires et par le population averaged, dont la variable dépendante présente une non-linéarité. Les politiques avant 1997, dont le baby-bonus, se révèlent efficaces pour améliorer la probabilité de donner naissance, ainsi que la combinaison des garderies subventionnées, du Soutien aux enfants et du RQAP. Toutefois, il s'avère plus difficile de déterminer les impacts individuels du Soutien aux enfants et du RQAP, mais étant donné que les garderies subventionnées n'eurent pratiquement pas d'impact significatif à elles seules, il est probable que ces deux mesures-là soient plutôt favorables à la fécondité. Mais en raison de l'inconvénient de ne pouvoir pondérer les régressions, les résultats obtenus ne s'appliquent qu'à l'échantillon. On ne peut donc pas les inférer à la population dans son ensemble. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : données longitudinales, indice synthétique de fécondité, naissances, politiques familiales, politiques sociales.
125

Essais en économie monétaire

Entekhabi, Niloufar January 2009 (has links) (PDF)
Cette thèse est composée de trois essais sur l'économie monétaire à l'intérieur du modèle d'équilibre général. Chacun traite d'un problème auquel les banques centrales font souvent face: l'incertitude, l'inflation, et les régimes de taux de change. Le premier essai examine l'interdépendance des économies canadienne et américaine afin de dégager une analyse des politiques économiques conjoncturelles. Le modèle structurel vectoriel des corrections d'erreurs appliqué aux données de l'après-guerre confirme la présence de quatre relations de long terme entre ces deux économies i) la parité du pouvoir d'achat, ii) la dépendance technologique, iii) la parité des taux d'intérêts, et iv) l'accumulation nette d'actifs étrangers au Canada. Quatre tendances communes sont également identifiées entre les deux économies: i) technologique. (ii) de taux d'intérêt. (iii) de prix. et iv) de relation de taux de change. Les résultats suggèrent que l'appréciation du taux de change est conforme à la baisse des actifs au Canada, que les cycles des États-Unis et du Canada sont corrélés, que les chocs monétaires ont des effets de court terme sur les productions et des effets permanents sur les niveaux de prix et de taux de change dans les deux pays. et que la croissance de long terme des deux pays découle de l'innovation technologique. Il en résulte que toute politique monétaire expansionniste dans ces deux pays doit être gérée avec prudence car elle pourrait mener à de l'inflation. Le second essai dérive le taux d'inflation optimal des prix en ajoutant un élément de croissance de long terme non nulle à un modèle néo-keynesien avec rigidité de prix et de salaire. Les résultats raniment le vieux paradigme d'économie monétaire associé à Friedman (1969) : une politique légèrement déflationniste est optimale. Néanmoins, ce résultat n'est pas dû à l'aspect monétaire du modèle, mais plutôt à un aspect réel de la croissance économique. En effet, dans cet environment, le taux d'inflation optimal équilibre les distorsions à l'état stationnaire. Ces distortions se résument ainsi: la dispersion des prix, la dispersion des salaires, et les marges ajoutées des prix et des salaires dûes aux concurrences monopolistiques dans les marchés de biens et du travail sur les coûts marginaux. Le gain de bien-étre du fait de passer d'une inflation zéro à l'inflation optimale est de 0.1% de la consommation à l'état stationnaire. En outre le coût de l'inflation dans cet environnement avec croissance s'avère plus élevé car la croissance économique crée un écart entre l'inflation de prix et de salaire. Dans une version stochastique du modèle, la moyenne de l'inflation est affectée par les chocs. Il en résulte qu'une politique monétaire qui ajuste le taux d'intérêt nominal seln une règle de Taylor pour ateindre l'objectif de cible d'inflation devrait viser le taux de déflation des prix.afin de stabiliser le taux d'inflation salarial très proche de zéro. Le troisième essai traite de la question du régime de change optimal pour les économies émergentes. Les résultats sont dérivés à partir d'un modèle d'économie de dotation et ouverte, des prix flexibles et des rigidités réelles en termes d'accès aux marchés financiers. Les simulations du modèle montrent que ceux exclus des marchés préfèrent à la marge un régime de taux de change flexible. Dans cet environemment, un régime fixe augmente le bien-être social de tout le monde. Le coût de bien-être d'un régime de change non-optimal dans cet environnement est élevé, et notamment plus élevé pour les participants aux marchés. Un régime de taux de change flexible aboutit à une amélioration au sens de Pareto si les parts des participants aux marchés deviennent très faible. Ces résultats ont des implications importantes en matière de politiques économiques dans les marchés émergents. Une politique monétaire optimale, afin d'augmenter le niveau moyen de bien-être social, doit porter ses efforts sur l'augmentation de la consommation du groupe d'agents exclus des marchés financiers, bien que cette politique soit distortionnaire. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Modèle vectoriel à correction d'erreur, Identification, Chocs structurels, Tendances communes, Inflation des prix, Croissance, Contrats échelonnés, Évaluation de bien être, Politique monétaire, Cibles d'inflation, Régimes de taux de change.
126

Trois essais sur la volatilité boursière et ses variations asymétriques

Ben Bader, Mohamed 03 1900 (has links) (PDF)
La volatilité boursière joue un rôle central en finance. Elle intervient dans une multitude de décisions telles que le choix de portefeuille et sa diversification, la gestion du risque financier et l'évaluation des contrats financiers dérivés. Connue comme étant l'une des principales mesures de risque, la volatilité a suscité l'intérêt des chercheurs qui visent, notamment, à l'estimer et expliquer son évolution. Plusieurs résultats révèlent que la volatilité se caractérise, entre autres, par ses variations asymétriques (Avramov, Chordia et Goyal, 2006; Mele, 2007; Shamila, Shambora et Rossiter , 2009; etc.). Cette asymétrie veut que pour la même variation absolue du rendement, la hausse de la volatilité due à la variation négative dépasse sa baisse résultant de la variation positive. La contribution de cette thèse, composée de trois essais, consiste à proposer un modèle permettant de refléter au mieux les variations asymétriques de la volatilité et caractériser la prime de risque qui s'y rattache. Dans le premier essai, nous couvrons, en général, les principaux écrits majeurs, notamment récents, sur la volatilité boursière. En particulier, nous vulgarisons d'abord le concept de la volatilité comme mesure de risque où nous distinguons, d'une part, entre risque et incertitude et d'autre part entre risque existant et risque perçu. Puis, nous présentons les résultats marquants sur ses composantes (systématique et spécifique) en contexte des modèles classiques (de marché, CAPM). Ensuite, nous discutons de l'effet du marché d'options sur la volatilité boursière. Notre intérêt à cet effet se justifie par la croissance grandissante du volume des transactions sur les marchés des options depuis la création en 1973 du marché standardisé des options à Chicago (CBOE). Finalement, nous synthétisons les acquis en matière d'estimation de volatilité et faisons un tour critique des principales classes de modèles servant à en décrire l'évolution où des modèles représentatifs de chaque classe sont caractérisés tant dans leurs hypothèses et leurs dynamiques que dans leur performance au niveau des tests subis. Dans le deuxième essai, nous proposons un modèle à volatilité stochastique où l'asymétrie de la volatilité résulte de deux effets : l'effet de levier financier et l'effet rétroactif (ou effet feedback). Notre modèle suppose que, pour une firme donnée, la volatilité de son rendement boursier dépend et de la variabilité de sa valeur marchande (reflet de son risque d'exploitation) et de son levier financier (reflet de son risque financier). Nous recourons au filtrage particulaire, technique attribuée à Gordon, Salmond et Smith (1993), pour tester notre modèle en considérant son caractère non linéaire. Notre étude empirique est menée avec un échantillon de 332 firmes américaines non financières à données journalières. Elle porte sur la période qui s'étend du 2 janvier 1996 au 31 décembre 2008. Les résultats montrent que l'inclusion de la variation du levier financier dans le processus de la volatilité permet d'améliorer la performance de prédiction du modèle. Ils révèlent également que l'asymétrie de la volatilité résulte, notamment, de l'effet rétroactif en périodes d'instabilité. Par contre, son ampleur dépend du niveau du levier financier en périodes de stabilité. Dans le troisième essai, nous caractérisons la prime de risque de la volatilité asymétrique ainsi que les facteurs qui expliquent ses variations. En utilisant les prix d'options (d'achat et de vente) sur l'indice américain S&P 100, pour la période qui s'étend du 3 janvier 2006 au 18 décembre 2010, nous trouvons que cette prime est, en moyenne, négative. Cela transparaît d'ailleurs doublement, et dans l'écart significatif entre la volatilité implicite dans les prix d'options et la volatilité instantanée du S&P 100, et dans le rendement moyen négatif des portefeuilles de réplication jugés sûrs à risque près, celui de la volatilité. De plus, la prime de risque de la volatilité asymétrique s'avère changeante et dépend du niveau de la volatilité et de l'échéance des options vu que la sous-performance des portefeuilles de réplication augmente en périodes de volatilité accrue, surtout pour les portefeuilles formés avec des options à longue échéance. Également, les résultats dévoilent une asymétrie dans la variation de cette prime voulant qu'en valeur absolue sa hausse due à une volatilité élevée dépasse généralement sa baisse résultant d'une relative stabilité du marché. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : risque, volatilité boursière, variation asymétrique, effet de levier financier, effet rétroactif, filtrage particulaire, prime de risque de la volatilité.
127

Formation de blisters d'hydrures et effet sur la rupture de gaines en Zircaloy-4 en conditions d'accident d'injection de réactivité

Hellouin De Menibus, Arthur 03 December 2012 (has links) (PDF)
Ce travail vise à étudier la rupture du gainage avec des essais mécaniques plus représentatifs des conditions RIA, en prenant en compte les blisters d'hydrures ainsi que le niveau élevé de biaxialité du chargement mécanique et des vitesses de déformation. Nous avons formé par thermodiffusion en laboratoire des blisters similaires à ceux observés sur des gaines de Zircaloy-4 irradiées en réacteur. Les caractérisations par métallographie, nanodureté, DRX et ERDA ont montré qu'un blister est constitué d'hydrures delta dont la concentration dans la matrice varie entre 80% et 100%, et que la matrice sous-jacente contient des hydrures radiaux. Nous avons modélisé la cinétique de croissance des blisters avec l'hystérésis de la limite de solubilité de l'hydrogène,puis défini le gradient thermique seuil permettant leur formation. Notre étude sur le comportement dilatométrique du zirconium hydruré montre le rôle important de la texture cristallographique du matériau, ce qui peut expliquer des différences de morphologie des blisters. En parallèle, des essais suivis par caméra infrarouge ont montré que des vitesses de déformation supérieures à 0,1/s induisent des échauffements locaux importants qui favorisent la localisation précoce de la déformation. Enfin, nous avons optimisé l'essai d'Expansion Due to Compression pour atteindre un niveau de biaxialité de déformation plane (essais HB-EDC et VHB-EDC), ce qui réduit fortement la déformation à rupture à 25°C et 350°C, mais seulement en l'absence de blisters. Un critère de rupture est proposé pour rendre compte de la baisse de ductilité des gaines en Zircaloy-4 non irradiées en présence de blisters.
128

Etude théorique de l'excitation collisionnelle de l'ammoniac et de ses isotopomères deutérés dans le milieu interstellaire

Machin, Léandre 30 November 2006 (has links) (PDF)
L'observation et l'étude des nuages moléculaires du milieu interstellaire nécessitent la connaissance <br />de données physiques fondamentales qui permettront d'avoir accès aux caractéristiques physiques de ce milieu, notamment les températures et les densités.<br />Ces régions ne sont généralement pas à l'équilibre thermodynamique et la détermination des populations des niveaux rotationnels, qui sont liées aux caractéristiques physiques du milieu, nécessite la connaissance des taux de tous les processus de peuplement radiatifs et collisionnels. De nombreux travaux ont été réalisés sur les coefficients d'Einstein et les taux de collisions d'un certain nombre de molécules. Pour les processus collisionnels, les perturbateurs principaux du milieu interstellaire sont H2, H et He.<br />De nouveaux instruments, permettant d'obtenir des résolutions spatiales et spectrales excellentes, verront bientôt le jour. Il s'agit de l'observatoire spatiale HERSCHEL et du futur interféromètre millimètrique ALMA. L'interprétation des futures observations réalisées grâce à ces instruments nécessite de connaître avec suffisamment de précision les taux de collision des molécules, voire de déterminer pour la première fois ces taux.<br />L'ammoniac NH3 étant un des principaux outils d'étude du milieu interstellaire moléculaire, nous nous sommes intéressés à la détermination des taux de collision avec He et H2 de cette molécule. Nous avons bénéficié de l'existence de surfaces de potentiel intermoléculaire récentes et plus précises qu'auparavant pour les systèmes NH3-He et NH3-H2. A l'aide du code de collision moléculaire MOLSCAT, nous avons pu déterminer les sections efficaces intégrales de collision de ces systèmes. De ces sections efficaces, il est possible d'en déduire les taux de collision des systèmes étudiés. <br />Les isotopomères deutérés de l'ammoniac NH2D, ND2H et ND3 ont, tous les trois, été détectés dans le milieu moléculaire. Cette découverte a eu lieu récemment pour les deux derniers (2000 et 2003). Jusqu'à aujourdh'ui, aucune valeur de taux de collision avec He de ces espèces deutérées n'avait été calculée. Les espèces deutérées ayant un grand intérêt dans l'étude de la chimie interstellaire et de son évolution, nous avons déterminé les premiers taux de collision de ces espèces avec l'hélium et avons ainsi publié les premiers résultats sur ce sujet.
129

Les antivitamines K chez le sujet âgé étude des facteurs de déséquilibre thérapeutique en milieu gériatrique /

Delaye, Virginie. Chatap, Guy. January 2006 (has links) (PDF)
Thèse d'exercice : Médecine. Médecine générale : Paris 12 : 2006. / Titre provenant de l'écran-titre. Bibliogr. f. 68-75.
130

Maîtrise structurale de matériaux par fabrication additive en vue d'applications bio-médicales

Joguet, David 15 February 2013 (has links) (PDF)
De nos jours, le domaine des implants est un des enjeux important pour notre civilisation pour permettre d'améliorer notre quotidien. Pour ce faire, une large offre de matériaux et de technologies existe offrant de nombreuses possibilités afin de répondre aux attentes chirurgicales. Plusieurs familles de matériaux coexistent : les polymères, les céramiques et les matériaux métalliques ainsi que différents procédés de mise en forme. Parmi ceux-ci, le procédé de micro fusion laser sur lit de poudre est un procédé prometteur permettant de réaliser des pièces de géométries complexes. C'est précisément cette technologie qui a été retenue. Pour cela, afin d'approfondir la connaissance du procédé et évaluer l'impact des paramètres sur les structures métallographiques, une orientation se tournant vers des matériaux métalliques tels que le CoCrMo et le titane T40 a été envisagée.Ainsi, les objectifs de la thèse ont été de générer un matériau possédant de bonnes caractéristiques mécaniques ainsi qu'en faciliter son intégration dans un milieu biologique (implants). Pour ce faire, une structure de porosité contrôlée (pour faciliter le développement tissulaire) avec des propriétés mécaniques adaptées aux sollicitations est nécessaire. Le premier travail effectué fut donc une recherche préliminaire afin d'approfondir la connaissance du procédé, en particulier d'un point de vue énergétique et thermique. Afin d'identifier et d'évaluer l'impact des paramètres sur le taux de porosité et donc les propriétés mécaniques de la pièce, une méthode statistique de type Taguchi a été utilisée. Au travers de cette analyse, il est apparu que 3 paramètres inhérents au procédé (la distance entre tache laser, temps d'exposition et le pas de balayage) expliquent prêt de 80% des résultats. De plus, il est mis en évidence que les propriétés mécaniques d'une structure (module de Young et résistance à la rupture) peuvent être maitrisées grâce au taux de porosité de cette dernière et permettre ainsi un rapprochement des propriétés mécaniques de l'os cortical. Pour ce faire, des caractérisations mécaniques ont donc été réalisées pour évaluer le module de Young et la résistance à la rupture des pièces avec différentes structures. Une maîtrise des propriétés peut donc être envisagée et peut même être adaptée en réalisant des structures mixtes alliant partie dense et partie poreuse.

Page generated in 0.044 seconds