• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 64
  • 30
  • 1
  • Tagged with
  • 97
  • 33
  • 28
  • 27
  • 25
  • 24
  • 23
  • 21
  • 21
  • 15
  • 15
  • 14
  • 13
  • 12
  • 11
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Essays on the Econometrics of Program Evaluation : On the Reliability of Observational Methods Based on Unconfoundedness

Fliegner, Jasmin Claire 02 July 2019 (has links)
Le résumé en français n'a pas été communiqué par l'auteur. / This dissertation aims at understanding and improving the reliability of observational methods. The first two chapters of this dissertation focus on assessing the quality of observational estimation methods based on the unconfoundedness assumption, i.e. the assumption that the treatment is as good as random after controlling for the relevant covariates. In the first chapter, based on joint work with Sylvain Chabé-Ferret and Roland Rathelot, we propose a framework to estimate the bias of observational methods and understand its driving forces using a wide range of randomized controlled trials (RCTs) with imperfect but known compliance. Contrary to most earlier attempts, our method does not require the collection of additional data on non-participants and does not suffer from a bias resulting from using different survey instruments for participants and non-participants. Our proposed approach can also accommodate encouragement designs with treated individuals in the control group. We therefore propose a self-contained methodology applicable to a broad set of different RCTs which opens the possibility of collecting a multitude of biases from observational methods and understanding the driving forces of this bias. We also introduce a new decomposition of the bias of observational methods into two components: one due to unobserved confounders and the other due to lack of common support. In the second chapter, as a proof of concept, we run this decomposition on publicly-available data corresponding to six published papers. We evaluate programs, mostly from developing countries, in education, labor, micro-finance and health using both a simple approach conditioning linearly on all observed confounders, and an approach using machine learning to select the relevant covariates. Using local linear kernel matching estimation, we find that in most cases the bias after conditioning on the observed covariates available in the datasets is as large as the bias before conditioning on anything. Our results suggest that the covariates we observe in this context are poor predictors of selection bias. We also find that the second component of the bias of observational methods due to a failure of common support is generally small. For the future, we hope to have proposed a framework which permits additional datasets to easily be added to enrich the analysis and to investigate which confounders matter most for a given type of program and outcome. In the first two chapters, we focus on the identification of the causal effect of a program. However, it is equally crucial to estimate correct standard errors and assess the corresponding large sample distribution in order to draw conclusions about the statistical significance of the treatment effect. In the third chapter of this thesis, I therefore propose an inference procedure for imputation-based matching estimators. This method is applicable to the class of estimators that impute the missing potential outcome as a weighted sum of outcomes from the opposite treatment group. Generalizing the methodology suggested by Abadie and Imbens (2006) for nearest neighbor matching estimators, I establish root-n-asymptotic normality of the matching estimator for the population average treatment effect minus a bias term. Moreover, I propose a generalized estimator of the corresponding marginal variance and derive a large sample variance estimator for the matching estimator for the population average treatment effect on the treated. This versatile way of estimating the standard errors is a robust and computationally more efficient alternative to the naïve bootstrap should the latter be valid. In a Monte Carlo study, I assess the performance of the proposed estimator for the marginal variance by using a local linear matching estimator for the population average treatment effect on the treated. I obtain precise standard errors and coverage rates that perform equally well if not better than the naive bootstrap.
2

The impact of e-commerce on value creation and performance firm level evidence from French companies / L'impact du commerce électronique sur la création de valeur et la performance des entreprises françaises

Ouaida, Fadila 14 December 2016 (has links)
Cette thèse est une étude micro-économétrique qui a pour objet d’étudier la relation entre l’innovation, le commerce électronique et la productivité. Au de là de cet objectif, ce travail a pour but d’identifier la structure des entreprises qui pratiquent la vente enligne. La présente thèse est composée essentiellement de trois études dans lesquelles on exploite des données statistiques qui concernent des entreprises françaises de toute taille (les micro, petites, moyennes et grandes). Les bases de données ont été construites à partir des enquêtes TIC et commerce électronique, CIS, R&D et FARE. L’enquête FARE fournit des statistiques financières supplémentaires. La première étude vise à déterminer l’impact du e-commerce sur la productivité en utilisant un panel de données de 2008 à 2012. Les données sont analysées en utilisant la fonction de production de Cobb-Douglas. Les résultats montrent que le e-commerce a un impact positif et significatif sur la productivité au cours de cette période. Ainsi, l’e-commerce contribue à promouvoir la productivité des entreprises françaises. La deuxième étude vise à comprendre les motivations qui poussent les micro-entreprises à adopter la vente en ligne et à évaluer leur productivité. Dans cette étude, on utilise la méthode du Propensity Score Matching. Pour évaluer les différences de productivité entre, d’une part les micro-entreprises qui pratiquent la vente en ligne et, d’autre part, celles qui n’utilisent pas l’outil du e-commerce pour l’année 2012. Les résultats démontrent que le chiffre d’affaire généré parles micro-entreprises pratiquant la vente en ligne est plus élevé, et ces dernières affichent une meilleure productivité en comparaison avec les entreprises que ne la pratique pas. Le troisième objectif est de déterminer l’impact de la R&D et de l’innovation en matière de TIC, plus particulièrement l’e-commerce, sur la performance des entreprises française en2008. Une variante du modèle CDM (Crépon, Duguet et Mairesse) est appliquée. Cette étude décrit le lien entre les dépenses R&D, e-commerce, l’innovation et la productivité. Les résultats montrent que la R&D est un facteur important de l’innovation, et le capital TIC est aussi un facteur clé pour le e-commerce. En outre, bien que ces deux facteurs (l’output de la R&D précisément les innovations technologiques de produits /procédés et le commerce électronique), affectent positivement la productivité, l’impact positif est plus marqué pour l’innovation. / This thesis is a micro-econometric investigation into the relationship between innovation, e-commerce, and productivity, as well as an establishment of the structure of e-selling firms. It is composed of three main investigations using micro, small, medium and large datasets from French firms. The datasets are created by merging the ICT & e-commerce survey, CIS, R&D, and FARE. FARE survey is used to provide additional financial statistics. The first investigation aims to identify the impact of e-commerce on productivity using panel datasets from 2008 to 2012. The data is analyzed using a Cobb-Douglas production function including physical capital and labor input. The findings show that e-commerce has a positive and significant impact on productivity during this period of time. E-commerce does contribute in promoting productivity for French firms. Secondly, it aims to understand the motives behind micro firms inadopting e-selling activities, and to assess their productivity. This investigation uses propensity score method to obtain matched samples to estimate the treatment effect on the treated ; in other words we evaluate productivity differences between e-selling micro firms and non e-selling micro firms for the year 2012. The findings imply thate-selling micro firms have a higher turnover and higher productivity compared to the ones that do not sell online. The third aim is to determine the impact of R&D and ICT innovations, more particularly e-commerce, on firm performance after its application for the year 2008. A variant of the CDM model (Crepon, Duguet and Mairesse) is applied. It describes the link between R&D expenditure, e-commerce, innovation, and productivity.The results show that R&D is an important enabler of innovation, and ICT capital is also a key enabler for e-commerce. In addition, both, R&D output (precisely technological innovation which are product and process innovation) and e-commerce, have a positive influence on productivity; while R&D reveals a greater productivity effect.
3

A semiparametric IV estimation of the government debt/GDP-growth relationship for OECD countries.

Barnwell Ménard, Jean-Louis January 2015 (has links)
Abstract : In this study, we use an up-to-date econometric method, namely the semiparametric IV estimator, to investigate the functional form of the government debt/GDP-growth relationship for OECD countries. The relationship, characterizing the effect of government debt/GDP levels on the production growth rate, is estimated through an augmented growth model specification for different sub-groups of OECD countries, over the 1971-2010 period. In accordance with previous empirical studies, we find evidence for strong heterogeneity across the estimated functional forms of the different sub-groups. Complex non-linearities best describe the relationship for the complete sample of OECD countries, while a clear inverted U-shaped functional form is depicted for the PIIGS (Portugal, Italy, Ireland, Greece and Spain) sub-group. Additionally, our results show that most of the non-linear patterns characterizing the functional form for the complete sample can be explained by the PIIGS sub-group. In fact, when we exclude the PIIGS countries from the OECD sample, the estimated debt/GDP-growth relationship becomes almost linear and positive, a result that holds even at high government debt-to-GDP levels. We confirm the suitability of the semiparametric IV estimator, for this specific relationship estimation, with two related specification tests. / Résumé : Dans cette étude, nous utilisons un estimateur semi-paramétrique VI pour décrire la forme fonctionnelle de la relation entre la dette gouvernementale relative au PIB et la croissance économique dans les pays de l'OCDE. Nous estimons cette relation dans le cadre d'un modèle de croissance pour différents sous-ensembles de pays de l'OCDE, entre 1971 et 2010. Nous trouvons, comme plusieurs études préalables, une forte hétérogénéité entre les formes fonctionnelles estimées pour les différents sous-ensembles de pays. Pour l'échantillon complet, nous trouvons une relation non linéaire et complexe, alors que pour l'ensemble de pays PIIGS (Portugal, Italie, Irlande, Grèce et Espagne), cette relation s'illustre clairement par une forme de U-inverse. De plus, nous trouvons que la forme fonctionnelle estimée du groupe PIIGS explique en grande partie les non-linéarités caractérisant la relation pour l'ensemble de l'échantillon. En effet, lorsque le groupe PIIGS est exclu de l'échantillon, nous trouvons une relation dette/PIB-croissance quasi linéaire et positive. Nous appliquons deux tests de spécification afin de confirmer la pertinence de l'estimateur semi-paramétrique VI dans ce contexte.
4

Investissement en capital humain en Afrique subsaharienne / Human capital investment in sub-Saharan Africa

Badji, Samia 03 December 2014 (has links)
La présente thèse porte sur l'investissement en capital humain en Afrique subsaharienne. A cette fin trois chapitres sont développés. Le premier traite du travail des enfants et de la relation complexe avec les imperfections des marchés du travail et de la terre à Madagascar. Les résultats soulignent le rôle prépondérant de l'éducation de la mère quant à la diminution d'heures travaillées par les enfants. Ce rôle est également examiné à travers la dimension santé du capital humain. Le deuxième chapitre démontre l'effet causal de l'éducation de la mère sur la probabilité de survie de ses enfants dans le milieu rural à Madagascar. Les mécanismes souvent avancés de recours aux soins pré et post nataux ne semblent pas expliquer cet effet. La richesse, en revanche, explique bien un tiers de l'effet. L'effet de l'éducation de la mère est enfin analysé dans le cas particuliers des camps de personnes déplacées en Somalie. Quatre mesures anthropométriques sont utilisées afin de rendre compte de la malnutrition. Une première analyse compare les ménages dans les camps et en dehors des camps. Celle-ci semble indiquer un léger avantage des mères plus éduquées dans les mesures de court terme de la malnutrition. Une deuxième analyse montre que l'avantage des mères éduquées augmente avec le temps passé dans le camp. L'analyse menée au travers de ces trois chapitres soulignent l'importance de l'éducation de la mère dans l'investissement en capital humain de ses enfants. / .
5

Essai sur des tests de spécification pour des modèles financiers

Vo, Thi Thuy Anh January 2007 (has links) (PDF)
Dans cette thèse, nous présentons trois essais sur des tests de spécification des modèles financiers. Notre objectif est de développer une procédure optimale adaptative pour tester la spécification des modèles financiers basée sur les tests de Hong (1996) modifiés. Avec cette procédure, les tests ont des propriétés optimales et ils détectent les alternatives locales à la Pitman à un taux qui est proche de n-½. Le premier essai propose une procédure optimale adaptative pour tester la dépendance temporelle de forme inconnue basée sur les tests de Hong (1996) modifiés. Ces derniers sont basés sur la distance entre l'estimateur non paramétrique de la densité spectrale normalisée et celle provenant de la contrainte imposée par l'hypothèse nulle. Ils se distinguent par la mesure de distance choisie, soit la norme quadratique, la métrique de Helling ou encore le critère d'information de Kullback-Leibler. Sous l'hypothèse nulle, nos tests modifiés sont asymptotiquement distribués selon une loi N (0,1). Les avantages des tests basés sur la procédure optimale adaptative en comparaison avec les tests de Hong sont les suivants: (1) Le paramètre du noyau n'est pas choisi de façon arbitraire mais est plutôt déterminé par les données. (2) Les tests sont de type adaptatif à taux optimaux dans le sens de Horowitz et Spokoiny (2001). (3) Ils détectent l'alternative à la Pitman à un taux proche de n-½ . Nos simulations montrent que les tests basés sur notre procédure ont un niveau plus précis tout en étant plus puissants que les tests de Box et Pierce (1970) (BP), de Ljung et Box (1978) (LB), les tests du multiplicateur de Lagrange de Breusch (1978) et Goldfrey (1978) (LlVI) et les tests de Hong (1996). Dans le deuxième essai, nous appliquons la procédure optimale proposée dans le premier afin de détecter les effets ARCH (hétéroscédasticité conditionnelle autorégressive) et ACD (autorégressif de durée conditionnelle). Cette procédure permet de choisir le paramètre du noyau à partir des données et ainsi obtenir des tests avec des propriétés optimales. À l'aide de simulations, nous montrons que notre procédure génère des tests dont le niveau est exact et qui sont plus puissants que les tests LM, BP, LB ainsi que ceux de Hong pour tester les effets ARCH et ACD. Par la suite, on applique notre procédure à certaines applications basées sur des données financières afin d'illustrer les conclusions obtenues. L'objectif du troisième essai est d'augmenter la puissance des tests basés sur la procédure optimale adaptative présentés dans le premier en choisissant une bande de fréquence pertinente pour la fonction de densité spectrale. Dans le premier essai, les tests basés sur la procédure optimale pour détecter la dépendance temporelle sont basés sur l'estimateur non paramétrique de la densité spectrale en utilisant la bande de fréquences entière [-π, π]. L'idée principale est que la puissance des tests basés sur une fonction de densité spectrale dépend de la position de son sommet. Notre première classe de statistiques de tests en est une qui se concentre sur une bande de fréquences fixée et arbitraire. Il est connu que quand le sommet du spectre se trouve à la fréquence zéro et que la puissance spectrale est concentrée aux basses fréquences, les tests pour détecter la dépendance temporelle aux basses fréquences sont probablement puissants mais dans le cas où le spectre a un sommet à une fréquence autre que zéro, la puissance des tests est probablement faible. Nos simulations confirment cette intuition. Les deux dernières classes contiennent des tests de type supremum symétriques ou non-symétriques. Ils consistent à choisir une bande de fréquences symétriques ou non-symétriques de telle sorte que les statistiques sont maximisées. À l'aide de simulations, nous trouvons que les tests provenant des classes de type supremum sont plus puissants que ceux présentés dans le premier essai. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Économétrie, Finance, Modèle, Séries temporelles.
6

Les relations de long terme entre la notation des banques par les agences et leur valorisation

Dongmo-Kengfack, José Nadège 02 December 2014 (has links)
La particularité et l’originalité de cette recherche résident dans notre choix d’étudier l’influence à long terme de la notation financière sur la valeur des banques plutôt que son impact immédiat sur les cours boursiers des actions. Le contexte de cette recherche est la crise financière de 2007-2008 durant laquelle les valeurs bancaires ont considérablement chuté. En effet, cette crise a renouvelé l’intérêt d’étudier la notation financière et son influence sur les entreprises notées, en particulier lorsqu’il s’agit des banques. Notre interrogation centrale est de savoir comment et dans quelles mesures les notations d’agences contribuent à expliquer la valorisation des banques à long terme. La notation des banques par les agences influence-t-elle leur performance, leur gouvernance, leur structure de financement, et par conséquent, leur valeur? Est-elle réciproquement influencée par la valorisation des banques sur le marché? Notre recherche s’inscrit donc dans le prolongement des travaux qui montrent l’influence de la note sur la valeur des entreprises, mais notre démarche est différente. D'une part, nous nous concentrons uniquement sur le secteur bancaire qui est particulier, et où l’influence de la notation peut être différente et plus forte que sur les entreprises ou groupes industriels. D'autre part, nous mobilisons l’approche financière de la gouvernance qui met en évidence le lien entre la gouvernance et la valorisation des entreprises (Charreaux G., 1997 ; Gompers et al., 2003 ; Rob Bauer et al., 2003 ; Barth, Caprio et Levine, 2004 ; Levine, 2004), et la théorie néo-institutionnelle développée par Meyer et Rowan (1977), Scott et de Meyer (1983), DiMaggio et Powell (1991, 1997) et North (1990). Cette deuxième théorie met en évidence l’influence des institutions sur les organisations, leur gestion et leur performance. En combinant ces deux approches, nous explorons et analysons les voies par lesquelles les notations des agences peuvent influencer la valeur des entreprises bancaires à long terme, notamment en les incitant à se conformer à un modèle de bonnes pratiques sous-jacent aux critères que les agences de notation affichent pour les évaluer. Nous cherchons à valider empiriquement cette analyse au travers d'une approche quantitative et économétrique, en utilisant des données internationales tirées des bases Bloomberg, Bankscope et Fininfo relatives à 161 grandes banques de 18 pays, sur les années 2001 à 2010. Après avoir construit des indicateurs homogènes de notation, la validation de nos hypothèses de recherche repose sur des analyses bivariées, des régressions sur les données de panel, des tests de causalité de Granger et un modèle Logit polytomique. Nos résultats montrent qu’un cran supplémentaire, c’est-à-dire une dégradation d'un cran de la note de solidité financière semble entraîner une diminution significative de la valeur des banques. Ce lien n’est pas significatif en période de crise. L’effet de la notation de crédit sur la valorisation est peu significatif. Cependant, les tests de causalité de Granger montrent une boucle rétroactive entre la notation de crédit, le coût moyen pondéré des dettes et la taille des banques. Les résultats d'un modèle Logit polytomique montrent que les notes de solidité financière attribuées par les agences ne sont influencées par les indicateurs de valorisation des banques qu'après le déclenchement de la crise des « Subprimes » couverte par notre période d’étude (en 2008 et 2009). / The distinctiveness and uniqueness of this research lies in the fact that it studies the long-term effects of credit rating on the value of banks rather than its immediate impact on the shares’ market price. The context of this research is the subprime crisis period of 2007-2008 during which banking stocks declined dramatically. This crisis caused a reawakening of interest in the study of credit rating and its impact on rated companies, especially when the rated companies are banks. The central question is to know how and to what extent credit rating helps to explain the long-term valuation of banks. How does the bank rating affect their performance, their governance, their capital structure, and therefore their value? Reciprocally, how does banks valuation impact their credit ratings? Our research follows the path of previous studies showing the impact of credit rating on the value of companies, but our approach is different. On one hand we focus only on the banking sector which is particular, and where the impact of credit rating can be different and stronger than on the other companies or industrial groups. On other hand we mobilize corporate governance approach that highlights the link between governance and valuation (Charreaux G., 1997; Gompers et al., 2003, Rob Bauer et al., 2003; Barth, Caprio and Levine, 2004; Levine, 2004). We also mobilize the neo-institutional theory developed by Meyer and Rowan (1977), Scott and Meyer (1983), DiMaggio and Powell (1991, 1997) and North (1990) that highlights the impact of institutions on organizations, their management and performance. These two approaches allow us to describe and analyze the ways and means by which credit rating can impact banks values in the long term, particularly by inspiring banks to use the “best practices” disseminated in the rating methodologies for banks. We try to empirically validate this analysis through a quantitative and econometric approach, using data from international databases such as Bloomberg, Bankscope and Fininfo about 161 large banks from 18 countries over the period 2001 to 2010. After building uniform credit rating indicators, we use bivariate analysis, regressions on panel data, Granger causality tests and multinomial logit model to test our assumptions. Our results show that one notch downgrade of a bank financial strength rating seems to cause a significant decrease of its valuation. This impact is not significant in a crisis period. The effect of the issuer credit rating on bank valuation is not significant. However, Granger causality tests show a feedback loop between the issuer credit rating, the weighted average cost of debt and the size of banks. The results of a logit multinomial model show that the bank financial strength ratings assigned by the rating agencies are influenced by the bank valuation indicators only for the years 2008 and 2009.
7

Structure et performance du réseau des sociétés de capital de risque canadiennes, américaines et européennes

Gravel, Marie January 2015 (has links)
L’analyse de réseau est un outil de plus en plus utilisé dans le domaine financier. En effet, bien que ce type d’analyse ait vu le jour dans le domaine de la sociologie moderne, il est aujourd’hui utilisé dans une multitude de secteurs. Son principal attrait réside dans sa capacité à modéliser les relations entre les différents acteurs d’un marché et à les analyser sous différents angles de façon à en faire ressortir les principales caractéristiques. Le domaine financier en est un tout indiqué pour pratiquer ce genre d’analyse en raison des nombreuses interactions y prenant place. En effet, la syndication, soit la pratique d’investir ou de prêter conjointement à une entreprise, est aujourd’hui un outil largement utilisé par les différents acteurs des marchés financiers en raison des avantages évidents qu’il procure, tels que 1) la possibilité de contre-vérifier son analyse d’un titre, 2) la possibilité de répartir le risque et de combiner l’expertise et le support apporté aux firmes financées et 3) l’opportunité de mettre en commun des ressources et des capacités. Bien que la syndication des prêts par les banques soit bien connue, ce type d’investissement est également utilisé dans d’autres marchés dont celui du capital de risque. Quelques études liées à l’analyse de réseau ont jusqu’ici été réalisées dans ce marché, dont celle de Hochberg et al. (2007). Ces derniers utilisent l’analyse de réseau pour mesurer les connections entre les firmes de capital de risque américaines découlant de la syndication de leurs investissements. De façon encore plus intéressante, Hochberg et al. (2007) cherchent par la suite à comprendre en quoi le positionnement d’une firme de capital de risque au sein de son réseau influence la performance des fonds qu’elle crée et trouvent une relation positive et significative entre la centralité et la performance en contrôlant pour différents facteurs. Bien qu’il soit tentant d’extrapoler ces résultats au marché du capital de risque dans son ensemble, des différences au niveau de la structure des réseaux de capital de risque dans d’autres régions géographiques pourraient mener à des résultats différents. En effet, Hege et al. (2009) soulèvent des différences importantes entre le processus d’investissement des capital-risqueurs européens et américains et concluent que l’approche d’investissement moins sophistiquée en Europe mène à une sous-performance des firmes de capital de risque de ce marché. Nitani et Riding (2013) avancent pour leur part que les résultats des études effectuées sur le marché du capital de risque américain ne peuvent être directement appliqués aux plus petits marchés comme le Canada, car la taille des fonds joue un rôle important dans le degré de syndication observé dans un marché. Plus précisément, les auteurs suggèrent que la proportion élevée de petites firmes de capital de risque et la rareté des grosses firmes de capital de risque sur le marché canadien provoquent des contraintes de capital qui mènent à une sursyndication des investissements. Bien que la syndication ait plusieurs bienfaits, Nitani et Riding (2013) concluent que la sursyndication mine la performance des petites firmes de capital de risque sur le marché canadien et résulte en une probabilité de sortie par IPO ou M&A plus faible pour les entreprises supportées par ces dernières. À la lumière de ces résultats, il semble que malgré la relation positive observée par Hochberg et al. (2007) entre centralité et performance sur le marché américain, un niveau d’interrelations trop important a l’effet contraire lorsque la proportion de petites et de grosses firmes de capital de risque n’est pas balancée dans un marché. Les auteurs n’ont toutefois pas utilisé l’analyse de réseaux pour arriver à ces résultats. En ce sens, l’objectif principal de mon étude est d’utiliser l’analyse de réseau pour observer et comprendre la structure du réseau de syndication dans le domaine du capital de risque canadien de façon à la comparer à celle d'autres pays et d'identifier les particularités canadiennes. Je tenterai par la suite de rapprocher les études de Hochberg et al. (2007) et Nitani et Riding (2013) de façon à déterminer si une relation positive entre la centralité et la performance est également observée sur le marché canadien malgré l’impact négatif découlant des contraintes de capital identifiées sur ce marché. Mon mémoire est divisé comme suit. La section 1 est consacrée à la présentation de mon objectif de recherche et des sous-objectifs qui en découlent. Ensuite, la section 2 présente la revue de littérature en lien avec mon étude et traite 1) des caractéristiques propres au marché du capital de risque, 2) des motifs justifiant la syndication des investissements dans ce marché et des différences observées entre le marché américain et les marchés européen et canadien, 3) de la mesure de la performance dans ce domaine et 4) de la méthodologie et des résultats obtenus par Hochberg et al. (2007). La section 3 correspond pour sa part au cadre théorique et englobe la conceptualisation du problème, les hypothèses de recherche et les aspects innovateurs/contributions de l’étude. La section 4 décrit en détail la méthodologie utilisée afin de tester les hypothèses de recherche et la relation entre la centralité et la performance. Finalement, la section 5 est consacrée à l’analyse des résultats obtenus, alors que la section 6 conclut.
8

Les déterminants de la santé en Chine : une approche de frontières stochastiques

Yao, Coffessou Diane January 2009 (has links) (PDF)
Les pays développés ont les indicateurs de santé les plus favorables du monde, à savoir, des taux de mortalités infantiles très bas et des niveaux d'espérance de vie très élevés. Plusieurs études essayent de cerner la relation qui existe entre les ressources de santé mises à la disposition des populations et J'état de santé de ces mêmes populations. II est possible de le faire en étudiant les dépenses de santé en relation avec l'état de santé. Toutefois, dans la plupart des études passées, des difficultés inhérentes à l'hétérogénéité des données ont fait en sorte qu'on obtient le plus souvent des résultats incertains. Il y a un manque de données de qualité, alors que le recours à des données homogènes est d'une très grande importance pour pouvoir mieux cerner l'impact des ressources en santé. Une des seules façons d'y arriver est d'utiliser des données provenant d'une seule source. Par exemple, le choix peut se porter sur des données provenant d'un seul pays, d'où l'intérêt d'utiliser des données régionales de la Chine. L'utilisation de ces données permet de tenir compte d'une part, du poids de la taille relative de chaque région dans l'analyse. Et d'autre part, elle permet d'éviter des problèmes liés à l'hétérogénéité des données. De ce fait, il n'y a pas de nécessité de conversion des unités monétaires, ni d'imprécision sur la notion de santé comme ce serait le cas dans une étude basée sur plusieurs pays. Les données chinoises sont fiables et de grande qualité et par conséquent peuvent être utilisées pour identifier les déterminants de la santé. Le fait que la Chine soit un pays émergent constitue un attrait en soi. Dans les pays développés, les investissements en santé sont extrêmement importants et de fait, le taux de rendement des dépenses en santé devient très faible (Crémieux et al., 1999). L'identification des déterminants de la santé devient difficile car la relation est identifiable à une constante et donc peu significative. Comme les dépenses de santé et les niveaux de santé dans les pays en voie de développement et les pays en émergence sont plus faibles, les possibilités d'identification des déterminants de la santé deviennent plus fortes. C'est cette combinaison de données de qualité et homogènes ainsi que de taux de rendement positif qui explique le recours aux données chinoises. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Frontières stochastiques, Déterminants de la santé, Taux de mortalité.
9

Étude de la pertinence et du coût d'opportunité de l'hormonothérapie

Cloutier, Martin 11 1900 (has links) (PDF)
Contexte : Utilisée depuis des décennies afin de contrebalancer les effets indésirables de la ménopause, l'hormonothérapie a connu un choc sans précédent lors de la publication d'une étude de la «Women's Health Initiative» en juillet 2002. Par la suite, nombreuses sont les femmes qui ont changé leur perception envers les hormones de remplacement et par conséquent leur consommation. Objectif : Utiliser ce choc pour quantifier les impacts d'avoir poursuivi ou cessé le traitement, par le biais d'incidence de pathologies. Méthodologie : Une revue de la littérature a été effectuée afin d'identifier les principales maladies associées aux hormones de remplacement. L'échantillon a ensuite été purifié pour éliminer les biais potentiels et déterminer une population représentative. Chaque femme a été classée en fonction de la médication utilisée et la décision de poursuivre ou de cesser l'hormonothérapie suite à la publication de l'étude de la WHI. Par la suite, des modèles de triples différences ont été appliqués afin d'isoler l'impact de l'abandon des hormones de remplacement. Les tests de Wilcoxon et du Chi carré ont respectivement été employés pour les variables continues et dichotomiques afin de calculer les différentes caractéristiques entre les cohortes. Résultats : Les femmes qui ont abandonné Premarin® ont vu augmenter leur risque de développer la maladie de l'Alzheimer, un accident vasculaire cérébral, un cancer du côlon, un cancer du sein, une thromboembolie veineuse, de l'ostéoporose ainsi que des fractures vertébrales et aux hanches, et ce, dans l'année qui suit l'abandon. Par contre, l'arrêt de Premarin® n'a occasionné aucun impact significatif sur l'incidence de l'anxiété, du cancer de l'endomètre, du cancer des ovaires, de la dépression, du diabète de type 2 et des évènements coronariens. Pour ce qui est des femmes qui ont abandonné Prempro®, elles s'exposent à une hausse des risques de contracter un cancer du sein. L'impact de l'abandon de Prempro® s'est révélé non significatif pour l'ensemble des autres maladies analysées. Discussion : Cette analyse sur des données de réclamation s'avère un complément intéressant aux études à double assignation aléatoire, car elle permet de voir l'impact de l'hormonothérapie sur la santé des gens en y intégrant les imperfections que la réalité occasionne. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : hormonothérapie, ménopause, économétrie, Prempro®, Premarin®
10

L'éducation et l'effet de l'obtention d'un niveau de scolarité supplémentaire sur la participation à l'assurance-sociale, l'assurance-emploi et les revenus de travail

Rodrigue, Christian 05 1900 (has links) (PDF)
Ce mémoire ne possède aucun résumé. ______________________________________________________________________________

Page generated in 0.0548 seconds