• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 288
  • 84
  • 22
  • 4
  • 3
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 423
  • 170
  • 78
  • 62
  • 58
  • 51
  • 37
  • 32
  • 32
  • 30
  • 29
  • 29
  • 28
  • 28
  • 25
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
391

Econometric Methods for Financial Crises / Méthodes Econométriques pour les Crises Financières

Dumitrescu, Elena 31 May 2012 (has links)
Connus sous le nom de Systèmes d’Alerte Avancés, ou Early Warning Systems (EWS), les modèles de prévision des crises financières sont appelés à jouer un rôle déterminant dans l’orientation des politiques économiques tant au niveau microéconomique qu’au niveau macroéconomique et international. Or,dans le sillage de la crise financière mondiale, des questions majeures se posent sur leur réelle capacité prédictive. Deux principales problématiques émergent dans le cadre de cette littérature : comment évaluer les capacités prédictives des EWS et comment les améliorer ?Cette thèse d’économétrie appliquée vise à proposer (i) une méthode d’évaluation systématique des capacités prédictives des EWS et (ii) de nouvelles spécifications d’EWS visant à améliorer leurs performances. Ce travail comporte quatre chapitres. Le premier propose un test original d’évaluation des prévisions par intervalles de confiance fondé sur l’hypothèse de distribution binomiale du processus de violations. Le deuxième chapitre propose une stratégie d’évaluation économétrique des capacités prédictives des EWS. Nous montrons que cette évaluation doit être fondée sur la détermination d’un seuil optimal sur les probabilités prévues d’apparition des crises ainsi que sur la comparaison des modèles.Le troisième chapitre révèle que la dynamique des crises (la persistance) est un élément essentiel de la spécification économétrique des EWS. Les résultats montrent en particulier que les modèles de type logit dynamiques présentent de bien meilleurs capacités prédictives que les modèles statiques et que les modèles de type Markoviens. Enfin, dans le quatrième chapitre nous proposons un modèle original de type probit dynamique multivarié qui permet d’analyser les schémas de causalité intervenant entre différents types crises (bancaires, de change et de dette). L’illustration empirique montre clairement que le passage à une modélisation trivariée améliore sensiblement les prévisions pour les pays qui connaissent les trois types de crises. / Known as Early Warning Systems (EWS), financial crises forecasting models play a key role in definingeconomic policies at microeconomic, macroeconomic and international level. However, in the wake ofthe global financial crisis, numerous questions with respect to their forecasting abilities have been raised,as very few signals were drawn prior to the starting of the turmoil. Two questions arise in this context:how to evaluate EWS forecasting abilities and how to improve them?The broad goal of this applied econometrics dissertation is hence (i) to propose a systematic model-free evaluation methodology for the forecasting abilities of EWS as well as (ii) to introduce new EWSspecifications with improved out-of-sample performance. This work has been concretized in four chapters.The first chapter introduces a new approach to evaluate interval forecasts which relies on the binomialdistributional assumption of the violations series. The second chapter proposes an econometric evaluationmethodology of the forecasting abilities of an EWS. We show that adequate evaluation must take intoaccount the cut-off both in the optimal crisis forecast step and in the model comparison step. The thirdchapter points out that crisis dynamics (persistence) is essential for the econometric specification of anEWS. Indeed, dynamic logit models lead to better out-of-sample forecasting probabilities than those oftheir main competitors (static model and Markov-switching one). Finally, a multivariate dynamic probitEWS is proposed in the fourth chapter to take into account the causality between different types of crises(banking, currency, sovereign debt). The empirical application shows that the trivariate model improvesforecasts for countries that underwent the three types of crises.
392

L'efficacité des sites web marchands destinés aux consommateurs culturellement divers : les effets de la congruence culturelle du site et de l'exposition répétée

Taieb, Besma 23 October 2012 (has links)
Cette thèse a pour objectifs d'étudier les réactions des groupes majoritaires et minoritaires face au site web marchand congruent à leur pays d'origine et au site web incongruent (site congruent au pays hôte/étranger), de mieux comprendre les effets de la congruence culturelle des sites marchands et d'évaluer les conditions d'efficacité du site culturellement incongruent. Nous avons élaboré un plan expérimental comportant trois variables à manipuler : la congruence culturelle du site web (faible versus forte), la fréquence d'exposition (1 exposition versus 2 expositions) et la population (minoritaire versus majoritaire). Deux sites web expérimentaux ont été conçus (le premier site est congruent à la population majoritaire et le second est congruent à la population minoritaire). Grâce à une analyse de contenu réalisée sur les sites locaux de la population minoritaire, nous avons identifié et sélectionné les marqueurs culturels dominants (tels que les couleurs, les polices, les images et les symboles) que nous avons manipulés pour concevoir les sites web expérimentaux. Les résultats obtenus montrent que le site culturellement congruent par rapport au site incongruent améliore l'attitude vis-à-vis du site, la confiance envers le site et l'intention de recommander. Toutefois, les effets positifs de la congruence culturelle du site web sur l'attitude et la confiance vis-à-vis du site sont plus forts pour la population majoritaire que pour la population minoritaire / This thesis aims to study the reactions of the majority and minority groups towards commercial website congruent with their country of origin and culturally incongruent website (site congruent with host country / abroad), to better understand the effects of commercial websites cultural congruity and to assess the conditions of culturally incongruent website effectiveness. We developed an experimental design with three variables to manipulate: website cultural congruity (low versus high), exposure frequency (1 exposure versus 2 exposures) and population (majority versus minority). Two experimental websites were designed (the first site is congruent with the majority population and the second is congruent with the minority population). Through a content analysis performed on the local sites of the minority population, we identified and selected the dominant cultural markers (such as colors, fonts, images and symbols) handled in designing experimental websites. The results show that culturally congruent site compared to incongruent site improves attitude, trust toward the site and intention to recommend. However, the positive effects of website cultural congruity on attitude and trust toward the site are stronger for the majority than the minority population. The results also indicate that repeated exposure to incongruent website improves attitude and trust toward the site, but it should be noted that repeated exposure has a stronger influence on attitude toward the incongruent site
393

Etude des délais de survenue des effets indésirables médicamenteux à partir des cas notifiés en pharmacovigilance : problème de l'estimation d'une distribution en présence de données tronquées à droite / Time to Onset of Adverse Drug Reactions : Spontaneously Reported Cases Based Analysis and Distribution Estimation From Right-Truncated Data

Leroy, Fanny 18 March 2014 (has links)
Ce travail de thèse porte sur l'estimation paramétrique du maximum de vraisemblance pour des données de survie tronquées à droite, lorsque les délais de troncature sont considérés déterministes. Il a été motivé par le problème de la modélisation des délais de survenue des effets indésirables médicamenteux à partir des bases de données de pharmacovigilance, constituées des cas notifiés. Les distributions exponentielle, de Weibull et log-logistique ont été explorées.Parfois le caractère tronqué à droite des données est ignoré et un estimateur naïf est utilisé à la place de l'estimateur pertinent. Une première étude de simulations a montré que, bien que ces deux estimateurs - naïf et basé sur la troncature à droite - puissent être positivement biaisés, le biais de l'estimateur basé sur la troncature est bien moindre que celui de l'estimateur naïf et il en va de même pour l'erreur quadratique moyenne. De plus, le biais et l'erreur quadratique moyenne de l'estimateur basé sur la troncature à droite diminuent nettement avec l'augmentation de la taille d'échantillon, ce qui n'est pas le cas de l'estimateur naïf. Les propriétés asymptotiques de l'estimateur paramétrique du maximum de vraisemblance ont été étudiées. Sous certaines conditions, suffisantes, cet estimateur est consistant et asymptotiquement normal. La matrice de covariance asymptotique a été détaillée. Quand le délai de survenue est modélisé par la loi exponentielle, une condition d'existence de l'estimation du maximum de vraisemblance, assurant ces conditions suffisantes, a été obtenue. Pour les deux autres lois, une condition d'existence de l'estimation du maximum de vraisemblance a été conjecturée.A partir des propriétés asymptotiques de cet estimateur paramétrique, les intervalles de confiance de type Wald et de la vraisemblance profilée ont été calculés. Une seconde étude de simulations a montré que la couverture des intervalles de confiance de type Wald pouvait être bien moindre que le niveau attendu en raison du biais de l'estimateur du paramètre de la distribution, d'un écart à la normalité et d'un biais de l'estimateur de la variance asymptotique. Dans ces cas-là, la couverture des intervalles de la vraisemblance profilée est meilleure.Quelques procédures d'adéquation adaptées aux données tronquées à droite ont été présentées. On distingue des procédures graphiques et des tests d'adéquation. Ces procédures permettent de vérifier l'adéquation des données aux différents modèles envisagés.Enfin, un jeu de données réelles constitué de 64 cas de lymphomes consécutifs à un traitement anti TNF-α issus de la base de pharmacovigilance française a été analysé, illustrant ainsi l'intérêt des méthodes développées. Bien que ces travaux aient été menés dans le cadre de la pharmacovigilance, les développements théoriques et les résultats des simulations peuvent être utilisés pour toute analyse rétrospective réalisée à partir d'un registre de cas, où les données sur un délai de survenue sont aussi tronquées à droite. / This work investigates the parametric maximum likelihood estimation for right-truncated survival data when the truncation times are considered deterministic. It was motivated by the modeling problem of the adverse drug reactions time-to-onset from spontaneous reporting databases. The families of the exponential, Weibull and log-logistic distributions were explored.Sometimes, right-truncation features of spontaneous reports are not taken into account and a naive estimator is used instead of the truncation-based estimator. Even if the naive and truncation-based estimators may be positively biased, a first simulation study showed that the bias of the truncation-based estimator is always smaller than the naive one and this is also true for the mean squared error. Furthermore, when the sample size increases, the bias and the mean squared error are almost constant for the naive estimator while they decrease clearly for the truncation-based estimator.Asymptotic properties of the truncation-based estimator were studied. Under sufficient conditions, this parametric truncation-based estimator is consistent and asymptotically normally distributed. The covariance matrix was detailed. When the time-to-onset is exponentially distributed, these sufficient conditions are checked as soon as a condition for the maximum likelihood estimation existence is satisfied. When the time-to-onset is Weibull or log-logistic distributed, a condition for the maximum likelihood estimation existence was conjectured.The asymptotic distribution of the maximum likelihood estimator makes it possible to derive Wald-type and profile likelihood confidence intervals for the distribution parameters. A second simulation study showed that the estimated coverage probability of the Wald-type confidence intervals could be far from the expected level because of a bias of the parametric maximum likelihood estimator, a gap from the gaussian distribution and a bias of the asymptotic variance estimator. In these cases, the profile likelihood confidence intervals perform better.Some goodness-of-fit procedures adapted to right-truncated data are presented. Graphical procedures and goodness-of-fit tests may be distinguished. These procedures make it possible to check the fit of different parametric families to the data.Illustrating the developed methods, a real dataset of 64 cases of lymphoma, that occurred after anti TNF-α treatment and that were reported to the French pharmacovigilance, was finally analyzed. Whilst an application to pharmacovigilance was led, the theoretical developments and the results of the simulation study may be used for any retrospective analysis from case registries where data are right-truncated.
394

Méthodes accélérées de Monte-Carlo pour la simulation d'événements rares. Applications aux Réseaux de Petri / Fast Monte Carlo methods for rare event simulation. Applications to Petri nets

Estecahandy, Maïder 18 April 2016 (has links)
Les études de Sûreté de Fonctionnement (SdF) sur les barrières instrumentées de sécurité représentent un enjeu important dans de nombreux domaines industriels. Afin de pouvoir réaliser ce type d'études, TOTAL développe depuis les années 80 le logiciel GRIF. Pour prendre en compte la complexité croissante du contexte opératoire de ses équipements de sécurité, TOTAL est de plus en plus fréquemment amené à utiliser le moteur de calcul MOCA-RP du package Simulation. MOCA-RP permet d'analyser grâce à la simulation de Monte-Carlo (MC) les performances d'équipements complexes modélisés à l'aide de Réseaux de Petri (RP). Néanmoins, obtenir des estimateurs précis avec MC sur des équipements très fiables, tels que l'indisponibilité, revient à faire de la simulation d'événements rares, ce qui peut s'avérer être coûteux en temps de calcul. Les méthodes standard d'accélération de la simulation de Monte-Carlo, initialement développées pour répondre à cette problématique, ne semblent pas adaptées à notre contexte. La majorité d'entre elles ont été définies pour améliorer l'estimation de la défiabilité et/ou pour les processus de Markov. Par conséquent, le travail accompli dans cette thèse se rapporte au développement de méthodes d'accélération de MC adaptées à la problématique des études de sécurité se modélisant en RP et estimant notamment l'indisponibilité. D'une part, nous proposons l'Extension de la Méthode de Conditionnement Temporel visant à accélérer la défaillance individuelle des composants. D'autre part, la méthode de Dissociation ainsi que la méthode de ``Truncated Fixed Effort'' ont été introduites pour accroitre l'occurrence de leurs défaillances simultanées. Ensuite, nous combinons la première technique avec les deux autres, et nous les associons à la méthode de Quasi-Monte-Carlo randomisée. Au travers de diverses études de sensibilité et expériences numériques, nous évaluons leur performance, et observons une amélioration significative des résultats par rapport à MC. Par ailleurs, nous discutons d'un sujet peu familier à la SdF, à savoir le choix de la méthode à utiliser pour déterminer les intervalles de confiance dans le cas de la simulation d'événements rares. Enfin, nous illustrons la faisabilité et le potentiel de nos méthodes sur la base d'une application à un cas industriel. / The dependability analysis of safety instrumented systems is an important industrial concern. To be able to carry out such safety studies, TOTAL develops since the eighties the dependability software GRIF. To take into account the increasing complexity of the operating context of its safety equipment, TOTAL is more frequently led to use the engine MOCA-RP of the GRIF Simulation package. Indeed, MOCA-RP allows to estimate quantities associated with complex aging systems modeled in Petri nets thanks to the standard Monte Carlo (MC) simulation. Nevertheless, deriving accurate estimators, such as the system unavailability, on very reliable systems involves rare event simulation, which requires very long computing times with MC. In order to address this issue, the common fast Monte Carlo methods do not seem to be appropriate. Many of them are originally defined to improve only the estimate of the unreliability and/or well-suited for Markovian processes. Therefore, the work accomplished in this thesis pertains to the development of acceleration methods adapted to the problematic of performing safety studies modeled in Petri nets and estimating in particular the unavailability. More specifically, we propose the Extension of the "Méthode de Conditionnement Temporel" to accelerate the individual failure of the components, and we introduce the Dissociation Method as well as the Truncated Fixed Effort Method to increase the occurrence of their simultaneous failures. Then, we combine the first technique with the two other ones, and we also associate them with the Randomized Quasi-Monte Carlo method. Through different sensitivities studies and benchmark experiments, we assess the performance of the acceleration methods and observe a significant improvement of the results compared with MC. Furthermore, we discuss the choice of the confidence interval method to be used when considering rare event simulation, which is an unfamiliar topic in the field of dependability. Last, an application to an industrial case permits the illustration of the potential of our solution methodology.
395

L'espace de liberté, de sécurité et de justice à l'épreuve de la lutte contre la criminalité organisée / The area of freedom, security and justice in the fight against organized crime

Chammat, Fadi 30 November 2018 (has links)
Pour contrer la menace de la criminalité organisée qui ne se cesse de se développer en devenant l’un des plus graves enjeux au sein de l’UE, les États membres se trouvent dans l’obligation de renforcer la coopération pénale contre celle-ci. Avec le traité de Maastricht puis la création de l’ELSJ par le traité d’Amsterdam dont la lutte contre la criminalité organisée constitue le moteur essentiel, les États membres expriment leur volonté pour s’organiser les actions et s’unir contre les menaces de la criminalité organisée. Toutefois, ces deux phases ont montré l’ineffectivité de la répression ; la paralysie et beaucoup de faiblesses. Avec son entrée en vigueur en 2009, le traité de Lisbonne commence une nouvelle ère de la lutte contre la criminalité organisée au sein de l’ELSJ. Cependant, même en intégrant ses avancées, il n’amorce pas la rationalisation nécessaire du cadre juridique qu’institutionnel de l’ELSJ contre la criminalité organisée. Des fortes crises que l’UE et l’ELSJ ont connues posent des questions sur la confiance nationale dans cet espace et cette union. La présente thèse cherche à identifier le rôle actuel et futur de l’UE en matière pénale contre la criminalité organisée au sein d’un espace où la libre circulation est le principe. Le rôle attendu ne peut se réaliser réellement qu’à travers d’un système pénal autonome où l’UE a la main forte à l’appliquer dans un climat de confiance et le respect des droits fondamentaux ; des systèmes juridiques d’États membres et leur souveraineté nationale. Dans cette perspective, une modification radicale qui touche à la nature de l’UE et son rôle sera indispensable. Mais qui a la volonté de faire la révolution ? / To counter the threat of organized crime, which is constantly growing and becoming one of the most serious issues in the European Union, member states are under an obligation to strengthen penal cooperation against it. With the Maastricht Treaty, and the creation of the area of freedom, security and justice by Amsterdam Treaty, of which the fight against organized crime is the essential driving force, the Member States express their will to organize their actions and unite against the threats of organized crime. However, these phases have shown the ineffectiveness of the repression; paralysis and a lot of weaknesses. With its entry into force in 2009, Lisbon Treaty begins a new era in the fight against organized crime within the AFSJ. However, even in integrating its progress, it does not initiate the necessary rationalization of the institutional legal framework of the AFSJ against organized crime. Strong crises that the EU and the AFSJ have experienced raise questions about national confidence in this area and the EU. This thesis seeks to identify the current and future role of the European Union within a space where free movement is the principle. The expected role can only really be achieved through an autonomous criminal system where the EU has a strong ability in applying it in a climate of trust and respect for fundamental rights; legal systems of member states and their national sovereignty. In this perspective, a radical change that concerns the nature of the EU will be essential. But who has the will to make the revolution?
396

Études adaptatives et comparatives de certains algorithmes en optimisation : implémentations effectives et applications

Yassine, Adnan 04 July 1989 (has links) (PDF)
Sont étudiés: 1) l'algorithme s.g.g.p. Pour la résolution d'un programme linéaire général; 2) la méthode de pivotage de Lemke, la methode du gradient conjugue conditionnel et la methode de l'inverse partiel pour la résolution des programmes quadratiques convexes; 3) les méthodes d'approximation extérieure et les méthodes de coupes planes et les méthodes de région de confiance pour l'optimisation non convexe.
397

Inférence Adaptative, Inductive et Transductive, pour l'Estimation de la Regression et de la Densité

Alquier, Pierre 08 December 2006 (has links) (PDF)
Cette thèse a pour objet l'étude des<br />propriétés statistiques d'algorithmes d'apprentissage dans le cas de<br />l'estimation de la régression et de la densité. Elle est divisée en<br />trois parties.<br /><br />La première partie consiste en une généralisation des théorèmes<br />PAC-Bayésiens, sur la classification, d'Olivier Catoni, au cas de la régression avec une fonction de perte<br />générale.<br /><br />Dans la seconde partie, on étudie plus particulièrement le cas de la<br />régression aux moindres carrés et on propose un nouvel algorithme de<br />sélection de variables. Cette méthode peut être appliquée notamment<br />au cas d'une base de fonctions orthonormales, et conduit alors à des<br />vitesses de convergence optimales, mais aussi au cas de fonctions de<br />type noyau, elle conduit alors à une variante des méthodes dites<br />"machines à vecteurs supports" (SVM).<br /><br />La troisième partie étend les résultats de la seconde au cas de<br />l'estimation de densité avec perte quadratique.
398

Examen des contributions d’une approche relationnelle de la socialisation organisationnelle

Lapointe, Émilie 06 1900 (has links)
Tant auprès des chercheurs que des praticiens, la socialisation organisationnelle semble représenter un sujet d’intérêt à l’heure actuelle (Fang, Duffy, & Shaw, 2011). Dans cette lignée, la présente thèse cherche à approfondir notre compréhension de la socialisation organisationnelle, afin d’en dresser un portrait plus complet et étayé, mais aussi d’y arrimer des pratiques porteuses pour les organisations et leurs employés. Plus précisément, les aspects relationnels inhérents au vécu des nouveaux employés, largement ignorés à ce jour dans la documentation (Ashforth, Sluss, & Harrison, 2007), sont examinés à partir de données recueillies à trois temps de mesure distincts auprès d’un échantillon de 224 nouveaux employés. Avec comme point de départ la théorie de l’échange social (Blau, 1964) et le concept de confiance affective (McAllister, 1995), le premier des deux articles qui composent la thèse démontre que, par rapport aux approches dites classiques (i.e., exprimant une vision cognitive de la socialisation organisationnelle), une approche relationnelle de la socialisation organisationnelle permet de mieux rendre compte du lien psychologique qui s’établit entre les nouveaux employés et l’organisation, alors que les approches cognitives classiques sont davantage explicatives de la performance des employés. Les deux approches semblent donc complémentaires pour expliquer l’adaptation des nouveaux employés. Le second article s’appuie sur la démonstration effectuée dans le premier article et cherche à approfondir davantage les aspects relationnels inhérents au vécu des nouveaux employés, de même que leur influence sur l’adaptation de ces derniers. À cette fin, la théorie de la conservation des ressources (Hobfoll, 1989) est considérée et l’engagement affectif (Meyer & Herscovitch, 2001) est mis de l’avant comme concept focal. Les résultats suggèrent que l’engagement affectif envers le supérieur compense pour un déclin de l’engagement affectif envers l’organisation, tel qu’il résulte d’un bris de la relation avec l’organisation. Les relations semblent donc, dans certaines circonstances, avoir une portée qui dépasse leurs protagonistes directs. La présente thèse démontre donc que les aspects relationnels inhérents au vécu des nouveaux employés ont une influence distincte, prépondérante et complexe sur leur adaptation en emploi. Ce faisant, elle s’insère dans un courant de recherche visant à remettre à l’avant-plan et mieux comprendre la sphère relationnelle dans les organisations (Ragins & Dutton, 2007). Les implications théoriques et pratiques qui en découlent seront discutées. / Both among researchers and practitioners, organizational socialization seems to be a topic of interest nowadays (Fang, Duffy, & Shaw, 2011). Along this line, the present thesis seeks to deepen our understanding of organizational socialization in order to provide a more complete and documented picture of it, but also to develop useful practices for organizations and their employees. Specifically, the relational aspects inherent to the experience of newcomers, largely ignored so far in the literature (Ashforth, Sluss, & Harrison, 2007), are examined using data collected at three points in time among a sample of 224 newcomers. Using social exchange theory (Blau, 1964) as a background and the concept of affective trust (McAllister, 1995), the first of the two articles that comprise the thesis shows that, compared with conventional approaches (i.e., expressing a cognitive view of organizational socialization), a relational approach to organizational socialization can better reflect the psychological bond that is established between newcomers and organizations, while conventional approaches are more explanatory of employee performance. The two approaches thus seem complementary to explain newcomer adjustment. The second article draws from the evidence reported in the first article and seeks to further deepen the relational aspects inherent to the experience of newcomers, as well as their influence on adjustment. To this end, conservation of resources theory (Hobfoll, 1989) is considered and affective commitment (Meyer & Herscovitch, 2001) is put forward as the focal concept. Results suggest that affective commitment to the supervisor compensates for a decline in affective commitment to the organization as resulting from a breach to individuals’ relationship with the organization. Relationships thus seem, under certain circumstances, to have an impact that goes beyond their direct protagonists. This thesis therefore demonstrates that the relational aspects inherent to the experience of newcomers have a distinct, prevailing and complex influence on their adjustment. In doing so, it is part of a research stream that tries to put forward and better understand the relational dynamics within organizations (Ragins & Dutton, 2007). Theoretical and practical implications will be discussed.
399

Éthique et gouvernance : les règles qui régissent la prévention et la sanction des conflits d'intérêts chez les élus municipaux

Roy, Alain R. 01 1900 (has links)
RÉSUMÉ FRANÇAIS Ce mémoire fait l’étude du régime de prévention et de sanction des conflits possibles entre les intérêts de la municipalité d’une part et de ceux de ses élus de l’autre. L’objet de recherche est abordé selon une approche historique et éthique basée sur le régime juridique actuel. Le mémoire est divisé en 3 chapitres : (1) la notion de conflit d’intérêts ; (2) le cadre juridique à la base du régime de sanction des conflits d’intérêts et (3) celui sur le régime de prévention des conflits d’intérêts dans le domaine municipal. Le chapitre préliminaire situe l’objet de recherche à l’intérieur des grandes tendances de la recherche juridique sur la question et présente un cadre de réflexion sur la notion de conflit d’intérêts. L’examen des conflits d’intérêts repose avant tout sur un questionnement et sur un jugement de nature subjective : ce qui a été considéré comme un conflit d’intérêts autrefois ne l’est pas nécessairement de nos jours et ce, en dépit du fait que le cadre juridique évolue aussi dans le temps. On ne peut donc pas dégager avec exactitude et pour toujours ce qui constitue un conflit d’intérêts de ce qui n’en constitue pas un. Le chapitre premier est divisé en 4 sections. On y traite notamment de la règle relative à l’interdiction pour un élu municipal de contracter avec la municipalité. On y démontre que l’origine de cette règle remonte aux premières lois municipales du XIXe siècle et que cette dernière a subi assez peu de modifications au fil des ans. La troisième section porte sur les cas de malversation, d’abus de confiance et les autres inconduites prohibées par la Loi sur les élections et référendums dans les municipalités (L.R.Q. c. E-2.2). Une quatrième section sur les accusations criminelles d’abus de confiance et de corruption vient clore le premier chapitre. Chacune de ces sections est abordée notamment en faisant l’historique des dispositions législatives en cause ainsi qu’en faisant certains parallèles avec la législation des autres provinces canadiennes. Le chapitre 2 sur le régime de prévention des conflits d’intérêts est divisé en 4 parties. La première section porte sur l’obligation pour un élu de déclarer annuellement ses intérêts pécuniaires. Cette obligation n’est pas unique au Québec puisqu’elle est présente dans quelques législations provinciales canadiennes. La deuxième section porte sur l’obligation pour cet élu de dénoncer verbalement son intérêt dans une question abordée par le conseil municipal réuni en séance ou en comité. Là encore, l’origine de cette approche préventive est fort ancienne et a longtemps été considéré comme le seul moyen de dénoncer son intérêt sans subir les sanctions prévues par la loi. Une troisième section s’intéresse au cadre juridique entourant les soumissions publiques et qui vise à éliminer toute situation possible de favoritisme ou de patronage. Une quatrième section aborde la question des codes d’éthique et de leur utilité ainsi que les développements récents sur cette question avec le dépôt en 2009 du rapport du Groupe de travail sur l’éthique dans le milieu municipal. Une conclusion vient clore le mémoire en présentant une synthèse de l’étude assortie de commentaires personnels sur les conclusions du Groupe de travail précité. / ENGLISH SUMMARY The objective of this master’s paper is to review the system of prevention and sanctions in the area of possible conflicts between, on the one part, the interests of the municipality and on the other, that of the elected officials. The research approach to the subject is both historical and ethical and is based on the existing legal system. The study is divided into three (3) chapters: (1) the concept of conflict of interest (2) the legal basis of the system of sanctions for conflicts of interest (3) the system of prevention of conflicts of interest in the municipal field. The preliminary chapter sets the research subject within the broader field of legal research on the question and presents a framework of thought on the notion of conflicts of interest. The examination of the concept of conflicts of interests begins by the questioning and making of subjective judgments: what has in the past been considered as a conflict of interest is no longer seen the same way today and this despite the fact that the legal system also evolves with the times. We cannot therefore identify permanently and with precision that which constitutes a conflict of interest and that which does not. It depends on the facts and the circumstances in each case. Chapter 1 is divided into 4 sections. We will review in particular the rules relating to the prohibition against an elected official contracting with the municipality. We will show that the rule takes its origin in the first legislation relating to municipalities dating back to the 19th century and that these rules have not been greatly modified since. The third section deals with misappropriation breach of trust and other misconduct prohibited by la An Act respecting Elections and Referendums in Municipalities (L.R.Q. c. E-2.2). A fourth section dealing with criminal charges for breach of trust and corruption brings the first chapter to an end. In each one of these sections we review the history of the legislation in question and by making certain comparisons with legislation in other provinces. Chapter 2 dealing with the system of prevention of conflicts of interest is divided into four (4) parts. The first section deals with the elected official’s obligation to make an annual declaration of pecuniary interests. This obligation is not unique to Quebec; it is also found in legislation in other Canadian provinces. The second section covers the obligation of an elected official to declare his or her interest in any question that is under study by council either in full session or in committee. Here again the origin of this preventative approach is quite ancient and has long been considered as the only means of declaring one’s interest without having to face the consequences provided at law. A third section deals with the legal system covering public tenders. This system is not only meant to insure healthy competition but also to eliminate any possible situation of favouritism or patronage that an elected official might be tempted to pass on to a supporter. A fourth section explores the matter of Codes of Ethics and their usefulness as well as recent developments in the area following on the tabling of the report in 2009 of the Groupe de travail sur l’éthique dans le milieu municipal. The conclusion presents a summary of the study including personal comments on the conclusions of the said study group.
400

Exogeneity, weak identification and instrument selection in econometrics

Doko Tchatoka, Sabro Firmin 02 1900 (has links)
La dernière décennie a connu un intérêt croissant pour les problèmes posés par les variables instrumentales faibles dans la littérature économétrique, c’est-à-dire les situations où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter. En effet, il est bien connu que lorsque les instruments sont faibles, les distributions des statistiques de Student, de Wald, du ratio de vraisemblance et du multiplicateur de Lagrange ne sont plus standard et dépendent souvent de paramètres de nuisance. Plusieurs études empiriques portant notamment sur les modèles de rendements à l’éducation [Angrist et Krueger (1991, 1995), Angrist et al. (1999), Bound et al. (1995), Dufour et Taamouti (2007)] et d’évaluation des actifs financiers (C-CAPM) [Hansen et Singleton (1982,1983), Stock et Wright (2000)], où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter, ont montré que l’utilisation de ces statistiques conduit souvent à des résultats peu fiables. Un remède à ce problème est l’utilisation de tests robustes à l’identification [Anderson et Rubin (1949), Moreira (2002), Kleibergen (2003), Dufour et Taamouti (2007)]. Cependant, il n’existe aucune littérature économétrique sur la qualité des procédures robustes à l’identification lorsque les instruments disponibles sont endogènes ou à la fois endogènes et faibles. Cela soulève la question de savoir ce qui arrive aux procédures d’inférence robustes à l’identification lorsque certaines variables instrumentales supposées exogènes ne le sont pas effectivement. Plus précisément, qu’arrive-t-il si une variable instrumentale invalide est ajoutée à un ensemble d’instruments valides? Ces procédures se comportent-elles différemment? Et si l’endogénéité des variables instrumentales pose des difficultés majeures à l’inférence statistique, peut-on proposer des procédures de tests qui sélectionnent les instruments lorsqu’ils sont à la fois forts et valides? Est-il possible de proposer les proédures de sélection d’instruments qui demeurent valides même en présence d’identification faible? Cette thèse se focalise sur les modèles structurels (modèles à équations simultanées) et apporte des réponses à ces questions à travers quatre essais. Le premier essai est publié dans Journal of Statistical Planning and Inference 138 (2008) 2649 – 2661. Dans cet essai, nous analysons les effets de l’endogénéité des instruments sur deux statistiques de test robustes à l’identification: la statistique d’Anderson et Rubin (AR, 1949) et la statistique de Kleibergen (K, 2003), avec ou sans instruments faibles. D’abord, lorsque le paramètre qui contrôle l’endogénéité des instruments est fixe (ne dépend pas de la taille de l’échantillon), nous montrons que toutes ces procédures sont en général convergentes contre la présence d’instruments invalides (c’est-à-dire détectent la présence d’instruments invalides) indépendamment de leur qualité (forts ou faibles). Nous décrivons aussi des cas où cette convergence peut ne pas tenir, mais la distribution asymptotique est modifiée d’une manière qui pourrait conduire à des distorsions de niveau même pour de grands échantillons. Ceci inclut, en particulier, les cas où l’estimateur des double moindres carrés demeure convergent, mais les tests sont asymptotiquement invalides. Ensuite, lorsque les instruments sont localement exogènes (c’est-à-dire le paramètre d’endogénéité converge vers zéro lorsque la taille de l’échantillon augmente), nous montrons que ces tests convergent vers des distributions chi-carré non centrées, que les instruments soient forts ou faibles. Nous caractérisons aussi les situations où le paramètre de non centralité est nul et la distribution asymptotique des statistiques demeure la même que dans le cas des instruments valides (malgré la présence des instruments invalides). Le deuxième essai étudie l’impact des instruments faibles sur les tests de spécification du type Durbin-Wu-Hausman (DWH) ainsi que le test de Revankar et Hartley (1973). Nous proposons une analyse en petit et grand échantillon de la distribution de ces tests sous l’hypothèse nulle (niveau) et l’alternative (puissance), incluant les cas où l’identification est déficiente ou faible (instruments faibles). Notre analyse en petit échantillon founit plusieurs perspectives ainsi que des extensions des précédentes procédures. En effet, la caractérisation de la distribution de ces statistiques en petit échantillon permet la construction des tests de Monte Carlo exacts pour l’exogénéité même avec les erreurs non Gaussiens. Nous montrons que ces tests sont typiquement robustes aux intruments faibles (le niveau est contrôlé). De plus, nous fournissons une caractérisation de la puissance des tests, qui exhibe clairement les facteurs qui déterminent la puissance. Nous montrons que les tests n’ont pas de puissance lorsque tous les instruments sont faibles [similaire à Guggenberger(2008)]. Cependant, la puissance existe tant qu’au moins un seul instruments est fort. La conclusion de Guggenberger (2008) concerne le cas où tous les instruments sont faibles (un cas d’intérêt mineur en pratique). Notre théorie asymptotique sous les hypothèses affaiblies confirme la théorie en échantillon fini. Par ailleurs, nous présentons une analyse de Monte Carlo indiquant que: (1) l’estimateur des moindres carrés ordinaires est plus efficace que celui des doubles moindres carrés lorsque les instruments sont faibles et l’endogenéité modérée [conclusion similaire à celle de Kiviet and Niemczyk (2007)]; (2) les estimateurs pré-test basés sur les tests d’exogenété ont une excellente performance par rapport aux doubles moindres carrés. Ceci suggère que la méthode des variables instrumentales ne devrait être appliquée que si l’on a la certitude d’avoir des instruments forts. Donc, les conclusions de Guggenberger (2008) sont mitigées et pourraient être trompeuses. Nous illustrons nos résultats théoriques à travers des expériences de simulation et deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le problème bien connu du rendement à l’éducation. Le troisième essai étend le test d’exogénéité du type Wald proposé par Dufour (1987) aux cas où les erreurs de la régression ont une distribution non-normale. Nous proposons une nouvelle version du précédent test qui est valide même en présence d’erreurs non-Gaussiens. Contrairement aux procédures de test d’exogénéité usuelles (tests de Durbin-Wu-Hausman et de Rvankar- Hartley), le test de Wald permet de résoudre un problème courant dans les travaux empiriques qui consiste à tester l’exogénéité partielle d’un sous ensemble de variables. Nous proposons deux nouveaux estimateurs pré-test basés sur le test de Wald qui performent mieux (en terme d’erreur quadratique moyenne) que l’estimateur IV usuel lorsque les variables instrumentales sont faibles et l’endogénéité modérée. Nous montrons également que ce test peut servir de procédure de sélection de variables instrumentales. Nous illustrons les résultats théoriques par deux applications empiriques: le modèle bien connu d’équation du salaire [Angist et Krueger (1991, 1999)] et les rendements d’échelle [Nerlove (1963)]. Nos résultats suggèrent que l’éducation de la mère expliquerait le décrochage de son fils, que l’output est une variable endogène dans l’estimation du coût de la firme et que le prix du fuel en est un instrument valide pour l’output. Le quatrième essai résout deux problèmes très importants dans la littérature économétrique. D’abord, bien que le test de Wald initial ou étendu permette de construire les régions de confiance et de tester les restrictions linéaires sur les covariances, il suppose que les paramètres du modèle sont identifiés. Lorsque l’identification est faible (instruments faiblement corrélés avec la variable à instrumenter), ce test n’est en général plus valide. Cet essai développe une procédure d’inférence robuste à l’identification (instruments faibles) qui permet de construire des régions de confiance pour la matrices de covariances entre les erreurs de la régression et les variables explicatives (possiblement endogènes). Nous fournissons les expressions analytiques des régions de confiance et caractérisons les conditions nécessaires et suffisantes sous lesquelles ils sont bornés. La procédure proposée demeure valide même pour de petits échantillons et elle est aussi asymptotiquement robuste à l’hétéroscédasticité et l’autocorrélation des erreurs. Ensuite, les résultats sont utilisés pour développer les tests d’exogénéité partielle robustes à l’identification. Les simulations Monte Carlo indiquent que ces tests contrôlent le niveau et ont de la puissance même si les instruments sont faibles. Ceci nous permet de proposer une procédure valide de sélection de variables instrumentales même s’il y a un problème d’identification. La procédure de sélection des instruments est basée sur deux nouveaux estimateurs pré-test qui combinent l’estimateur IV usuel et les estimateurs IV partiels. Nos simulations montrent que: (1) tout comme l’estimateur des moindres carrés ordinaires, les estimateurs IV partiels sont plus efficaces que l’estimateur IV usuel lorsque les instruments sont faibles et l’endogénéité modérée; (2) les estimateurs pré-test ont globalement une excellente performance comparés à l’estimateur IV usuel. Nous illustrons nos résultats théoriques par deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le modèle de rendements à l’éducation. Dans la première application, les études antérieures ont conclu que les instruments n’étaient pas trop faibles [Dufour et Taamouti (2007)] alors qu’ils le sont fortement dans la seconde [Bound (1995), Doko et Dufour (2009)]. Conformément à nos résultats théoriques, nous trouvons les régions de confiance non bornées pour la covariance dans le cas où les instruments sont assez faibles. / The last decade shows growing interest for the so-called weak instruments problems in the econometric literature, i.e. situations where instruments are poorly correlated with endogenous explanatory variables. More generally, these can be viewed as situations where model parameters are not identified or nearly so (see Dufour and Hsiao, 2008). It is well known that when instruments are weak, the limiting distributions of standard test statistics - like Student, Wald, likelihood ratio and Lagrange multiplier criteria in structural models - have non-standard distributions and often depend heavily on nuisance parameters. Several empirical studies including the estimation of returns to education [Angrist and Krueger (1991, 1995), Angrist et al. (1999), Bound et al. (1995), Dufour and Taamouti (2007)] and asset pricing model (C-CAPM) [Hansen and Singleton (1982, 1983), Stock and Wright (2000)], have showed that the above procedures are unreliable in presence of weak identification. As a result, identification-robust tests [Anderson and Rubin (1949), Moreira (2003), Kleibergen (2002), Dufour and Taamouti (2007)] are often used to make reliable inference. However, little is known about the quality of these procedures when the instruments are invalid or both weak and invalid. This raises the following question: what happens to inference procedures when some instruments are endogenous or both weak and endogenous? In particular, what happens if an invalid instrument is added to a set of valid instruments? How robust are these inference procedures to instrument endogeneity? Do alternative inference procedures behave differently? If instrument endogeneity makes statistical inference unreliable, can we propose the procedures for selecting "good instruments" (i.e. strong and valid instruments)? Can we propose instrument selection procedure which will be valid even in presence of weak identification? This thesis focuses on structural models and answers these questions through four chapiters. The first chapter is published in Journal of Statistical Planning and Inference 138 (2008) 2649 – 2661. In this chapter, we analyze the effects of instrument endogeneity on two identificationrobust procedures: Anderson and Rubin (1949, AR) and Kleibergen (2002, K) test statistics, with or without weak instruments. First, when the level of instrument endogeneity is fixed (does not depend on the sample size), we show that all these procedures are in general consistent against the presence of invalid instruments (hence asymptotically invalid for the hypothesis of interest), whether the instruments are "strong" or "weak". We also describe situations where this consistency may not hold, but the asymptotic distribution is modified in a way that would lead to size distortions in large samples. These include, in particular, cases where 2SLS estimator remains consistent, but the tests are asymptotically invalid. Second, when the instruments are locally exogenous (the level of instrument endogeneity approaches zero as the sample size increases), we find asymptotic noncentral chi-square distributions with or without weak instruments, and describe situations where the non-centrality parameter is zero and the asymptotic distribution remains the same as in the case of valid instruments (despite the presence of invalid instruments). The second chapter analyzes the effects of weak identification on Durbin-Wu-Hausman (DWH) specification tests an Revankar-Harttley exogeneity test. We propose a finite-and large-sample analysis of the distribution of DWH tests under the null hypothesis (level) and the alternative hypothesis (power), including when identification is deficient or weak (weak instruments). Our finite-sample analysis provides several new insights and extensions of earlier procedures. The characterization of the finite-sample distribution of the test-statistics allows the construction of exact identificationrobust exogeneity tests even with non-Gaussian errors (Monte Carlos tests) and shows that such tests are typically robust to weak instruments (level is controlled). Furthermore, we provide a characterization of the power of the tests, which clearly exhibits factors which determine power. We show that DWH-tests have no power when all instruments are weak [similar to Guggenberger(2008)]. However, power does exist as soon as we have one strong instruments. The conclusions of Guggenberger (2008) focus on the case where all instruments are weak (a case of little practical interest). Our asymptotic distributional theory under weaker assumptions confirms the finite-sample theory. Moreover, we present simulation evidence indicating: (1) over a wide range cases, including weak IV and moderate endogeneity, OLS performs better than 2SLS [finding similar to Kiviet and Niemczyk (2007)]; (2) pretest-estimators based on exogeneity tests have an excellent overall performance compared with usual IV estimator. We illustrate our theoretical results through simulation experiment and two empirical applications: the relation between trade and economic growth and the widely studied problem of returns to education. In the third chapter, we extend the generalized Wald partial exogeneity test [Dufour (1987)] to non-gaussian errors. Testing whether a subset of explanatory variables is exogenous is an important challenge in econometrics. This problem occurs in many applied works. For example, in the well know wage model, one should like to assess if mother’s education is exogenous without imposing additional assumptions on ability and schooling. In the growth model, the exogeneity of the constructed instrument on the basis of geographical characteristics for the trade share is often questioned and needs to be tested without constraining trade share and the other variables. Standard exogeneity tests of the type proposed by Durbin-Wu-Hausman and Revankar-Hartley cannot solve such problems. A potential cure for dealing with partial exogeneity is the use of the generalized linear Wald (GW) method (Dufour, 1987). The GW-procedure however assumes the normality of model errors and it is not clear how robust is this test to non-gaussian errors. We develop in this chapter, a modified version of earlier procedure which is valid even when model errors are not normally distributed. We present simulation evidence indicating that when identification is strong, the standard GW-test is size distorted in presence of non-gaussian errors. Furthermore, our analysis of the performance of different pretest-estimators based on GW-tests allow us to propose two new pretest-estimators of the structural parameter. The Monte Carlo simulations indicate that these pretest-estimators have a better performance over a wide range cases compared with 2SLS. Therefore, this can be viewed as a procedure for selecting variable where a GW-test is used in the first stage to decide which variables should be instruments and which ones are valid instruments. We illustrate our theoretical results through two empirical applications: the well known wage equation and the returns to scale in electricity supply. The results show that the GW-tests cannot reject the exogeneity of mother’s education, i.e. mother’s education may constitute a valid IV for schooling. However, the output in cost equation is endogenous and the price of fuel is a valid IV for estimating the returns to scale. The fourth chapter develops identification-robust inference for the covariances between errors and regressors of an IV regression. The results are then applied to develop partial exogeneity tests and partial IV pretest-estimators which are more efficient than usual IV estimator. When more than one stochastic explanatory variables are involved in the model, it is often necessary to determine which ones are independent of the disturbances. This problem arises in many empirical applications. For example, in the New Keynesian Phillips Curve, one should like to assess whether the interest rate is exogenous without imposing additional assumptions on inflation rate and the other variables. Standard Wu-Durbin-Hausman (DWH) tests which are commonly used in applied work are inappropriate to deal with such a problem. The generalized Wald (GW) procedure (Dufour, 1987) which typically allows the construction of confidence sets as well as testing linear restrictions on covariances assumes that the available instruments are strong. When the instruments are weak, the GW-test is in general size distorted. As a result, its application in models where instruments are possibly weak–returns to education, trade and economic growth, life cycle labor supply, New Keynesian Phillips Curve, pregnancy and the demand for cigarettes–may be misleading. To answer this problem, we develop a finite-and large-sample valid procedure for building confidence sets for covariances allowing for the presence of weak instruments. We provide analytic forms of the confidence sets and characterize necessary and sufficient conditions under which they are bounded. Moreover, we propose two new pretest-estimators of structural parameters based on our above procedure. Both estimators combine 2SLS and partial IV-estimators. The Monte Carlo experiment shows that: (1) partial IV-estimators outperform 2SLS when the instruments are weak; (2) pretestestimators have an excellent overall performance–bias and MSE– compared with 2SLS. Therefore, this can be viewed as a variable selection method where the projection-based techniques is used to decide which variables should be instrumented and which ones are valid instruments. We illustrate our results through two empirical applications: the relation between trade and economic growth and the widely studied problem of returns to education. The results show unbounded confidence sets, suggesting that the IV are relatively poor in these models, as questioned in the literature [Bound (1995)].

Page generated in 0.0654 seconds