Spelling suggestions: "subject:"confiança"" "subject:"confianza""
381 |
Exogeneity, weak identification and instrument selection in econometricsDoko Tchatoka, Sabro Firmin 02 1900 (has links)
La dernière décennie a connu un intérêt croissant pour les problèmes posés par les variables instrumentales
faibles dans la littérature économétrique, c’est-à-dire les situations où les variables
instrumentales sont faiblement corrélées avec la variable à instrumenter. En effet, il est bien connu
que lorsque les instruments sont faibles, les distributions des statistiques de Student, de Wald, du
ratio de vraisemblance et du multiplicateur de Lagrange ne sont plus standard et dépendent souvent
de paramètres de nuisance. Plusieurs études empiriques portant notamment sur les modèles de rendements
à l’éducation [Angrist et Krueger (1991, 1995), Angrist et al. (1999), Bound et al. (1995),
Dufour et Taamouti (2007)] et d’évaluation des actifs financiers (C-CAPM) [Hansen et Singleton
(1982,1983), Stock et Wright (2000)], où les variables instrumentales sont faiblement corrélées avec
la variable à instrumenter, ont montré que l’utilisation de ces statistiques conduit souvent à des résultats
peu fiables. Un remède à ce problème est l’utilisation de tests robustes à l’identification [Anderson
et Rubin (1949), Moreira (2002), Kleibergen (2003), Dufour et Taamouti (2007)]. Cependant,
il n’existe aucune littérature économétrique sur la qualité des procédures robustes à l’identification
lorsque les instruments disponibles sont endogènes ou à la fois endogènes et faibles. Cela soulève
la question de savoir ce qui arrive aux procédures d’inférence robustes à l’identification lorsque certaines
variables instrumentales supposées exogènes ne le sont pas effectivement. Plus précisément,
qu’arrive-t-il si une variable instrumentale invalide est ajoutée à un ensemble d’instruments valides?
Ces procédures se comportent-elles différemment? Et si l’endogénéité des variables instrumentales
pose des difficultés majeures à l’inférence statistique, peut-on proposer des procédures de tests qui
sélectionnent les instruments lorsqu’ils sont à la fois forts et valides? Est-il possible de proposer
les proédures de sélection d’instruments qui demeurent valides même en présence d’identification
faible?
Cette thèse se focalise sur les modèles structurels (modèles à équations simultanées) et apporte
des réponses à ces questions à travers quatre essais.
Le premier essai est publié dans Journal of Statistical Planning and Inference 138 (2008)
2649 – 2661. Dans cet essai, nous analysons les effets de l’endogénéité des instruments sur deux
statistiques de test robustes à l’identification: la statistique d’Anderson et Rubin (AR, 1949) et la
statistique de Kleibergen (K, 2003), avec ou sans instruments faibles. D’abord, lorsque le paramètre
qui contrôle l’endogénéité des instruments est fixe (ne dépend pas de la taille de l’échantillon), nous
montrons que toutes ces procédures sont en général convergentes contre la présence d’instruments
invalides (c’est-à-dire détectent la présence d’instruments invalides) indépendamment de leur qualité
(forts ou faibles). Nous décrivons aussi des cas où cette convergence peut ne pas tenir, mais
la distribution asymptotique est modifiée d’une manière qui pourrait conduire à des distorsions de
niveau même pour de grands échantillons. Ceci inclut, en particulier, les cas où l’estimateur des
double moindres carrés demeure convergent, mais les tests sont asymptotiquement invalides. Ensuite,
lorsque les instruments sont localement exogènes (c’est-à-dire le paramètre d’endogénéité
converge vers zéro lorsque la taille de l’échantillon augmente), nous montrons que ces tests convergent
vers des distributions chi-carré non centrées, que les instruments soient forts ou faibles. Nous
caractérisons aussi les situations où le paramètre de non centralité est nul et la distribution asymptotique
des statistiques demeure la même que dans le cas des instruments valides (malgré la présence
des instruments invalides).
Le deuxième essai étudie l’impact des instruments faibles sur les tests de spécification du type
Durbin-Wu-Hausman (DWH) ainsi que le test de Revankar et Hartley (1973). Nous proposons une
analyse en petit et grand échantillon de la distribution de ces tests sous l’hypothèse nulle (niveau)
et l’alternative (puissance), incluant les cas où l’identification est déficiente ou faible (instruments
faibles). Notre analyse en petit échantillon founit plusieurs perspectives ainsi que des extensions
des précédentes procédures. En effet, la caractérisation de la distribution de ces statistiques en petit
échantillon permet la construction des tests de Monte Carlo exacts pour l’exogénéité même avec
les erreurs non Gaussiens. Nous montrons que ces tests sont typiquement robustes aux intruments
faibles (le niveau est contrôlé). De plus, nous fournissons une caractérisation de la puissance des
tests, qui exhibe clairement les facteurs qui déterminent la puissance. Nous montrons que les tests
n’ont pas de puissance lorsque tous les instruments sont faibles [similaire à Guggenberger(2008)].
Cependant, la puissance existe tant qu’au moins un seul instruments est fort. La conclusion de
Guggenberger (2008) concerne le cas où tous les instruments sont faibles (un cas d’intérêt mineur
en pratique). Notre théorie asymptotique sous les hypothèses affaiblies confirme la théorie en échantillon
fini.
Par ailleurs, nous présentons une analyse de Monte Carlo indiquant que: (1) l’estimateur des
moindres carrés ordinaires est plus efficace que celui des doubles moindres carrés lorsque les instruments
sont faibles et l’endogenéité modérée [conclusion similaire à celle de Kiviet and Niemczyk
(2007)]; (2) les estimateurs pré-test basés sur les tests d’exogenété ont une excellente performance
par rapport aux doubles moindres carrés. Ceci suggère que la méthode des variables instrumentales
ne devrait être appliquée que si l’on a la certitude d’avoir des instruments forts. Donc, les
conclusions de Guggenberger (2008) sont mitigées et pourraient être trompeuses.
Nous illustrons nos résultats théoriques à travers des expériences de simulation et deux applications
empiriques: la relation entre le taux d’ouverture et la croissance économique et le problème
bien connu du rendement à l’éducation.
Le troisième essai étend le test d’exogénéité du type Wald proposé par Dufour (1987) aux cas
où les erreurs de la régression ont une distribution non-normale. Nous proposons une nouvelle
version du précédent test qui est valide même en présence d’erreurs non-Gaussiens. Contrairement
aux procédures de test d’exogénéité usuelles (tests de Durbin-Wu-Hausman et de Rvankar-
Hartley), le test de Wald permet de résoudre un problème courant dans les travaux empiriques
qui consiste à tester l’exogénéité partielle d’un sous ensemble de variables. Nous proposons deux
nouveaux estimateurs pré-test basés sur le test de Wald qui performent mieux (en terme d’erreur
quadratique moyenne) que l’estimateur IV usuel lorsque les variables instrumentales sont faibles et
l’endogénéité modérée. Nous montrons également que ce test peut servir de procédure de sélection
de variables instrumentales. Nous illustrons les résultats théoriques par deux applications
empiriques: le modèle bien connu d’équation du salaire [Angist et Krueger (1991, 1999)] et les
rendements d’échelle [Nerlove (1963)]. Nos résultats suggèrent que l’éducation de la mère expliquerait
le décrochage de son fils, que l’output est une variable endogène dans l’estimation du coût
de la firme et que le prix du fuel en est un instrument valide pour l’output.
Le quatrième essai résout deux problèmes très importants dans la littérature économétrique.
D’abord, bien que le test de Wald initial ou étendu permette de construire les régions de confiance
et de tester les restrictions linéaires sur les covariances, il suppose que les paramètres du modèle
sont identifiés. Lorsque l’identification est faible (instruments faiblement corrélés avec la variable
à instrumenter), ce test n’est en général plus valide. Cet essai développe une procédure d’inférence
robuste à l’identification (instruments faibles) qui permet de construire des régions de confiance
pour la matrices de covariances entre les erreurs de la régression et les variables explicatives (possiblement
endogènes). Nous fournissons les expressions analytiques des régions de confiance et
caractérisons les conditions nécessaires et suffisantes sous lesquelles ils sont bornés. La procédure
proposée demeure valide même pour de petits échantillons et elle est aussi asymptotiquement
robuste à l’hétéroscédasticité et l’autocorrélation des erreurs.
Ensuite, les résultats sont utilisés pour développer les tests d’exogénéité partielle robustes à
l’identification. Les simulations Monte Carlo indiquent que ces tests contrôlent le niveau et ont
de la puissance même si les instruments sont faibles. Ceci nous permet de proposer une procédure
valide de sélection de variables instrumentales même s’il y a un problème d’identification. La
procédure de sélection des instruments est basée sur deux nouveaux estimateurs pré-test qui combinent
l’estimateur IV usuel et les estimateurs IV partiels. Nos simulations montrent que: (1) tout
comme l’estimateur des moindres carrés ordinaires, les estimateurs IV partiels sont plus efficaces
que l’estimateur IV usuel lorsque les instruments sont faibles et l’endogénéité modérée; (2) les estimateurs
pré-test ont globalement une excellente performance comparés à l’estimateur IV usuel.
Nous illustrons nos résultats théoriques par deux applications empiriques: la relation entre le taux
d’ouverture et la croissance économique et le modèle de rendements à l’éducation. Dans la première
application, les études antérieures ont conclu que les instruments n’étaient pas trop faibles
[Dufour et Taamouti (2007)] alors qu’ils le sont fortement dans la seconde [Bound (1995), Doko et
Dufour (2009)]. Conformément à nos résultats théoriques, nous trouvons les régions de confiance
non bornées pour la covariance dans le cas où les instruments sont assez faibles. / The last decade shows growing interest for the so-called weak instruments problems in the
econometric literature, i.e. situations where instruments are poorly correlated with endogenous explanatory
variables. More generally, these can be viewed as situations where model parameters are
not identified or nearly so (see Dufour and Hsiao, 2008). It is well known that when instruments
are weak, the limiting distributions of standard test statistics - like Student, Wald, likelihood ratio
and Lagrange multiplier criteria in structural models - have non-standard distributions and often
depend heavily on nuisance parameters. Several empirical studies including the estimation of returns
to education [Angrist and Krueger (1991, 1995), Angrist et al. (1999), Bound et al. (1995),
Dufour and Taamouti (2007)] and asset pricing model (C-CAPM) [Hansen and Singleton (1982,
1983), Stock and Wright (2000)], have showed that the above procedures are unreliable in presence
of weak identification. As a result, identification-robust tests [Anderson and Rubin (1949), Moreira
(2003), Kleibergen (2002), Dufour and Taamouti (2007)] are often used to make reliable inference.
However, little is known about the quality of these procedures when the instruments are invalid or
both weak and invalid. This raises the following question: what happens to inference procedures
when some instruments are endogenous or both weak and endogenous? In particular, what happens
if an invalid instrument is added to a set of valid instruments? How robust are these inference
procedures to instrument endogeneity? Do alternative inference procedures behave differently? If
instrument endogeneity makes statistical inference unreliable, can we propose the procedures for selecting
"good instruments" (i.e. strong and valid instruments)? Can we propose instrument selection
procedure which will be valid even in presence of weak identification?
This thesis focuses on structural models and answers these questions through four chapiters.
The first chapter is published in Journal of Statistical Planning and Inference 138 (2008) 2649
– 2661. In this chapter, we analyze the effects of instrument endogeneity on two identificationrobust
procedures: Anderson and Rubin (1949, AR) and Kleibergen (2002, K) test statistics, with
or without weak instruments. First, when the level of instrument endogeneity is fixed (does not
depend on the sample size), we show that all these procedures are in general consistent against
the presence of invalid instruments (hence asymptotically invalid for the hypothesis of interest),
whether the instruments are "strong" or "weak". We also describe situations where this consistency
may not hold, but the asymptotic distribution is modified in a way that would lead to size distortions
in large samples. These include, in particular, cases where 2SLS estimator remains consistent, but
the tests are asymptotically invalid. Second, when the instruments are locally exogenous (the level
of instrument endogeneity approaches zero as the sample size increases), we find asymptotic noncentral
chi-square distributions with or without weak instruments, and describe situations where the
non-centrality parameter is zero and the asymptotic distribution remains the same as in the case of
valid instruments (despite the presence of invalid instruments).
The second chapter analyzes the effects of weak identification on Durbin-Wu-Hausman (DWH)
specification tests an Revankar-Harttley exogeneity test. We propose a finite-and large-sample analysis
of the distribution of DWH tests under the null hypothesis (level) and the alternative hypothesis
(power), including when identification is deficient or weak (weak instruments). Our finite-sample
analysis provides several new insights and extensions of earlier procedures. The characterization
of the finite-sample distribution of the test-statistics allows the construction of exact identificationrobust
exogeneity tests even with non-Gaussian errors (Monte Carlos tests) and shows that such
tests are typically robust to weak instruments (level is controlled).
Furthermore, we provide a characterization of the power of the tests, which clearly exhibits
factors which determine power. We show that DWH-tests have no power when all instruments are
weak [similar to Guggenberger(2008)]. However, power does exist as soon as we have one strong
instruments. The conclusions of Guggenberger (2008) focus on the case where all instruments
are weak (a case of little practical interest). Our asymptotic distributional theory under weaker
assumptions confirms the finite-sample theory.
Moreover, we present simulation evidence indicating: (1) over a wide range cases, including
weak IV and moderate endogeneity, OLS performs better than 2SLS [finding similar to Kiviet and
Niemczyk (2007)]; (2) pretest-estimators based on exogeneity tests have an excellent overall performance
compared with usual IV estimator.
We illustrate our theoretical results through simulation experiment and two empirical applications:
the relation between trade and economic growth and the widely studied problem of returns to
education.
In the third chapter, we extend the generalized Wald partial exogeneity test [Dufour (1987)]
to non-gaussian errors. Testing whether a subset of explanatory variables is exogenous is an important
challenge in econometrics. This problem occurs in many applied works. For example, in
the well know wage model, one should like to assess if mother’s education is exogenous without
imposing additional assumptions on ability and schooling. In the growth model, the exogeneity of
the constructed instrument on the basis of geographical characteristics for the trade share is often
questioned and needs to be tested without constraining trade share and the other variables. Standard
exogeneity tests of the type proposed by Durbin-Wu-Hausman and Revankar-Hartley cannot solve
such problems. A potential cure for dealing with partial exogeneity is the use of the generalized
linear Wald (GW) method (Dufour, 1987). The GW-procedure however assumes the normality of
model errors and it is not clear how robust is this test to non-gaussian errors.
We develop in this chapter, a modified version of earlier procedure which is valid even when
model errors are not normally distributed. We present simulation evidence indicating that when
identification is strong, the standard GW-test is size distorted in presence of non-gaussian errors.
Furthermore, our analysis of the performance of different pretest-estimators based on GW-tests
allow us to propose two new pretest-estimators of the structural parameter. The Monte Carlo simulations indicate that these pretest-estimators have a better performance over a wide range cases
compared with 2SLS. Therefore, this can be viewed as a procedure for selecting variable where a
GW-test is used in the first stage to decide which variables should be instruments and which ones
are valid instruments.
We illustrate our theoretical results through two empirical applications: the well known wage
equation and the returns to scale in electricity supply. The results show that the GW-tests cannot
reject the exogeneity of mother’s education, i.e. mother’s education may constitute a valid IV for
schooling. However, the output in cost equation is endogenous and the price of fuel is a valid IV for
estimating the returns to scale.
The fourth chapter develops identification-robust inference for the covariances between errors
and regressors of an IV regression. The results are then applied to develop partial exogeneity tests
and partial IV pretest-estimators which are more efficient than usual IV estimator.
When more than one stochastic explanatory variables are involved in the model, it is often
necessary to determine which ones are independent of the disturbances. This problem arises in
many empirical applications. For example, in the New Keynesian Phillips Curve, one should like to
assess whether the interest rate is exogenous without imposing additional assumptions on inflation
rate and the other variables. Standard Wu-Durbin-Hausman (DWH) tests which are commonly
used in applied work are inappropriate to deal with such a problem. The generalized Wald (GW)
procedure (Dufour, 1987) which typically allows the construction of confidence sets as well as
testing linear restrictions on covariances assumes that the available instruments are strong. When
the instruments are weak, the GW-test is in general size distorted. As a result, its application in
models where instruments are possibly weak–returns to education, trade and economic growth, life
cycle labor supply, New Keynesian Phillips Curve, pregnancy and the demand for cigarettes–may
be misleading.
To answer this problem, we develop a finite-and large-sample valid procedure for building confidence
sets for covariances allowing for the presence of weak instruments. We provide analytic
forms of the confidence sets and characterize necessary and sufficient conditions under which they
are bounded.
Moreover, we propose two new pretest-estimators of structural parameters based on our above
procedure. Both estimators combine 2SLS and partial IV-estimators. The Monte Carlo experiment
shows that: (1) partial IV-estimators outperform 2SLS when the instruments are weak; (2) pretestestimators
have an excellent overall performance–bias and MSE– compared with 2SLS. Therefore,
this can be viewed as a variable selection method where the projection-based techniques is used to
decide which variables should be instrumented and which ones are valid instruments.
We illustrate our results through two empirical applications: the relation between trade and economic
growth and the widely studied problem of returns to education. The results show unbounded
confidence sets, suggesting that the IV are relatively poor in these models, as questioned in the
literature [Bound (1995)].
|
382 |
Forme et dynamique sociale de l'entreprise réseau : monographie d'un atelier de dessin techniqueSkerlj, Alexandre 12 1900 (has links)
Le recours à la stratégie du recentrage sur le cœur de métier (core business) par les entreprises fait apparaître, en discours comme en pratique, trois mouvements qui déstabilisent les ensembles bureaucratiques: la réorganisation de la grande firme en « centres de profits », la multiplication des relations inter-firmes et un changement d’ordre qualitatif dans les termes de l’échange. L’avènement et le maintien de ce que nous convenons d’appeler l’« entreprise réseau » demeurent à ce jour problématique : soit cette forme organisationnelle serait le résultat d’une adaptation unilatérale à son environnement; soit la dynamique sociale serait réglée par la confiance entre les acteurs. Notre démarche inductive et exploratoire d’un cas d’entreprise réseau québécoise veut contribuer au démontage de la notion, puis à la compréhension sociologique du phénomène. Nous constatons que cette forme d’entreprise ne peut être comprise que lorsque nous la mettons en perspective avec l’entreprise bureaucratique. / The strategic focus on the core business by bureaucratic firms contributed to the destabilization of this organizational form in three ways: the move to small « profits centers », the multiplication of exchange relations between firms and the changing nature of the relationships between them. The literature that explains the why and how of what we conceptualize as a « network firm » is still problematic. This management literature has two paradigms: either this organizational form is the result of a unilateral adaptation it’s environment ; either the social dynamic between firms is only based on trust. Our inductive research design is based on a single case of a multinational network Quebec firm. It tries to contribute to the analysis of this concept and to its sociological understanding. We conclude that this organizational form cannot be fully understood unless it is putted in perspective with the bureaucratic firm.
|
383 |
Revisiting optimization algorithms for maximum likelihood estimationMai, Anh Tien 12 1900 (has links)
Parmi les méthodes d’estimation de paramètres de loi de probabilité en statistique, le
maximum de vraisemblance est une des techniques les plus populaires, comme, sous des conditions l´egères, les estimateurs ainsi produits sont consistants et asymptotiquement efficaces. Les problèmes de maximum de vraisemblance peuvent être traités comme des problèmes de programmation non linéaires, éventuellement non convexe, pour lesquels deux grandes classes de méthodes de résolution sont les techniques de région de confiance et les méthodes de recherche linéaire. En outre, il est possible d’exploiter la structure de ces problèmes pour tenter d’accélerer la convergence de ces méthodes, sous certaines hypothèses. Dans ce travail, nous revisitons certaines approches classiques ou récemment d´eveloppées en optimisation non linéaire, dans le contexte particulier de l’estimation de maximum de vraisemblance. Nous développons également de nouveaux algorithmes pour résoudre ce problème, reconsidérant différentes techniques d’approximation de hessiens, et proposons de nouvelles méthodes de calcul de pas, en particulier dans le cadre des algorithmes de recherche linéaire. Il s’agit notamment d’algorithmes nous permettant de changer d’approximation de hessien et d’adapter la longueur du pas dans une direction de recherche fixée. Finalement, nous évaluons l’efficacité numérique des méthodes proposées dans le cadre de l’estimation de modèles de choix discrets, en
particulier les modèles logit mélangés. / Maximum likelihood is one of the most popular techniques to estimate the parameters
of some given distributions. Under slight conditions, the produced estimators are
consistent and asymptotically efficient. Maximum likelihood problems can be handled
as non-linear programming problems, possibly non convex, that can be solved for instance using line-search methods and trust-region algorithms. Moreover, under some
conditions, it is possible to exploit the structures of such problems in order to speedup
convergence. In this work, we consider various non-linear programming techniques,
either standard or recently developed, within the maximum likelihood estimation perspective. We also propose new algorithms to solve this estimation problem, capitalizing on Hessian approximation techniques and developing new methods to compute steps, in particular in the context of line-search approaches. More specifically, we investigate methods that allow us switching between Hessian approximations and adapting the step length along the search direction. We finally assess the numerical efficiency of the proposed methods for the estimation of discrete choice models, more precisely mixed logit models.
|
384 |
Les dispositifs d’aide à la consommation : une analyse qui prend compte des obstacles à la rationalité dans l’évaluation des biens de consommationLeggett-Dubé, Justine 12 1900 (has links)
Ce projet de recherche vise à explorer le rôle du design dans l’acte d’achat et
l’évaluation des produits. L’hypothèse de recherche repose sur le fait que le
design est un obstacle à la rationalité dans le choix d’un bien, car ce dernier
est rattaché à des singularités qui lui sont propres, le rendant difficilement
comparable aux autres biens d’un même marché. Les produits deviennent
difficiles à évaluer et à classer parmi les autres biens similaires dans le
marché. En soi, la finalité et les vertus du design permettent aux
consommateurs d’avoir une plus grande liberté de choix, mais ce rôle
dynamique et économique que peut prendre le design peut aussi confondre
les consommateurs devenant brouillés par l’abondance de choix. En ce sens,
le design serait la clé de la voûte d’une économie des singularités telle que
proposée par Lucien Karpik dans L’économie des singularités. Avec une
méthodologie ethnologique, cinq projets d’évaluation de produits au sein de
deux organismes produisant des dispositifs d’aide à la consommation ont été
observés sur une période de deux ans. À la conclusion de cette étude, il a été
démontré que certaines améliorations pouvaient être apportées aux processus
d’évaluation, plus particulièrement en ce qui concerne les facteurs qui ne sont
pas pris en compte dans les dispositifs d’aide à la consommation actuels,
comme l’évaluation de produits centrée sur l’usager à l’aide de scénarios
d’usages, plutôt que l’évaluation de produits centrée sur l’objet, ainsi que la
considération de l’expérience de l’usager dans l’évaluation des biens. / This research project aims at exploring the role of design within the act of
purchasing and rating products. This premise is based on the fact that design
is an obstacle to an individual’s rationality when choosing goods because
they are multidimensional and of uncertain quality, as proposed by Lucien
Karpik. This creates a difficulty faced by consumers when trying to find
comparable products on the market. The research hypothesis of this project
suggests that design is an obstacle to reason by offering multidimensional
products to consumers. It then becomes harder for them to evaluate singular
products available on the market, and to make wise consumption choices.
One of the aims of design is to offer users freedom of choice, but this dynamic
and economic role of design can also lead to confusion, where consumers
become blinded by the abundance of choices. In this sense, design would be
the keystone of a singularity-based economy. Five product rating projects
were observed on a two-year period within two agencies involved in
producing consumption aid devices by using an ethnological approach. The
conclusion of this study has shown that some improvements could be made
to the product rating processes, particularly for the facts that have not been
accounted for in the actual consumption aid devices, such as user-centered
product ratings based on user scenarios instead of object-centered product
ratings, as well as considering user experience in product evaluation.
|
385 |
Examen des contributions d’une approche relationnelle de la socialisation organisationnelleLapointe, Émilie 06 1900 (has links)
Tant auprès des chercheurs que des praticiens, la socialisation organisationnelle semble représenter un sujet d’intérêt à l’heure actuelle (Fang, Duffy, & Shaw, 2011). Dans cette lignée, la présente thèse cherche à approfondir notre compréhension de la socialisation organisationnelle, afin d’en dresser un portrait plus complet et étayé, mais aussi d’y arrimer des pratiques porteuses pour les organisations et leurs employés. Plus précisément, les aspects relationnels inhérents au vécu des nouveaux employés, largement ignorés à ce jour dans la documentation (Ashforth, Sluss, & Harrison, 2007), sont examinés à partir de données recueillies à trois temps de mesure distincts auprès d’un échantillon de 224 nouveaux employés.
Avec comme point de départ la théorie de l’échange social (Blau, 1964) et le concept de confiance affective (McAllister, 1995), le premier des deux articles qui composent la thèse démontre que, par rapport aux approches dites classiques (i.e., exprimant une vision cognitive de la socialisation organisationnelle), une approche relationnelle de la socialisation organisationnelle permet de mieux rendre compte du lien psychologique qui s’établit entre les nouveaux employés et l’organisation, alors que les approches cognitives classiques sont davantage explicatives de la performance des employés. Les deux approches semblent donc complémentaires pour expliquer l’adaptation des nouveaux employés.
Le second article s’appuie sur la démonstration effectuée dans le premier article et cherche à approfondir davantage les aspects relationnels inhérents au vécu des nouveaux employés, de même que leur influence sur l’adaptation de ces derniers. À cette fin, la théorie de la conservation des ressources (Hobfoll, 1989) est considérée et l’engagement affectif (Meyer & Herscovitch, 2001) est mis de l’avant comme concept focal. Les résultats suggèrent que l’engagement affectif envers le supérieur compense pour un déclin de l’engagement affectif envers l’organisation, tel qu’il résulte d’un bris de la relation avec l’organisation. Les relations semblent donc, dans certaines circonstances, avoir une portée qui dépasse leurs protagonistes directs.
La présente thèse démontre donc que les aspects relationnels inhérents au vécu des nouveaux employés ont une influence distincte, prépondérante et complexe sur leur adaptation en emploi. Ce faisant, elle s’insère dans un courant de recherche visant à remettre à l’avant-plan et mieux comprendre la sphère relationnelle dans les organisations (Ragins & Dutton, 2007). Les implications théoriques et pratiques qui en découlent seront discutées. / Both among researchers and practitioners, organizational socialization seems to be a topic of interest nowadays (Fang, Duffy, & Shaw, 2011). Along this line, the present thesis seeks to deepen our understanding of organizational socialization in order to provide a more complete and documented picture of it, but also to develop useful practices for organizations and their employees. Specifically, the relational aspects inherent to the experience of newcomers, largely ignored so far in the literature (Ashforth, Sluss, & Harrison, 2007), are examined using data collected at three points in time among a sample of 224 newcomers.
Using social exchange theory (Blau, 1964) as a background and the concept of affective trust (McAllister, 1995), the first of the two articles that comprise the thesis shows that, compared with conventional approaches (i.e., expressing a cognitive view of organizational socialization), a relational approach to organizational socialization can better reflect the psychological bond that is established between newcomers and organizations, while conventional approaches are more explanatory of employee performance. The two approaches thus seem complementary to explain newcomer adjustment.
The second article draws from the evidence reported in the first article and seeks to further deepen the relational aspects inherent to the experience of newcomers, as well as their influence on adjustment. To this end, conservation of resources theory (Hobfoll, 1989) is considered and affective commitment (Meyer & Herscovitch, 2001) is put forward as the focal concept. Results suggest that affective commitment to the supervisor compensates for a decline in affective commitment to the organization as resulting from a breach to individuals’ relationship with the organization. Relationships thus seem, under certain circumstances, to have an impact that goes beyond their direct protagonists.
This thesis therefore demonstrates that the relational aspects inherent to the experience of newcomers have a distinct, prevailing and complex influence on their adjustment. In doing so, it is part of a research stream that tries to put forward and better understand the relational dynamics within organizations (Ragins & Dutton, 2007). Theoretical and practical implications will be discussed.
|
386 |
L'obligation d'information dans les contrats du commerce electronique / Obligations of information in e-commerce contratsMahi-Disdet, Djamila 13 December 2011 (has links)
L’information des opérateurs, professionnels ou non, est l’outil le plus important de la confiance dans l’économie numérique et les textes européens et nationaux se sont multipliés pour l’assurer de manière de plus en plus complète. L’étude s’attachera à inventorier selon les sources (droit commun, code de la consommation, législations spéciales) et classer les différentes obligations d’information en proposant diverses typologies selon leur nature, leur objet (la chose et le prix, la durée, les modalités) et leur rôle dans le processus contractuel (information précontractuelle, information sur la formalisation du contrat, la rétractation). Elle évoquera les difficultés liées à la combinaison des règles spéciales et des règles de droit commun (contradictions, variations, chevauchements). Dans le silence des textes spéciaux, elle traitera enfin des sanctions du non-respect de l’obligation d’information selon qu’il met en cause, ou non, la validité du consentement (nullité du contrat, inopposabilité). / Information for operators, professionals or not, is the main tool of confidence in the digital economy and the European and national texts have proliferated to reinforce this in a more and more comprehensive way. Based on its origins (common law, the Consumer Code, special laws), the study will seek to make an inventory and classify the different sources of information obligations by providing different typologies adapted to their nature or purpose (the object and its price, duration, terms) and their role in the contract process (pre-contractual information, information on the formalization of the contract, the withdrawal). It will discuss the difficulties associated with the combination of special rules and common law (contradictions, variations, overlapping). In the silence of specific texts, it will also cover the penalties for non compliance with the obligation of information depending on whether it questions or not the validity of the consent (void contract, unenforceable).
|
387 |
Mécanisme réputationnel, traitement de l'asymétrie informationnelle et efficience de l'allocation du crédit : le cas des Institutions Bancaires Formelles et des Institutions Bancaires Décentralisées en période de post-libéralisation financière au Cameroun / Reputational mechanism, asymmetric information treatment and efficiency of credit allocation : the case of formal banking institutions and decentralized banking institutions in post-financial liberalization period in Cameroon.Anouboussi, Joseph 05 January 2011 (has links)
La thèse porte sur la problématique de l’efficience du financement intermédié des processus de croissance et de développement économiques. Elle s'intéresse d’une part à la résolution des problèmes d’inefficience liés à la présence d’asymétries informationnelles et de l’incertitude sur les marchés du crédit grâce aux mécanismes réputationnels mis en œuvre dans le cadre des relations de long terme banques-emprunteurs et d’autre part, aux conditions dans lesquelles ces mécanismes peuvent émerger et se développer, en particulier dans un pays en développement comme le Cameroun.La thèse a donc une portée à la fois conceptuelle, empirique et normative.En premier lieu, nous avons cherché à alimenter le débat théorique sur la pertinence et l'intérêt du mécanisme réputationnel dans le processus d’intermédiation bancaire. Nous montrons que, contrairement aux modèles habituels d’intermédiation de la théorie d’agence, où les mécanismes de sanctions ou de coercitions judiciaires restent souvent inefficaces et coûteuses, le caractère auto-exécutoire du mécanisme de la réputation suffit seul à garantir l’efficacité de son fonctionnement. De plus, le mécanisme réputationnel nous semble mieux concilier deux conceptions opposées du comportement des acteurs que sont l’homo economicus et l’homo sociologicus. De ce fait, ce mécanisme est susceptible de constituer un cadre d'analyse intéressant pour la modélisation des comportements bancaires notamment dans le contexte des PED africains où les incertitudes restent exacerbées et où prédominent des rationalités économiques beaucoup plus fondées sur les valeurs. En second lieu, les résultats de notre enquête statistique de terrain permettent de montrer qu'au Cameroun, par rapport aux Institutions Financières Décentralisées (IFD) comme la MicroFinance, les Institutions Financières Formelles (IFF) semblent accorder une moindre importance aux pratiques réputationnelles dans leur comportement d'allocation des capitaux, en particulier aux PME. Ceci est susceptible d'apporter une des meilleures explications au différentiel de performance micro-économique, se situant ici à l'avantage des IFD.Enfin, la même enquête nous permet de mettre fortement en évidence l'existence de nombreux facteurs à la fois internes et externes empêchant aux deux catégories de banques une meilleure prise en compte du mécanisme réputationnel. Ce constat nous conduit à proposer des axes ou pistes de réflexion, à formuler et à justifier un ensemble de recommandations à la fois organisationnelles, institutionnelles et réglementaires associées. Ceci dans l’objectif de construire un système bancaire camerounais plus fiable et plus solide en incitant les banques à mieux intégrer les pratiques réputationnelles dans leur jugement d'octroi de crédit aux emprunteurs. / This thesis focusses on the problematic of the efficiency of intermediate finance on the economic growth and development processes. It concerned, on one hand, the resolution of inefficiency problems resulting from the presence of asymmetric information and uncertainty involved credit markets when reputational mechanisms implemented through banks-borrowers long-term relationships are used and, on the other hand, the conditions in which these mechanisms could emerged and expanded, in particular in a developing country such as Cameroon.The thesis thus has, at the same time, conceptual, empirical and normative purpose First of all, we tried to enrich the theoretical debate about relevance and interest of the reputational mechanism relating banking intermediation process. We show that, while in the models of agency where judicial penalties and pressures mechanisms are often ineffective and expensive, only the auto-enforceable character of the reputational mechanism is enough to guarantee its efficacious functioning. Furthermore, for us, the reputational mechanism seems better to reconcile the two usual opposite conceptions of agents behaviors that are homoeconomicus and homosociologicus. Therefore, this mechanism might constitute an interesting analysis framework for modeling banking behavior, in particular in the context of African economies where uncertainties remain aggravated and where much more economic rationalities based on the values prevail.Secondly, our statistical survey issues clearly shows that in Cameroon, with regard to decentralized financial institutions (DFIs) like Microfinance unities, formal financial institutions (FFI) seem to attach less importance to reputational practices in their capital allowance behaviour, especially to small and medium-sized enterprises (SMEs). This is likely to provide a better explanation of the differential micro-economic performance, situated here to the advantage of DFI.Finally, the same above mentioned survey strongly reveal the existence of many both internal and external factors preventing both categories of banks in a better consideration of reputational mechanisms. We then proposed axes or lines of reflection, formulated and justified a set of corporate, institutional and regulatory associated recommendations. This with the aim to build a more reliable and more solid Cameroonian banking system by inciting banks to better integrate reputational practices in their judgment of granting credits to borrowers.
|
388 |
La représentation de la confiance dans l'activité collective. Application à la coordination de l'activité de chantier de construction / Representation of trust in collective activity. Application to the coordination of the building construction activityGuerriero, Annie 09 April 2009 (has links)
L’activité de chantier se caractérise par un mode de production in situ. Dès lors, nombreux sont les dysfonctionnements qui peuvent apparaître. La coordination du chantier repose sur un mélange subtil entre interactions implicites et explicites, où l’organisation prend de multiples configurations (hiérarchique, adhocratique ou transversale), et où la qualité du processus collectif repose sur l’autonomie et le sens des responsabilités de chacun des intervenants. Nous faisons l’hypothèse qu’un tel contexte est largement fondé sur la notion de confiance, car celle-ci a la capacité de réduire la perception du risque et de permettre l’action dans un environnement incertain. En conséquence, nous suggérons un rapprochement entre les outils d’assistance à la coordination et la notion de confiance, et nous proposons une nouvelle approche du pilotage de l’activité collective à partir de la représentation de la confiance. Ce travail de doctorat se structure autour de la notion de « confiance dans le bon déroulement de l’activité ». Notre méthode consiste d’abord en l’identification des divers critères de confiance, consolidés par une étude de terrain. Puis, nous établissons un modèle mathématique destiné à évaluer cette confiance à partir des informations issues d’un contexte de coopération. Sur base de ces éléments, s’en suit la proposition d’un prototype dénommé Bat’iTrust. La navigation au sein de ce prototype est guidée par un tableau de bord centré sur le concept de confiance. Enfin, la validation de cette proposition repose sur des enquêtes et une phase d’expérimentation qui nous ont permis de confronter nos résultats à des sujets expérimentaux représentatifs du domaine / The building construction is an “on-site” production activity. Therefore numerous dysfunctions can appear during the activity. The coordination of building construction depends on a subtle combination between explicit vs. implicit interactions, where organization takes various forms (i.e. hierarchic, adhocratic and transversal). Quality of the collective process is thus largely dependent on autonomy capability and responsibility sharing of each of the involved actors. Our hypothesis is that such a collective context is mainly based on the notion of trust. Indeed trust has the capability to reduce the perception of risk and to enable action in uncertain environments. Consequently, we suggest applying trust notion to the issue of design of cooperation support tools, towards a new vision of collective activity management based on trust representation. This Ph.D. research introduces the notion of “trust in the good progress of the activity”. Our methodology consists firstly in identifying the various trust criterions that we validate through a terrain survey. Secondly we establish a mathematical model aiming at evaluating trust level based on cooperation context information. Then the proposition suggests a prototype tool, called Bat’iTrust. User-navigation inside the prototype is guided by a dashboard view centred on the trust concept. Finally the validation is assessed through both surveys and an experimentation stage. These ones allow us to confront our results to experimenters subjects representative of the construction domain
|
389 |
Econometric Methods for Financial Crises / Méthodes Econométriques pour les Crises FinancièresDumitrescu, Elena 31 May 2012 (has links)
Connus sous le nom de Systèmes d’Alerte Avancés, ou Early Warning Systems (EWS), les modèles de prévision des crises financières sont appelés à jouer un rôle déterminant dans l’orientation des politiques économiques tant au niveau microéconomique qu’au niveau macroéconomique et international. Or,dans le sillage de la crise financière mondiale, des questions majeures se posent sur leur réelle capacité prédictive. Deux principales problématiques émergent dans le cadre de cette littérature : comment évaluer les capacités prédictives des EWS et comment les améliorer ?Cette thèse d’économétrie appliquée vise à proposer (i) une méthode d’évaluation systématique des capacités prédictives des EWS et (ii) de nouvelles spécifications d’EWS visant à améliorer leurs performances. Ce travail comporte quatre chapitres. Le premier propose un test original d’évaluation des prévisions par intervalles de confiance fondé sur l’hypothèse de distribution binomiale du processus de violations. Le deuxième chapitre propose une stratégie d’évaluation économétrique des capacités prédictives des EWS. Nous montrons que cette évaluation doit être fondée sur la détermination d’un seuil optimal sur les probabilités prévues d’apparition des crises ainsi que sur la comparaison des modèles.Le troisième chapitre révèle que la dynamique des crises (la persistance) est un élément essentiel de la spécification économétrique des EWS. Les résultats montrent en particulier que les modèles de type logit dynamiques présentent de bien meilleurs capacités prédictives que les modèles statiques et que les modèles de type Markoviens. Enfin, dans le quatrième chapitre nous proposons un modèle original de type probit dynamique multivarié qui permet d’analyser les schémas de causalité intervenant entre différents types crises (bancaires, de change et de dette). L’illustration empirique montre clairement que le passage à une modélisation trivariée améliore sensiblement les prévisions pour les pays qui connaissent les trois types de crises. / Known as Early Warning Systems (EWS), financial crises forecasting models play a key role in definingeconomic policies at microeconomic, macroeconomic and international level. However, in the wake ofthe global financial crisis, numerous questions with respect to their forecasting abilities have been raised,as very few signals were drawn prior to the starting of the turmoil. Two questions arise in this context:how to evaluate EWS forecasting abilities and how to improve them?The broad goal of this applied econometrics dissertation is hence (i) to propose a systematic model-free evaluation methodology for the forecasting abilities of EWS as well as (ii) to introduce new EWSspecifications with improved out-of-sample performance. This work has been concretized in four chapters.The first chapter introduces a new approach to evaluate interval forecasts which relies on the binomialdistributional assumption of the violations series. The second chapter proposes an econometric evaluationmethodology of the forecasting abilities of an EWS. We show that adequate evaluation must take intoaccount the cut-off both in the optimal crisis forecast step and in the model comparison step. The thirdchapter points out that crisis dynamics (persistence) is essential for the econometric specification of anEWS. Indeed, dynamic logit models lead to better out-of-sample forecasting probabilities than those oftheir main competitors (static model and Markov-switching one). Finally, a multivariate dynamic probitEWS is proposed in the fourth chapter to take into account the causality between different types of crises(banking, currency, sovereign debt). The empirical application shows that the trivariate model improvesforecasts for countries that underwent the three types of crises.
|
390 |
L'efficacité des sites web marchands destinés aux consommateurs culturellement divers : les effets de la congruence culturelle du site et de l'exposition répétéeTaieb, Besma 23 October 2012 (has links)
Cette thèse a pour objectifs d'étudier les réactions des groupes majoritaires et minoritaires face au site web marchand congruent à leur pays d'origine et au site web incongruent (site congruent au pays hôte/étranger), de mieux comprendre les effets de la congruence culturelle des sites marchands et d'évaluer les conditions d'efficacité du site culturellement incongruent. Nous avons élaboré un plan expérimental comportant trois variables à manipuler : la congruence culturelle du site web (faible versus forte), la fréquence d'exposition (1 exposition versus 2 expositions) et la population (minoritaire versus majoritaire). Deux sites web expérimentaux ont été conçus (le premier site est congruent à la population majoritaire et le second est congruent à la population minoritaire). Grâce à une analyse de contenu réalisée sur les sites locaux de la population minoritaire, nous avons identifié et sélectionné les marqueurs culturels dominants (tels que les couleurs, les polices, les images et les symboles) que nous avons manipulés pour concevoir les sites web expérimentaux. Les résultats obtenus montrent que le site culturellement congruent par rapport au site incongruent améliore l'attitude vis-à-vis du site, la confiance envers le site et l'intention de recommander. Toutefois, les effets positifs de la congruence culturelle du site web sur l'attitude et la confiance vis-à-vis du site sont plus forts pour la population majoritaire que pour la population minoritaire / This thesis aims to study the reactions of the majority and minority groups towards commercial website congruent with their country of origin and culturally incongruent website (site congruent with host country / abroad), to better understand the effects of commercial websites cultural congruity and to assess the conditions of culturally incongruent website effectiveness. We developed an experimental design with three variables to manipulate: website cultural congruity (low versus high), exposure frequency (1 exposure versus 2 exposures) and population (majority versus minority). Two experimental websites were designed (the first site is congruent with the majority population and the second is congruent with the minority population). Through a content analysis performed on the local sites of the minority population, we identified and selected the dominant cultural markers (such as colors, fonts, images and symbols) handled in designing experimental websites. The results show that culturally congruent site compared to incongruent site improves attitude, trust toward the site and intention to recommend. However, the positive effects of website cultural congruity on attitude and trust toward the site are stronger for the majority than the minority population. The results also indicate that repeated exposure to incongruent website improves attitude and trust toward the site, but it should be noted that repeated exposure has a stronger influence on attitude toward the incongruent site
|
Page generated in 0.5124 seconds