Spelling suggestions: "subject:"résolution"" "subject:"ésolution""
161 |
Three essays on social policy shareolder activism : actors and issues, types of targeted firms, and outcomesRojas Rodriguez, Miguel Eduardo January 2010 (has links) (PDF)
Les actionnaires de firmes qui affichent une faible performance sociale ou environnementale ont à leur disposition un certain nombre d'outils pour forcer les dirigeants à revoir les politiques de la firme. Un des mécanismes pouvant leur permettre de communiquer leurs préoccupations aux dirigeants est la soumission de résolutions d'actionnaire. Ce genre d'actions est régulé par la règle communément appelée Règle 14a-8, promulguée en 1942 par la Commission des valeurs mobilières des États-Unis (SEC par son sigle en anglais). Selon les dispositions de la Règle, les actionnaires des compagnies cotées en bourse peuvent déposer sans frais, s'ils remplissent certains critères, des résolutions (ou propositions) d'actionnaires pour être incluses dans la circulaire de sollicitation de procurations de la firme, si les dirigeants présentent des propositions eux-mêmes lesquelles seront votés par les actionnaires. Deux grands groupes caractérisent les résolutions d'actionnaires soumises selon les dispositions de la Règle 14 a-8. Le premier groupe de résolutions vise seulement à améliorer la performance financière de la firme, et ces résolutions sont appelées « résolutions de gouvernance d'entreprise ». Le deuxième groupe de résolutions a comme but l'amélioration de la performance sociale des firmes. Alors que la majeure partie de la littérature académique s'est concentrée sur les résolutions de gouvernance d'entreprise, l'objet de notre recherche est l'étude des résolutions du deuxième groupe. En effet, les résolutions de l'actionnariat à caractère social constituent un phénomène persistant (au moins un tiers de toutes les résolutions reçues par les firmes aux États-Unis
appartiennent à ce groupe), ce qui motive notre intention de contribuer à la littérature en tentant de comprendre pourquoi certaines entreprises font l'objet de ce type de résolutions, quelles sont les principales sortes de résolutions à caractère social et qui sont les actionnaires qui les promeuvent et enfin, pourquoi certains résultats finaux des résolutions semble plus probables que d'autres. Nous avons alors bâti une base de données dans laquelle nous avons fusionné les informations sur les résolutions d'actionnaires, avec des données financières et comptables extraites de Compustat et des données de performance sociale colligées dans la base de la firme KLD Research and Analytics, Inc. Cette base de données originale nous a permis de valider empiriquement trois problématiques de recherche visant à contribuer à l'avancement des connaissances sur l'activisme actionnarial à caractère social. Le premier de ces papiers analyse le type d'entreprises ciblées par les activistes qui présentent des résolutions à caractère social. À cette fin, nous comparons deux groupes d'entreprises, celles ayant reçu une résolution d'actionnaires à l'intention du social (échantillon original) et un autre groupe de firmes témoins qui n'en ont pas reçu (du moins, pendant une fenêtre de temps appropriée). Les critères retenus pour sélectionner les entreprises témoins sont: la taille et le secteur d'activité. Nous avons cherché une firme témoin pour chaque résolution, même si certaines compagnies en reçoivent plusieurs chaque année. Notre hypothèse est que les actionnaires choisissent des firmes qui présentent certaines caractéristiques pour les cibler avec des résolutions. L'article montre que les actionnaires ont tendance à cibler des firmes de grande taille, peu performantes sur le plan financier, et qui affichent des indicateurs de risque élevés. Nous supposons que les deux résultats puissent être reliés à la possibilité que l'impact négatif des enjeux à caractère social sur la valeur des firmes puisse s'avérer plus important quand la performance économique est insatisfaisante et le risque plus élevé, favorisant ainsi davantage le monitoring. L'article montre aussi que les firmes peu performantes sur le plan social ont plus de probabilité d'être ciblées par les actionnaires. Nous avons aussi exploré la possibilité que les différents types d'actionnaires puissent privilégier différents types d'entreprise. Nous découvrons qu'en général les actionnaires ne choisissent pas ou ne ciblent pas tous les mêmes entreprises, mais que cette différence n'est pas notoire. Notre deuxième article propose des typologies pour les acteurs qui soumettent des résolutions ainsi que pour les sujets considérés dans les résolutions. Sur la base de ces typologies, l'article examine aussi les résultats des résolutions, en mettant l'emphase sur la capacité des actionnaires qui soumettent des propositions de négocier avec les dirigeants en échange du retrait de la résolution de la circulaire de sollicitation de procurations. La littérature disponible a assimilé le retrait des résolutions au succès, c'est-à-dire à la capacité d'exercer une influence sur les dirigeants. Cet article remet en question cette perspective et présente les raisons suggérant que dans certaines circonstances les actionnaires puissent s'incliner pour retirer leurs résolutions, et ce dans le but d'occulter des résultats décevants. En prenant en considération cet aspect, l'article montre que certains types d'actionnaires (tels les fonds de pension, les fonds communs de placement, et dans une moindre mesure, les investisseurs religieux) ont plus de capacité à influencer les dirigeants. C'est aussi le cas de certains types de sujets considérés dans les résolutions, tels que la diversité dans les conseils d'administration, l'égalité dans l'emploi, l'énergie et l'environnement, et le respect des droits humains et du travail à l'international. Sur la base des résultats que nous avons obtenus dans le deuxième papier, notre troisième et dernier article cherche à voir si un certain nombre de caractéristiques de la firme et de caractéristiques des résolutions elles-mêmes augmentent la probabilité d'un règlement entre actionnaires et dirigeants, et ce, avant que la résolution ne soit votée lors de l'assemblée générale annuelle. Nos résultats indiquent que la taille de l'entreprise ne favorise pas la négociation en faveur de l'actionnaire, même s'il est démontré que les actionnaires préfèrent s'attaquer aux grandes firmes. Une rentabilité plus élevée de la firme réduit la probabilité d'un règlement négocié, mais une performance sociale plus élevée augmente cette probabilité. Le contrôle par la firme de marques de grande valeur (qui pourraient être ternies par le refus des dirigeants de changer la politique sociale de la firme) ne semble pas avoir un impact sur la probabilité d'un règlement favorable pour les actionnaires. Néanmoins, nous reconnaissons que les indicateurs comptables utilisés pour mesurer la valeur des actifs intangibles peuvent êtres biaisés, comme cela a été suggéré par un nombre de chercheurs en comptabilité. Certaines catégories de sujets et d'initiateurs des propositions peuvent avoir une influence sur le dénouement de la résolution. Il est important de souligner que certaines variables perdent leur signification statistique quand le pourcentage de vote reçu par la proposition la dernière année est introduit comme variable indépendante dans les modèles de régression. Le fait que cette dernière variable domine sur les autres témoigne du pouvoir du processus de soumission des résolutions d'actionnaires en tant que mécanisme de transmission des attentes des actionnaires aux dirigeants. Dans cet article nous examinons également l'impact des variables mentionnées plus haut sur le pourcentage de vote reçu par les propositions. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Résolutions de l'actionnariat, Gouvernance d'entreprise, Performance sociale, Résolutions à caractère social.
|
162 |
A framework to study the potential benefits of using high-resolution regional climate model simulationsDi Luca, Alejandro 07 1900 (has links) (PDF)
La modélisation du climat à haute résolution est nécessaire aux études d'impact du climat et, de nos jours, les modèles de circulation générale (MCG) n'ont pas encore une résolution suffisante pour satisfaire ces besoins. Les modèles régionaux du climat (MRC) ont été développés dans le but de fournir des détails sur le climat à fine échelle sur des régions spécifiques de la Terre. Les MRC ont démontré leur capacité à produire de la variabilité spatiale à petite échelle qui manque dans les simulations de MCG ; pour cette raison, les MRC sont de plus en plus utilisés dans les études sur le climat actuel et futur. Malgré ce succès, les avantages découlant de la production d'une variabilité climatique de fine échelle - autres que l'effet visuel saisissant des animations réalistes - ont rarement été clairement identifiés. Les tentatives pour quantifier ces avantages, généralement désignés comme étant la valeur ajoutée (VA) des MRC, ont été relativement rares et ont prouvé que la question de la VA est très complexe. Compte tenu de cette complexité, ce projet se concentre sur un aspect particulier de cette question : l'étude des conditions préalables que doivent satisfaire certaines statistiques climatiques pour permettre aux MRC d'ajouter de la valeur aux données utilisées comme pilote. Ces conditions sont basées sur l'idée que la VA des MRC ne peut survenir que si les statistiques climatiques d'intérêt contiennent de l'information à fine échelle qui n'est pas négligeable. Des données observées et simulées par des MRC peuvent ensuite être utilisées pour quantifier l'influence relative des fines échelles dans les statistiques climatiques, comme un proxy, pour estimer la valeur ajoutée potentielle (VAP) des MRC. Deux méthodes différentes ont été utilisées pour étudier la VAP sur l'Amérique du Nord, respectivement pour la température de surface et la précipitation. Les deux méthodes comprennent 3 étapes : l'utilisation d'une technique de décomposition pour séparer les variables atmosphériques en plusieurs échelles temporelles et spatiales, le calcul de statistiques climatiques et la définition d'une quantité pour estimer la VAP. Pour la température, nous constatons que la VAP se dégage presque exclusivement dans des régions caractérisées par des forçages de surface importants, soit la présence de topographie de fine échelle ou de contrastes terre-mer. Par ailleurs, certains des processus qui produisent la variabilité de petite échelle semblent être liés à des mécanismes relativement simples tels que la réponse linéaire aux différentes propriétés physiques de la surface et la variation générale de la température avec l'altitude dans l'atmosphère. Le potentiel des MRC à ajouter de la valeur dans les projections futures de la température moyenne est brièvement étudié. L'analyse montre que la variabilité de fine échelle du signal du changement climatique est généralement très faible par rapport à celle de grande échelle, ce qui suggère que peu de VA est attendue pour cette statistique climatique. Pour les précipitations, les résultats montrent que la VAP est fortement liée à des instabilités hydrodynamiques de fine échelle. La VAP est beaucoup plus élevée sur de courtes échelles temporelles (par exemple, pour des données sur 3 heures) et pour la saison chaude en raison de la proportion plus élevée de précipitations produites par de petits systèmes météorologiques et systèmes convectifs. Dans les régions à topographie complexe, le forçage orographique induit une composante supplémentaire de VAP, peu importe la saison ou l'échelle temporelle considérée. Les résultats montrent aussi que les MRC ont tendance à reproduire relativement bien la VAP par rapport aux observations bien qu'ils montrent une légère surestimation de la VAP en saison chaude et dans des régions montagneuses. Les résultats démontrent l'utilité du cadre utilisé pour étudier la VAP dans le climat actuel et dans des projections futures. Il est souligné que l'étude approfondie de la VA des MRC devrait aider à comprendre comment utiliser le mieux les divers produits climatiques disponibles en appui aux études en impact et adaptation face au climat changeant.
______________________________________________________________________________
MOTS-CLÉS DE L’AUTEUR : modèles régionaux du climat, valeur ajouté potentielle, Amérique du Nord, température, précipitation.
|
163 |
Étude des conditions physiques dans les disques protoplanétaires par interférométrie. Théorie, instrumentation et premières observations.Malbet, Fabien 26 October 2007 (has links) (PDF)
Les étoiles se forment lors de l'effondrement de nuages de gaz et de poussière. Dans l'environnement proche de l'étoile naissante la matière se concentre dans un plan équatorial que l'on appelle disque protoplanétaire. Les astronomes pensent que les planètes se forment au sein de cette masse de gaz et de poussière orbitant autour de l'étoile. Pour sonder ces disques à des échelles correspondant aux orbites des futures planètes, il convient d'observer dans l'infrarouge à très haute résolution spatiale. L'interférométrie infrarouge est donc un outil idéal pour étudier les conditions physiques des disques protoplanétaires. Dans ce mémoire, je décris les premiers pas de l'interférométrie infrarouge, depuis la mise au point des petits interféromètres PTI et IOTA jusqu'à la construction de l'instrument AMBER au foyer de l'interféromètre du VLT. Je décris aussi les résultats d'une piste de recherche technologique particulièrement attrayante dans le cas de l'interférométrie infrarouge et issue des technologies des autoroutes de l'information: l'optique intégrée appliquée à la combinaison de plusieurs faisceaux en astronomie. Je montre ensuite comment à partir des observations obtenues à partir de ces instruments, il est possible de contraindre la physique des disques autour des étoiles jeunes. Grâce à la résolution spectrale nouvellement disponible sur ces instruments, pour la première fois nous pouvons séparer des phénomènes physiques aussi différents que l'accrétion de matière sur l'étoile et l'éjection de particules par des vents dont l'origine précise est encore mal connue. Les résultats présentés dans ce mémoire ont été obtenus principalement à partir d'observations sur les systèmes jeunes FU Ori et MWC 297 effectuées par AMBER sur le VLTI, mais aussi par les petits interféromètres infrarouges PTI et IOTA. Je développe aussi les travaux de modélisation de la structure verticale des disques associés afin de montrer la richesse des renseignements obtenus. Finalement je trace les contours d'un programme de recherche qui permettra tout d'abord de maximiser le retour astrophysique sur un instrument comme le VLTI, puis d'obtenir de premières images interférométriques de ces environnements circumstellaires. Je propose aussi la réalisation d'un instrument de seconde génération qui permettra de fournir des images interférométriques détaillées de ces sources compactes par synthèse d'ouverture.
|
164 |
Abondance des éléments plus légers que le zinc dans les premières étoiles galactiques - Implications sur la nature des premières supernovæDepagne, Éric 21 March 2003 (has links) (PDF)
Au cours de cette thèse, j'ai étudié $33$ étoiles extrêmement déficientes du halo galactique (ayant moins de $500$ fois moins de métaux que le So<br />leil) observées au VLT avec le spectrographe à haute résolution UVES. Ces étoiles sont les témoins des tous premiers âges de notre Galaxie. La co<br />nnaissance détaillée de leur composition chimique permet de contraindre les modèles de formation et d'évolution de notre galaxie.<br /><br />J'ai pu déterminer dans ces étoiles les abondances de $17$ éléments avec une précision inégalée, allant du carbone au zinc, et en particulier, ce<br />lles d'éléments «clés» comme l'oxygène et le zinc, pour comprendre quel type de supernova a enrichi la matière au début de la vie de la Galaxie.<br /><br />J'ai montré en particulier que l'on peut expliquer les rapports d'abondance observés sans faire intervenir de supernova supermassive (dont la mas<br />se dépasse $100$\Msol~).<br /><br />Par ailleurs, l'évolution des abondances en fonction de la métallicité moyenne est comparée aux modèles d'évolution chimique de la Galaxie. Notre<br /> étude portant sur des étoiles réputées être nées au tout début de la vie de notre Galaxie, nous apportons des contraintes observationnelles fort<br />es à ces modèles.
|
165 |
Etude, développement et validation d'un concept d'architecture électronique sans temps mort pour TEP de haute sensibilitéVert, P.-E. 28 March 2007 (has links) (PDF)
L'électronique de lecture des tomographes à émission de positrons (TEP) est performante, mais possède son lot de qualités et de défauts. Hautement incriminée, spontanément, dans l'explication de la sensibilité assez pauvre de ces instruments, il ressort tout d'abord de l'étude présentée que les temps morts répartis relatifs à l'électronique n'incombent aux pertes de données qu'à hauteur de 16% pour une activité injectée typique de 10 microCi/ml. Les taux d'acquisition bruts pourraient ainsi être majorés de 20% par la suppression des saturations. A regarder plus en détails la philosophie de l'acquisition sur ces imageurs, il apparaît un caractère limitant davantage encore la sensibilité : la résolution temporelle. Elle conditionne, au premier ordre, les possibilités de réjection des événements fortuits, d'une partie des diffusés et donc du bruit, finalement rapporté au signal matérialisé par les vraies coïncidences. Une minimisation de la résolution temporelle passe par la suppression des acteurs inutiles et l'adoption d'une technique d'étiquetage temporel adaptée (filtrage optimal). Ce faisant, la résolution intrinsèque des voies de lecture est diminuée d'un facteur 7, se réduisant à 350 ps. Le plancher du fenêtrage en coïncidence peut être abaissé substantiellement et le NECR augmente de 50% en conséquence. A ce stade, un algorithme de mesure du temps de vol (TOF) peut être implémenté. Opportuniste, il promet une réduction de la variance associée au bruit de 430%, ce gain se répercute sur le NECR. Au final, le cumul des idées permet d'espérer gagner un ordre de grandeur sur le rapport signal sur bruit NECR, avec l'espoir d'examens cliniques raccourcis d'autant. Dans ce contexte, il est apparu légitime d'imaginer un nouveau synoptique d'acquisition pour TEP entièrement pixélisés. Le nombre de canaux explose au passage, par rapport à ce qui existe. Ceci est en partie compensé par la décision d'intégrer l'électronique au maximum. Les mesures d'énergie et de temps sont prévues sur une seule et même voie d'acquisition, avec une lecture en continue et sans temps mort des événements incidents. Le développement de l'électronique est en cours, ce manuscrit donne une description des trois premiers blocs. A terme, la réalisation d'un démonstrateur est prévue.
|
166 |
Traitement non-linéaire du signal radar par filtrage particulaireNoyer, Jean-Charles 17 December 1996 (has links) (PDF)
On présente dans ce mémoire, une approche globale du probème de poursuite radar de cibles manoeuvrantes à faible rapport signal/bruit, par filtrage non-linéaire particulaire. Le filtrage particulaire, dont les bases ont été jetées dès 1989, permet d'aborder tous les cas où les non-linéarités présentes posent des difficultés de résolution aux techniques de filtrage dynamique. Il consiste à construire une approximation-mesure de la probabilité conditionnelle de la variable d'état à estimer par particules aléatoires, dont la dynamique est régie par le flot stochastique du système, et qui sont pondérées, via la règle de Bayes, par les mesures jusqu'à l'instant courant. Ce travail présente en premier lieu le traitement direct des mesures radar brutes en sortie d'échantillonneur/convertisseur. On montre notamment que la prise en compte de la dynamique de cible dans l'intégration cohérente des récurrences RADAR, permet d'atteindre les limites théoriques de détection, jusqu'alors inacessibles. Cela conduit notamment à revoir le problème de détection, car l'intégration d'un modèle de dynamique permet de relever le rapport signal/bruit équivalent, et minimise les problèmes de fausse alarme. En second lieu, on détaille le post-traitement des données de position délivrées par un radar de poursuite usuel, en particulier pour le modèle générique de missile à loi de navigation proportionnelle. On présente dans ce cas la résolution du problème de détermination de but visé, qui se pose en terme d'un test d'hypothèses sur le modèle de dynamique de l'assaillant.
|
167 |
Spécification et résolution de tâches de manipulation complexes. Application à la téléprogrammation de robots distantsPiccin, Olivier 15 November 1995 (has links) (PDF)
Les travaux présentés dans cette thèse s'inscrivent dans le contexte de la robotique de manipulation distante où les possibilités de communication entre l'opérateur et le site robotisé sont réduites. Pour accroître l'autonomie de fonctionnement du manipulateur distant, il faut pouvoir raisonner sur un modèle du robot et de son environnement de travail. En raison de la connaissance imprécise de ce dernier, il est indispensable de disposer de moyens d'identification des positions et de la taille des objets en interaction avec le robot. De plus, le caractère non répétitif et la complexité des tâches envisagées nécessitent l'emploi d'un système rapidement reconfigurable et susceptible de traiter des problèmes suffisamment généraux. Dans cette perspective, l'approche proposée de spécification de tâches par contraintes autorise une description des actions à effectuer en termes de mobilités et de contraintes de contact à établir ou maintenir entre certains corps. Les relations de contraintes résultantes sont alors traitées par un module de résolution basé sur un schéma numérique itératif de type Newton-Raphson. Un niveau important de robustesse a été atteint grâce à une gestion dynamique du conditionnement des équations qui permet un choix automatique du scénario de résolution. Les applications de l'approche incluent en premier lieu la génération de trajectoires complexes et continues pour des systèmes robotisés quelconques. La mise en place de contraintes peut aussi être exploitée pour accomplir, localement, des évitements d'obstacles. Enfin, cette démarche se prête également à la résolution de tâches de calibration des objets présents dans l'univers du robot. Cette caractéristique est essentielle dans le contexte de manipulation distante où les modèles sont mal connus a priori. Finalement, la présentation d'un scénario expérimental de suivi de joint de soudure, mis en œuvre sur un manipulateur réel, nous permet de formuler une proposition pour l'exécution de tâches robotisées sur sites distants
|
168 |
Vibro-acoustique de la harpe de concertLe Carrou, Jean-Loïc 08 December 2006 (has links) (PDF)
La harpe de concert est un instrument à cordes dont les propriétés acoustiques et vibratoires ont fait l'objet de peu d'études. L'objectif visé au cours de ce travail de thèse est de comprendre et de modéliser le comportement vibro-acoustique de cet instrument.<br />Dans une première partie, une description générale de l'instrument est proposée, de ses origines à sa constitution actuelle. Une attention particulière est ensuite portée à l'interaction entre le doigt et la corde au moment du pincement : l'analyse d'images obtenues avec une caméra rapide permet d'obtenir les paramètres d'un modèle d'interaction. <br />Dans une deuxième partie, le rayonnement acoustique du corps sonore de l'instrument est étudié. Ce rayonnement met en jeu des couplages entre la table d'harmonie et la caisse de résonance. Une analyse modale, complétée par des mesures de vitesse particulaire acoustique en sortie d'évents permet d'identier deux modes couplés caractéristiques du comportement vibro-acoustique de l'instrument en basses fréquences. Un modèle discret 2 degrés de liberté décrivant la réponse de la harpe autour des fréquences de ces deux modes est développé. Du fait de la particularité des mécanismes d'amortissement présents dans le système, l'estimation des paramètres du modèle n'est possible que grâce à l'utilisation d'une méthode non standard d'analyse modale : l'appropriation par le calcul. Par ailleurs, le rayonnement acoustique en champ lointain est étudié à l'aide d'une antenne de microphones. La méthode dite des sources équivalentes est appliquée an d'identier une distribution de monopoles acoustiques rendant compte du rayonnement acoustique de l'instrument. Finalement, en basses fréquences, la harpe de concert est modélisée par 2 sources acoustiques élémentaires, l'une placée sur la table d'harmonie et l'autre au niveau des évents.<br />La troisième partie est consacrée à l'étude des couplages entre les cordes et la table d'harmonie qui donnent lieu à des phénomènes de résonance par sympathie. Ces couplages sont étudiés au moyen d'un modèle d'instrument à cordes générique constitué d'une poutre encastrée à ses extrémités sur laquelle des cordes sont xées à leurs extrémités. Le formalisme du vecteur d'état et la méthode des matrices de transfert sont utilisés pour décrire la propagation des ondes de exion et de compression dans chaque sous-structure (cordes et poutre). A partir des conditions de couplage entre les sous-structures, les modes de l'assemblage sont déterminés et ceux responsables du phénomène de vibration par sympathie sont identiés. Appliqués au cas de la harpe de concert, ces modes, dit sympathiques, sont également extraits expérimentalement. Les multiples couplages entre les cordes, occasionnés par ces modes, donnent lieu à des signaux musicaux présentant un grand nombre de composantes spectrales, dont les fréquences sont parfois très proches et non résolues dans un même partiel. L'identication de ces composantes est alors eectuée par l'emploi de méthodes spéciques du traitement du signal : des méthodes à haute résolution.<br />Des résultats issus de ces travaux sont mis en perspective pour des applications possibles en facture instrumentale.
|
169 |
Hybridation de méthodes complètes et incomplètes pour la résolution de CSPLambert, Tony 27 October 2006 (has links) (PDF)
L'hybridation des mécanismes de méthodes incomplètes et des techniques de programmation par contraintes est souvent basée sur des combinaisons de type maître-esclave, dédiées à la résolution de classes de problèmes spécifiques. Dans cette thèse, nous nous intéressons à la définition d'un modèle théorique uniforme, basé sur les itérations chaotiques de K.R. Apt qui définissent un cadre mathématique pour l'itération d'un ensemble fini de fonctions sur des domaines abstraits munis d'un ordre partiel. Ce cadre permet<br />de prendre en compte une hybridation entre les méthodes incomplètes et les méthodes complètes. Dans ce contexte, la résolution s'apparente à un calcul de point fixe d'un ensemble de fonctions de réductions spécifiques. Notre cadre générique permet alors d'envisager des stratégies de combinaisons et d'hybridation de manière plus fine et d'étudier leurs propriétés. Nous avons employé un cadre général approprié pour modéliser la résolution des problèmes d'optimisation et nous présentons des résultats<br />expérimentaux qui mettent en avant les atouts de telles<br />combinaisons en regard d'une utilisation indépendante des techniques de résolution.
|
170 |
Economie d'un droit flexibleObidzinski, Marie 11 December 2006 (has links) (PDF)
Un droit flexible est un droit qui laisse une marge de discrétion au juge. Il est caractérisé par des règles générales, ou “incomplètes”. Cette marge de discrétion a un coût : la diminution de l'information donnée par le droit aux agents. Dans un contexte où la complexité du droit augmente de manière exponentielle, la question de la rationalité d'un droit flexible se pose. Autrement dit, les règles de droit doivent-elles être incomplètes, c'est-à-dire ambiguës, ou doivent-elles spécifier l'ensemble des contingences ?<br />Cette thèse s'insère dans la littérature de l'analyse économique des caractéristiques des règles en analysant le problème sous l'angle de la production du droit.<br />Tout d'abord, un traitement théorique de la formulation des règles à l'aide de la théorie des options réelles est présenté dans le but de participer à la compréhension de l'existence de règles incomplètes dans des environnements complexes et innovants.<br />La question du fondement de l'intervention de l'autorité publique est ensuite posée. Le choix entre un régime flexible, fondé sur l'occurrence du préjudice, et un régime rigide, fondé sur la détection de l'activité, dépend de l'information du législateur et des agents sur le risque.<br />L'influence du degré de précision des règles sur la résolution à l'amiable des litiges est analysée. Cette étude nous permet de justifier en partie la production de droit soft par les parties privées. Un droit précis facilite la résolution des litiges.<br />Finalement, la notion de flexibilité est appliquée à la controverse sur l'efficacité de l'harmonisation du droit comme solution à la concurrence des juridictions. Le problème du droit d'asile est considéré. La production d'un droit d'asile européen flexible apparaît comme une solution préférable pour les réfugiés. Elle permet de limiter l'effet d'externalité tout en laissant une marge de manoeuvre aux Etats : une partie de la production du droit est décentralisée. Dans ce cadre, la justification de l'incomplétude des règles provient des disparités entre les Etats. Cette disparité crée une demande pour un droit flexible.<br />La conclusion est nuancée ; l'incomplétude des règles de droit se justifie lorsque les circonstances varient fortement et lorsque le domaine est innovant. Autrement, la précision des règles informe les agents : elle est donc nécessaire dans un contexte de sous ou sur estimation du risque et comme aide à la résolution des litiges.
|
Page generated in 0.0856 seconds