• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 118
  • 35
  • 10
  • 1
  • Tagged with
  • 171
  • 78
  • 37
  • 24
  • 23
  • 19
  • 19
  • 19
  • 18
  • 17
  • 15
  • 14
  • 14
  • 13
  • 12
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
131

Essays on optimal fiscal and monetary policies

Kiarsi, Mehrab 01 1900 (has links)
Cette thèse se compose de trois articles sur les politiques budgétaires et monétaires optimales. Dans le premier article, J'étudie la détermination conjointe de la politique budgétaire et monétaire optimale dans un cadre néo-keynésien avec les marchés du travail frictionnels, de la monnaie et avec distortion des taux d'imposition du revenu du travail. Dans le premier article, je trouve que lorsque le pouvoir de négociation des travailleurs est faible, la politique Ramsey-optimale appelle à un taux optimal d'inflation annuel significativement plus élevé, au-delà de 9.5%, qui est aussi très volatile, au-delà de 7.4%. Le gouvernement Ramsey utilise l'inflation pour induire des fluctuations efficaces dans les marchés du travail, malgré le fait que l'évolution des prix est coûteuse et malgré la présence de la fiscalité du travail variant dans le temps. Les résultats quantitatifs montrent clairement que le planificateur s'appuie plus fortement sur l'inflation, pas sur l'impôts, pour lisser les distorsions dans l'économie au cours du cycle économique. En effet, il ya un compromis tout à fait clair entre le taux optimal de l'inflation et sa volatilité et le taux d'impôt sur le revenu optimal et sa variabilité. Le plus faible est le degré de rigidité des prix, le plus élevé sont le taux d'inflation optimal et la volatilité de l'inflation et le plus faible sont le taux d'impôt optimal sur le revenu et la volatilité de l'impôt sur le revenu. Pour dix fois plus petit degré de rigidité des prix, le taux d'inflation optimal et sa volatilité augmentent remarquablement, plus de 58% et 10%, respectivement, et le taux d'impôt optimal sur le revenu et sa volatilité déclinent de façon spectaculaire. Ces résultats sont d'une grande importance étant donné que dans les modèles frictionnels du marché du travail sans politique budgétaire et monnaie, ou dans les Nouveaux cadres keynésien même avec un riche éventail de rigidités réelles et nominales et un minuscule degré de rigidité des prix, la stabilité des prix semble être l'objectif central de la politique monétaire optimale. En l'absence de politique budgétaire et la demande de monnaie, le taux d'inflation optimal tombe très proche de zéro, avec une volatilité environ 97 pour cent moins, compatible avec la littérature. Dans le deuxième article, je montre comment les résultats quantitatifs impliquent que le pouvoir de négociation des travailleurs et les coûts de l'aide sociale de règles monétaires sont liées négativement. Autrement dit, le plus faible est le pouvoir de négociation des travailleurs, le plus grand sont les coûts sociaux des règles de politique monétaire. Toutefois, dans un contraste saisissant par rapport à la littérature, les règles qui régissent à la production et à l'étroitesse du marché du travail entraînent des coûts de bien-être considérablement plus faible que la règle de ciblage de l'inflation. C'est en particulier le cas pour la règle qui répond à l'étroitesse du marché du travail. Les coûts de l'aide sociale aussi baisse remarquablement en augmentant la taille du coefficient de production dans les règles monétaires. Mes résultats indiquent qu'en augmentant le pouvoir de négociation du travailleur au niveau Hosios ou plus, les coûts de l'aide sociale des trois règles monétaires diminuent significativement et la réponse à la production ou à la étroitesse du marché du travail n'entraîne plus une baisse des coûts de bien-être moindre que la règle de ciblage de l'inflation, qui est en ligne avec la littérature existante. Dans le troisième article, je montre d'abord que la règle Friedman dans un modèle monétaire avec une contrainte de type cash-in-advance pour les entreprises n’est pas optimale lorsque le gouvernement pour financer ses dépenses a accès à des taxes à distorsion sur la consommation. Je soutiens donc que, la règle Friedman en présence de ces taxes à distorsion est optimale si nous supposons un modèle avec travaie raw-efficace où seule le travaie raw est soumis à la contrainte de type cash-in-advance et la fonction d'utilité est homothétique dans deux types de main-d'oeuvre et séparable dans la consommation. Lorsque la fonction de production présente des rendements constants à l'échelle, contrairement au modèle des produits de trésorerie de crédit que les prix de ces deux produits sont les mêmes, la règle Friedman est optimal même lorsque les taux de salaire sont différents. Si la fonction de production des rendements d'échelle croissant ou decroissant, pour avoir l'optimalité de la règle Friedman, les taux de salaire doivent être égales. / This dissertation consists of three essays on optimal fiscal and monetary policies. In the first two essays, I consider New Keynesian frameworks with frictional labor markets, money and distortionary income tax rates. In the first one, I study the joint determination of optimal fiscal and monetary policy and the role of worker's bargaining power on this determination. In the second one, I study the effects of worker’s bargaining power on the welfare costs of three monetary policy rules, which are: inflation targeting and simple monetary rules that respond to output and labor market tightness, with and without interest-rate smoothing. In the third essay, I study the optimality of the Friedman rule in monetary economies where demand for money is motivated by firms, originated in a cash-in-advance constraint. In the first essay, I find that when the worker’s bargaining power is low, the Ramsey-optimal policy calls for a significantly high optimal annual rate of inflation, in excess of 9.5%, that is also highly volatile, in excess of 7.4%. The Ramsey government uses inflation to induce efficient fluctuations in labor markets, despite the fact that changing prices is costly and despite the presence of time-varying labor taxes. The quantitative results clearly show that the planner relies more heavily on inflation, not taxes, in smoothing distortions in the economy over the business cycle. Indeed, there is a quite clear trade-off between the optimal inflation rate and its volatility and the optimal income tax rate and its variability. The smaller is the degree of price stickiness, the higher are the optimal inflation rate and inflation volatility and the lower are the optimal income tax rate and income tax volatility. For a ten times smaller degree of price stickiness, the optimal rate of inflation and its volatility rise remarkably, over 58% and 10%, respectively, and the optimal income tax rate and its volatility decline dramatically. These results are significant given that in the frictional labor market models without fiscal policy and money, or in the Walrasian-based New Keynesian frameworks with even a rich array of real and nominal rigidities and for even a miniscule degree of price stickiness, price stability appears to be the central goal of optimal monetary policy. Absent fiscal policy and money demand frictions, optimal rate of inflation falls to very near zero, with a volatility about 97 percent lesser, consistent with the literature. In the second essay, I show how the quantitative results imply that worker's bargaining weight and welfare costs of monetary rules are related negatively. That is, the lower the bargaining power of workers, the larger the welfare losses of monetary rules. However, in a sharp contrast to the literature, the rules that respond to output and labor market tightness feature considerably lower welfare costs than the inflation targeting rule. This is specifically the case for the rule that responds to labor market tightness. The welfare costs also remarkably decline by increasing the size of the output coefficient in the monetary rules. My findings indicate that by raising the worker's bargaining power to the Hosios level and higher, welfare losses of the three monetary rules drop significantly and response to output or market tightness does not, anymore, imply lower welfare costs than the inflation targeting rule, which is in line with the existing literature. In the third essay, I first show that the Friedman rule in a monetary model with a cash-in-advance constraint for firms is not optimal when the government to finance its expenditures has access to distortionary taxes on consumption. I then argue that, the Friedman rule in the presence of these distorting taxes is optimal if we assume a model with raw-efficient labors where only the raw labor is subject to the cash-in-advance constraint and the utility function is homothetic in two types of labor and separable in consumption. Once the production function exhibits constant-returns-to-scale, unlike the cash-credit goods model that the prices of both goods are the same, the Friedman is optimal even when wage rates are different. If the production function has decreasing or increasing-returns-to-scale, then to have the optimality of the Friedman rule, wage rates should be equal.
132

La mesure économique de la dépréciation du capital minier au Pérou / Measuring the Peruvian mineral depletion

Cantuarias-Villessuzanne, Carmen Amalia 07 June 2012 (has links)
Le Pérou, extrêmement riche en minerais, connaît depuis les années 2000 une forte croissance économique. Àla question de savoir si sa richesse minérale condamne le Pérou à la malédiction des ressources naturelles, nousrépondons que ce n’est pas le cas à l’heure actuelle, mais nous mettons en évidence une forte dépendance vis-à-visde l’activité minière. La question centrale est celle du développement durable de l’activité minière. La mesure dela dépréciation du capital minier (dcm) est l’indicateur fondamental pour évaluer la situation. Diverses méthodesd’estimation existent, mais notre analyse microéconomique basée sur la règle de Hotelling fournit une valeurd’environ 7 % du pib sur la période 2000–2008, soit le double de l’approximation donnée par la Banque Mondiale.Nous proposons d’intégrer la dcm aux indicateurs macroéconomiques traditionnels, ce qui permet de mettreen évidence la surestimation de la croissance économique. Conformément à la règle de Hartwick, il apparaîtclairement que le développement péruvien n’est pas durable ; les revenus miniers ne compensent pas la dcmet ne sont pas réinvestis en faveur du développement du pays. Il faudrait donc taxer les entreprises minières àhauteur de la dcm, et créer un fonds de ressources naturelles. Nos résultats montrent qu’épargner seulement 8 %de la dcm permettrait d’atteindre un revenu durable pour les générations futures. La création d’un tel fonds deressources naturelles aurait également pour avantage de réduire l’instabilité macroéconomique et de promouvoirune meilleure gouvernabilité. / Since the 2000s, Peru, a country extremely rich in minerals has experienced strong economic growth. WouldPeru be condemned to the resource curse because of its mineral wealth? For now this is not the case; howeverwe point up a strong dependence upon the mining sector. The main question relates to the sustainability of themining industry. The mineral depletion rate is a fundamental indicator to assess the situation. To calculate this,there are many forecasting methods available ; our microeconomic analysis based on the Hotelling rule providesa value of around 7 % of gdp for the period between 2000 and 2008, which represents double the estimation ofthe World Bank.We recommend the mineral depletion be taken into account when calculating traditional macroeconomic indicators;it would highlight the overestimation of economic growth. According to the Hartwick rule, it is clearthat Peruvian development is not sustainable; mining revenues do not offset the mineral depletion and are notreinvested in the development of the country. Therefore, the solution should be to tax mining companies at alevel equivalent to that of depletion and, with the new income, to create a natural resource fund. Saving only8 % of the mineral depletion would suffice to generate sustainable rent for futures generations. In addition, thecreation of a natural resource fund would reduce macroeconomic instability and enforce better governance.
133

L’équidistance dans la délimitation des frontières maritimes. Etude de la jurisprudence internationale / The role of equidistance in the delimitation of maritime borders. A study of international case law

Von Mühlendahl, Paul 26 November 2012 (has links)
La délimitation des frontières maritimes revêt une importance capitale pour un grand nombre États, que cela soit d’un oint de vue symbolique, culturel, stratégique ou économique. Néanmoins, le droit international conventionnel reste au mieux largement ambigu, au pire entièrement silencieux sur la question de savoir quelles sont les méthodes précises pour résoudre les éventuels différends entre États pouvant surgir lors de la délimitation de leurs espaces maritimes. Face à ces ambiguïtés et silences conventionnels et face aussi à une pratique étatique incohérente et dépourvue d’une opinio juris, c’est principalement dans leur propre vision que les juridictions internationales ont puisé la règle de l’équidistance/circonstances pertinentes, en vertu de laquelle toute délimitation maritime décidée, quel que soit l’espace maritime considéré, y inclus le plateau continental étendu, et quelle que soit la configuration côtière, débute par la construction d’une ligne d’équidistance provisoire. Cette ligne pourra éventuellement être modifiée pour tenir compte descirconstances particulières de chaque affaire dans une deuxième phase de la délimitation. En dépit de la consécration claire et – une première dans l’histoire de la CIJ – unanime de la règle de l’équidistance/circonstances pertinentes dans l’affaire de la Délimitation maritime en mer Noire en 2009, de nombreuses zones d’ombre et difficultés d’ordre technique existent dans sa mise en œuvre pratique par les cours et tribunaux internationaux, notamment en ce qui concerne le risque d’une part trop importante de subjectivité, voire d’arbitraire, particulièrement en ce qui concerne le choix des points de base et le rôle joué par la proportionnalité. De même, afin de garantir une « matérialisation » efficace de la frontière maritime décidée sur le « terrain », une collaboration étroite entre le juriste d’une part et le cartographe, l’hydrographe, le géologue et le géographe d’autre part s’impose. / The delimitation of maritime boundaries is of utmost importance for many states, whether on a symbolic, cultural, strategic or economic level. Nevertheless, international treaty law is at best largely ambiguous, at worst entirely silent as to what the precise methods for resolving possible disputes that might surface during the delimitation process are. Confrontedwith these ambiguities and silences, but also with incoherent state practice devoid of any opinio juris, it is primarily from their own vision that international jurisdictions have drawn the equidistance/relevant circumstances rule, according to which, regardless of the maritime zone concerned, including the extended continental shelf, and regardless of the coastalconfiguration, every decided maritime delimitation begins with the establishment of a provisional equidistance line. This line can later be modified in a second phase of the delimitation to take into account the particular circumstances of each case. In spite of the unequivocal and – a premiere in the history of the Court – unanimous consecration of theequidistance/relevant circumstances rule by the ICJ in the Delimitation in the Black Sea case in 2009, numerous unsettled areas and technical difficulties remain in the delimitation process, notably regarding the risk of too great a degree of subjectivity, if not arbitrariness, particularly regarding the choice of the base points and the role to be played by proportionality. Likewise, in order to guarantee a smooth “materialisation” of the border on the “ground”, a close collaboration between the jurist on the one hand and the cartographer, geologist, hydrologist and geographer on the other hand is indispensable.
134

Étude algorithmique et combinatoire de la méthode de Kemeny-Young et du consensus de classements

Milosz, Robin 10 1900 (has links)
No description available.
135

"Remittances" et activité économique dans les pays en développement / Remittances and economic activity in developing countries

Destrée, Nicolas 05 December 2018 (has links)
Depuis le vingtième siècle, les flux migratoires ont augmenté entrainant des flux financiers – nommés "remittances" - partant des zones d'immigration vers celles d'émigration. Ces transferts, que les migrants envoient à leurs familles dans leur pays d'origine peuvent générer des effets opposés selon des pays. Cette thèse a pour objectif d'analyser leurs conséquences sur le capital physique et humain dans les pays qui les reçoivent.Le premier chapitre souligne l'impact négatif de ces flux sur le stock de capital ainsi que sur l'offre de travail. Ce revenu supplémentaire durant leur dernière période de vie conduit les individus à moins travailler et moins épargner. Ces transferts peuvent rapprocher ou éloigner les économies de la règle d'or d'accumulation du capital en fonction de leurs caractéristiques. Une politique de taxation est proposée afin de maximiser le bien-être. Le second chapitre étend l'analyse à des économies ouvertes faisant face à des contraintes exogènes de crédit sur le marché international des capitaux. Il montre que les transferts réduisent les incitations des agents à épargner, mais peuvent accroitre l'investissement en capital physique dans certains pays, via les entrées de capitaux, en relâchant directement la contrainte de crédit. Le troisième chapitre développe un modèle de croissance avec accumulation de capital humain, dans lequel les agents empruntent pour s'éduquer. Les contraintes de crédit sont cette fois endogènes : les agents ne peuvent s'engager à rembourser et sont exclus du marché des capitaux en cas de défaut. Ce modèle explique que les "remittances" peuvent générer des effets positifs, dans certains pays, ou négatifs dans d'autres. / Since the twentieth century, migratory flows have largely increased entailing financial flows - named remittances - from immigration areas to emigration areas. These transfers that migrants send to their families in their home countries may empirically lead to positive or negative effects on physical and human capital. This thesis aims at explaining this mixed evidence in developing countries.The first chapter underlines the negative impact of remittances on capital stock but also on labour supply. Due to this additional income in their last-period of life, agents have less incentive to work and save. Remittances may bring economies closer to their golden rule of capital accumulation or further from their golden rule according to their features. A taxation policy is provided in order to maximise the welfare in the home country of the migrants. The second chapter extends the analysis to open economies facing exogenous credit constraints on the international capital market. Even if remittances reduce incentive to save, these flows may increase investment in physical capital in some countries, through capital inflows, by directly relaxing the credit constraints. The third chapter considers a growth model with human capital accumulation in which agents borrow to finance their education. Borrowing constraints are, in this non-commitment framework considered as endogenous: agents may choose to default and are excluded from the financial market in case of default. In accordance with empirical literature, this model is able to explain a negative or a positive impact of remittances on economic growth.
136

Contribution à l'étude de la stabilité des systèmes électrotechniques / Contribution to the study of the stability of the electrotechnical systems

Marx, Didier 12 November 2009 (has links)
Dans cette thèse différents outils issus de l'automatique non linéaire ont été mis en œuvre et ont permis d'apporter une première solution au problème de stabilité large signal des dispositifs électriques. A l'aide de modèles flous de type Takagi-Sugeno, on a montré qu'il était possible de résoudre le problème de stabilité dans le cas de deux applications électrotechniques à savoir un hacheur contrôlé en tension et l'alimentation par l'intermédiaire un filtre d'entrée d'un dispositif électrique fonctionnant à puissance constante. Dans le cas du hacheur, la taille estimée des bassins d'attraction reste modeste. Les raisons essentielles à l'échec obtenu dans la recherche de bassin de grande taille peut résulter dans le fait que d'une part , la mise sous forme TS du système n'est pas unique et que d'autre part les matrices du sous modèle TS du système ne sont de Hurwitz que dans une gamme très restreinte de variations du rapport cyclique. Dans le cas de l'alimentation par l'intermédiaire d'un filtre d'entrée d'un dispositif fonctionnant à puissance constante, on a montré que l'utilisation d'un modèle flou de type Takagi-Sugeno permettait d'exhiber un domaine d'attraction de taille significative. On a fourni des outils permettant de borner la plage de variations des pôles du système dans un domaine donné de l'espace d'état, domaine dans lequel la stabilité du modèle TS est prouvée. L'utilisation de la D-stabilité permet de connaitre les dynamiques maximales du système. La notion de stabilité exponentielle permet de connaître les dynamiques minimales du système. L'approche utilisée pour prouver la stabilité du système en présence de variations paramétriques, pour les deux systèmes étudiés, n'autorise que des variations extrêmement faibles de la valeur du paramètre autour de sa valeur nominale / In this thesis, various tools resulting from the nonlinear automatic were implemented and made it possible to bring a first solution to the problem of large signal stability of the electric systems. Using Takagi-Sugeno fuzzy models, one showed that it was possible to in the case of solve the problem of stability two electrotechnical applications to knowing a Boost converter controlled in tension and an electric system constituted by an input filter connected to an actuator functioning at constant power. In the case of the Boost converter, the estimated size of attraction domain remains modest. The reasons essential with the failure obtained in the search for domain of big size can result in the fact that on the one hand, the setting TS fuzzy models of the system is not single and that on the other hand the matrices of local model of TS model of the system are of Hurwitz only in one very restricted range of variations of the cyclic ratio. In the case of the electric system via a filter of entry of a functioning device at constant power, one showed that the use of a Takagi-Sugeno fuzzy model allowed exhibit a attraction domain of significant size. One provided tools allowing to limit the variations of the poles of the system in a given field of the state space, domain in which the stability of model TS is proven. The use of D-stability makes it possible to know dynamic maximum system. The concept of exponential stability makes it possible to know dynamic minimal system. The approach used to prove the stability of the system in the presence of parametric variations, for the two studied systems, authorizes only extremely weak variations of the value of the parameter around its maximal value
137

La reconnaissance mutuelle en droit bancaire et financier européen / Mutual recognition in European banking and financial law

Gaspard, Roger 11 December 2018 (has links)
En instituant un système généralisé d’équivalence des législations des Etats membres de l’Union européenne, le principe de reconnaissance mutuelle irrigue l’ensemble du droit européen. En droit bancaire et financier, ce principe fonde deux méthodes bien distinctes. La première, méthode d’interdiction des cumuls de réglementations, est mise en œuvre par les tribunaux nationaux et européens sous l’égide du droit européen originaire. Elle permet de qualifier d’entrave à une liberté de circulation européenne toute réglementation d’un Etat membre d’accueil qui se cumulerait avec une réglementation de l’Etat membre d’origine. La deuxième, qui constitue une méthode de répartition des compétences entre les différents Etats membres européens, a été consacrée par le législateur européen dans plusieurs directives et règlements. Cette méthode, dite du passeport financier, a la particularité d’accorder une compétence de principe à l’Etat membre d’origine. Cette étude propose une analyse et une vue d’ensemble de chacune de ces méthodes, éminemment importantes pour la pratique du droit des affaires. Elle invite, plus généralement, à une réflexion globale sur les méthodes d’intégration des différents marchés bancaires et financiers nationaux. / The principle of mutual recognition is fundamental to European law whereby it stands for the equivalence of the regulations of member States of the European Union. In banking and financial law, the principle of mutual recognition is exemplified in two different applications. The first aims at eliminating duplicative regulations and is used by national and European courts in reliance on European Union primary law. It classifies any regulation of a host state that overlaps with a regulation of a home state that has already been applied to a certain matter as a restriction to a European freedom of movement. The second application is the financial passport, which was set forth by European lawmakers in various directives and regulations. The passport allocates regulatory powers among European member states and gives primary jurisdiction to the home member state within a harmonized field. This thesis describes and analyzes each of these applications which are crucial to the practice of business law. Overall, it calls for a reflection on the different methods of integrating financial markets.
138

Les perspectives de ciblage de l'inflation dans les pays de l'Union Economique et Monétaire Ouest Africaine (UEMOA) / Prospects of inflation targeting in the West African Economic and Monetary Union (WAEMU) countries

Sall, Abdoul Khadry 08 December 2016 (has links)
La présente thèse porte sur « Les Perspectives de Ciblage de l'Inflation dans les Pays de l'UEMOA » dontl'opportunité pourrait être bien saisie à la suite de la nouvelle réforme institutionnelle de l'UMOA et de laBCEAO. Cette réforme doit s'accompagner d'une stratégie opérationnelle explicite dans la mesure où sesinnovations majeures sont très proches d'une politique de ciblage de l'inflation. Pour cela, nous évaluons lapolitique monétaire de la BCEAO axée en partie sur un régime de change fixe depuis les indépendances.Ainsi, après avoir montré la nécessité pour les Banque Centrale d’ancrer les anticipations inflationnistesdans les pays de l'UEMOA et l'apport potentiel de l'annonce d'un objectif d'inflation dans la maîtrise du tauxd'inflation (Chapitre 1), nous montrons que la politique de change fixe n'a pas été à l'origine des tauxd'inflation relativement contenus dans la l'Union, mais pire, elle procure de mauvaises résultats en termesd'une croissance économique élevée et soutenue (Chapitre 2). En cela, nous recommandons pour l’Unionun cadre de type d’une combinaison d’un régime de change intermédiaire et d’une stratégie de ciblage del’inflation. C’est ainsi qu’une cible d’inflation a été déterminée et, elle apparaît différente aussi bien d’un paysà l’autre que de l’objectif de 2% annoncé par le Comité de Politique Monétaire de la BCEAO (Chapitre 3).Nous terminons en déterminant la règle de ciblage d'inflation, et montrons que la meilleure règle optimaleque les autorités monétaires devraient adopter dans un cadre de ciblage de l'inflation concilie l’ancragenominal et la régulation conjoncturelle (Chapitre 4). / This thesis focuses on evaluating the "Prospects of Inflation Targeting in the WAEMU countries" in the wakeof the new institutional reform followed by the WAMU and the BCEAO. This reform must be accompanied byan explicit operational strategy insofar as its major innovations are very close to a policy of inflation targeting.Accordingly, we assess the impact of monetary policy of the BCEAO that focused on fixed exchange ratesince independence. In this respect, we manifest the inability of the fixed exchange rate policy to anchorinflation expectations in the WAEMU countries and the potential contribution regarding the announcement oftarget in controlling inflation (Chapter 1). In addition, we demonstrate, on the one hand, that the fixedexchange rate policy was not the cause of inflation contained in the WAEMU, and on the other, it providespoor results in terms of high and sustained economic growth (Chapter 2). Consequently, we recommend aframework of combination of an intermediate exchange rate regime and an inflation targeting strategy forWAEMU countries. Hence, an inflation target has been determined and it appears to be different from onecountry to another, against the 2% target announced by the Monetary Policy Committee of the BCEAO(Chapter 3). Finally, we define the inflation targeting rule, and show that the best optimal rule that monetaryauthorities adopt in an inflation targeting framework should ideally, reconciles nominal anchor and economicregulation (Chapter 4).
139

La preuve pénale vers un droit commun européen : la règle de la preuve unique ou déterminante dans la jurisprudence de la Cour Européenne des Droits de l'Homme / Criminal evidence in European perspective : the "sole or decisive evidence" rule in European Court of Humans Rights's case law

Zomer, Caterina 19 May 2015 (has links)
L’article 6 de la CESDH stipule les principes du procès équitable. Apparemment négligée de ce texte, qui ne la mentionne pas expressément, la matière de la preuve pénale, et des droits qui s’y relient, constitue une composante importante du contentieux issus de l’article 6 Conv. Edh et un domaine dans lequel l’œuvre interprétative de la Cour Edh se fait l’un des laboratoires les plus intéressants pour la comparaison juridique. La « règle de la preuve unique ou déterminante » fixe un standard de garantie minimale, selon lequel la condamnation ne peut pas se fonder, exclusivement ou principalement, sur des éléments de probatoires dont l’administration n’a pas respecté, au niveau interne, les droits que la Convention reconnaît à l’accusé. Élaboré dans un contexte fort innovant, ce critère à la nature juridique hybride, croise, et au même temps sollicite, les tendances évolutives plus récemment à l’œuvre dans le droit probatoire européen. / Article 6 of the ECHR provides the principles of fair trial. Apparently overlooked by this text, which does not explicitly mention it, the field of criminal evidence, and rights in connection therewith, is an important component of litigation from Article 6, and an area in which the European Court of Human Rights interpretative work is one of the most interesting laboratories for legal comparison. The “rule of sole or decisive evidence” establishes a minimum standard of guarantee, by which the conviction cannot be based solely or primarily on evidentiary items whose admission has not respected the conventional rights of the accused. Made in a highly innovative environment, featuring an hybrid legal nature, the “sole or decisive rule” crosses, and at the same time seeks, the more recent evolutionary trends at work in European law of criminal evidence.
140

Narrative generation by associative network extraction from real-life temporal data

Vaudry, Pierre-Luc 10 1900 (has links)
Les données portant sur des événements abondent dans notre société technologique. Une façon intéressante de présenter des données temporelles réelles pour faciliter leur interprétation est un récit généré automatiquement. La compréhension de récits implique la construction d'un réseau causal par le lecteur. Les systèmes de data-to-text narratifs semblent reconnaître l'importance des relations causales. Cependant, celles-ci jouent un rôle secondaire dans leurs planificateurs de document et leur identification repose principalement sur des connaissances du domaine. Cette thèse propose un modèle d'interprétation assistée de données temporelles par génération de récits structurés à l'aide d'un mélange de règles d'association automatiquement extraites et définies manuellement. Les associations suggèrent des hypothèses au lecteur qui peut ainsi construire plus facilement une représentation causale des événements. Ce modèle devrait être applicable à toutes les données temporelles répétitives, comprenant de préférence des actions ou activités, telles que les données d'activités de la vie quotidienne. Les règles d'association séquentielles sont choisies en fonction des critères de confiance et de signification statistique tels que mesurés dans les données d'entraînement. Les règles d'association basées sur les connaissances du monde et du domaine exploitent la similitude d'un certain aspect d'une paire d'événements ou des patrons causaux difficiles à détecter statistiquement. Pour interpréter une période à résumer déterminée, les paires d'événements pour lesquels une règle d'association s'applique sont associées et certaines associations supplémentaires sont dérivées pour former un réseau associatif. L'étape la plus importante du pipeline de génération automatique de texte (GAT) est la planification du document, comprenant la sélection des événements et la structuration du document. Pour la sélection des événements, le modèle repose sur la confiance des associations séquentielles pour sélectionner les faits les plus inhabituels. L'hypothèse est qu'un événement qui est impliqué par un autre avec une probabilité relativement élevée peut être laissé implicite dans le texte. La structure du récit est appelée le fil associatif ramifié, car il permet au lecteur de suivre les associations du début à la fin du texte. Il prend la forme d'un arbre couvrant sur le sous-réseau associatif précédemment sélectionné. Les associations qu'il contient sont sélectionnées en fonction de préférences de type d'association et de la distance temporelle relative. Le fil associatif ramifié est ensuite segmenté en paragraphes, phrases et syntagmes et les associations sont converties en relations rhétoriques. L'étape de microplanification définit des patrons lexico-syntaxiques décrivant chaque type d'événement. Lorsque deux descriptions d'événement doivent être assemblées dans la même phrase, un marqueur discursif exprimant la relation rhétorique spécifiée est employé. Un événement principal et un événement principal précédent sont déterminés pour chaque phrase. Lorsque le parent de l'événement principal dans le fil associatif n'est pas l'événement principal précédent, un anaphorique est ajouté au marqueur discursif frontal de la phrase. La réalisation de surface peut être effectuée en anglais ou en français grâce à des spécifications lexico-syntaxiques bilingues et à la bibliothèque Java SimpleNLG-EnFr. Les résultats d'une évaluation de la qualité textuelle montrent que les textes sont compréhensibles et les choix lexicaux adéquats. / Data about events abounds in our technological society. An attractive way of presenting real-life temporal data to facilitate its interpretation is an automatically generated narrative. Narrative comprehension involves the construction of a causal network by the reader. Narrative data-to-text systems seem to acknowledge causal relations as important. However, they play a secondary role in their document planners and their identification relies mostly on domain knowledge. This thesis proposes an assisted temporal data interpretation model by narrative generation in which narratives are structured with the help of a mix of automatically mined and manually defined association rules. The associations suggest causal hypotheses to the reader who can thus construct more easily a causal representation of the events. This model should be applicable to any repetitive temporal data, preferably including actions or activities, such as Activity of Daily Living (ADL) data. Sequential association rules are selected based on the criteria of confidence and statistical significance as measured in training data. World and domain knowledge association rules are based on the similarity of some aspect of a pair of events or on causal patterns difficult to detect statistically. To interpret a specific period to summarize, pairs of events for which an association rule applies are associated. Some extra associations are then derived. Together the events and associations form an associative network. The most important step of the Natural Language Generation (NLG) pipeline is document planning, comprising event selection and document structuring. For event selection, the model relies on the confidence of sequential associations to select the most unusual facts. The assumption is that an event that is implied by another one with a relatively high probability may be left implicit in the text. The structure of the narrative is called the connecting associative thread because it allows the reader to follow associations from the beginning to the end of the text. It takes the form of a spanning tree over the previously selected associative sub-network. The associations it contains are selected based on association type preferences and relative temporal distance. The connecting associative thread is then segmented into paragraphs, sentences, and phrases and the associations are translated to rhetorical relations. The microplanning step defines lexico-syntactic templates describing each event type. When two event descriptions need to be assembled in the same sentence, a discourse marker expressing the specified rhetorical relation is employed. A main event and a preceding main event are determined for each sentence. When the associative thread parent of the main event is not the preceding main event, an anaphor is added to the sentence front discourse marker. Surface realization can be performed in English or French thanks to bilingual lexico-syntactic specifications and the SimpleNLG-EnFr Java library. The results of a textual quality evaluation show that the texts are understandable and the lexical choices adequate.

Page generated in 0.1104 seconds