• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 118
  • 35
  • 10
  • 1
  • Tagged with
  • 171
  • 78
  • 37
  • 24
  • 23
  • 19
  • 19
  • 19
  • 18
  • 17
  • 15
  • 14
  • 14
  • 13
  • 12
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Essays on central banks communication and decisions / Essais sur la politique de communication des banques centrales et de leurs processus de prise de décision

Bennani, Hamza 25 November 2014 (has links)
Cette thèse s’intéresse au lien entre la politique de communication des banques centrales et leurs processus de prise de décision. Partant du constat que la récente littérature empirique, par manque d’outils adéquats, s’est peu focalisée sur l’intérêt d’analyser la communication des banques centrales pour comprendre leurs modes de fonctionnement, en particulier leurs politiques de fixation des taux d’intérêt; les différents chapitres de cette thèse proposent d’y remédier. En premier lieu, on met en lumière les différentes problématiques auxquelles sont confrontées les banques centrales (telle que la Banque Centrale Européenne ou la Réserve Fédérale Américaine); notamment l’hétérogénéité des préférences de politique monétaire des membres du comité décisionnel, ou les désaccords en termes de préférences de politiques économiques survenues dans le contexte de la crise de la zone euro. En second lieu, on se propose d’expliquer les déterminants et les conséquences de ces désaccords et de cette hétérogénéité avec des outils non standards, en complément de modèles théoriques et économétriques. Ainsi, s’inspirant de démarches et de méthodologies développées dans les autres sciences sociales, telle que la sociologie, la psychologie, ou les sciences politiques, les travaux de cette thèse exploitent la communication très prolifique des banques centrales pour éclairer leurs processus de prise de décision. / This thesis focuses on the link between central banks’ communication and their decision-making processes. Due to the fact that the recent empirical literature has not used central banks’ communication policy to understand their inner working, and notably their interest rate setting behavior, because of the boundaries of economic tools; the different chapters of this thesis propose to fill the gap of this literature. In a first step, we unveil the issues that some central banks face (like, e.g., the European Central Bank or the Federal Reserve), such as the heterogeneity in terms of monetary policy preferences between committee members, or the disagreements in terms of economic policy preferences in the context of the euro debt crisis. In a second step, we explain the determinants and the consequences of these disagreements and heterogeneity, using non standard analytical tools, along with theoretical and econometric models. Therefore, we consider the methodologies used in other social sciences, like sociology, psychology, or political science, to analyze the prolific communication policy of central banks, with the aim to unveil their decision-making processes.
2

La priorité en droit privé / Priority in private law

Fucini, Sébastien 01 December 2017 (has links)
Technique de coordination de prétentions en concours permettant de désigner une prétention, dite prioritaire, devant être mise en œuvre avant les autres sans les exclure du concours, la priorité suscite des interrogations quant à son caractère juridique. L’identification du mécanisme de priorité suppose d’abord d’en établir la spécificité quant aux autres mécanismes de traitement de la pluralité et quant aux éléments qui peuvent être coordonnés. Elle suppose ensuite d’en établir l’utilité. Il apparaît d’une part une diversité des fondements du mécanisme de priorité, qu’il s’agisse des fondements de l’exclusion du traitement égalitaire ou de ceux de la faveur accordée à une prétention déterminée et d’autre part une unité des effets du mécanisme de priorité, que ce soit sur la situation de concours ou sur les personnes concernées par le concours. Mais l’identification du mécanisme de priorité ne suffit pas à l’élaboration d’une théorie générale : encore faut-il examiner l’encadrement de la règle de priorité. Cet encadrement s’observe en premier lieu quant à la création de la règle de priorité. L’élaboration de cette dernière est encadrée en raison de l’objet de la règle de priorité, afin de protéger les tiers concurrents et les parties à la priorité, mais également en raison des critères de la règle de priorité, qui ne doivent pas être discriminatoires. Cet encadrement s’observe en second lieu quant à l’application de la règle de priorité, par les limites à sa réalisation, dont l’efficacité et l’effectivité peuvent être questionnées mais également par les sanctions de sa violation, leur cohérence pouvant être remise en cause / Technique of coordination of competing claims, designating a priority claim which must be implemented before the implementation of other claims without excluding them from the competition, juridical character of priority does raise some questions. Firstly, to identify it, specificity of priority must be determined, in comparison to other techniques of treatment of plurality and by identifying elements which can be coordinated by priority. Secondly, identifying priority supposes establishing its utility. Priority mechanism has a diversity of bases, whether in terms of exclusion of equal treatment and in terms of favour granted to a determined claim and it has always the same effects, both on the competition situation and on the persons concerned. However, this identification is not sufficient to establish a general theory of priority in private law: framework of priority rule must be considered. On one side, creation of a rule of priority is subject to a legal framework, considering the object of the rule to protect third-parties and parties to the rule and considering criteria of the rule, in order to prohibit discriminatory criteria except for affirmative action. On other side, implementation of priority is also subject to a legal framework, whether in case of voluntary implementation, raising questions about effectiveness and effectivity of priority and in case of breach of a right of priority, consistency of remedies can call into question, mainly because of the contain of specific performance
3

La cérémonie d'alliance dans la Règle de la communauté de Qumrân (1QS i 1 - iii 12)

Cohen, Gilbert January 2003 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
4

Étude du compromis précision statistique-temps de calcul / Study of the trade-off between statistic accuracy and computation time

Brunin, Maxime 16 January 2018 (has links)
Dans le contexte actuel, il est nécessaire de concevoir des algorithmes capables de traiter des données volumineuses en un minimum de temps de calcul. Par exemple, la programmation dynamique appliquée au problème de détection de ruptures ne permet pas de traiter rapidement des données ayant une taille d'échantillon supérieure à $10^{6}$. Les algorithmes itératifs fournissent une famille ordonnée d'estimateurs indexée par le nombre d'itérations. Dans cette thèse, nous avons étudié statistiquement cette famille d'estimateurs afin de sélectionner un estimateur ayant de bonnes performances statistiques et peu coûteux en temps de calcul. Pour cela, nous avons suivi l'approche utilisant les règles d'arrêt pour proposer un tel estimateur dans le cadre du problème de détection de ruptures dans la distribution et le problème de régression linéaire. Il est d'usage de faire un grand nombre d'itérations pour calculer un estimateur usuel. Une règle d'arrêt est l'itération à laquelle nous stoppons l'algorithme afin de limiter le phénomène de surapprentissage dont souffre ces estimateurs usuels. En stoppant l'algorithme plus tôt, les règles d'arrêt permettent aussi d'économiser du temps de calcul. Lorsque le budget de temps est limité, il se peut que nous n'ayons pas le temps d'itérer jusqu'à la règle d'arrêt. Dans ce contexte, nous avons étudié le choix optimal du nombre d'itérations et de la taille d'échantillon pour atteindre une précision statistique optimale. Des simulations ont mis en évidence un compromis entre le nombre d'itérations et la taille d'échantillon pour atteindre une précision statistique optimale à budget de temps limité. / In the current context, we need to develop algorithms which are able to treat voluminous data with a short computation time. For instance, the dynamic programming applied to the change-point detection problem in the distribution can not treat quickly data with a sample size greater than $10^{6}$. The iterative algorithms provide an ordered family of estimators indexed by the number of iterations. In this thesis, we have studied statistically this family of estimators in oder to select one of them with good statistics performance and a low computation cost. To this end, we have followed the approach using the stopping rules to suggest an estimator within the framework of the change-point detection problem in the distribution and the linear regression problem. We use to do a lot of iterations to compute an usual estimator. A stopping rule is the iteration to which we stop the algorithm in oder to limit overfitting whose some usual estimators suffer from. By stopping the algorithm earlier, the stopping rules enable also to save computation time. Under time constraint, we may have no time to iterate until the stopping rule. In this context, we have studied the optimal choice of the number of iterations and the sample size to reach an optimal accuracy. Simulations highlight the trade-off between the number of iterations and the sample size in order to reach an optimal accuracy under time constraint.
5

Une étude ethnographique sur l'organisation du jeu libre d'élèves de maternelle

Fontaine, Marie-Pier January 2015 (has links)
La présente étude cherche à comprendre l’organisation du jeu libre d’élèves de maternelle. Cet objet de recherche émerge d’un constat selon lequel le temps consacré au jeu à l’éducation préscolaire est de moins en moins grand, au profit d’une approche dite scolarisante. Pourtant, le jeu occupe une place prépondérante dans le Programme de formation de l’école québécoise. De plus, ses impacts sur le développement global de l’enfant ont été largement étudiés. Malgré tout, des avis gouvernementaux et scientifiques soulèvent cette problématique et tentent de redonner au jeu libre une place de choix dans les pratiques enseignantes à l’éducation préscolaire. Afin de mieux cerner et comprendre le jeu libre d’élèves de maternelle, nous avons décidé d’aller observer des élèves dans leurs classes, au plus près de leur réalité, afin de décrire et contextualiser leurs jeux. Le cadre de référence a permis de décrire, tout d’abord, les caractéristiques et les types de jeu. Par la suite, trois aspects principaux ayant un impact sur l’organisation du jeu ont été abordés: les interactions sociales, l’environnement (spatial, matériel et temporel) et les règles. Ces éléments permettent de répondre aux questions suivantes : À quoi les enfants jouent-ils? Avec qui? Avec quoi? Où? Comment? Les réponses à ces questions permettront de contextualiser le jeu des élèves de maternelle, de rendre compte de l’influence des interactions sociales sur l’organisation du jeu et d’analyser l’émergence des règles en situation de jeu. L’ethnographie est l’approche méthodologique favorisée afin de répondre à ces trois objectifs. En adoptant une posture d’observatrice participante, des observations riches, pertinentes, authentiques et ancrées ont pu être réalisées auprès d’élèves de maternelle. La rédaction de vignettes descriptives, soutenue par des entretiens ethnographiques auprès des personnes enseignantes, ont mené à une analyse des données par une théorisation ancrée. En effectuant des aller-retours entre les observations et le terrain, l’analyse a permis de mettre en lumière la manière qu’ont les enfants de s’organiser principalement au regard des partenaires choisis, du scénario encadrant le jeu, mais aussi des règles connues à l’avance et des règles inventées en cours de jeu. De cette analyse ont également émergé deux aspects n’ayant pas été considérés de prime abord comme ayant un impact sur l’organisation du jeu : le jeu ritualisé et la tricherie.
6

La notion d'exception en droit constitutionnel français / The notion of exception in French constitutional law

Nguyen, Thi Hong 27 May 2013 (has links)
L'étude consiste à étudier les normes ou règles d'exception en droit constitutionnel. Il s'agit de s'interroger sur le point de savoir quelle réalité juridique recouvrent les lois qualifiées d'exception (textes exceptionnels) et à quelle finalité servent-elles dans l'ordre constitutionnel français? L'analyse conjointe ( textes constitutionnels, législatifs, des jurisprudences constitutionnelle, administrative ainsi que des discours de la doctrine permet de circonscrire le contenu matériel la notion d'exception. Celle-ci désigne la nonne de limitation. Plus précisément, l'exception est une limitation que le législateur fait tantôt à l'étendue de la validité d'une norme juridique de portée trop générale, tantôt à l'application stricte du droit lorsqu'une telle application détourne la règle de droit de ses propres finalités ou s'avère inefficace, inadéquate à résoudre une situation particulière. Définie comme une norme de limitation, la notion d'exception est d'un apport certain en droit constitutionnel. En effet, en contribuant à la résolution des normes antinomiques par la conciliation et non par l'abrogation, cette notion comble les lacunes et enrichit le droit constitutionnel. Étant un instrument particulièrement efficace du réformisme juridique, la notion d'exception est donc un outil d'adaptation du droit aux circonstances sociales en « douceur ». Harmonisant les normes ayant des contenus contradictoires, cette notion contribue plus généralement à la réflexion sur l'équilibre de l'ordre juridique. / The subject of the study is norms or rules of exception in constitutional law. We have to examine what is legal reality of laws qualified as "rules of exception" (special text) and what purpose they serve in the French constitutional order. The joint analysis of constitutional and legislative texts, constitutional and administrative jurisprudence, as weIl as doctrinal speech allows to define the material content of the notion of exception. This concept refers to the norm of limitation. SpecificaIly, the exception is a limitation that is applied by the legislator either to the scope of the validity of a legal norm too broad or to implementation of the law when this implementation diverts the rule of law of its purposes or is ineffective, inadequate to solve a particular situation. Defmed as a limitation norm, the notion of exception is a real contribution to constitutional law. lndeed, by contributing to the resolution of antinomy norms by conciliation and not by repealing, this concept f1l1s gaps and entiches constitutionallaw. Being a particularly effective instrument of legal reformism, the notion of exception is a tool to adapt the law to the social circumstances by "softness". Harmonizing standards with conflicting contents, this concept more generally contributes to the discussion on the balance of the legalorder.
7

Bases de règles multi-niveaux

Pagé, Christian January 2008 (has links) (PDF)
La fouille de données est définie comme le traitement d'une grande quantité de données afin d'y extraire des connaissances non triviales et utiles. Cette analyse permet de dégager de la masse d'informations des tendances, des regroupements de données et de formuler des hypothèses. Un des domaines de la fouille de données est la recherche de règles d'association. Les algorithmes utilisés en recherche de règles d'association ont généralement l'inconvénient de ne pouvoir identifier des règles dont un des termes est infréquent, mais qui appartient à une catégorie qui, elle, l'est. Les règles d'association multi-niveaux permettent d'identifier les associations impliquant des termes dont les niveaux de généralisation/spécialisation diffèrent. Les algorithmes de recherche de règles d'association multi-niveaux présentés à ce jour ont en commun la génération d'un nombre souvent très grand de règles redondantes. Notre contribution dans cette étude est constituée de la conception de deux algorithmes de recherche de règles d'association mutli-niveaux basés sur l'analyse formelle de concepts, ce qui permet de restreindre la génération des règles d'association aux seules règles informatives maximales. Nous avons également réalisé l'implémentation de ces deux algorithmes, en plus de celle d'un autre algorithme utilisé aux fins de comparaison dans la littérature. Nous avons finalement comparé expérimentalement ces trois implémentations et les résultats obtenus confirment l'intérêt de l'approche basée sur l'analyse formelle de concepts, tout en illustrant l'effet des optimisations apportés au traitement. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Treillis de Galois (treillis de concepts), Analyse formelle de concepts, Fouille de données (data mining), Règles d'association, Base de règles, Règles d'association multi-niveaux (règles d'association généralisées), Base de règles multi-niveaux (bases de règles généralisées).
8

Génération des règles d'association : treillis de concepts denses

Boulanger, Alain January 2009 (has links) (PDF)
La fouille de données est l'extraction non triviale d'informations implicites, inconnues et utiles à partir des données (Piatetsky-Shapiro & Frawley, 1991). Plus récemment, la notion de systèmes de gestion de base de données inductive (SGBDI) propose l'union de la base de données traditionnelle à la fouille de données et d'une base de motifs ou patrons de données. Ces derniers sont les agents fondamentaux dans les SGBDI. Dans ce mémoire le motif examiné est le concept formel. Cependant, pour un ensemble de données (nommé contexte formel dans l'AFC) de grande taille où les données sont fortement corrélées, l'extraction peut être difficile à cause des problèmes de combinatoire inhérente à cette structure. Il est vrai que l'extraction de la collection des concepts formels fréquents, donc un iceberg plutôt qu'un treillis, est une solution. Cependant, d'une part, pour un seuil de fréquence trop faible, l'extraction des concepts formels fréquents peut demeurer difficile et la combinatoire de l'extraction demeure. D'autre part, les utilisateurs pourraient préférer conserver le treillis mais appliquer une certaine relaxation sur le formalisme des concepts formels. Cette relaxation se ferait en acceptant des exceptions dans les concepts dont les seuils sur les exceptions seraient choisis par l'utilisateur. En dernier lieu, le contexte formel pourrait bien avoir des erreurs dans ses transactions. Ces erreurs pourraient donc être la cause du nombre indu de concepts formels extraits. Une relaxation au niveau de l'extraction des concepts formels pourrait être une solution à ce problème. Notre contribution se situe au niveau d'un motif en particulier et de son mode d'extraction. Ce mémoire propose donc un concept tolérant des exceptions bornées par des seuils, soit les concepts denses et explore la possibilité d'extraire un tel motif par l'algorithme incrémentaI par cardinalité. En dépit du fait que le concept ne soit plus formel mais tolérant des exceptions, les principales notions de l'analyse formelle de concepts, (e.g. la relation de précédence, le treillis) sont fortement désirées. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Concepts formels, Concepts denses, Treillis de concepts formels, Analyse formelle de concepts, Concepts tolérant des exceptions, Algorithme d'extraction de concepts, Représentation condensée.
9

Dynamique de la politique monétaire depuis la grande modération : analyse à partir de la courbe de Taylor

Boketsu Bofili, Jean Paul 06 1900 (has links) (PDF)
Ce travail utilise un modèle d'équilibre général dynamique et stochastique (DSGE) standard pour calculer la courbe de Taylor, mesurer ses mouvements et évaluer l'efficience de la politique monétaire pour les trois sous-périodes depuis la Grande Modération (l984T1-2010T1). Le but est d'apprécier le degré d'arbitrage auquel la Banque Centrale a été confrontée et l'efficacité de la politique monétaire suivie. Les résultats obtenus sont très pertinents pour la conduite de la politique monétaire. (i) Ils semblent indiquer un déplacement des points de performance vers les courbes d'efficience et un glissement de celles-ci vers l'origine. Toutefois, ce déplacement des points de performance ne s'est pas opéré dans la même direction. Sous la Grande Modération, le déplacement vers l'origine, dû à la réduction simultanée des volatilités de l'inflation et de la production, améliore significativement l'arbitrage pour la Banque Centrale, réduit fortement les pertes occasionnées et accroît l'efficience de la politique monétaire. Alors que pendant la Grande Récession post-2007, le déplacement du point de performance vers le coin Sud-Est détériore cet arbitrage, car, une faible réduction de la variabilité de l'inflation est réalisée au coût d'une forte variabilité de la production. Ce qui permet de conclure que certains choix de politique monétaire sont plus efficients que d'autres. (ii) Ils établissent également que le degré d'efficience de la politique monétaire est inversement lié à l'ampleur des chocs macroéconomiques aléatoires. Cette relation négative apporte une contribution majeure sur le débat relatif aux facteurs explicatifs de la Grande Modération et permet de montrer que tous les facteurs (good luck vs good policy) jouent un rôle important pendant la modération ou la récession économique. (iii) Et enfin, ils soulignent l'importance des gains d'efficacité, enregistrés par une politique monétaire agressive et crédible axée sur la maitrise de l'inflation, lesquels permettent d'anéantir les effets des chocs exogènes qui perturbent l'économie, surtout en période de crise lorsque l'instrument de politique monétaire devient quasi-inopérant. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Politique monétaire optimale, Grande modération, courbe de Taylor, courbe d'efficience, Arbitrage, modèle DSGE.
10

La valeur éducative de la Règle de saint Augustin / The educative value of St. Augustine’s Rule

Le Febure du Bus, Alban 03 December 2009 (has links)
La Règle de s. Augustin se présente comme la plus ancienne Règle monastique occidentale, dont la pérennité peut surprendre, eu égard à sa brièveté. La thèse se propose d’estimer sa valeur éducative, en se situant au niveau du praticien : les prescriptions sont-elles aptes à transmettre un « savoir-être » monastique conforme au propositum originel ?La démarche se fonde sur une lecture-audition de l’écrit. Cette étape pratique vient introduire une analyse formelle de la pédagogie augustinienne : la Règle se révèle conforme aux exigences classiques d’une œuvre éducative, dont la densité invite à des éclairages de la part des auditeurs-formateurs.Une phase objective peut suivre : l’écrit offre un contenu décisif sur les réalités cénobitiques. Prennent ici place les analyses lexicales autour de unum, frater, in Deum, caritas et dilectio.Une phase subjective clôt la démarche par un examen de l’identité monastique et de sa réalisation au travers de la Règle. / St. Augustine’s Rule appears to be the most ancient western monastic Rule. Its durability may be surprising, since it is very short. The purpose of this thesis is to consider its educative value, from the practitioner’s point of view: are the instructions able to convey a monastic “savoir-être (way of behaving)”, in accordance with the original propositum?The approach is based on a reading-listening of the Rule. This practical stage introduces a formal analysis of Augustinian pedagogy: the Rule is in accordance with the classical requirements of an educative work, but its density demands clarification on the part of the listener-trainers.An objective stage may follow: the Rule offers decisive content on cenobitic realities. This involves lexical analysis of the terms unum, frater, in Deum, caritas and dilectio.A subjective stage closes the approach, with an examination of monastic identity and its realisation throughout the Rule.

Page generated in 0.0377 seconds