Spelling suggestions: "subject:"processus dde"" "subject:"processus dee""
281 |
Le professeur d'éducation musicale au collège : entre le soi-musicien et le soi-enseignant : étude clinique du rapport de l'enseignant à l'objet de sa discipline / The music teacher in secondary schools : between the musician self and the teaching self : clinical study of the teacher’s link to musicLerner-Sei, Sophie 18 March 2009 (has links)
L’auteur tente de saisir les processus mis en œuvre dans le rapport intime que l’enseignant entretient avec sa discipline d’enseignement, ici l’Éducation musicale dans le second degré. Le travail s’inscrit dans une approche d’orientation psychanalytique ; l’auteur, questionnée par son propre rapport à la musique qu’elle relie à une thématique identitaire, s’appuie sur ses élaborations contre-transférentielles pour faire émerger le cadre théorique et conceptuel à partir duquel elle construit ses questions de recherche. Le document s’organise en quatre parties. En guise de prologue, elle propose une lecture clinique d’un récit, entre mythe et réalité, point de départ du questionnement de recherche qu’elle développera dans une première partie. La deuxième partie est consacrée à l’Éducation musicale en tant que discipline d’enseignement présentée dans une approche socio-historique et institutionnelle afin de pointer les questions vives que soulève son enseignement. Une lecture clinique des programmes officiels (1997) complète cette présentation. Dans la troisième partie, l’analyse de quatre entretiens réalisés auprès de professeurs d’Éducation musicale permet d’inférer comment ces derniers s’organisent psychiquement pour concilier lien à la musique et lien didactique étudiés sur les registres objectal et narcissique. En guise de conclusion, elle propose l’analyse d’une situation didactique issue de sa propre expérience, analyse qu’elle a pu réaliser grâce à des élaborations de sa pratique, ce qui l’amène à soutenir la nécessité de proposer aux enseignants, au cours de leur formation continue, des dispositifs d’accompagnement clinique de leur pratique professionnelle. / The author tries to seize the processes at work in the intimate link developed by a teacher with his/her academic subject, in the present case musical education in secondary schools. The study is built on a psychoanalytically-oriented approach. Questioning her own link to music, a matter of identity, the author sets the theoretical and conceptual background upon which she develops her research questions by working through counter-tranferential elements. The paper is organized in four parts. In the prologue, between myth and reality, the author presents a clinical reading of a story that launches the questions dealt with in the first part, the cornerstone of the encounter between two types of listening : musical and clinical. The second part is dedicated to musical education as an academic subject from a socio-historical and institutional point of view, highlighting the delicate issues raised by it's teaching. A clinical reading of the national curriculum for music (1997) complements this presentation. In the third part, interviews with four junior high school music teachers' are analyzed. From these it can be infered how teachers, psychically speaking, reconcile their link to music with the didactical link, through a study in object-relation and narcissistic modes. To conclude, the author analyzes a didactical situation she has experienced in her own practice and that has been worked through. This leads her to consider as a necessity to offer to teachers the possibility, on a continuous training basis, of benefiting from clinical support devices for their professional pratice.
|
282 |
Estimation des paramètres pour des modèles adaptés aux séries de records / Parameter estimation for models adapted to record seriesHoayek, Anis 25 November 2016 (has links)
Dans une série chronologique, une observation est appelée record au temps «t» si sa valeur est supérieure à toutes les valeurs précédentes. Suivant l’augmentation de «t», considérons la suite des valeurs des records et la suite des indices d’occurrence des records. Les propriétés stochastiques des suites de valeurs des records ont été largement étudiées dans le cas où les observations sont des variables aléatoires indépendantes et identiquement distribuées (iid). Il se trouve que beaucoup de ces propriétés sont universelles, c’est-à-dire tiennent pour n’importe quelle loi de probabilité commune des observations. En particulier, les records ont tendance à devenir plus espacés dans le temps à mesure que «t» augmente. Cependant, ce n’est pas ce que l’on observe dans de nombreux jeux de données réelles. Ceci a conduit à l’élaboration de modèles plus complexes pour fournir une meilleure prédiction.Le modèle, peut-être le plus simple mais en tout cas le plus populaire, pour une série de records issus d’observations indépendantes mais non identiquement distribuées est le modèle à dérive linéaire (LDM). Ce modèle a été étudié par de nombreux auteurs et trouvé en accord avec certains types de données où l’hypothèse iid ne tient pas. Cependant, dans des situations pratiques, l’utilisation du LDM nécessite la détermination du paramètre de dérive du modèle et cela pousse le problème dans le domaine de la statistique.Il existe une similitude entre les records et le traitement de données censurées en analyse de survie. En particulier, toutes les observations qui tombent entre deux records consécutifs et au-delà du dernier record peuvent être considérées comme des observations censurées par le dernier record observé. Pour mettre en évidence cette similitude, on introduit la suite des indicatrices de records qui prennent la valeur 1 si l’observation est un record et 0 sinon.Un autre modèle populaire est le modèle Yang-Nevzorov. Ce modèle est intéressant car il a la structure d’un modèle à risque proportionnel en analyse de survie, lequel a montré son utilité dans ce domaine pour modéliser de nombreux jeux de données. Cependant, à notre connaissance, l’inférence statistique pour le modèle Yang-Nevzorov a été peu développé.Le but de ce travail est d’introduire certains estimateurs des différents paramètres des modèles LDM et Yang respectivement et d’en obtenir leurs propriétés statistiques. Il est montré que le mécanisme de censure est informatif pour certains paramètres. Cela justifie l’analyse des qualités d’estimateurs qui peuvent être obtenus à partir de ces indicatrices de records. Nous donnons quelques propriétés exactes et asymptotiques de ces estimateurs. Il se trouve que dans le modèle de Yang, le comportement des différents estimateurs est indépendant de la distribution sous-jacente. Notons que nos estimateurs peuvent être utilisés même lorsque les valeurs exactes des records sont elles-mêmes indisponibles ou de mauvaise qualité et les seules indicatrices sont disponibles ou fiables. En outre, il est montré que des tests d’ajustement du modèle de Yang peuvent aussi être dérivés de ces indicatrices. Ces tests ont même des capacités diagnostiques qui peuvent aider à suggérer des corrections au modèle.Toujours dans le contexte d’un modèle de Yang, nous étudions le comportement stochastique du temps inter-records et nous donnons sa loi asymptotique, indépendamment de la loi des va sous-jacentes. De plus, nous appliquons nos résultats théoriques à des données analysées précédemment par Yang.Enfin, nous passons à l’utilisation de la totalité des données disponibles (valeurs et indices/indicatrices de records) afin de calculer, par plusieurs méthodes, des estimateurs des paramètres des modèles LDM et Yang-Nevzorov. De plus, nous introduisons des tests statistiques qui nous aident à vérifier la conformité du choix de la distribution sous-jacente des observations et à choisir entre un modèle LDM et de Yang. / In a time series, an observation is called a record at time «t» if its value is greater than all previous values. As «t» increases, consider the sequence of records and the sequence of indices of occurrence of the records.The stochastic properties of sequences of record values have been much studied in the case where the observations are independent and identically distributed (iid) random variables. It turns out that many of these properties are universal, i.e. they hold for any cumulative distribution function for the underlying observations. In particular, records have a tendency to become further separated in time as «t» increases. However, this is not what is observed in many real data sets. This has lead to the development of more comprehensive models to provide better prediction.One of the simplest and popular model for a series of records extracted from independent but not identically distributed observations is the linear drift model (LDM). This model has been studied by many authors and found to be in agreement with some data sets where the iid assumption does not hold. However, for its uses in practical situations, the LDM requires the specification of the drift parameter of the model and this brings the problem into the realm of statistics.There are similarities between records and censored data in e.g. survival analysis. In particular, all observations that fall between two consecutive records and beyond the last record, can be seen as censored, by the last observed record. To highlight these similarities, consider the sequence of record indicators which are 1 if the observation is a record and 0 otherwise.Another popular model is the Yang-Nevzorov model. This model is interesting because it has the structure of a proportional hazard model, which have been shown to provide good fit to many data sets in survival analysis. However, to the best of our knowledge, statistical inference for the Yang- Nevzorov model has been little developed.The goal of this work is to introduce some estimators of the parameters in LDM and Yang’s model respectively and derive their statistical properties. It is shown that the censoring mechanism is informative for certain parameters. This justifies investigating the usefulness of estimators that can be extracted from record indicators. We give some exact and asymptotic properties of these estimators. It turns out that in a Yang’s model, the behavior of these estimators is distribution-free, i.e. does not involve the underlying CDF. Note that our estimators can be used even when the exact value of the records are themselves unavailable or of poor quality and only the indicators of their occurrence are available or trustworthy. Also, it is shown that distribution-free goodness-of-fit tests for Yang’s model can be derived from these indicators. These tests even have some diagnostic capabilities that can help in suggesting corrections to the model.Still in the context of a Yang’s model, we study the stochastic behavior of the inter-record time and give its asymptotic distribution regardless of the choice of the underlying distribution. In addition, we apply our theoretical results to a previously analyzed data set.Finally, we turn to the use of all available data (record values and indices/indicators) in order to calculate, by several methods, estimators of parameters in LDM and Yang-Nevzorov’s model. In addition, we introduce statistical tests that help us to check the conformity of the choice of the underlying distribution and to choose between LDM and Yang.
|
283 |
Intégration du cadre économique et juridique européen et attractivité des espaces régionaux / Integration of the European economic and legal frame and attractiveness of juridictionsBorsi, François-Xavier 17 October 2008 (has links)
Dans un monde intégré où les systèmes juridiques européens se rapprochent presque inéluctablement, les juridictions développent des cadres attrayants en vue de capter les bases fiscales. Nous proposons de caractériser les processus d'intégration juridique à l'échelle européenne et de justifier la nature concurrentielle des comportements institutionnels qu'adoptent les Etats européens, en définissant notamment les ressorts du droit communautaire. Ces ressorts permettent par exemple d'identifier les différentes stratégies juridiques de rapprochement des cadres normatifs mises en oeuvre par les instances européennes. Ils laissent également entrevoir des marges de manoeuvre institutionnelles, lesquelles justifient et légitiment l'analyse de type concurrentiel des processus d'intégration juridique communautaire et rendent pertinente la définition d'un cadre d'analyse de l'attractivité des juridictions selon une approche de concurrence institutionnelle. Par ailleurs, la réflexion porte sur l'analyse de l'attractivité des pays, notamment du point de vue immatériel et qualitatif, justifiant davantage l?approche juridique de la concurrence entre Etats membres de l'Union. Deux types de modèles de concurrence spatiale sont proposés pour illustrer la compétition institutionnelle à l'oeuvre au sein de l'espace européen, à savoir une approche de « shopping » qui tienne compte d'aspects fiscaux et institutionnels de la concurrence entre Etats et une approche de concurrence institutionnelle à étapes multiples. Les deux analyses mettent en avant l'impact des caractéristiques intrinsèques locales (taille, efficacité publique institutionnelle) sur la nature de la concurrence entre pays européens. / In an integrated world where the European legal systems get closer almost inevitably, national jurisdictions develop attractive frames towards fiscal bases. We suggest characterizing the processes of legal integration in the European scale and justifying the competitive nature of the institutional behavior that the European countries adopt, notably by defining the mechanics of the community law. These last ones allow for example to identify the various legal strategies of legal integration implemented by the European authorities. They also let glimpse institutional margins which justify and legitimize the analysis of competitive type of the processes of community legal integration and make relevant the definition of a frame of analysis of the attractiveness of the jurisdictions according to an approach of institutional competition. Besides, our work focuses on the attractiveness of countries, notably from the immaterial and qualitative point of view, justifying more the legal approach of the competition between the European members. Two types of models of spatial competition are proposed to illustrate the institutional competition in Europe, namely an approach of "shopping" which takes into account fiscal and institutional aspects of the competition between countries and an approach of institutional competition with multiple stages. Both analyses emphasize the impact of the local intrinsic characteristics (size, institutional public efficiency) on the nature of the competition between European countries.
|
284 |
Contribution à la connaissance du processus entrepreneurial au départ de l'Université : étude des représentations au travers des discours de créateurs et acteurs locaux du développement territorial / A contribution to the knowledge of the entrepreneurial process in the spin-off from UniversityBares, Franck 07 December 2007 (has links)
This study proposes to contribute to the knowledge of the entrepreneurship from the spin-off from university. It aims to better understand the problems encountered by students and researchers in this process. A qualitative and longitudinal approach allowed for the examination of the performance and the evolutions of the support structures of firm creation in the territory of Nancy. During the five years of study, the behaviours and practices observed between the local territorial development actors changed considerably. This observation has allowed the carrier of innovative projects to integrate the characteristics of the milieu within which they are anchored. The longitudinal approach enabled for the consideration of the management structure within the organisations followed. One of the central elements rests on the analysis of the relationship between the members of the team of creators. This second section treats the different phases of the entrepreneurial situation along with the vision of the entrepreneur. The ensemble of the results sought to shed light on the theory of entrepreneurship and to make practical propositions to creators, public powers, and local actors of territorial development. / Cette recherche se propose de contribuer à la connaissance du processus entrepreneurial au départ de l'Université. Elle vise à mieux connaître les problèmes rencontrés par les créateurs étudiants et chercheurs de "spin-off". L'approche qualitative et longitudinale permet d'approcher tout d'abord les logiques de fonctionnement et les évolutions de l'accompagnement à la création d'entreprises sur le territoire nancéien. Sur près de cinq ans de suivi, les comportements et les pratiques observés entre ces acteurs locaux du développement territorial ont considérablement été modifiés. Ce constat invite les porteurs de projet innovant à intégrer les caractéristiques du milieu auquel ils sont ancrés. L'approche dans la durée permet ensuite d'envisager l'organisation de la conduite interne des entreprises retenues. Un des éléments centraux porte notamment sur l'analyse de la relation entre les membres de l'équipe de créateurs. Cette seconde partie traite des différentes phases de ces situations entrepreneuriales ainsi que de la vision de l'entrepreneur. L'ensemble des résultats observés a pour objet à la fois d'éclairer une lecture théorique et de faire des propositions pratiques aux créateurs, pouvoirs publics et acteurs locaux du développement territorial.
|
285 |
Ruine et investissement en environnement markovien / Ruin and investment in a Markovian environmentDinetan, Lee 02 November 2015 (has links)
L'objet de cette thèse est de modéliser et optimiser les stratégies d'investissement d'un agent soumis à un environnement markovien, et à un risque de liquidité se déclarant quand il ne peut plus faire face à une sortie d'argent faute d'actifs liquides. Durant cette étude, nous supposerons que son objectif est d'éviter la faillite ; il dispose pour cela d'opportunités d'investissement, lui permettant d'accroître ses gains futurs en échange d'une dépense immédiate, risquant ainsi une ruine prématurée puisque l'investissement est supposé illiquide : le but du travail est de déterminer les conditions sous lesquelles il est plus judicieux de courir un tel risque de liquidité que de renoncer à un revenu permanent. / This thesis aims at modelling and optimize an agent's (called "he") investment strategies when subjected to a Markovian environment, and to a liquidity risk happening when he runs out of liquid assets during an expense. Throughout this work, we deem that he aims at avoiding default; for this purpose, investment opportunities are available to him, allowing to increase his future expected incomes at the price of an immediate expense, therefore risking premature bankruptcy since investment is deemed illiquid: our goal is to find conditions under which incurring such liquidity risks is more advisable than declining a permanent income.
|
286 |
Coordination models for crisis resolution : discovery, analysis and assessment / Modèle de coordination pour la résolution des crises : découverte, analyse et évaluationLe, Nguyen Tuan Thanh 15 December 2016 (has links)
Cette thèse concerne la coordination en univers des multi-agents et en particulier dans des contextes de crise. Nous assistons actuellement à un accroissement du nombre de crises, non seulement des catastrophes naturelles (ouragan Katrina, tremblement de terre d'Haïti, ...) mais aussi humanitaires (crise des réfugiés syriens en Europe, printemps Arabe, émeutes de Baltimore, ...). Dans toutes ces crises, les différents acteurs œuvrant pour leurs résolutions doivent agir rapidement et simultanément, afin de contrôler et réduire les impacts de la crise sur le monde réel. Pour atteindre cet objectif commun aussi rapidement et efficacement que possible, ces acteurs (police, forces militaires, organisations médicales) doivent mettre en commun leurs ressources et compétences respectives, collaborer et agir de manière coordonnée, le plus souvent en suivant un plan qui indique la répartition du travail et les échanges entre eux. Par coordination, nous entendons tout le travail nécessaire pour élaborer ou adapter le plan de résolution de crises et mettre en commun les compétences et les ressources de tous les intervenants afin d'atteindre l'objectif commun (la résolution de crise) de manière efficace. Les plans de résolution de crise sont la plupart du temps disponibles dans un format textuel définissant les acteurs impliqués, leurs rôles et des recommandations pour leurs coordinations dans les différentes étapes du cycle de vie de crise (anticipation, préparation, résolution de la crise, retour d'expérience). Bien que les plans dans un format textuel soient faciles à manipuler par les intervenants pris individuellement, il n'existe pas de moyens directs pour les analyser, simuler, adapter, améliorer et ils peuvent avoir diverses interprétations, ce qui les rend difficile à gérer en temps réel et dans une situation où les acteurs sont géographiquement distribués. Au regard de ces observations, il devient indispensable de faire une modélisation de ces plans textuels afin d'en avoir une représentation précise, éviter toute ambiguïté, faciliter la coordination entre les intervenants et enfin faciliter la gestion ainsi que la résolution de crises. L'objectif de cette thèse est de contribuer à l'ingénierie de la coordination dans les domaines de crise en fournissant une approche globale qui prend en compte sans les confondre et en les articulant deux aspects essentiels de la gestion de crises : l'aspect organisationnel et l'aspect tâche. Dans cette perspective, notre approche combine deux paradigmes: BPM (Business Process Management) et les systèmes multi-agents, et fournit un algorithme de traduction entre leurs concepts. BPM fournit une vue globale de la coordination du point de vue de la tâche à réaliser et facilite la validation, la simulation et l'intelligibilité des plans de résolution de la crise au moment de leur conception tout en permettant le suivi de leur exécution. Le paradigme multi-agent fournit, quant à lui, des abstractions sociales (des interactions de haut niveau et des structures organisationnelles : rôles, relations et interactions entre acteurs) pour modéliser, analyser et simuler une vue organisationnelle de la coordination en représentant la structure et le comportement du système développé au niveau macro, indépendamment de la structure interne des agents à un niveau micro. La contribution de cette thèse est un cadre conceptuel pour l'ingénierie de la coordination. / This thesis is about coordination in multi-agent universes and particularly in crisis contexts. Recently, we have witnessed an increasing number of crises, not only natural disasters (hurricane Katrina, Haiti earthquake, ...) but also man-made ones (Syrian refugees crisis in Europe, Arabic spring, rioting in Baltimore, ...). In such crisis, the different actors involved in the resolution have to act rapidly and simultaneously in order to ease an efficient control and reduce its impacts on the real world. To achieve this common goal as quickly and efficiently as possible, these actors (police, military forces, medical organizations) must join their respective resources and skills to collaborate and act in a coordinated way, most often by following a plan that specifies the expected flow of work between them. By coordination, we mean all the work needed for putting resolution plans and all stakeholders' skills and resources together in order to reach the common goal (crisis resolution) in an efficient way. Crisis resolution plans are most of the time available in a textual format defining the actors, their roles and coordination recommendations in the different steps of crisis life-cycle (mitigation, preparedness, response and recovery). While plans in a printed document format are easy to manipulate by stakeholders when taken individually, they do not provide direct means to be analysed, simulated, adapted or improved and may have various different interpretations. Therefore they are difficult to manage in real time and in a distributed setting. Given these observations, it becomes useful to model these textual plans to have an accurate representation of them, to reduce ambiguity and to support coordination between stakeholders and ease an efficient control and crisis resolution. The goal of this PhD thesis is to contribute to coordination engineering in crisis domains by providing a comprehensive approach that considers both organizational and task aspects in a coherent conceptual framework. In this perspective, our approach combines Business Process and Multi-Agent paradigms and provides a mapping algorithm between their concepts. BPM (Business Process Modelling) provides an aggregate view of the coordination through the task aspect and so doing eases the validation, the simulation, the intelligibility of crisis resolution plans at design time and its monitoring at run time. The Multi-Agent paradigm provides social abstractions (high-level interactions and organization structures) to model, analyse and simulate an organizational view of the coordination by representing the structure and the behaviour of the system being developed at a macro level, independently of the internal structure of agents (micro level). The contribution of this thesis is a coordination framework, which consists of three related components: i) A design and development approach (design/discovery, analysis, simulation) that provides means (recommendations, formalisms, life-cycle, algorithms) to produce (agent and process-based) coordination models from a textual plan and/or event based log files, ii) A mapping algorithm deriving BPMN process schemas onto multi-agent structures, iii) Coordination evaluation metrics. We extend the works of Grossi and define formal metrics that allow the evaluation of the quality (efficiency, robustness and flexibility) of multi-agent system organizations. We have applied this framework to the Ho Chi Minh City Tsunami resolution plan.
|
287 |
Théorèmes limites et ordres stochastiques relatifs aux lois et processus stables / Limits theorems and stochastic orders related to stable laws and processesManou-Abi, Solym Mawaki 18 June 2015 (has links)
Cette thèse se compose de trois parties indépendantes, toutes en rapport avec les lois et processus stables. Dans un premier temps, nous établissons des théorèmes de convergence (principe d'invariance) vers des processus stables. Les objets considérés sont des fonctionnelles additives de carrés non intégrables d'une chaîne de Markov à temps discret. L'approche envisagée repose sur l'utilisation des coefficients de mélange pour les chaînes de Markov. Dans un second temps, nous obtenons des vitesses de convergence vers des lois stables dans le théorème central limite généralisé à l'aide des propriétés de la distance idéale de Zolotarev. La dernière partie est consacrée à l'étude des ordres stochastiques convexes ou inégalités de comparaison convexe entre des intégrales stochastiques dirigées par des processus stables. L'idée principale sur laquelle reposent les résultats consiste à adapter au contexte stable le calcul stochastique forward-backward. / This PhD Thesis is composed of three independent parts about stable laws and processes. In the first part, we establish convergence theorems (invariance principle) to stable processes, for additive functionals of a discrete time Markov chain that are not assumed to be square-integrable. The method is based on the use of mixing coefficients for Markov chains. In the second part, we obtain some rates of convergence to stable laws in the generalized central limit theorem by means of the Zolotarev ideal probability metric. The last part of the thesis is devoted to the study of convex ordering or convex comparison inequalities between stochastic integrals driven by stable processes. The main idea of our results is based on the forward-backward stochastic calculus for the stable case.
|
288 |
Les répercussions du processus de paix en Irlande du Nord sur les partis radicaux de la province : de la contestation à la participation / The impact of the peace process in Northern Ireland on radical political parties : from opposition to participationDexpert, Magali 15 November 2013 (has links)
Cette étude porte sur l'impact du processus de paix en Irlande du Nord sur les partis politiques de la Province jusqu'à présent considérés comme radicaux : le D.U.P. et le Sinn Féin. Il s'agit d'identifier et d'analyser les changements stratégiques et politiques survenus au sein du D.U.P. et du Sinn Féin pendant le processus de paix afin d'aboutir à une entente politique en mai 2007, date de formation de l'Assemblée nord-irlandaise. Ainsi, nous tentons, d'une part, de démontrer comment le D.U.P. est passé du radicalisme politique et religieux à la modération, et, d'autre part, comment le Sinn Féin s'est distancé de la lutte armée de l'I.R.A. pour s'engager dans un combat exclusivement politique. Cette étude propose, dans un premier temps, d'identifier le statut du D.U.P. et du Sinn Féin sur la scène politique nord-irlandaise avant le processus de paix pour ensuite mettre en exergue les difficultés liées à la mise en place des accords de paix dans la province, compte tenu des divergences idéologiques de ces deux partis. Le rôle, les stratégies et le discours politique de ces deux partis pendant le processus de paix sont analysés afin de mieux comprendre leur perception des accords de paix mais également leur succès auprès des électeurs nord-irlandais. En effet, il est démontré que la stratégie politique du D.U.P. et du Sinn Féin pendant le processus de paix s'est avérée être efficace sur le plan électoral et a donc été synonyme de nouveaux enjeux politiques. En devenant les acteurs principaux des négociations sur l'avenir politique de l'Irlande du Nord, le D.U.P. et le Sinn Féin ont ainsi été contraints de participer, ensemble et de manière constructive, à la vie politique nord-irlandaise. Cette étude entend donc démontrer quels mécanismes diplomatiques et politiques ont contribué à transformer ces deux partis pour finalement les amener à partager le pouvoir politique en Irlande du Nord. / The present work is an attempt to examine the impact of the northern irish peace process on the DUP and Sinn Féin, since these two parties used to be considered as being radical ones. The author consequently analyses the political and strategic transformation of these two parties during the peace process which eventually permitted the formation of a mandatory coalition in May 2007 as well as the restoration of devolution in the Province. The aim of this study is therefore to demonstrate how the DUP shifted from political and religious radicalism to moderation and how the Republican Party dissociated itself from the IRA's armed struggle to embark on exclusively political activities. Three questions underlie our analysis: Considering their radical political beliefs, which role did these two parties play in northern irish politics before the peace process? What was their interpretation of the different peace treaties and what enabled them to appeal to the northern irish electorate? Finally, following their political success, how did they manage to deal with their new political responsibilities, namely sharing power in Northern Ireland? This study thus intends to reveal the diplomatic and strategic mechanisms that contributed to the transformation of these two parties over the last decades and how they succeded in sharing political power.
|
289 |
Modélisation d'Entreprise : Proposition d'une démarche de construction et de validation de modèles réalisant la cohérence des systèmes de l'entreprise / Enterprise Modelling : Proposing an approach that builds and validates models realizing enterprise systems coherencyFathallah, Abir 16 December 2011 (has links)
L’application efficace d’un modèle conduit à visualiser les processus de l’entreprise, à simuler leur fonctionnement et à mettre en place des actions pour améliorer leurs performances. Pour chacun des processus clés de l’entreprise une multitude de modèle est disponible. Nous proposons une méthode de modélisation unique qui permet d’augmenter la compatibilité de différents modèles entre eux et d’améliorer la cohérence de l’entreprise. La première étape de notre méthode de modélisation est de lister les primitives de chaque modèle et de donner une définition claire de chacune de ces primitives. La deuxième étape est l’écriture de la grammaire du modèle. Les règles de modélisation permettent, en effet, d’arranger les primitives selon un certain ordre et d’obtenir un modèle qui a du sens. La troisième étape est la vérification de la validité du modèle. Nous évaluons les performances du modèle par rapport aux services qu’il rend à ses environnants tels que le modélisateur, les utilisateurs ou le système réel. Nous déterminons, par une analyse fonctionnelle, la liste des fonctions à vérifier par le modèle pour que ses services soient atteints. Une étude théorique permet d’appliquer cette méthode de modélisation sur trois des processus inter fonctionnels de l’entreprise : le processus de Supply Chain Management (SCM), le processus de Product Lifecycle Management (PLM) et le processus de Customer Relationship Management (CRM). Nous avons ciblé ces trois processus pour avoir une représentation des quatre sous-systèmes de l’entreprise : le sous-système de Décision (représenté par les finalités de chaque processus), le sous-système Opérant (représenté essentiellement par le processus de SCM), le sous-système d’Information (représenté essentiellement par le processus de PLM) et le sous-système de Connaissances (représenté par les connaissances sur les processus). Les résultats obtenus sont liés au degré de maturité des modèles. Si le processus dispose de plusieurs types de modèles, notre méthode de modélisation permet de clarifier les objectifs de modélisation et d’orienter le choix du manager vers le modèle qui permet de les atteindre. Si le processus dispose de peu de modèles, notre méthode permet de proposer un modèle représentant les étapes du processus global, ses ressources, ses acteurs et les flux échangés. Dans la pratique, toute entreprise industrielle est organisée autour d’un processus qui devient le processus central dont les objectifs sont primordiaux à atteindre, mais cela n’empêche pas les autres processus d’être visibles. L’une des exigences est de conserver la cohérence de toute l’entreprise. Nous définissons la cohérence par deux facteurs : l’unité d’objectif et la compatibilité entre les flux d’information et de connaissances dans l’entreprise. Les conditions de cohérence sont appliquées dans le cas d’une entreprise industrielle sur les modèles de trois processus : le SCM, le PLM et le CRM. Les gains organisationnels sont de permettre une vision globale des étapes et des ressources nécessaires à chaque processus, de distinguer les interfaces et les échanges d’informations entre processus et de capitaliser les connaissances sur la construction, l’utilisation et l’amélioration de modèles. / Enterprise Managers have two important objectives: anticipating the enterprise evolution and mastering its transformation. As a consequence, different process models are available in research papers. But it is difficult to choose between available models and prove that the selected model can improve the enterprise performances. We propose a unified modelling methodology enhancing the models suitability and preserving the enterprise coherency. The first step of our methodology is to obtain a components list for each studied model and to provide a clear definition for each component. The second step is to clarify the syntactic rules that allow building the model. The model components have to be arranged according to a specific order to form a meaningful model. Process models validation is based on a Functional Analysis approach that acts as a guide in building process models. We focus our theoretical study on three processes: the Supply Chain Management (SCM), the Product Lifecycle Management (PLM) and the Customer Relationship Management (CRM). The four enterprise sub-systems are represented: The Decision Subsystem (through the finalities of each process), the Operations Sub-system (which operations are depicted in the SCM process), the Information Sub-system (represented by the information flow in the PLM process) and the Knowledge Sub-system (the knowledge flow in each processes is identified). The result of using our modelling methodology depends of the maturity of the models. If the process possesses different types of models, our methodology lists all the possible modelling objectives which facilitate the manager choice. If the process has few models, our methodology permits building a model depicting the process steps, its resources, its actors and the exchanged flows. The results of this theoretical study are evaluating existing SCM models, building new PLM models and sorting CRM models according to their aim into separate categories. On the field, the enterprise organisation is focused on one central process (such as the SCM, the PLM or the CRM process), but the other processes are clearly visible. The enterprise managers have more than one model to master. The major constraint is to preserve the enterprise coherency. The coherency is obtained through the alignment of the models’ objectives and the compatibility between information and knowledge flows. These two coherency factors are realised in all the phases of the model lifecycle: building the model, initializing it in the enterprise, making it fully operational and improving it. Applied with an industrial partner, our coherency conditions bring considerable gains: it provides a detailed view of three important processes in the enterprise (the SCM, the PLM and the CRM), it identifies the interfaces and the information exchange between processes and it allows capitalising the knowledge on building, using and improving models. Our research subject focused on building and validating process models and enhancing coherency conditions leads to numerous perspectives. The future developments are to apply the modelling methodology on other enterprise processes and to develop a Knowledge System realising models coherency.
|
290 |
Propriétés empiriques et modélisation d’actifs en haute fréquence / Empirical properties and asset modelling at high frequencyZaatour, Riadh 10 March 2013 (has links)
Cette thèse explore théoriquement et empiriquement certains aspects de la formation et de l’évolution des prix des actifs financiers observés en haute fréquence. Nous commençons par l’étude de la dynamique jointe de l’option et de son sous-jacent. Les données haute fréquence rendant observable le processus de volatilité réalisée du sous-jacent, nous cherchons à savoir si cette information est utilisée pour fixer les prix des options. Nous trouvons que le marché ne l’exploite pas. Les modèles de volatilité stochastique sont donc à considérer comme des modèles à forme réduite. Cette étude permet néanmoins de tester la pertinence d’une mesure de couverture empirique que nous appelons delta effectif. C’est la pente de la régression des rendements des prix de l’option sur ceux du sous-jacent. Elle fournit un indicateur de couverture assez satisfaisant et indépendant de toute modélisation. Pour la dynamique des prix, nous nous tournons dans les chapitres suivants vers des modèles plus explicites de la microstructure du marché. L’une des caractéristiques de l’activité de marché est son regroupement, ou clustering. Les processus de Hawkes, processus ponctuels présentant cette caractéristique, fournissent donc un cadre mathématique adéquat pour l’étude de cette activité. La représentation Markovienne de ces processus, ainsi que leur caractère affine quand le noyau est exponentiel, permettent de recourir aux puissants outils analytiques que sont le générateur infinitésimal et la formule de Dynkin pour calculer différentes quantités qui leur sont reliées, telles que les moments ou autocovariances du nombre d’évènements sur un intervalle donné. Nous commençons par un cadre monodimensionnel, assez simple pour éclairer la démarche, mais suffisamment riche pour permettre des applications telles que le groupement des instants d’arrivée d’ordres de marché, la prévision de l’activité de marché à venir sachant l’activité passée, ou la caractérisation de formes inhabituelles, mais néanmoins observées, de signature plot où la volatilité mesurée décroît quand la fréquence d’échantillonnage augmente. Nos calculs nous permettent aussi de rendre la calibration des processus de Hawkes instantanée en recourant à la méthode des moments. La généralisation au cas multidimensionnel nous permet ensuite de capturer, avec le clustering, le phénomène de retour à la moyenne qui caractérise aussi l’activité de marché observée en haute fréquence. Des formules générales pour le signature plot sont alors obtenues et permettent de relier la forme de celui-ci à l’importance relative du clustering ou du retour à la moyenne. Nos calculs permettent aussi d’obtenir la forme explicite de la volatilité associée à la limite diffusive, connectant la dynamique de niveau microscopique à la volatilité observée macroscopiquement, par exemple à l’échelle journalière. En outre, la modélisation des activités d’achat et de vente par des processus de Hawkes permet de calculer l’impact d’un méta ordre sur le prix de l’actif. On retrouve et on explique alors la forme concave de cet impact ainsi que sa relaxation temporelle. Les résultats analytiques obtenus dans le cas multidimensionnel fournissent ensuite le cadre adéquat à l’étude de la corrélation. On présente alors des résultats généraux sur l’effet Epps, ainsi que sur la formation de la corrélation et du lead lag. / This thesis explores theoretical and empirical aspects of price formation and evolution at high frequency. We begin with the study of the joint dynamics of an option and its underlying. The high frequency data making observable the realized volatility process of the underlying, we want to know if this information is used to price options. We find that the market does not process this information to fix option prices. The stochastic volatility models are then to be considered as reduced form models. Nevertheless, this study tests the relevance of an empirical hedging parameter that we call effective delta. This is the slope of the regression of option price increments on those of the underlying. It proves to be a satisfactory model-independent hedging parameter. For the price dynamics, we turn our attention in the following chapters to more explicit models of market microstructure. One of the characteristics of the market activity is its clustering. Hawkes processes are point processes with this characteristic, therefore providing an adequate mathematical framework for the study of this activity. Moreover, the Markov property associated to these processes when the kernel is exponential allows to use powerful analytical tools such as the infinitesimal generator and the Dynkin formula to calculate various quantities related to them, such as moments or autocovariances of the number of events on a given interval. We begin with a monovariate framework, simple enough to illustrate the method, but rich enough to enable applications such as the clustering of arrival times of market orders, prediction of future market activity knowing past activity, or characterization of unusual shapes, but nevertheless observed, of signature plot, where the measured volatility decreases when the sampling frequency increases. Our calculations also allow us to make instantaneous calibration of the process by relying on the method of moments. The generalization to the multidimensional case then allow us to capture, besides the clustering, the phenomenon of mean reversion, which also characterizes the market activity observed in high frequency. General formulas for the signature plot are then obtained and used to connect its shape to the relative importance of clustering or mean reversion. Our calculations also allow to obtain the explicit form of the volatility associated with the diffusive limit, therefore connecting the dynamics at microscopic level to the macroscopic volatility, for example on a daily scale. Additionally, modelling buy and sell activity by Hawkes processes allows to calculate the market impact of a meta order on the asset price. We retrieve and explain the usual concave form of this impact as well as its relaxation with time. The analytical results obtained in the multivariate case provide the adequate framework for the study of the correlation. We then present generic results on the Epps effect as well as on the formation of the correlation and the lead lag.
|
Page generated in 0.0769 seconds