Spelling suggestions: "subject:"causality.""
61 |
Forage des données et formalisation des connaissances sur un accident : Le cas Deepwater Horizon / Data drilling and formalization of knowledge related to an accident : The Deepwater Horizon caseEude, Thibaut 18 December 2018 (has links)
Le forage de données, méthode et moyens développés dans cette thèse, redéfinit le processus d’extraction de données, de la formalisation de la connaissance et de son enrichissement notamment dans le cadre de l’élucidation d’évènements qui n’ont pas ou peu été documentés. L’accident de la plateforme de forage Deepwater Horizon, opérée pour le compte de BP dans le Golfe du Mexique et victime d’un blowout le 20 avril 2010, sera notre étude de cas pour la mise en place de notre preuve de concept de forage de données. Cet accident est le résultat d’un décalage inédit entre l’état de l’art des heuristiques des ingénieurs de forage et celui des ingénieurs antipollution. La perte de contrôle du puits MC 252-1 est donc une faillite d’ingénierie et il faudra quatre-vingt-sept jours à l’équipe d’intervention pour reprendre le contrôle du puits devenu sauvage et stopper ainsi la pollution. Deepwater Horizon est en ce sens un cas d’ingénierie en situation extrême, tel que défini par Guarnieri et Travadel.Nous proposons d’abord de revenir sur le concept général d’accident au moyen d’une analyse linguistique poussée présentant les espaces sémantiques dans lesquels se situe l’accident. Cela permet d’enrichir son « noyau de sens » et l’élargissement de l’acception commune de sa définition.Puis, nous amenons que la revue de littérature doit être systématiquement appuyée par une assistance algorithmique pour traiter les données compte tenu du volume disponible, de l’hétérogénéité des sources et des impératifs d’exigences de qualité et de pertinence. En effet, plus de huit cent articles scientifiques mentionnant cet accident ont été publiés à ce jour et une vingtaine de rapports d’enquêtes, constituant notre matériau de recherche, ont été produits. Notre méthode montre les limites des modèles d’accidents face à un cas comme Deepwater Horizon et l’impérieuse nécessité de rechercher un moyen de formalisation adéquat de la connaissance.De ce constat, l’utilisation des ontologies de haut niveau doit être encouragée. L’ontologie DOLCE a montré son grand intérêt dans la formalisation des connaissances à propos de cet accident et a permis notamment d’élucider très précisément une prise de décision à un moment critique de l’intervention. La population, la création d’instances, est le coeur de l’exploitation de l’ontologie et son principal intérêt mais le processus est encore très largement manuel et non exempts d’erreurs. Cette thèse propose une réponse partielle à ce problème par un algorithme NER original de population automatique d’une ontologie.Enfin, l’étude des accidents n’échappe pas à la détermination des causes et à la réflexion sur les « faits socialement construits ». Cette thèse propose les plans originaux d’un « pipeline sémantique » construit à l’aide d’une série d’algorithmes qui permet d’extraire la causalité exprimée dans un document et de produire un graphe représentant ainsi le « cheminement causal » sous-jacent au document. On comprend l’intérêt pour la recherche scientifique ou industrielle de la mise en lumière ainsi créée du raisonnement afférent de l’équipe d’enquête. Pour cela, ces travaux exploitent les avancées en Machine Learning et Question Answering et en particulier les outils Natural Language Processing.Cette thèse est un travail d’assembleur, d’architecte, qui amène à la fois un regard premier sur le cas Deepwater Horizon et propose le forage des données, une méthode et des moyens originaux pour aborder un évènement, afin de faire émerger du matériau de recherche des réponses à des questionnements qui échappaient jusqu’alors à la compréhension. / Data drilling, the method and means developed in this thesis, redefines the process of data extraction, the formalization of knowledge and its enrichment, particularly in the context of the elucidation of events that have not or only slightly been documented. The Deepwater Horizon disaster, the drilling platform operated for BP in the Gulf of Mexico that suffered a blowout on April 20, 2010, will be our case study for the implementation of our proof of concept for data drilling. This accident is the result of an unprecedented discrepancy between the state of the art of drilling engineers' heuristics and that of pollution response engineers. The loss of control of the MC 252-1 well is therefore an engineering failure and it will take the response party eighty-seven days to regain control of the wild well and halt the pollution. Deepwater Horizon is in this sense a case of engineering facing extreme situation, as defined by Guarnieri and Travadel.First, we propose to return to the overall concept of accident by means of an in-depth linguistic analysis presenting the semantic spaces in which the accident takes place. This makes it possible to enrich its "core meaning" and broaden the shared acceptance of its definition.Then, we bring that the literature review must be systematically supported by algorithmic assistance to process the data taking into account the available volume, the heterogeneity of the sources and the requirements of quality and relevance standards. In fact, more than eight hundred scientific articles mentioning this accident have been published to date and some twenty investigation reports, constituting our research material, have been produced. Our method demonstrates the limitations of accident models when dealing with a case like Deepwater Horizon and the urgent need to look for an appropriate way to formalize knowledge.As a result, the use of upper-level ontologies should be encouraged. The DOLCE ontology has shown its great interest in formalizing knowledge about this accident and especially in elucidating very accurately a decision-making process at a critical moment of the intervention. The population, the creation of instances, is the heart of the exploitation of ontology and its main interest, but the process is still largely manual and not without mistakes. This thesis proposes a partial answer to this problem by an original NER algorithm for the automatic population of an ontology.Finally, the study of accidents involves determining the causes and examining "socially constructed facts". This thesis presents the original plans of a "semantic pipeline" built with a series of algorithms that extract the expressed causality in a document and produce a graph that represents the "causal path" underlying the document. It is significant for scientific or industrial research to highlight the reasoning behind the findings of the investigation team. To do this, this work leverages developments in Machine Learning and Question Answering and especially the Natural Language Processing tools.As a conclusion, this thesis is a work of a fitter, an architect, which offers both a prime insight into the Deepwater Horizon case and proposes the data drilling, an original method and means to address an event, in order to uncover answers from the research material for questions that had previously escaped understanding.
|
62 |
Le marché des obligations privées à la bourse de Paris au 19ème siècle : performance et efficience d'un marché obligataire / The Paris corporate bond market in the 19th century : performance and efficiency of a bond marketRezaee, Amir 15 December 2010 (has links)
L’objet de cette thèse est d’analyser d’un point de vue financier la cotation et le comportement des obligations privées à la Bourse de Paris à partir de 1838 jusqu’à l’éclatement de la Première Guerre mondiale. Cette étude est divisée en deux parties : La première relate la création et l’évolution des émissions obligataires (marché primaire) durant le 19ème siècle. On s’intéresse aux grands émetteurs qui ont su se servir le mieux des obligations et les raisons de leur succès. Dans cette partie seront également traitées les caractéristiques techniques et les innovations financières des émissions. La deuxième partie tente d’analyser le comportement boursier des obligations(marché secondaire).Pour cela un indice général des cours d’obligations durant le 19ème siècle a été calculé. En se basant sur cet indice nous mettons en lumière pour la première fois, les caractéristiques de ce marché (rentabilité, volatilité, …). Cela permet de comparer nos résultats avec ceux des études antérieures sur les marchés d’actions et de la rente au 19ème siècle. Cet indice permet également de tester les diverses hypothèses financières relevant de la théorie financière moderne (efficience informationnelle, cointégration avec des autres compartiments du marché,…). / This thesis studies the French corporate bonds market during the 19th century. Despite its importance the performance of the corporate bonds quoted on the Paris Bourse has never been studied. In order to analyse this market, a price index of the corporate bond market has been created by using modern techniques. The creation of the index was made possible thanks to an original database created by new data, which has never been used before and collected directly from the publications of the market authorities during the nineteenth century. Thanks to the index, the risk and the return of the market have been measured. Then we compared the performance of the French corporate bonds with those of the stocks and government bonds; the results of thecomparisons are interesting. This study demonstrates that the corporate bonds are the least risky securities and their rate of return is higher than the government bonds during the nineteenth century. Some econometric tests have also been used to compare the efficiency of bond market with the other segments of the Paris Bourse.
|
63 |
Un cadre général de causalité basé sur les traces pour des systèmes à composants / A general trace-based causality analysis framework for component systemsGeoffroy, Yoann 07 December 2016 (has links)
Dans des système concurrent, potentiellement embarqués et distribué, il est souvent crucial d'être capable de déterminer quel(s) composant(s) est(sont) responsable(s) d'une défaillance, que ce soit pour debbuger, établir une responsabilité contractuelle du fournisseur des composant, ou pour isolée, ou redémarrer les composants défaillants. Le diagnostic s'appuie sur l'analyse de la causalité logique pour distinguer les composants ayant contribué à la défaillance du système, de ceux ayant eu peu ou pas d'impact sur cette dernière. Plus précisément, un composant C est une cause nécessaire, si la propriété P du système n'aurait pas été violée si C s'était comporté selon sa spécification S. De même, C est une cause suffisante de la violation de P (défaillance du système) si P aurait été violée, même si tous les composants, sauf C, avait respecté leur spécification. Autrement dit, la violation de S, du composant C, est suffisante pour violer P. L'approche a été formalisée, initialement, pour des modèle d'interaction BIP. Le but de ce projet est de formaliser un raisonnement similaire pour des programmes fonctionnels, où les fonctions sont équipées d'invariant décrivant leur comportement attendu. L'analyse prendrait en entrée une trace d'exécution (défaillante) et les invariant, et déterminerait quelle(s) fonction(s) est(sont) une(des) cause(s) de la défaillance. L'approche devra être implémenté et appliquée à des cas d'études provenant du domaine médical, ou de l'automatique. / In a concurrent, possibly embedded and distributed system, it is often crucial to be able to determine which component(s) caused an observed failure - be it for debugging, to establish the contractual liability of component providers, or to isolate or reset the failing component. The diagnostic relies on analysis of logical causality to distinguish component failures that actually contributed to the outcome from failures that had little or no impact on the system-level failure . More precisely, necessary causality of a component C characterizes cases when a system-level property P would not have been violated if the specification S of C had been fulfilled. Sufficient causality characterizes cases where P would have been violated even if all the components but C had fulfilled their specifications. In other words, the violation of S by C was sufficient to violate P. The initial approach to causality analysis on execution traces was formalized for the BIP interaction model. The goal of this project is to formalize a similar reasoning for functional programs where functions are equipped with invariants describing the expected behavior. The analysis should take a (faulty) execution trace and the invariants and determine which function(s) caused the failure. The results should be implemented and applied to case studies from the medical and automotive domains.
|
64 |
Consommation d’énergie et croissance économique au Sénégal : étude de causalité et de cointégration / Energy consumption and economic growth in Senegal : analysis of causality and cointegrationNdiaye, Oumar Hamady 18 December 2018 (has links)
Dans de ce travail de recherche nous essayons d'étudier la relation de causalité et de cointégration entre la consommation d'énergie et la croissance économique et Sénégal et puis dans l’espace de la CEDEAO, d’une part, et de déterminer la direction de la causalité , d’autre part. En utilisant certains développements récents de l’économétrie des séries temporelles non stationnaires, notamment la théorie de la causalité et celle de la cointégration de Granger, de Sims et de Johansen. Ainsi pour corroborer les résultats classiques, nous utilisons une deuxième méthode, celle de la régression Gini à l'aide des modèles VAR. En effet, dans le but de suggérer des solutions et des recommandations sur la façon dont la question croissance /énergie pourrait être abordée à l'avenir au Sénégal et dans l'espace CEDEAO. / In this research we try to check the existence of a short and long-term relationship between electricity consumption and economic growth in the space of ECOWAS, on one hand, and to determine the direction of causality, on the other. Using some recent developments in the econometrics of non-stationary time series, including the theory of causality and that of cointegration Granger, Sims and Gini. Indeed, in order to suggest solutions on how the energy issue could be addressed in the future in the region.
|
65 |
Contrôle collaboratif d’une ferme de génératrices houlomotrices / Collaborative control within Wave Energy Converter arraysMeunier, Paul-Emile 22 November 2018 (has links)
Les fermes houlomotrices de seconde génération qui seront déployées dans les années qui viennent seront composées d’un grand nombre de modules identiques mouillés en mer et rapportant au rivage l’électricité produite par câbles sous-marins. Il a été montré que le contrôle des machines houlomotrices permet d’augmenter significativement leur rendement. Cependant, le contrôle optimal d’un système houlomoteur est non causal, i.e. son application nécessite la prévision de la force d’excitation soumise par le champ de vague sur chacun des éléments de la ferme. Les travaux présentés dans ce manuscrit ont consisté à mettre en place une stratégie de contrôle permettant une récupération d’énergie proche de l’optimum théorique en tenant compte des interactions hydrodynamiques liées à la configuration de ferme et permettant de résoudre la non-causalité d’un tel contrôleur en utilisant uniquement l’information contenue dans les vecteurs d’états des machines de la ferme. Dans un premier temps, les équations reliant les différents états des machines de la ferme ont été établies puis ont été utilisées afin d'effectuer une prévision des états sur les corps contrôlés permettant ainsi d’appliquer un contrôle réactif pseudo causal. Afin de contraindre la dynamique des corps et maitriser l’horizon de non causal du contrôleur, une méthode de fenêtrage a été appliquée à l’impédance du contrôleur. À l’aide d’un simulateur temporel développé spécifiquement, une étude de sensibilité a été conduite pour définir les paramètres optimaux et le comportement de la stratégie de contrôle et de son fenêtrage. La robustesse et la performance du contrôleur ont ensuite été évaluées pour différents changements extérieurs comme la dérive des corps, les variations d’orientation de houle, et l’étalement spectral directionnel. L’application de la stratégie de contrôle à une ferme de 10 corps a montré une récupération d’énergie supérieure à 83% de la limite théorique maximale. / The next generation of wave farms will becomposed of a large number of identical devices deployed offshore, which will transfer the retrieved energy to the shore using submarine cables. It hasbeen proven that the control of Wave Energy Converters can improve their efficiency. However, one of the main challenges of WEC control is the noncausality of the optimal controller. Indeed, the time domain application of this kind of control requires the forecast of the excitation force applied by the wavefield on each device of the farm. The work presented in this thesis aimed at developing and assessing a control strategy with an energy efficiency close to the theoretical optimum, taking into account the hydrodynamic interactions between the farm devices, and solving the non-causality issue using the measurements of the states of the device of the array. First, the equations linking the devices’ states within the array have been established and used to performa deterministic forecast of the states of the controlled bodies, which allowed to apply a pseudo-causal reactive control. Moreover, a window function hasbeen applied to the controller impedance in order to constrain the dynamic of the controlled bodies, and also to regulate the non-causal horizon of the controller. Then, using a time domain simulator developed specifically, a sensibility analysis has been performed to define the optimal parameters and the behavior of the controller with the window function.The robustness and the performances of the controller have also been assessed when affected by exterior changes such as device drift, wave orientation modification, and directional spreading of the wave spectrum. The collaborative controlled strategy applied to a farm of 10 devices has shown an energy efficiency over 83% of the theoretical bound.
|
66 |
Limites et outils d'optimisation du contrôle acoustique actifFriot, Emmanuel 04 December 2007 (has links) (PDF)
Ce mémoire présente un ensemble de travaux de recherche destinés à élargir le domaine d'application du contrôle acoustique actif et à en améliorer les performances. Il vise à expliquer le nombre toujours petit des applications du contrôle actif par les contraintes physiques, telles que la contrainte de causalité des algorithmes en temps réel ou le raccourcissement de la longueur d'onde avec la fréquence, qui s'appliquent aux dispositifs de contrôle ; compte tenu de ces différentes contraintes il présente des outils d'optimisation pour concevoir des systèmes plus performants. Sont ainsi décrits des travaux de recherche orientés successivement vers un contrôle actif sur une zone de l'espace plus étendue, vers le contrôle de sons plus complexes, vers la résolution de problèmes de contrôle mieux posés puis vers le contrôle de grandeurs acoustiques non directement accessibles à la mesure. Au delà de cet exposé de travaux de recherche conduits en équipe au sein du Laboratoire de Mécanique et d'Acoustique du CNRS à Marseille, ce mémoire espère montrer que le contrôle actif n'est pas une simple mise en oeuvre technologique, un peu limitée et passée de mode, de théories connues de l'acoustique et de l'automatique mais bien un réel et actuel sujet de recherche en acoustique.
|
67 |
Application des Bond graphs à la modélisation et à la commande de réseaux électriques à structure variableSanchez, Roberto 25 November 2010 (has links) (PDF)
Cette thèse étudie les problèmes liés à l'association des principaux composants des réseaux électriques.La nature inductive des éléments à connecter pose des problèmes lors de leur association dans un nœud de connexion commun. Deux solutions sont proposées pour résoudre ce problème et rendre ainsi possible la simulation. Une première solution accepte la présence de causalités dérivées, la deuxième consiste à simplifier les modèles en supprimant localement les régimes dynamiques pour faciliter leur association.La mise en évidence graphique de la causalité dans le modèle global d'un micro réseau à structure variable montre que différentes configurations sont possibles, avec pour chacune un comportement et un fonctionnement différents pour les composants. L'outil bond graph a été choisi pour la modélisation des différents éléments, l'analyse des propriétés des modèles et la conception de lois de commande par modèle inverse à l'aide de la bicausalité. La robustesse de la commande pour le convertisseur d'électronique de puissance est analysée d'une manière classique pour tester ses performances par rapport aux incertitudes paramétriques, en faisant varier la charge connectée au convertisseur. La commande est validée par simulation et de manière expérimentale.
|
68 |
Références et inférences depuis le document enregistré ; de quoi l'enregistrement sonore peut-il nous rendre témoin ?Pascal, Frédéric 26 November 2006 (has links) (PDF)
La connaissance dont peut profiter un organisme donné peut être conçue comme l'articulation fonctionnelle de sa confrontation continue à la somme des stimulations dont il est récepteur, parmi lesquelles celles des sons. L'analyse de cette connaissance a été largement placée sous celle d'un contenu informationnel indistinct. Or, il peut être distingué entre un niveau d'articulation direct ou sensori-moteur et un niveau proprement symbolique, fruit d'une observation partagée. Il s'agit d'enquêter sur le contenu informationnel spécifique dont l'accès est permis par le transfert d'inscriptions qui, si elles sont analogiques, sont néanmoins constitutives de la définition d'un certain document. L'instrument d'observation ainsi constitué, même si dérogeant à la règle de la transparence, permet une analyse distincte par un aller-retour entre l'appréciation des qualités perçues par le développement méthodique de concepts et la définition de leurs caractères physiques.
|
69 |
Algèbres de Processus RéversiblesKrivine, Jean 16 November 2006 (has links) (PDF)
Nous présentons un système de retour arrière distribué basé sur le Calcul des Systèmes Communicants de Robin Milner. L'algèbre de pro- cessus réversible ainsi définie (RCCS) nous permet de poser les fondements théoriques du retour arrière dans un calcul concurrent. En particulier, étant donné un processus et un passé, nous montrons que RCCS permet de re- venir en arrière dans tout passé causalement équivalent. Nous exprimons aussi l'équivalence comportementale associée aux processus réversibles en utilisant une notion de bisimulation mettant en relation les traces causales des processus. Il en résulte une méthode de programmation déclarative de systèmes transactionnels qui peuvent être efficacement vérifiés à l'aide d'un algorithme basé sur des structures d'événements. Par l'intermédiaire d'une construction catégorique, nous montrons que cette méthode peut être géné- ralisée à une large classe de calculs concurrents.
|
70 |
Compréhension de textes et représentation des relations causalesGuha, Amal 24 February 2003 (has links) (PDF)
Cette thèse porte sur la notion de distance causale dans la représentation mentale du texte lu (hypothèse du modèle de situation). J'ai d'abord étudié dans la littérature, notamment philosophique, comment on définissait la relation de causalité "dans les choses". Une telle définition semblant hors d'atteinte, j'ai élaboré des définitions opérationnelles de la distance causale, à la fois dans la réalité et dans le modèle de situation. J'ai conduit deux expériences sur des chaînes causales (i. e. des séquences de phrases dans lesquelles chacune décrit la conséquence de la précédente) partielles issues de textes de vulgarisation, recueillant des jugements de plausibilité sur les couples cause-conséquence présentés. Il s'avère que la distance causale mentale (plausibilité) est d'autant moindre que le nombre d'intermédiaires sautés (approximation de la distance causale réelle) est important. On ne trouve pas d'effet du rang de lecture dans la plausibilité jugée. Par ailleurs, la familiarité du participant avec le thème abordé augmente la plausibilité jugée. Il est présenté une série de descripteurs du temps, de l'espace, et des protagonistes, qui permet de qualifier la relation entre les événements décrits par deux phrases. Ces descripteurs sont prédicteurs (à 41 %) de la plausibilité. La causalité est donc une dimension à part entière du modèle de situation, mais elle peut être en grande partie ramenée aux autres dimensions de la situation, que sont le temps, l'espace, et les protagonistes. Nous suggérons que ces données situationnelles peuvent fournir la base d'une décision "fruste" pour entreprendre ou non une inférence causale lors de la lecture d'un texte.
|
Page generated in 0.1441 seconds