11 |
Commande et supervision des procédés discontinus : une approche hybrideAndreu, David 15 November 1996 (has links) (PDF)
Les travaux présentés s'inscrivent dans le cadre de la commande et de la supervision des procédés discontinus. Un système de commande/supervision, étudié dans le contexte particulier des systèmes de production à traitements par lots, est proposé. Notre démarche s'oriente vers une approche globale, hiérarchisée et modulaire, des aspects temps-réel de la conduite de ces procédés de fabrication, reposant sur une modélisation homogène de chaque composante du système. Les points originaux sont d'une part, une nouvelle architecture de commande et d'autre part, une modélisation séparée du procédé et de la commande, dont la nature hybride de chaque modèle obtenu est abordée selon le respect de l'identité des "mondes'' discret et continu. L'architecture proposée est organisée autour de deux réseaux locaux : un bus de terrain à caractère continu, dédié aux variables d'état continues échantillonnées, et un bus d'atelier à caractère discret, consacré aux échanges sporadiques entre les éléments du système de commande/supervision. L'interface entre le monde des variables continues et celui des événements est assurée par un générateur d'événements. Ayant mis en évidence la nécessité d'une représentation des aspects discrets et continus au niveau de la supervision, le modèle du système, constitué du modèle du procédé et du modèle de sa commande, résulte de la combinaison de deux formalismes. Les réseaux de Petri sont utilisés pour aborder l'aspect discret (événementiel) et les équations algébro-différentielles pour représenter l'aspect continu. Ce modèle est structuré selon trois vues : une vue discrète traduisant la stratégie de commande, une vue discrète correspondant à une représentation qualitative de l'état du procédé (ses configurations) et une vue continue associée à chaque configuration. L'évolution cohérente de cette structure, basée sur les événements, est garantie par une coopération des modèles dont le s interactions sont clairement définies. Deux exemples d'application sont présentés afin d'illustrer l'approche exposée. Ils insistent sur l'importance de la notion de configuration dynamique et illustrent la modélisation hybride du procédé, les interactions entre les modèles, ainsi que l'association directe d'une vue continue à des états du modèle discret de la commande.
|
12 |
Approches supervisées et faiblement supervisées pour l'extraction d'événements et le peuplement de bases de connaissancesJean-Louis, Ludovic 15 December 2011 (has links) (PDF)
La plus grande partie des informations disponibles librement sur le Web se présentent sous une forme textuelle, c'est-à-dire non-structurée. Dans un contexte comme celui de la veille, il est très utile de pouvoir présenter les informations présentes dans les textes sous une forme structurée en se focalisant sur celles jugées pertinentes vis-à-vis du domaine d'intérêt considéré. Néanmoins, lorsque l'on souhaite traiter ces informations de façon systématique, les méthodes manuelles ne sont pas envisageables du fait du volume important des données à considérer.L'extraction d'information s'inscrit dans la perspective de l'automatisation de ce type de tâches en identifiant dans des textes les informations concernant des faits (ou événements) afin de les stocker dans des structures de données préalablement définies. Ces structures, appelées templates (ou formulaires), agrègent les informations caractéristiques d'un événement ou d'un domaine d'intérêt représentées sous la forme d'entités nommées (nom de lieux, etc.).Dans ce contexte, le travail de thèse que nous avons mené s'attache à deux grandes problématiques : l'identification des informations liées à un événement lorsque ces informations sont dispersées à une échelle textuelle en présence de plusieurs occurrences d'événements de même type;la réduction de la dépendance vis-à-vis de corpus annotés pour la mise en œuvre d'un système d'extraction d'information.Concernant la première problématique, nous avons proposé une démarche originale reposant sur deux étapes. La première consiste en une segmentation événementielle identifiant dans un document les zones de texte faisant référence à un même type d'événements, en s'appuyant sur des informations de nature temporelle. Cette segmentation détermine ainsi les zones sur lesquelles le processus d'extraction doit se focaliser. La seconde étape sélectionne à l'intérieur des segments identifiés comme pertinents les entités associées aux événements. Elle conjugue pour ce faire une extraction de relations entre entités à un niveau local et un processus de fusion global aboutissant à un graphe d'entités. Un processus de désambiguïsation est finalement appliqué à ce graphe pour identifier l'entité occupant un rôle donné vis-à-vis d'un événement lorsque plusieurs sont possibles.La seconde problématique est abordée dans un contexte de peuplement de bases de connaissances à partir de larges ensembles de documents (plusieurs millions de documents) en considérant un grand nombre (une quarantaine) de types de relations binaires entre entités nommées. Compte tenu de l'effort représenté par l'annotation d'un corpus pour un type de relations donné et du nombre de types de relations considérés, l'objectif est ici de s'affranchir le plus possible du recours à une telle annotation tout en conservant une approche par apprentissage. Cet objectif est réalisé par le biais d'une approche dite de supervision distante prenant comme point de départ des exemples de relations issus d'une base de connaissances et opérant une annotation non supervisée de corpus en fonction de ces relations afin de constituer un ensemble de relations annotées destinées à la construction d'un modèle par apprentissage. Cette approche a été évaluée à large échelle sur les données de la campagne TAC-KBP 2010.
|
13 |
Performance variation considered helpful / Les variations de performance considérées utilesMosli Bouksiaa, Mohamed Said 26 April 2018 (has links)
Comprendre les performances d'une application multi-thread est difficile. Les threads interfèrent quand ils accèdent à la même ressource, ce qui ralentit leur exécution. Malheureusement, les outils de profiling existants se focalisent sur l'identification des causes de l'interférence, et non pas sur ses effets.Le développeur ne peut donc pas conclure si l'optimisation d'une interférence identifiée par un outil de profiling peut mener à une meilleure performance. Dans cette thèse, on propose de compléter les outils existants par un outil orienté-effet capable de quantifier l'impact de l'interférence sur la performance, indépendamment de la cause de l'interférence. Avec une évaluation de 27 applications, on montre que notre outil réussit à identifier 12 bottlenecks causés par 6 types d'interférence différents / Understanding the performance of a multi-threaded application is difficult. The threads interfere when they access the same resource, which slows their execution down. Unfortunately, current profiling tools focus on identifying the interference causes, not their effects.The developer can thus not know if optimizing the interference reported by a profiling tool can lead to better performance. In this thesis, we propose to complete the profiling toolbox with an effect-oriented profiling tool able to indicate how much interference impacts performance, regardless of the interference cause. With an evaluation of 27 applications, we show that our tool successfully identifies 12 performance bottlenecks caused by 6 different kinds of interference
|
14 |
Neural Methods for Event Extraction / Méthodes neuronales pour l'extraction d'événementsBoroş, Emanuela 27 September 2018 (has links)
Du point de vue du traitement automatique des langues (TAL), l’extraction des événements dans les textes est la forme la plus complexe des processus d’extraction d’information, qui recouvrent de façon plus générale l’extraction des entités nommées et des relations qui les lient dans les textes. Le cas des événements est particulièrement ardu car un événement peut être assimilé à une relation n-aire ou à une configuration de relations. Alors que la recherche en extraction d’information a largement bénéficié des jeux de données étiquetés manuellement pour apprendre des modèles permettant l’analyse des textes, la disponibilité de ces ressources reste un problème important. En outre, de nombreuses approches en extraction d’information fondées sur l’apprentissage automatique reposent sur la possibilité d’extraire à partir des textes de larges en sembles de traits définis manuellement grâce à des outils de TAL élaborés. De ce fait, l’adaptation à un nouveau domaine constitue un défi supplémentaire. Cette thèse présente plusieurs stratégies pour améliorer la performance d’un système d’extraction d’événements en utilisant des approches fondées sur les réseaux de neurones et en exploitant les propriétés morphologiques, syntaxiques et sémantiques des plongements de mots. Ceux-ci ont en effet l’avantage de ne pas nécessiter une modélisation a priori des connaissances du domaine et de générer automatiquement un ensemble de traits beaucoup plus vaste pour apprendre un modèle. Nous avons proposé plus spécifiquement différents modèles d’apprentissage profond pour les deux sous-tâches liées à l’extraction d’événements : la détection d’événements et la détection d’arguments. La détection d’événements est considérée comme une sous-tâche importante de l’extraction d’événements dans la mesure où la détection d’arguments est très directement dépendante de son résultat. La détection d’événements consiste plus précisément à identifier des instances d’événements dans les textes et à les classer en types d’événements précis. En préalable à l’introduction de nos nouveaux modèles, nous commençons par présenter en détail le modèle de l’état de l’art qui en constitue la base. Des expériences approfondies sont menées sur l’utilisation de différents types de plongements de mots et sur l’influence des différents hyperparamètres du modèle en nous appuyant sur le cadre d’évaluation ACE 2005, standard d’évaluation pour cette tâche. Nous proposons ensuite deux nouveaux modèles permettant d’améliorer un système de détection d’événements. L’un permet d’augmenter le contexte pris en compte lors de la prédiction d’une instance d’événement (déclencheur d’événement) en utilisant un contexte phrastique, tandis que l’autre exploite la structure interne des mots en profitant de connaissances morphologiques en apparence moins nécessaires mais dans les faits importantes. Nous proposons enfin de reconsidérer la détection des arguments comme une extraction de relation d’ordre supérieur et nous analysons la dépendance de cette détection vis-à-vis de la détection d’événements. / With the increasing amount of data and the exploding number data sources, the extraction of information about events, whether from the perspective of acquiring knowledge or from a more directly operational perspective, becomes a more and more obvious need. This extraction nevertheless comes up against a recurring difficulty: most of the information is present in documents in a textual form, thus unstructured and difficult to be grasped by the machine. From the point of view of Natural Language Processing (NLP), the extraction of events from texts is the most complex form of Information Extraction (IE) techniques, which more generally encompasses the extraction of named entities and relationships that bind them in the texts. The event extraction task can be represented as a complex combination of relations linked to a set of empirical observations from texts. Compared to relations involving only two entities, there is, therefore, a new dimension that often requires going beyond the scope of the sentence, which constitutes an additional difficulty. In practice, an event is described by a trigger and a set of participants in that event whose values are text excerpts. While IE research has benefited significantly from manually annotated datasets to learn patterns for text analysis, the availability of these resources remains a significant problem. These datasets are often obtained through the sustained efforts of research communities, potentially complemented by crowdsourcing. In addition, many machine learning-based IE approaches rely on the ability to extract large sets of manually defined features from text using sophisticated NLP tools. As a result, adaptation to a new domain is an additional challenge. This thesis presents several strategies for improving the performance of an Event Extraction (EE) system using neural-based approaches exploiting morphological, syntactic, and semantic properties of word embeddings. These have the advantage of not requiring a priori modeling domain knowledge and automatically generate a much larger set of features to learn a model. More specifically, we proposed different deep learning models for two sub-tasks related to EE: event detection and argument detection and classification. Event Detection (ED) is considered an important subtask of event extraction since the detection of arguments is very directly dependent on its outcome. ED specifically involves identifying instances of events in texts and classifying them into specific event types. Classically, the same event may appear as different expressions and these expressions may themselves represent different events in different contexts, hence the difficulty of the task. The detection of the arguments is based on the detection of the expression considered as triggering the event and ensures the recognition of the participants of the event. Among the difficulties to take into account, it should be noted that an argument can be common to several events and that it does not necessarily identify with an easily recognizable named entity. As a preliminary to the introduction of our proposed models, we begin by presenting in detail a state-of-the-art model which constitutes the baseline. In-depth experiments are conducted on the use of different types of word embeddings and the influence of the different hyperparameters of the model using the ACE 2005 evaluation framework, a standard evaluation for this task. We then propose two new models to improve an event detection system. One allows increasing the context taken into account when predicting an event instance by using a sentential context, while the other exploits the internal structure of words by taking advantage of seemingly less obvious but essentially important morphological knowledge. We also reconsider the detection of arguments as a high-order relation extraction and we analyze the dependence of arguments on the ED task.
|
15 |
Le festival comme expérience culturelle immersive et résonante : le cas du Festif! de Baie-St-PaulCrossan, Jessica 13 December 2023 (has links)
Généralement analysé sous son angle économique, touristique ou culturel, le festival est rarement appréhendé comme un objet relationnel. Le présent mémoire s'intéresse au cas du Festif! de Baie-Saint-Paul et, empruntant au sociologue Hartmut Rosa son concept de résonance, il analyse d'abord comment et en quoi ce festival « résonne » pour ses festivaliers locaux. S'appuyant sur les concepts de chaîne de coopération et de conventions tels que développés par Howard Becker dans Les mondes de l'art, il tente ensuite d'éclairer comment les caractéristiques organisationnelles même de ce festival participent à créer cet espace de résonance. Se basant sur vingt entretiens réalisés avec des festivaliers issus de la communauté charlevoisienne ainsi que neuf autres avec des membres de l'organisation du Festif! de Baie-Saint-Paul, ce mémoire démontre l'importance des relations tissées entre un festival et son milieu comme facteur clé de sa réussite et de sa pérennité.
|
16 |
Modèle d'exploitation de flux d'événements complexes (CEP) par des patrons spatiotemporels agrégés dans un contexte de réseau de distribution énergétiqueMahdi, Khouloud 18 May 2018 (has links)
Dans le domaine de l’internet des objets, nos recherches se sont focalisées sur l’étude des corrélations entre les données générées par des réseaux de capteurs. Ces données sont généralement collectées par des systèmes d’acquisition et se caractérisent par une grande vélocité et un fort volume. Les décideurs ont besoin d’outils permettant de détecter les situations d’intérêt au meilleur moment pour la prise de décision. Nous partons des travaux de doctorat de F.Barouni (2016) qui a proposé une extension du modèle et des outils de traitement d’événements complexes (CEP) pour répondre aux enjeux relatifs à la vélocité et au volume de ces données. Barouni a proposé une approche de représentation et de détection de patrons spatiotemporels pour représenter les situations d’intérêt. Notre but est de concevoir un outil destiné à gérer ces données et à fouiller des corrélations potentielles entre elles, en tenant compte des données contextuelles. Dans ce mémoire, nous proposons une approche théorique qui utilise les graphes conceptuels afin d’améliorer l’approche de Barouni en permettant de modéliser plusieurs types de relations spatiales. Dans ce contexte, nous avons proposé une extension des relations spatiales en tenant compte des éléments composant un réseau en lien avec l’espace géographique sous-jacent. En effet, notre modèle prend en compte, la représentation spatiale du réseau, la projection du réseau dans l’espace géographique sous-jacent et toutes les relations spatiales qui en découlent. Nous proposons aussi une extension au formalisme de représentation des patrons en ajoutant une structure du résumé et de contraintes du patron (graphes conceptuels) pour pouvoir modéliser des relations spatiales entre des patrons de complexité croissante. Nous avons développé un outil de détection de patrons en utilisant une approche de CEP itérative. Notre outil utilise plusieurs CEPs pour pouvoir détecter des patrons de différents degrés de complexité. Nous avons démontré la pertinence de notre approche par l’étude des événements de reconfiguration dans un réseau de distribution électrique. Notre approche est assez générique pour être applicable dans d’autres domaines d’application, tels que les réseaux de fibres optiques.
|
17 |
Détection de menaces internes par apprentissage automatique non superviséBertrand, Simon 26 November 2023 (has links)
Titre de l'écran-titre (visionné le 5 juin 2023) / Les menaces internes, ou en anglais Insider Threat, surviennent lorsqu'un individu ayant des accès privilégiés au sein d'une organisation les utilise d'une façon causant du tort à l'organisation. L'employé peut réaliser ces actions dangereuses de façon intentionnelle ou non intentionnelle. Les menaces internes sont très variées ce qui les rend particulièrement complexes à détecter. La confidentialité, l'intégrité et la disponibilité des données sont des préoccupations croissantes pour les organisations d'aujourd'hui. Malgré tout, l'étendue de l'impact des menaces internes est souvent sous-estimée. En effet, même si les menaces internes ne représentent qu'une fraction de toutes les cyberattaques, les dangers en lien avec les menaces internes sont réels. Dans un premier lieu, les attaques internes peuvent causer plus de dommages aux organisations que les attaques traditionnelles. Ceci s'explique en partie par la grande connaissance de l'organisation, ainsi que les accès privilégiés, qu'ont les employés réalisant ces attaques. Ces derniers sont donc en mesure de facilement perpétrer des actions dangereuses sans éveiller de soupçons. De plus, dans les dernières années, plusieurs études suggèrent que la majorité des organisations souffrent de menaces internes chaque année [2]. La détection de menaces internes est ainsi un problème pertinent qui attire beaucoup de chercheurs. Une des stratégies couramment utilisée pour faire la détection de menaces internes est de modéliser les comportements des employés d'une organisation et d'identifier toute divergence significative comme une menace potentielle. Pour ce faire, les journaux d'audit, décrivant tous les évènements réalisés par les membres d'une organisation dans le réseau informatique, sont des sources d'informations privilégiées dans le domaine pour apprendre les comportements typiques des utilisateurs. Dans ce mémoire, nous présentons deux solutions originales de détection de menaces internes utilisant des journaux d'audit et des techniques d'apprentissage automatique non supervisé afin d'apprendre les comportements utilisateur et détecter les comportements malicieux. Les deux solutions présentent des résultats compétitifs par rapport à l'état de l'art, et ce en offrant des caractéristiques qui facilitent leur implémentation dans de vraies organisations. / Insider threats occur when a privileged member of an organization wrong fully uses his access in a way that causes harm to his organization. Those damaging actions can be intentional, as in the case of theft or sabotage, however, un intentional dangerous actions are also to be considered, which adds to the complexity of the insider threat. The insider threat is a broad type of cyber menace, making its detection particularly difficult. For organizations, the confidentiality, integrity, and availability of their information are an increasing concern. Yet many under estimate the magnitude of the insider threats against the maintenance of those ideals. Indeed, even though insider threats are only a fraction of all existing cyber threats, this type of menace presents a real and unique danger for organizations. Firstly, an insider threat can be more damaging to an organization than a traditional cyberattack. This is mainly explicable by the privileged accesses and great domain knowledge that the insider possesses over an outsider. The insider has then a better opportunity to use his access and domain knowledge to carry out efficiently and quietly the attack. Moreover, over the last few years, some reports suggest that most institutions yearly suffer from that kind of cyber threat [2]. Insider threat detection is therefore a relevant problem that attracted many researchers to deploy their efforts in the last decades. One common strategy to detect malicious insiders is by modeling the behaviors of the users and identifying any significant divergence as a potential threat. In that matter, audit data, describing the activity of every member of an organization in the network, are regularly chosen to learn user behaviors using statistical or machine learning models. In the present work, we propose two insider threat detection systems that leverage audit data to learn user behaviors and detect divergent conduct in an unsupervised fashion. Both solutions are competitive with state-of-the-art techniques, and were developed considering many challenges in the field, like being easy to implement in a real-world scenario and considering events dependencies.
|
18 |
Efficacité de deux appareils d'avancement mandibulaire dans le traitement du syndrome des apnées obstructives du sommeil (SAOS)Gauthier, Luc January 2007 (has links)
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal.
|
19 |
Estimation de la disponibilité par simulation, pour des systèmes incluant des contraintes logistiques / Availability estimation by simulations for systems including logisticsRai, Ajit 09 July 2018 (has links)
L'analyse des FDM (Reliability, Availability and Maintainability en anglais) fait partie intégrante de l'estimation du coût du cycle de vie des systèmes ferroviaires. Ces systèmes sont hautement fiables et présentent une logistique complexe. Les simulations Monte Carlo dans leur forme standard sont inutiles dans l'estimation efficace des paramètres des FDM à cause de la problématique des événements rares. C'est ici que l'échantillonnage préférentiel joue son rôle. C'est une technique de réduction de la variance et d'accélération de simulations. Cependant, l'échantillonnage préférentiel inclut un changement de lois de probabilité (changement de mesure) du modèle mathématique. Le changement de mesure optimal est inconnu même si théoriquement il existe et fournit un estimateur avec une variance zéro. Dans cette thèse, l'objectif principal est d'estimer deux paramètres pour l'analyse des FDM: la fiabilité des réseaux statiques et l'indisponibilité asymptotique pour les systèmes dynamiques. Pour ce faire, la thèse propose des méthodes pour l'estimation et l'approximation du changement de mesure optimal et l'estimateur final. Les contributions se présentent en deux parties: la première partie étend la méthode de l'approximation du changement de mesure de l'estimateur à variance zéro pour l'échantillonnage préférentiel. La méthode estime la fiabilité des réseaux statiques et montre l'application à de réels systèmes ferroviaires. La seconde partie propose un algorithme en plusieurs étapes pour l'estimation de la distance de l'entropie croisée. Cela permet d'estimer l'indisponibilité asymptotique pour les systèmes markoviens hautement fiables avec des contraintes logistiques. Les résultats montrent une importante réduction de la variance et un gain par rapport aux simulations Monte Carlo. / RAM (Reliability, Availability and Maintainability) analysis forms an integral part in estimation of Life Cycle Costs (LCC) of passenger rail systems. These systems are highly reliable and include complex logistics. Standard Monte-Carlo simulations are rendered useless in efficient estimation of RAM metrics due to the issue of rare events. Systems failures of these complex passenger rail systems can include rare events and thus need efficient simulation techniques. Importance Sampling (IS) are an advanced class of variance reduction techniques that can overcome the limitations of standard simulations. IS techniques can provide acceleration of simulations, meaning, less variance in estimation of RAM metrics in same computational budget as a standard simulation. However, IS includes changing the probability laws (change of measure) that drive the mathematical models of the systems during simulations and the optimal IS change of measure is usually unknown, even though theroretically there exist a perfect one (zero-variance IS change of measure). In this thesis, we focus on the use of IS techniques and its application to estimate two RAM metrics : reliability (for static networks) and steady state availability (for dynamic systems). The thesis focuses on finding and/or approximating the optimal IS change of measure to efficiently estimate RAM metrics in rare events context. The contribution of the thesis is broadly divided into two main axis : first, we propose an adaptation of the approximate zero-variance IS method to estimate reliability of static networks and show the application on real passenger rail systems ; second, we propose a multi-level Cross-Entropy optimization scheme that can be used during pre-simulation to obtain CE optimized IS rates of Markovian Stochastic Petri Nets (SPNs) transitions and use them in main simulations to estimate steady state unavailability of highly reliably Markovian systems with complex logistics involved. Results from the methods show huge variance reduction and gain compared to MC simulations.
|
20 |
Etude des processus durs dans les collisions proton-proton et noyau-noyau aux énergies LHCPorteboeuf, Sarah 21 September 2009 (has links) (PDF)
Les collisions de particules à très hautes énergies sont un moyen de sonder la matière au niveau de ses composants les plus élémentaires : les partons (quarks et gluons). Les collisions d'ions lourds ultra-relativistes produisent dans le même événement le Plasma de Quarks et de Gluons (QGP) et des interactions élémentaires de type parton-parton. Ces interactions, appelés processus durs, proviennent de l'état initial et produisent des partons de hautes impulsions transverses qui vont fragmenter en hadrons détectables (jets). Avant la fragmentation, les partons sont susceptibles d'interagir avec le QGP, modifiant les propriétés des hadrons produits. L'étude des processus dur sera d'un grand intérêt au LHC. La section efficace de production de jet est calculable en pQCD, en se basant sur l'hypothèse de factorisation. EPOS est un générateur d'événements dont l'objectif est de reproduire des événements directement comparables à l'expérience en décrivant aussi bien les aspects durs que les aspects mous (QGP) dans un modèle cohérent. Dans cette thèse, je détaillerai les motivations pour produire des processus durs dans un événement complet. La partie dure devant être compatible avec la pQCD. Ainsi, comme dans l'expérience la production d'un processus rare nécessite beaucoup de statistique. Je présenterais alors une méthode de coupure sur les hautes impulsions transverses permettant de produire facilement des jets de haute impulsion transverse dans le contexte des aspects mous.
|
Page generated in 0.0761 seconds