• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 4
  • 2
  • Tagged with
  • 6
  • 6
  • 6
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Surveillance de procédés à base de méthodes de classification : conception d'un outil d'aide pour la détection et le diagnostic des défaillances

KEMPOWSKI, Tatiana 14 December 2004 (has links) (PDF)
Les travaux présentés se situent dans le domaine de l'aide à la décision pour la surveillance de systèmes complexes tels que les procédés chimiques. Pour de tels procédés il n'est pas toujours possible de disposer d'un modèle mathématique ou structurel du système considéré. De ce fait, d'autres types d'approches telles que les méthodes de classification, doivent être envisagées pour l'identification des états fonctionnels dans lesquels le système peut se trouver. Sur la base de telles méthodes notre travail présente une stratégie permettant de construire, à partir de données historiques et de données récupérées en ligne, un modèle discret (états/transitions) du comportement du processus et d'identifier des situations anormales issues des dysfonctionnements. Cette stratégie consiste à générer un premier modèle de référence, sous la forme d'un automate à états finis, du procédé à partir d'un apprentissage, supervisé ou non. Ce modèle est ensuite validé et complété par l'expert. La reconnaissance en ligne permet de suivre l'évolution temporelle des modes de fonctionnement déjà identifiés. Dans le cas où une transition amène à la non-reconnaissance d'un certain nombre d'éléments, c'est-à-dire à la détection d'une déviation par rapport à un comportement connu, l'objectif est de caractériser cette nouvelle situation. Pour cela, nous proposons de faire un nouvel apprentissage hors ligne prenant en compte ces éléments non reconnus. Les nouvelles classes créées permettent, toujours en interaction avec l'expert, de fixer la nature de la déviation observée. Dans le cas d'une défaillance, une analyse portant sur les descripteurs et le profil des classes permet l'isolation de la défaillance. Ces informations sont transmises à l'opérateur pour l'assister dans son diagnostic. Un outil d'aide à la décision pour la surveillance s'appuyant sur cette stratégie a été mis en place. Cet outil appelé SALSA repose sur la méthode LAMDA. Il s'agit d'une méthode de classification avec apprent issage et reconnaissance de formes qui permet l'analyse de données multi-variables et qui utilise des notions de la logique floue pour introduire le concept d'adéquation d'un élément à une classe. Dans le cadre du projet européen CHEM les principaux aspects de nos travaux et les résultats obtenus ont été illustrés sur des unités industrielles de nature différente.
2

Analyse Informatique de Guides de Bonnes Pratiques Cliniques

Georg, Gersende 06 September 2006 (has links) (PDF)
Les Guides de Bonnes Pratiques Cliniques sont des documents normalisés destinés à l'amélioration de la qualité des soins. L'informatisation des Guides de Bonnes Pratiques est un enjeu majeur pour leur diffusion mais aussi pour les différentes étapes de leur cycle de vie depuis leur rédaction. De nombreux travaux de recherche ont été consacrés à l'informatisation des Guides de Bonnes Pratiques. Parmi eux, les approches documentaires utilisent les développements récents des langages à base de balises pour la structuration des documents, facilitant le traitement informatisé de ces documents. Nous proposons une extension de l'approche documentaire qui est basée sur une analyse intelligente des marqueurs de structuration des recommandations utilisant un analyseur à états finis. Cette approche a été intégrée à l'environnement informatique G-DEE (Guideline Document Engineering Environment) dédié à l'étude des Guides de Bonnes Pratiques, et peut servir pour une aide à la rédaction, un support au consensus lors de l'écriture, et un support pour la maintenance et l'actualisation des Guides de Bonnes Pratiques.
3

Contrôle et diagnostic décentralisés des systèmes à évènements discrets approche multi-décisionnelle

Chakib, Hicham January 2011 (has links)
De nos jours, les systèmes technologiques sont devenus très complexes (matériel informatique, logiciel, système de télécommunication, usine manufacturière, etc.), et cette complexité croît continuellement de sorte que les anciennes techniques intuitives utilisées pour leur conception, leur étude et leur réalisation deviennent inadaptées. À cause de cette complexité croissante, la probabilité pour qu'une erreur (ou panne) inattendue survienne est de plus en plus grande. Plus encore, quelques erreurs peuvent provoquer des accidents très graves causant des pertes économiques ou humaines. C'est dans ce cadre que les méthodes formelles ont été développées pour l'analyse, la conception et la réalisation des systèmes logiciels et électroniques quelque [i.e. quelle que] soit leur complexité. Ainsi, l'étude des systèmes à événements discrets (SED) a été introduite avec l'objectif de développer des méthodes formelles pour répondre à des besoins pressants, tels que le contrôle, le diagnostic, le pronostic, le test et la vérification des comportements discrets des systèmes technologiques. Cette thèse considère et généralise les études du contrôle et du diagnostic décentralisés des SED. Le principe commun du contrôle et du diagnostic décentralisés des SED est la prise de décision décentralisée, qui est basée sur l'utilisation d'une architecture décentralisée. Cette dernière est constituée de plusieurs décideurs locaux qui observent partiellement un SED et prennent des décisions locales qui sont ensuite fusionnées par un module de fusion D. Ce dernier, en se basant sur une fonction de fusion, calcule à partir des décisions locales une décision globale. Le système englobant les décideurs locaux et le module de fusion s'appelle un décideur décentralisé. L'ensemble de tous les décideurs décentralisés ayant D comme module de fusion est appelé D-architecture. La principale contribution de cette thèse est de proposer une nouvelle approche de prise de décision décentralisée, appelée multi-décision et qualifiée de multi-décisionnelle. Le principe de la multi-décision est basé sur l'utilisation de plusieurs (disons p) décideurs décentralisés (DD[indice supérieur j)[indice inférieur j=1,...,p] qui fonctionnent simultanément et en parallèle. Chaque DD[indice supérieur J] a une architecture décentralisée parmi celles qu'on trouve dans la littérature. C'est-à-dire que chaque DD[indice supérieur J] est constitué d'un ensemble de décideurs locaux ([Dec[indice supérieur J][indice inférieur i])[indice inférieur i=1,...,n] dont les décisions locales sont fusionnées par un module de fusion D[indice supérieur j] afin d'obtenir une décision globale. Dans l'architecture multi-décisionnelle, les décisions globales des p (DD[indice supérieur j])[indice inférieur j=1,...,p] sont fusionnées par un module D afin d'obtenir une décision effective qui respecte une propriété désirée Pr. L'intérêt de la multi-décision est que l'architecture ((DD[indice supérieur j])[indice inférieur j=1,..., p], D) constituée des différents (DD[indice supérieur j])[indice inférieur j =1,...,p] et de D généralise chacune des architectures DD[indice supérieur j]. C'est-à-dire que l'ensemble des SED auxquels on peut appliquer ((DD[indice supérieur j])[indice inférieur j=1,...,p], D) englobe les différents SED auxquels on peut appliquer les différents DD[indice supérieur j] séparément. Nous avons étudié l'approche multi-décisionnelle sur deux exemples de prise de décision : le contrôle supervisé et le diagnostic. On obtient alors le contrôle et le diagnostic multi-décisionnels. Dans les deux cas, l'approche multi-décisionnelle nécessite une décomposition de langages infinis (c.-à-d., contenant un nombre infini de séquences), qui est connue comme étant un problème difficile. Pour résoudre ce problème, on a proposé, dans le cas particulier des langages réguliers, une méthode qui transforme la décomposition d'un langage infini X en une décomposition d'un ensemble fini d'états marqués. Pour arriver à cela, on a dû s'imposer une restriction en ne considérant que les décompositions de X qui respectent une condition spécifique. Cette condition présente l'avantage de rendre les conditions d'existence de solutions vérifiables. Nous avons ainsi développé des algorithmes pour vérifier les conditions d'existence de solutions pour le contrôle et le diagnostic multi-décisionnels. Ces algorithmes ont le même ordre de complexité que les algorithmes qui vérifient les conditions d'existence de solutions pour le contrôle et le diagnostic décentralisés. Il est important de noter que les conditions d'existence obtenues pour une architecture multi-décisionnelle ((DD[indice supérieur j])[indice inférieur j=1,..., p], D) sont moins contraignantes que celles obtenues pour chacune des architectures DD[indice supérieur j].
4

Analyse de programmes malveillants par abstraction de comportements / Malware Analysis by Behavior Abstraction

Beaucamps, Philippe 14 November 2011 (has links)
L’analyse comportementale traditionnelle opère en général au niveau de l’implantation de comportements malveillants. Pourtant, elle s’intéresse surtout à l’identification de fonctionnalités données et elle se situe donc plus naturellement à un niveau fonctionnel. Dans cette thèse, nous définissons une forme d’analyse comportementale de programmes qui opère non pas sur les interactions élémentaires d’un programme avec le système mais sur la fonction que le programme réalise. Cette fonction est extraite des traces d’un pro- gramme, un procédé que nous appelons abstraction. Nous définissons de façon simple, intuitive et formelle les fonctionnalités de base à abstraire et les comportements à détecter, puis nous proposons un mécanisme d’abstraction applicable à un cadre d’analyse statique ou dynamique, avec des algorithmes pratiques à complexité raisonnable, enfin nous décrivons une technique d’analyse comportementale intégrant ce mécanisme d’abstraction. Notre méthode est particulièrement adaptée à l’analyse des programmes dans des langages de haut niveau ou dont le code source est connu, pour lesquels l’analyse statique est facilitée : applications mobiles en .NET ou Java, scripts, extensions de navigateurs, composants off-the-shelf.Le formalisme d’analyse comportementale par abstraction que nous proposons repose sur la théorie de la réécriture de mots et de termes, les langages réguliers de mots et de termes et le model checking. Il permet d’identifier efficacement des fonctionnalités dans des traces et ainsi d’obtenir une représentation des traces à un niveau fonctionnel; il définit les fonctionnalités et les comportements de façon naturelle, à l’aide de formules de logique temporelle, ce qui garantit leur simplicité et leur flexibilité et permet l’utilisation de techniques de model checking pour la détection de ces comportements ; il opère sur un ensemble quelconque de traces d’exécution ; il prend en compte le flux de données dans les traces d’exécution; et il permet, sans perte d’efficacité, de tenir compte de l’incertitude dans l’identification des fonctionnalités. Un cadre d’expérimentation a été mis en place dans un contexte d’analyse dynamique comme statique / Traditional behavior analysis usually operates at the implementation level of malicious behaviors. Yet, it is mostly concerned with the identification of given functionalities and is therefore more naturally defined at a functional level. In this thesis, we define a form of program behavior analysis which operates on the function realized by a program rather than on its elementary interactions with the system. This function is extracted from program traces, a process we call abstraction. We define in a simple, intuitive and formal way the basic functionalities to abstract and the behaviors to detect, then we propose an abstraction mechanism applicable both to a static or to a dynamic analysis setting, with practical algorithms of reasonable complexity, finally we describe a behavior analysis technique integrating this abstraction mechanism. Our method is particularly suited to the analysis of programs written in high level languages or with a known source code, for which static analysis is facilitated: mobile applications for .NET or Java, scripts, browser addons, off-the-shelf components.The formalism we propose for behavior analysis by abstraction relies on the theory of string and terms rewriting, word and tree languages and model checking. It allows an efficient identification of functionalities in traces and thus the construction of a represen- tation of traces at a functional level; it defines functionalities and behaviors in a natural way, using temporal logic formulas, which assure their simplicity and their flexibility and enables the use of model checking techniques for behavior detection; it operates on an unrestricted set of execution traces; it handles the data flow in execution traces; and it allows the consideration of uncertainty in the identification of functionalities, with no complexity overhead. Experiments have been conducted in a dynamic and static analysis setting
5

Vers le recouvrement automatique dans la composition de services WEB basée protocole

Menadjelia, Nardjes 15 July 2013 (has links) (PDF)
Dans une composition de services Web basée protocole, un ensemble de services composants se collaborent pour donner lieu à un service Composite. Chaque service est représenté par un automate à états finis (AEF). Au sein d'un AEF, chaque transition exprime l'exécution d'une opération qui fait avancer le service vers un état suivant. Une exécution du composite correspond à une séquence de transitions où chacune est déléguée à un des composants. Lors de l'exécution du composite, un ou plusieurs composants peuvent devenir indisponibles. Ceci peut produire une exécution incomplète du composite, et de ce fait un recouvrement est nécessaire. Le recouvrement consiste à transformer l'exécution incomplète en une exécution alternative ayant encore la capacité d'aller vers un état final. La transformation s'effectue en compensant certaines transitions et exécutant d'autres. Cette thèse présente une étude formelle du problème de recouvrement dans une composition de service Web basée protocole. Le problème de recouvrement consiste à trouver une meilleure exécution alternative parmi celles disponibles. Une meilleure alternative doit être atteignable à partir de l'exécution incomplète avec un nombre minimal de compensations visibles (vis-à-vis le client). Pour une exécution alternative donnée, nous prouvons que le problème de décision associé au calcul du nombre de transitions invisiblement compensées est NP-Complet. De ce fait, nous concluons que le problème de décision associé au recouvrement appartient à la classe ΣP2.
6

Vers le recouvrement automatique dans la composition de services WEB basée protocole / Towards automatic recovery in protocol-based Web service composition

Menadjelia, Nardjes 15 July 2013 (has links)
Dans une composition de services Web basée protocole, un ensemble de services composants se collaborent pour donner lieu à un service Composite. Chaque service est représenté par un automate à états finis (AEF). Au sein d’un AEF, chaque transition exprime l’exécution d’une opération qui fait avancer le service vers un état suivant. Une exécution du composite correspond à une séquence de transitions où chacune est déléguée à un des composants. Lors de l’exécution du composite, un ou plusieurs composants peuvent devenir indisponibles. Ceci peut produire une exécution incomplète du composite, et de ce fait un recouvrement est nécessaire. Le recouvrement consiste à transformer l’exécution incomplète en une exécution alternative ayant encore la capacité d’aller vers un état final. La transformation s'effectue en compensant certaines transitions et exécutant d’autres. Cette thèse présente une étude formelle du problème de recouvrement dans une composition de service Web basée protocole. Le problème de recouvrement consiste à trouver une meilleure exécution alternative parmi celles disponibles. Une meilleure alternative doit être atteignable à partir de l’exécution incomplète avec un nombre minimal de compensations visibles (vis-à-vis le client). Pour une exécution alternative donnée, nous prouvons que le problème de décision associé au calcul du nombre de transitions invisiblement compensées est NP-Complet. De ce fait, nous concluons que le problème de décision associé au recouvrement appartient à la classe ΣP2. / In a protocol-based Web service composition, a set of available component services collaborate together in order to provide a new composite service. Services export their protocols as finite state machines (FSMs). A transition in the FSM represents a task execution that makes the service moving to a next state. An execution of the composite corresponds to a sequence of transitions where each task is delegated to a component service. During composite run, one or more delegated components may become unavailable due to hard or soft problems on the Network. This unavailability may result in a failed execution of the composite. We provide in this thesis a formal study of the automatic recovery problem in the protocol-based Web service composition. Recovery consists in transforming the failed execution into a recovery execution. Such a transformation is performed by compensating some transitions and executing some others. The recovery execution is an alternative execution of the composite that still has the ability to reach a final state. The recovery problem consists then in finding the best recovery execution(s) among those available. The best recovery execution is attainable from the failed execution with a minimal number of visible compensations with respect to the client. For a given recovery execution, we prove that the decision problem associated with computing the number of invisibly-compensated transitions is NP-complete. Thus, we conclude that deciding of the best recovery execution is in ΣP2.

Page generated in 0.0963 seconds