• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 12
  • 7
  • Tagged with
  • 19
  • 19
  • 19
  • 19
  • 6
  • 6
  • 5
  • 4
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Approche algébrique pour la prévention d'intrusions

Lacasse, Alexandre. 11 April 2018 (has links)
Dans ce travail, nous définissons une nouvelle algèbre de processus basée sur CCS. Cette algèbre, qui est destinée à la sécurisation formelle de réseaux, est munie d'un opérateur de surveillance qui permet de contrôler les entrées et les sorties d'un processus, ou d'un sous-processus, à l'image d'un pare-feu dans un réseau informatique. L'algèbre permet donc de modéliser des réseaux munis de moniteurs, et également, n'importe quel système communicant devant être contrôlé par des moniteurs. Avant d'entrer dans le vif du sujet, nous débutons par une revue des approches globales en détection d'intrusions, soient l'approche comportementale et l'approche par scénarios. Nous parcourons par la suite différents langages formels destinés à la modélisation de systèmes communicants, en prêtant une attention particulière aux algèbres de processus.
12

Application of reinforcement learning algorithms to software verification

Moturu, Krishna Priya Darsini 12 April 2018 (has links)
Cette thèse présente une forme nouvelle de vérification de systèmes probabilistes en utilisant des algorithmes d’apprentissage par renforcement. Le développement de très grands et très complexes systèmes logiciels est souvent l’aboutissement d’un travail d’équipe. L’objectif est de satisfaire le client en lui livrant le produit spécifié, sans erreurs et à temps. Des erreurs humaines sont toujours faites lors du développement de tels systèmes, mais elles sont d’autant plus faciles à corriger si elles sont détectées tôt dans le processus de production. Pour ce faire, on a recours à des méthodes de vérification et de validation. Dans cette thèse, nous avons réussi à adapter des tech- niques d’apprentissage supervisé pour solutionner des problèmes de vérification de logi- ciels. Cette approche nouvelle peut-être utilisée, même si le modle complet n’est pas disponible, ce qui est une nouveauté en théorie de la vérification probabiliste. Dans cette thèse, nous ne nous intéressons pas seulement à vérifier si, oui ou non, un système se comporte exactement comme ses spécifications, mais aussi, à trouver, dans la négative, à quel point il s’en écarte. / This thesis presents a novel form of system verification through reinforcement learning algorithms. Large and complex software systems are often developed as a team effort. The aim of the development is to satisfy the customer by delivering the right product, with the right quality, and in time. Errors made by developers will always occur when a system is developed, but their effect can be reduced by removing them as early as possible. Software verification and validation are activities that are conducted to im- prove product quality. In this thesis we will adapt the techniques used in reinforcement learning to Software verification to verify if implemented system meets its specifica- tions. This new approach can be used even if the complete model of the system is not available, which is new in probabilistic verification. This thesis main aim is not only to answer the question whether the system behaves according to its specifications but also to find the degree of divergence between the system and its specifications.
13

Génération cartographique à la volée pour des terminaux mobiles de type PDA

Boulekrouche, Boubaker 11 April 2018 (has links)
Notre société est caractérisée par l'utilisation à grande échelle des équipements mobiles tels que téléphones cellulaires, assistants personnels et toutes autres sortes d'appareils embarqués. Avec l'évolution récente dans le domaine des réseaux sans fil et leur intégration à l'Internet, on assiste à une augmentation de la demande pour des services cartographiques accessibles par des appareils de plus en plus variés. Le but du présent travail est d'offrir un service permettant la production et la livraison des cartes sur le Web pour des terminaux mobiles de type PDA (Personal Digital Assistant). Cependant, la génération des cartes sur le Web pour des terminaux mobiles constitue un grand défi, non seulement le temps de génération de la carte doit être le plus court possible, mais il faut que la production de la carte s'adapte aux différentes contraintes de l'environnement mobile (caractéristiques techniques limitées des terminaux mobiles, faiblesse et instabilité de transfert de données, etc). Pour relever ce défi, nous avons opté pour une approche appelée «génération et transmission des cartes par couches d'intérêt », une approche basée sur l'utilisation d'une base de données à représentations multiples et un système multiagent pour la génération et l'adaptation de la carte finale en fonction des contraintes liées au contexte mobile. / Nowadays, the use of mobile devices such as cellular phones, personal assistants is increasing Worldwide. The recent advances in the field of the wireless networks and their integration with the Internet, results in the increased need for cartographic services accessible using mobile devices. The goal of this work is to offer a service allowing the production and the delivery of Web maps for PDA (Assisting Personal Digital). Furthermore, in order to generate maps on-the-fly for mobile devices, we must deal with several challenges. Indeed, in addition to processing time which must be short, we have to adapt the maps to the various constraints of the mobile environment (small amount of memory slow processor, display size, bandwidth, etc). In order to overcome these challenges, we chose an approach called " a progressive automatic map generation based on layers of interest ", this approach is based on the use of a multiple representation database and a multiagent System for the generation and the adaptation of maps according to the mobile context constraints.
14

Réutilisation d'entités nommées pour la réponse au courriel

Danet, Laurent 12 April 2018 (has links)
La réponse automatique aux courriels est une solution envisagée pour faciliter le travail de certains services d’entreprises, tels que les services à la clientèle ou les relations avec des investisseurs, services confrontés à un grand nombre de courriels souvent répétitifs. Nous avons décidé d’adapter une approche de raisonnement à base de cas (CBR - Case-Based Reasoning) pour confronter ce problème. Cette approche vise à réutiliser des messages antérieurs pour répondre à de nouveaux courriels, en sélectionnant une réponse adéquate parmi les messages archivés et en l’adaptant pour la rendre pertinent par rapport au contexte de la nouvelle requête. L’objectif de nos travaux est de définir une démarche pour aider l’usager d’un système de réponse au courriel à réutiliser les entités nommées de courriels antécédents. Cependant, les entités nommées nécessitent une adaptation avant d’être réutilisées. Pour ce faire, nous effectuons deux tâches qui sont d’abord l’identification des portions modifiables du message antécédent et ensuite la sélection des portions qui seront adaptées pour construire la réponse à la requête. Les deux tâches nécessitent l’utilisation de connaissances. Notre problématique consiste à déterminer si les approches adaptatives, basées sur des techniques d’apprentissage automatique permettent d’acquérir des connaissances pour réutiliser efficacement des entités nommées. La première tâche d’identification des portions modifiables s’apparente à l’extraction d’information. Toutefois nous nous intéressons uniquement aux entités nommées et à leurs spécialisations. La seconde tâche, la sélection de portions à adapter, correspond à une catégorisation de textes dans laquelle nous utilisons la requête pour attribuer une classe à la réponse que nous devons construire. La classe nous indique quelles entités doivent être adaptées. ii Nous avons étudiés et comparées différentes approches pour les deux tâches. Ainsi, nous avons testés pour l’extraction, les approches manuelle et automatiques, de haut en bas (top-down) et de bas vers le haut (bottom-up) sur un corpus de courriels. Les résultats obtenus par l’approche manuelle sont excellents. Toutefois nous observons une dégradation pour les approches automatiques. Pour la catégorisation, Nous avons évalué différentes représentations des textes et des mots, l’utilisation de poids pour ces derniers, et l’impact d’une compression obtenue par l’utilisation de règles d’association. Les résultats obtenus sont généralement satisfaisants et nous indique que notre approche, composée des deux tâches décrites précédemment, pourrait s’appliquer à notre problème de réponse automatique aux courriels. / An automatic e-mail response system is a solution for improving the operations of certain business services, like customers’ services or investor relations. Those services are dealing with a large volume requests coming through e-mail messages, most of them being repetitive. We have decided to explore a CBR approach (Case-Based Reasoning) for this problem. Such an approach makes use of antecedent messages to respond to new incoming e-mails. Requests coming from customers or investors are often redundant; we could select an adequate answer among the archived messages, and then adapt it to make it coherent with the actual context of the new message request. In this project, we address the re-use problem, but more specifically the identification of named entity and their specialized roles. These entities are portions of text strongly depend on the context of the antecedent message, and hence need some adaptation to be re-used. We divide the reuse process in two tasks which are: a) the identification of modifiable portions of an antecedent message; b) the selection of portions to be adapted to build the answer of the request. For first task, we make use of information extraction techniques. But we will concentrate our efforts uniquely on the extraction of named entities and their specializations. For second task we make use of text classification techniques to decide which portions are subject to adaptation. This decision is based on the context of the request, words which compose it. We used different approaches for the two tasks. We tested manual and automatics top-down and bottom-up extraction techniques on an e-mail corpus for the identification of iv modifiable portions extraction task. Manual approach gives us excellent results. But, we notice a degradation of performance for automatic extraction techniques. For the selection of portions to be adapted, we compared made use of association rules and various word representation. Association rules use permits to compress data without degrades results a lot. Globally, results are good and indicate that our approach, desrcibes before, could be applied to our problem.
15

Acceleration and semantic foundations of embedded Java platforms

Yahyaoui, Hamdi 11 April 2018 (has links)
Tableau d'honneur de la Faculté des études supérieures et postdoctorales, 2006-2007 / With the advent and the rising popularity of wireless Systems, there is a proliferation of small internet-enabled devices (e.g. PDAs, cell phones, pagers, etc.). In this context, Java is emerging as a standard execution environment due to its security, portability, mobility and network support features. In particular, J2ME/CLDC (Java 2 Micro Edition for Connected Limited Device Configuration) is now recognized as the standard Java platform in the domain of mobile wireless devices. An important factor that has amplified the wide industrial adoption of J2ME/CLDC is the broad range of Java based solutions that are available in the market. Ail these factors made Java and J2ME/CLDC an ideal solution for software development in the arena of embedded Systems. A successful deployment of Java on these devices relies on a fast and lightweight execution environment. Our research comes to provide a practical and a theoretical vision about possible solutions to design, implement and validate optimization techniques. More precisely, the research results that led to reach this objective are the following: 1. The design, implementation and evaluation of dynamic acceleration techniques: we have designed and implemented a dynamic selective compiler. This compiler speeds up the execution of embedded Java applications by a rate of 400%. Moreover, we have designed other acceleration techniques for the interpretation and the method call mechanisms. 2. The elaboration of a concurrent denotational semantic model that extends the resource pomsets semantics of Gastin and Mislove with unbounded non-determinism. This model is intended to be accommodated to JVML/CLDC (the bytecode language) and to be used for proving the correctness of the optimizations of JVML/CLDC programs. 3. A case study that shows how this semantic model can be embedded in the proof assistant Isabelle in order to validate optimizations of JVML/CLDC programs. / De nos jours, nous assistons à une croissance fulgurante des réseaux sans fil et des systèmes embarqués (cellulaires, assistants digitaux, etc.). Dans ce contexte, Java a connu une popularité grandissante comme étant un environnement d'exécution standard grâce à ses caractéristiques intrinsèques comme la sécurité, portabilité et mobilité. Plus précisément, J2ME/CLDC (Java 2 Micro Edition for Connected Limited Device Configuration) est devenue une plate-forme standard dans le domaine des systèmes embarqués. En effet, l'important déploiement des téléphones Java a permis une large adoption de cette plate-forme. Le succès de celle-ci nécessite l'existence d'un environnement qui permet une exécution rapide des applications Java. C'est dans ce cadre précis que s'inscrit notre recherche. Notre objectif primordial est de concevoir, implanter et fournir une base formelle pour valider des techniques d'accélération de Java pour les systèmes embarqués. Les principaux résultats ayant contribué à l'atteinte de cet objectif sont les suivants : 1. La conception, l'implantation et l'évaluation d'un compilateur léger et rapide pour l'accélération de l'exécution des applications Java dans les systèmes embarqués. Ce compilateur accélère la machine virtuelle embarquée KVM qui vient avec J2ME/CLDC par un facteur de 4. D'autres techniques d'accélération de l'interprétation et du mécanisme d'appel de méthodes ont été réalisées. 2. L'élaboration d'un modèle sémantique dénotationnel qui étend le modèle resource pomsets de Gastin et Mislove au non-déterminisme non borné. Ce modèle est conçu pour spécifier la sémantique du langage JVML/CLDC (langage bytecode) et aussi pour valider les optimisations de programmes JVML/CLDC. 3. Une étude de cas montrant comment ce modèle peut être embarqué dans l'assistant de preuves Isabelle pour des fins de validation semi-automatique des optimisations de programmes JVML/CLDC.
16

Oméga-Algèbre : théorie et application en vérification de programmes

Bolduc, Claude 12 April 2018 (has links)
Tableau d'honneur de la Faculté des études supérieures et postdoctorales, 2006-2007 / L’algèbre de Kleene est la théorie algébrique des automates finis et des expressions régulières. Récemment, Kozen a proposé un cadre de travail basé sur l’algèbre de Kleene avec tests (une variante de l’algèbre de Kleene) pour vérifier qu’un programme satisfait une politique de sécurité spécifiée par un automate de sécurité. Malheureusement, cette approche ne permet pas de vérifier des propriétés de vivacité pour les programmes réactifs (programmes qui s’exécutent à l’infini). Le but de ce mémoire est d’étendre la méthode de vérification de programmes proposée par Kozen pour enlever cette limitation. Pour y arriver, nous développons la théorie de l’oméga-algèbre (une extension de l’algèbre de Kleene qui prend en compte les exécutions infinies) qui constitue la majeure partie de ce mémoire. En particulier, nous présentons des résultats de complétude concernant la théorie de Horn de cette algèbre. / Kleene algebra is the algebraic theory of finite automata and regular expressions. Recently, Kozen has proposed a framework based on Kleene algebra with tests (a variant of Kleene algebra) for verifying that a program satisfies a security policy specified by a security automaton. Unfortunately, this approach does not allow to verify liveness properties for reactive programs (programs that execute forever). The goal of this thesis is to extend the framework proposed by Kozen for program verification to remove this limitation. For that, we develop the theory of omega algebra, an extension of Kleene algebra suitable for reasoning about nonterminating executions. The main part of this thesis is about omega algebra. In particular, we show some completeness results about the Horn theory of omega algebra.
17

A conceptual framework for semantic web-based ecommerce

Yang, Kun 11 April 2018 (has links)
Présentement, le commerce électronique est requis pour agir plus intelligemment et de façon autonome avec le minimum d'intervention humaine. Cette exigence demande à la communauté du Web de développer une infrastructure qui soutient un interfonctionnement au niveau sémantique. En attendant, le Web Sémantique, comme une recherche du Web futur, apporte une nouvelle occasion et une perspective au commerce électronique conventionnel. Le Web Sémantique est une recherche avancée promue par W3C, qui vise à améliorer de l'état du World Wide Web par les techniques sémantiques. Dans ce mémoire, nous proposons une plateforme conceptuelle pour le commerce électronique basée sur les technologies du Web Sémantique, dans laquelle une Machine Virtuelle Sémantique est ajoutée. Par ailleurs, nous suggérons un workflow corrélatif en faisant une recherche des techniques liées à ce dernier. Finalement, un outil pratique de recommandation de carte de crédit est construit sur la plateforme conçue. Par cet outil l'admission traditionnelle de la lecture de document et d'interaction humaine est remplacée par la suggestion intelligente de la machine qui augmente significativement la qualité des services et la satisfaction des utilisateurs. / Nowadays, eCommerce is asked to act more intelligently and autonomously with a minimal human intervention. This requirement challenges the Web community to develop an infrastructure that supports a semantic level interoperability. Meanwhile, the Semantic Web, as an investigation of the next generation Web, brings a new opportunity and perspective to eCommerce. The Semantic Web is a W3C driven major development aiming at improving the state of the World Wide Web through semantic technologies. In this thesis, towards the study of the Semantic Web applied to eCommerce, we propose a conceptual framework for the Semantic Web-based eCommerce, in which a Semantic Virtual Machine is added. Besides, we suggest a correlative workflow and make an investigation of the key technologies related with this workflow. Finally, a practical credit card recommendation tool is built on the framework. Through this tool, the traditional document-reading and human-interactive admission is replaced by the smart machine suggestion, which significantly enhances the services' quality and users' satisfaction.
18

Developping 2D and 3D multiagent geosimulation, a method and its application : the case of shopping behavior geosimulation in Square One Mall (Toronto)

Ali, Walid 12 April 2018 (has links)
Dans cette thèse, nous proposons une méthode générique de développement d‘applications de géosimulation, en 2D et 3D, de divers phénomènes ou comportements complexes (exp. comportements humains) dans des environnements géographiques. Notre travail vise à résoudre quelques problèmes dans le domaine de la simulation informatique et, plus particulièrement, dans le domaine de la simulation multiagent. Les principaux problèmes que nous visons à résoudre dans cette thèse sont: - Absence de méthodes génériques de développement de simulations multiagent de phénomènes ou comportements dans des environnements géographiques. - Manque de techniques de collecte et d’analyse des données spatiales et non-spatiales : (1) données en entrée de la géosimulation multiagent (qui sont utilisées pour alimenter la simulation) ou (2) données en sortie de la géosimulation (qui sont générées par cette simulation). - Absence d’un prototype de géosimulation qui peut être, à la fois, ‘réaliste’ et ‘utile’ pour simuler le comportement du magasinage des êtres humains dans un environnement georéférencé représentant un centre commercial. L’idée principale de notre thèse consiste en: (1) la création d’une méthode générique de développement de géosimulations multiagents, en 2D et 3D, des phénomènes complexes (impliquant par exemple des êtres humains) dans des environnements géographiques et (2) l’application de cette méthode en utilisant le comportement de magasinage dans un centre commercial comme cas d’illustration. Cette méthode contient dix étapes qui sont résumées comme suit : Les trois premières étapes ont pour objectifs de (1) définir les besoins des utilisateurs finaux de la géosimulation, (2) d’identifier les caractéristiques du phénomène à simuler ainsi que celles de son environnement, et (3) de créer un modèle à base d’agents représentent le phénomène à simuler ainsi que son environnement. La quatrième étape vise à sélectionner l’outil de simulation qui va être utilisé pour exécuter les modèles de simulation. Dans la cinquième étape, nous collectons les données spatiales et non-spatiales qui doivent servir à alimenter les modèles de géosimulation. Dans cette étape nous effectuons quelques analyses des données collectées afin de déterminer quelques patrons de comportement du phénomène à simuler. Dans la sixième étape, nous développons le prototype de géosimulation en exécutant les modèles de géosimulation dans la plateforme sélectionnée tout en utilisant les données qui ont été collectées et analysées. Dans la septième étape, nous utilisons une autre fois la technologie multiagent afin de collecter des données spatiales et non-spatiales en sortie de la géosimulation. Ces données contiennent des informations pertinentes concernant le déroulement de la géosimulation. Dans cette étape nous utilisons diverses techniques d’analyse de données spatiales et non-spatiales afin d’analyser ces données. Dans l’illustration de notre méthode nous avons proposé l’utilisation de techniques d’analyse suivantes: techniques/outils statistiques et mathématiques traditionnelles (ou classiques), notre propre technique/outil et d’analyse des données spatiales et non-spatiales, les techniques d’analyse OLAP (On Line Analytical Processing) et SOLAP (Spatial On Line Analytical Processing). Afin d’assurer la fiabilité des modèles de simulation, nous proposons dans notre méthode une huitième étape qui vise à vérifier et valider les modèles de géosimulation. Dans la neuvième étape, nous testons et nous documentons le prototype de géosimulation. Finalement, dans la dixième étape, les utilisateurs finaux peuvent utiliser la géosimulation multiagent comme outil d’aide à la décision. Ces décisions peuvent concerner le phénomène à simuler ou la configuration spatiale de son environnement. Les principales contributions de cette thèse sont : - Une nouvelle méthode de développement d’applications de géosimulation multiagent, en 2D et 3D, des phénomènes complexes (tels que ceux qui impliquent des comportements humains) dans des environnements géographiques. - Quelques modèles représentant le comportement du magasinage dans un centre commercial qui se basent sur une recherche bibliographique solide dans divers domaines de recherche: Une version intégrée du modèle du comportement du magasinage dans un centre commercial, Deux versions du modèle multiagent du comportement du magasinage (la première est indépendante de la plate-forme qui va être utilisée pour exécuter la simulation et la deuxième est dépendante). - Une application de la méthode proposée en utilisant le comportement du magasinage dans un centre commercial comme cas d’illustration. Le cas de test qui a servi pour développer le prototype de simulation est le centre commercial Square One (Toronto). Ce prototype ‘réaliste’ et ‘utile’ est intitulé Mall_MAGS. - Une technique à base de questionnaire pour collecter des données spatiales et non-spatiales qui servent à alimenter des géosimulations. - Un outil qui permet de saisir, simultanément, des données spatiales et non-spatiales qui vont alimenter des géosimulations. - Une technique à base d’agents qui sert à collecter des donnees spatiales et non-spatiales en provenance de la géosimulation en utilisant le paradigme d’agents, ainsi qu’un outil d’analyse de ces données. - Un couplage des techniques d’analyse et d’exploration de données OLAP (On Line Analytical Processing)/SOLAP (Spatial On Line Analytical Processing) et de notre prototype de géosimulation du comportement du magasinage des êtres humains dans un centre commercial. Ce couplage sert à analyser et à explorer les données générées par ce prototype. / In this thesis, we propose a generic method to develop 2D and 3D multiagent geosimulation of complex behaviors (human behaviors) in geographic environments. Our work aims at solving some problems in the field of computer simulation in general and the field of multiagent simulation. These problems are are: - The absence of methods to develop 2D-3D multiagent simulation of phenomena in geographic environments. - The absence of gathering and analysis techniques that can be used to collect and analyze spatial and non-spatial data to feed the geosimulation models (input data) and to analyze data generated by geosimulations (output data). - The absence of a ‘realistic’ and ‘useful’ geosimulation prototype of customer’s shopping behavior in a mall. The main idea of our work is to create a generic method to develop 2D and 3D multiagent geosimulations of phenomena in geographic environments. This method contains ten steps, which are summarized as follows: The first three steps of the method aim to (1) define the geosimulation users’ needs, (2) identify the characteristics of the phenomenon to be simulated, as well as its environment, and (3) create the geosimulation models using the multiagent paradigm. The fourth step aims to select the simulation tool/environment/language that is used to develop the geosimulation. In step five, we collect the data which feeds the geosimulation models. In this step, we analyze the collected information in order to define some patterns of the behaviors of the phenomenon to be simulated. In the sixth step, we develop the geosimulation prototype, on the selected simulation platform, using the collected data. In step seven, we collect information about the course of the simulation, once again using the multiagent paradigm. In this step, we deal with the non-spatial and spatial data, generated by the simulation using several analysis techniques: Classical or traditional analysis techniques, our own analysis technique/tool, and the OLAP (On Line Analytical Processing) and SOLAP (Spatial On Line Analytical Processing) technique. In order to ensure the correctness of the simulation models, as well as to enhance the confidence of the simulation users, we need to verify and validate the simulation models. The verification and validation are the purpose of the eighth step of our method. In the ninth step, we test and document the simulation, while in the last step users can use the multiagent geosimulator in order to make efficient spatial decisions about the phenomenon to be simulated or about the configuration of the simulated environment. The main contributions of this thesis are: - A new method to develop 2D-3D multiagent geosimulations of complex behaviors (human behaviors) in geographic environments. - Some models dealing with the shopping behavior in a mall: an initial version of the shopping behavior model based upon a large literature review, an initial version of the multiagent model which is independent of the tool used to execute the simulation, and an agent-based model created according to the selected platform used to develop the geosimulation. All these models are related to the individual shoppers and to the simulated environment representing the mall. - An illustration of the method using the shopping behavior in a mall as a case study and the Square One mall in Toronto as a case test. This gave birth to a ‘realistic’ and ‘useful’ geosimulation prototype called Mall_MAGS. - A new survey-based technique to gather spatial and non-spatial data to feed the geosimulation models. - A tool to digitalize the spatial and non-spatial gathered data. - A new agent-based technique to collect output data from the geosimulation prototype. - A new analysis technique and tool to analyze spatial and non-spatial data generated by the geosimulation. - A coupling of the OLAP (On Line Analytical Processing) and SOLAP (Spatial On Line Analytical Processing) analysis techniques with the shopping behavior geosimulation prototype in order to explore and analyze the geosimulation outputs.
19

Quelle méthode adopter pour modéliser les processus métier de l'administration?

Saadi, Ali 11 April 2018 (has links)
Face à l'évolution incessante des systèmes d'informations et de leur complexité croissante, l'enjeu, sans nul doute le plus important dans les années à venir, est de construire le « parfait » système d'informations ou du moins maintenir un système d'informations cohérent, compréhensible, non impossible à gérer et au sein duquel les labyrinthes ne conduisent pas à des impasses ou nulle part. Longtemps cantonnées dans une vision purement informatique, les organisations ne peuvent se passer d'une approche qui englobe aussi bien le monde des métiers que celui de l'informatique. Adopter une vision par processus métier, au lieu de celle par projet, par application ou par besoin isolé, contribuera certainement à instaurer un langage commun à travers lequel les responsables métiers et les techniciens de l'information communiquent et font correspondre leurs perceptions globales de la réalité opérationnelle de l'entreprise et ses conséquences sur les visions organisationnelle et informationnelle dont ils ont respectivement la charge. Cependant, la prolifération des méthodes et des outils de modélisation et leur complexité ne facilitent guère cette unification des vues. Dans ce travail, nous nous sommes intéressés aux processus métier et à leur modélisation. Le but de cette étude est de présenter un échantillon des méthodes et des outils disponibles sur le marché et traitant de la modélisation des processus métier, et de s'en inspirer afin de proposer les principes d'une nouvelle méthode qui soit simple, facile à utiliser et surtout applicable dans son intégralité. Cet objectif de simplicité, de facilité et d'intégralité émane principalement du constat que les méthodes actuelles sont trop complexes pour l'usager, soit par le langage utilisé, souvent sophistiqué ou trop technique, soit par leur recherche d'universalité (être applicables à tous les cas et à toutes les organisations). Ensuite, nous avons appliqué la méthode, proposée, à un cas réel afin de nous permettre de détecter les points forts, les points faibles ainsi que la perception des acteurs qui ont participé à l'application de la méthode. Un bilan sur les apports de la méthode proposée ainsi que ses limites et ses perspectives est fourni en conclusion.

Page generated in 0.0285 seconds