• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 10
  • 6
  • 1
  • Tagged with
  • 17
  • 17
  • 13
  • 11
  • 7
  • 5
  • 5
  • 5
  • 5
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

De l'intégration de données à la composition de services Web

Perrin, Olivier 23 June 2010 (has links) (PDF)
Il est désormais devenu naturel pour les entreprises de faire coexister des systèmes d'informations, des services ou des processus différents étant donné que celles-ci passent d'architectures centralisées à des architectures distribuées en vue de mener à bien des projets communs. Dans ce contexte, l'interopérabilité, c'est-à-dire la capacité qu'ont deux ou plusieurs composants (applications, sources de données, services mais aussi processus métier) de communiquer et de coopérer en dépit des différences (l'hétérogénéité) dues au langage d'implantation, à l'environnement d'exécution (applicatif métier) ou au modèle d'abstraction choisi (niveau d'abstraction choisi pour représenter une information), est devenue de plus en plus importante. Dans mes travaux, je me suis intéressé à différents problèmes autour de l'interopérabilité, en étudiant respectivement les problèmes liés à l'intégration de données afin de prendre compte l'hétérogénéité au niveau données, les problèmes liés à la distribution et à l'autonomie des processus interentreprises, et enfin les problèmes liés la fiabilité des compositions de services dans les architectures orientées services. Ce sont ces dimensions que je présente dans ce document, ainsi que quelques perspectives.
2

Composition comportementale dans les Architectures Orientées Services

Mosser, Sébastien 27 October 2010 (has links) (PDF)
Les Architectures Orientées Services permettent la définition d'applications complexes par assemblage de service existants, par exemple sous la forme d'«orchestrations» implémentant des processus métiers. La complexité de ces assemblages impose l'utilisation de techniques telle que la Séparation des Préoccupations pour en maitriser la difficulté. Dans cette thèse, nous présentons ADORE, un métamodèle d'activité permettant l'évolution des orchestrations. Il permet d'exprimer dans le même formalisme des “orchestrations” et des “fragments d'orchestrations”. Nous proposons alors différents algorithmes de compositions permettant l'intégration automatique de ces fragments dans des processus existants. Ces algorithmes définissent des propriétés de compositions (e.g., préservation des relations d'ordre), et assurent leur respect dans les processus composés. Ils assurent que les résultats de composition obtenus ne dépendent pas de l'ordre d'application. ADORE permet la définition de règles de détection d'interférences, sous la forme de prédicats. Le logiciel développé propose ainsi un support, en identifiant les interférences apparaissant lors des compositions. Nous illustrons cette contribution au travers de 2 études de cas: (i) JSEDUITE, une application de diffusion d'information utilisée en production et (ii) CCCMS, une application de gestion de crise implémentée dans le cadre d'une réponse à une étude de cas commune. Pour conclure, nous mettons en perspectives de récentes collaborations visant l'intégration d'ADORE au sein d'un processus de développement logiciel complet, allant des l'ingénierie des besoins à la visualisation efficace des processus composés.
3

Business Process Models Quality : evaluation and improvement / La qualité des processus métier : évaluation et amélioration

Ayad, Sarah 18 December 2013 (has links)
La problématique scientifique abordée correspond à la modélisation et à l'amélioration des processus métiers. Ce problème est d'un intérêt croissant pour les entreprises qui prennent conscience de l'impact indéniable que peuvent avoir une meilleure compréhension et une meilleure gestion des processus métiers (PM) sur l'efficacité, la cohérence et la transparence de leurs activités. Le travail envisagé dans le cadre de la thèse vise à proposer une méthode et un outil pour mesurer et améliorer la qualité des modèles de processus métier. L’originalité de l’approche est qu’elle vise non seulement la qualité syntaxique mais aussi la qualité sémantique et pragmatique en s’appuyant notamment sur les connaissances du domaine. / In recent years the problems related to modeling and improving business processes have been of growing interest. Indeed, companies are realizing the undeniable impact of a better understanding and management of business processes (BP) on the effectiveness, consistency, and transparency of their business operations. BP modeling aims at a better understanding of processes, allowing deciders to achieve strategic goals of the company. However, inexperienced systems analysts often lack domain knowledge leading and this affects the quality of models they produce.Our approach targets the problem related to business process modeling quality by proposing an approach encompassing methods and tools for business process (BP) models quality measurement and improvement. We propose to support this modeling effort with an approach that uses domain knowledge to improve the semantic quality of BP models.The main contribution of this thesis is fourfold:1. Exploiting the IS domain knowledge: A business process metamodel is identified.Semantics are added to the metamodel by the mean of OCL constraints.2. Exploiting the application domain knowledge. It relies on domain ontologies. Alignment between the concepts of both metamodels is defined and illustrated.3. Designing of the guided quality process encompassing methods and techniques to evaluate and improve the business process models. Our process propose many quality constraints and metrics in order to evaluat the quality of the models and finally the process propose relevant recommendations for improvement.4. Development of a software prototype “BPM-Quality”. Our prototype implements all theabove mentioned artifacts and proposes a workflow enabling its users to evaluate andimprove CMs efficiently and effectively.We conducted a survey to validate the selection of the quality constraints through a first experience and also conducted a second experiment to evaluate the efficacy and efficiency of our overall approach and proposed improvements.
4

Risk-aware Business Process Modelling and Trusted Deployment in the Cloud / Modélisation de processus métiers sensibilisés aux risques et déploiement en confiance dans le cloud

Goettelmann, Elio 21 October 2015 (has links)
L’essor du Cloud Computing, permettant de partager les coûts et les ressources au travers de la virtualisation, présage une interconnexion dynamique et flexible entre entreprises et fournisseurs. Cependant, cette mise en commun de ressources, données et savoir-faire implique de nouvelles exigences en termes de sécurité. En effet, le manque de confiance dans les structures du Cloud est souvent vu comme un frein au développement de tels services. L’objectif de cette thèse est d’étudier les concepts d’orchestration de services, de confiance et de gestion des risques dans le contexte du Cloud. La contribution principale est un framework permettant de déployer des processus métiers dans un environnement Cloud, en limitant les risques de sécurité liés à ce contexte. La contribution peut être séparée en trois partie distinctes qui prennent la forme d'une méthode, d'un modèle et d'un framework. La méthode catégorise des techniques pour transformer un processus métier existant en un modèle sensibilisé (ou averti) qui prend en compte les risques de sécurité spécifiques aux environnements Cloud. Le modèle formalise les relations et les responsabilités entre les différents acteurs du Cloud. Ce qui permet d'identifier les différentes informations requises pour évaluer et quantifier les risques de sécurité des environnements Cloud. Le framework est une approche complète de décomposition de processus en fragments qui peuvent être automatiquement déployés sur plusieurs Clouds. Ce framework intègre également un algorithme de sélection qui combine les information de sécurité avec d'autres critère de qualité de service pour générer des configuration optimisées. Finalement, les travaux sont implémentés pour démontrer la validité de l'approche. Le framework est implémenté dans un outil. Le modèle d'évaluation des risques de sécurité Cloud est également appliqué dans un contexte de contrôle d'accès. La dernière partie présente les résultats de l'implémentation de nos travaux sur un cas d'utilisation réel. / Nowadays service ecosystems rely on dynamic software service chains that span over multiple organisations and providers. They provide an agile support for business applications, governments of end-users. This trend is reinforced by the Cloud based economy that allows sharing of costs and resources. However, the lack of trust in such cloud environments, that involve higher security requirements, is often seen as a braking force to the development of such services. The objective of this thesis is to study the concepts of service orchestration and trust in the context of the Cloud. It proposes an approach which supports a trust model in order to allow the orchestration of trusted business process components on the cloud. The contribution is threefold and consists in a method, a model and a framework. The method categorizes techniques to transform an existing business process into a risk-aware process model that takes into account security risks related to cloud environments. The model formalizes the relations and the responsibilities between the different actors of the cloud. This allows to identify the different information required to assess and quantify security risks in cloud environments. The framework is a comprehensive approach that decomposes a business process into fragments that can automatically be deployed on multiple clouds. The framework also integrates a selection algorithm that combines security information with other quality of service criteria to generate an optimized configuration. Finally, the work is implemented in order to validate the approach. The framework is implemented in a tool. The security assessment model is also applied over an access control model. The last part presents the results of the implementation of our work on a real world use case.
5

Contributions au déploiement sécurisé de processus métiers dans le cloud / Contribution to the secure deployment of business processes in the cloud

Ahmed Nacer, Amina 26 February 2019 (has links)
L’évolution et l’accroissement actuels des technologies amènent les entreprises à vouloir se développer plus rapidement afin de rester compétitives et offrir des services à la pointe de la technologie, répondant aux besoins du marché. En effet, les entreprises étant sujettes à des changements assez fréquents requièrent un haut niveau de flexibilité et d’agilité. La gestion des processus métiers (BPM) leur permet dans ce sens de mieux appréhender et gérer leurs processus. Par ailleurs, l’apparition du Cloud Computing et de tous ses bénéfices (flexibilité et partage, coût optimisé, accessibilité garantie...etc) le rendent particulièrement attrayant. Ainsi, l’association de ces deux concepts permet aux entreprises de renflouer leur capital. Cependant, l’utilisation du cloud implique également de nouvelles exigences en terme de sécurité, qui découlent de son environnement partagé, et qui mettent un frein à sa large adoption. Le travail de cette thèse consiste à proposer des concepts et outils pour aider et guider les entreprises dans le déploiement de leurs processus dans un environnement cloud en toute sécurité. Une première contribution est un algorithme d’obfuscation permettant d’automatiser la décomposition et le déploiement des processus sans intervention humaine, en se basant sur la nature des fragments. Cet algorithme limite le taux d’informations sur chaque cloud à travers un ensemble de contraintes de séparation, permettant de déployer les fragments considérés comme étant sensibles sur différents clouds. La seconde contribution de cette thèse consiste à complexifier la structure du processus afin de limiter le risque de coalition de clouds. Ceci se fait à travers l’introduction de faux fragments à certains endroits stratégiques du processus. L’objectif étant de rendre les collaborations générées plus résistantes aux attaques, et par conséquent de réduire la probabilité de coalition. Même si les opérations d’obfuscation et de complexification protègent le savoir-faire des entreprises lors d’un déploiement cloud, un risque subsiste toujours. Dans ce contexte, cette thèse propose également un modèle de risque permettant d’évaluer et de quantifier les risques de sécurité auxquels restent exposés les processus après déploiement. L’objectif de ce modèle est de combiner les informations de sécurité avec d’autres dimensions de la qualité de service tel que le coût, pour la sélection de configurations optimisées. Les approches proposées sont implémentées et testées à travers différentes configurations de processus. Leur validité est vérifiée à travers un ensemble de métriques dont l’objectif est de mesurer la complexité des processus après l’opération d’obfuscation ainsi que le niveau de risque subsistant / The fast evolution and development of technologies lead companies to grow faster in order to remain competitive and to offer services which are at the cutting edge of technology, meeting today’s market needs. Indeed, companies that are subject to frequent changes require a high level of flexibility and agility. Business Process Management (BPM) allows them to better manage their processes. Moreover, the emergence of Cloud Computing and all its advantages (flexibility and sharing, optimized cost, guaranteed accessibility... etc) make it particularly attractive. Thus, the combination of these two concepts allows companies to refloat their capital. However, the use of the cloud also implies new requirements in term of security, which stem from its shared environment, and which slow down its widespread adoption. The objective of this thesis consists in proposing concepts and tools that help and guide companies to deploy safely their processes in a cloud environment. A first contribution is an obfuscation algorithm that automates the decomposition and deployment of processes without any human intervention, based on the nature of the fragments. This algorithm limits the rate of information on each cloud through a set of separation constraints, which allow to deploy fragments considered as sensitive on different clouds. The second contribution of this thesis consists in complicating the structure of the process in order to limit the risk of clouds coalition. This is done through the introduction of fake fragments at certain strategic points in the process. The goal is to make generated collaborations more resistant to attacks, and thus reducing the likelihood of coalition. Even if obfuscation and complexification operations protect companies’ know-how during a cloud deployment, a risk remains. In this context, this thesis also proposes a risk model for evaluating and quantifying the security risks to which the process remain exposed after deployment. The purpose of this model is to combine security information with other dimensions of quality of service such as cost, for the selection of optimized configurations. The proposed approaches are implemented and tested through different process configurations. Their validity is verified through a set of metrics, whose objective is to measure the complexity of the processes as well as the remaining risk level after obfuscation
6

Du déploiement d’un système PLM vers une intégration des connaissances / From a deployment of a PLM system to the integration of knowledge

Bissay, Aurélie 12 January 2010 (has links)
Les systèmes PLM (Product Lifecycle Management) permettent une traçabilité de l'information et facilitent la réduction du cycle de développement des produits. Ils ont vocation à fédérer l'ensemble des données techniques nécessaires à l'élaboration de nouveaux produits et contribuent aussi à l'amélioration des processus de l'entreprise.Nos travaux de thèse proposent une méthodologie globale de déploiement d'un système PLM qui intègre la dimension spécifique de la capitalisation des connaissances. A partir d'une formalisation des processus métier, des éléments de connaissance sont extraits et permettent d'enrichir le modèle de données. Ce modèle s'articule autour de deux axes: un axe "information" et un axe "connaissance". Chaque axe est composé de quatre étapes : identifier, modéliser, utiliser et évaluer. L'étape d'identification permet de définir le modèle de données du système et de repérer les activités nécessitant des connaissances métier particulières. La phase de modélisation consiste à paramétrer le système pour intégrer le modèle défini dans le PLM mais également formaliser les connaissances tacites extraites. l'utilisateur intervient ensuite dans le cadre de l'utilisation du système paramétré. Enfin, nous proposons d'évaluer le système d'un point de vue de la modélisation Produit, Process, Organisation mais également d'un point de vue des connaissances générées au sein du système.L'étude de cas d'un processus d'appel d'offre de l'entreprise Marmillon SAS, sous-traitant de rang 2 dans le secteur de la plasturgie et spécialiste des processus d'injection et d'extrusion pour des pièces du secteur automobile, a permis de valider notre démarche. / PLM (Product Lifecycle Management) Systems allow traceability of information and facilitate the reduction of products development cycle. Besides the aspect related to information management, they aim at bringing together all technical data needed to develop new products and also they contribute to improve business processes. Our PhD work define a methodology of PLM system deployment that incorporates the knowledge capitalization dimension. Based on a business processes formalization, elements of knowledge are extracted and used to enrich the data model. This model revolves around two axes: an "information" axis and a "knowledge"axis. Each axis is devided into four steps: identify, model, use and evaluate. The identification stage is to define the data model of the system and activities requiring specific business knowledge. The modeling phase is to configure the system to integrate the defined model in the PLM system but also to formalize extracted tacit knowledge. Then comes the user through the use of the system. Finally, we propose to evaluate the system from product, process and organization modeling but also from generated knowledge within the system. The case study of a process of bidding for the Marmillon SAS company which is a subcontractor in the field of plastics, specialist of injection and extrusion processes for automotive parts allow to validate our approach.
7

Une approche agile, fiable et minimale pour le maintien de la qualité de service lors de l'évolution d'applications à base de processus métiers

Feugas, Alexandre 08 October 2014 (has links) (PDF)
Les logiciels actuels adoptent une méthodologie de développement dite "agile" pour mieux prendre en compte la nécessité de s'adapter constamment aux nouveaux besoins des utilisateurs. Les concepteurs et développeurs se rapprochent alors des futurs utilisateurs du logiciel en proposant des cycles courts d'itération, où le futur utilisateur fait un retour rapide sur l'incrément apporté au logiciel, et fait part de nouveaux besoins à prendre en compte dans les incréments à venir. Ces itérations peuvent être vues comme des évolutions, faisant suite à la définition d'un nouveau besoin de l'utilisateur, à un changement de l'en- vironnement d'exécution, ou encore à une remise en question de l'architecture du logiciel. Dans l'écosystème des architectures orientées services, la conception d'applications passe par la chorégraphie ou l'orchestration de services par des processus métiers. Concevoir ces applications consiste alors à mettre en relation les flots de contrôle et de données de ces services. La phase d'évolution devient une phase complexe, où une simple modification lo- calisée à une sous-partie d'un processus métier peut avoir des conséquences sur l'ensemble du système logiciel, causant par exemple son ralentissement lors de l'exécution. Du point de vue de la qualité de service (QoS), la maîtrise de la fiabilité du processus d'évolution pour maintenir la qualité de service d'un logiciel est alors critique. Il est donc nécessaire de pouvoir proposer des mécanismes d'évolution agiles et fiables permettant le maintien de la QoS lors de l'évolution d'applications à base de processus métiers. En d'autres termes, il s'agit de s'assurer qu'une évolution ne viole pas les contrats de QoS définis initialement. Cette garantie doit être établie en fonction du contrat soit lors de la conception soit lors de l'exécution. Dans ce dernier cas, le processus de vérification doit être minimal et localisé, afin de ne pas dégrader les performances du système logiciel. Pour cela, nous proposons de mettre en œuvre un cycle de développement agile, centré sur le maintien de la QoS lors de l'évolution. Il s'agit de prendre l'aspect évolutif du système, ceci dès l'étape de conception initiale, en identifiant les informations requises pour déter- miner si la QoS est correcte et si elle est non violée par une évolution. Ces informations étant détenues par plusieurs intervenants, il est également nécessaire d'établir les points d'interaction au cours du cycle de développement, au cours desquels les informations seront partagées de façon à ce que le logiciel qui en est issu reste syntaxiquement et sémantique- ment cohérent et que les contrats de QoS soient (re)vérifiés a minima. Les contributions de cette thèse sont donc mises en œuvre dans Blink, un cycle de développement pour l'évolu- tion, et Smile, un canevas de développement pour le maintien de la qualité de service lors de l'évolution d'applications orientées service définies à base de processus métiers. Tandis que le cycle de développement Blink vise à identifier les différents rôles présents dans l'équipe de développement et à expliciter leurs interactions, le canevas Smile propose la réalisation d'une boucle d'évolution. Cette boucle permet de concevoir, d'analyser et d'appliquer une évolution, en détectant les potentielles violations de contrat de QoS. Pour cela, l'analyse de l'évolution détermine son effet sur la QoS du logiciel, en établissant des relations de causalité entre les différentes variables, opérations, services et autres parties du système. Ainsi, en identifiant les éléments causalement affectés par l'évolution et en écartant ceux qui ne le sont pas, notre approche permet de limiter le nombre d'éléments à (re)vérifier, garantissant ainsi une étape d'évolution fiable, avec une étape de (re)vérification minimale. Nous montrons sur un cas concret de système de gestion de crises, constitué de onze processus métiers et de dix scénarios, que l'utilisation conjointe de Blink et de Smile permet d'identifier, pour chaque évolution, quel sera son effet sur le reste du système, et si la qualité de service sera maintenue ou non.
8

Méthodologie pour la dérivation comportementale de produits dans une ligne de produit logicielle

Istoan, Paul 21 February 2013 (has links) (PDF)
Méthodologie pour la dérivation comportementale de produits dans une ligne de produit logicielle
9

Graph-based Ad Hoc Networks Topologies and Business Process Matching / Graphes pour les Topologies des réseaux Ad Hoc et les modèles de processus métiers

Belhoul, Yacine 07 November 2013 (has links)
Un réseau mobile ad hoc (Mobile Ad hoc Network, MANET) est un réseau sans fil, formé dynamiquement par un ensemble d'utilisateurs équipés de terminaux mobiles, sans l'utilisation d'une infrastructure préexistante, ou d'une administration centralisée. Les équipements utilisés dans les MANETs sont limités par la capacité de la batterie, la puissance de calcul et la bande passante. Les utilisateurs des MANETs sont libres de se déplacer, ce qui induit à des topologies dynamiques dans le temps. Toutes ces contraintes ajoutent plus de challenges aux protocoles et services de communications afin de fonctionner dans les MANETs. L'évolution des réseaux de 4ème génération (4G) est appelée à intégrer les MANETs avec les autres types de réseaux afin d'étendre leurs portées. Nous nous sommes intéressés dans la première partie de cette thèse à quelques challenges connus dans les MANETs en proposant des solutions novatrices utilisant des propriétés intéressantes des topologies de graphes. Dans un premier temps, nous avons effectué une étude sur la prédiction de la mobilité afin de maintenir une topologie d'ensemble dominant connecté dans les MANETs. Nous avons proposé dans un autre travail comment construire des topologies de graphes ayant des propriétés globales en se basant seulement sur des informations locales des nœuds mobiles. Ces topologies servent comme overlay aux MANETs. Nous avons proposé des algorithmes distribués pour construire des alliances offensives et défensives globales minimales. Nous avons aussi défini des heuristiques pour ces algorithmes afin de réduire les tailles des alliances obtenues. La première partie de cette thèse est achevée par la proposition d'un framework pour la conception et l'analyse des protocoles de contrôle de topologie dans les MANETs. Nous avons identifié les points communs des algorithmes de contrôle de topologie conçus pour les réseaux mobiles ad hoc et nous avons enrichi le simulateur NS-2 avec un ensemble d'extensions pour supporter le contrôle de topologie / We are interested in this thesis to graph-based approaches to deal with some challenges in networking, namely, graph topologies of mobile ad hoc networks (MANETs) and process model matchmaking in large scale web service. We propose in the first part: (1) a generic mechanism using mobility information of nodes to maintain a graph topology of the network. We show particularly, how to use the prediction of future emplacements of nodes to maintain a connected dominating set of a given MANET. (2) distributed algorithms to construct minimal global offensive alliance and global defensive alliance sets in MANETs. We also introduce several heuristics to get a better approximation of the cardinality of the alliance sets which is a desirable property for practical considerations. (3) a framework to facilitate the design and evaluation of topology control protocols in MANETs. We propose in the framework, a common schema for topology control based on NS-2 simulator and inspired from the commonalities between the components of the topology control algorithms in MANETs. In the second part, we focus on process model matchmaking. We propose two graph-based solutions for process model inexact matching to deal with high computational time of existing work in the literature. In the first solution, we decompose the process models into their possible execution sequences. After, we propose generic graph techniques using string comparator metrics for process model matchmaking based on this decomposition. In order to get better optimization of the execution time and to deal with process model matching in large scale web services, the second solution combines a spectral graph matching with structural and semantic proposed approaches. This solution uses an eigen-decomposition projection technique that makes the runtime faster
10

Using MapReduce to scale event correlation discovery for process mining / Utilisation de MapReduce pour le passage à l'échelle de la corrélation des événements métiers dans le contexte de fouilles de processus

Reguieg, Hicham 19 February 2014 (has links)
Le volume des données relatives à l'exécution des processus métiers augmente de manière significative dans l'entreprise. Beaucoup de sources de données comprennent les événements liés à l'exécution des mêmes processus dans différents systèmes ou applications. La corrélation des événements est la tâche de l'analyse d'un référentiel de journaux d'événements afin de trouver l'ensemble des événements qui appartiennent à la même trace d'exécution du processus métier. Il s'agit d'une étape clé dans la découverte des processus à partir de journaux d'événements d'exécution. La corrélation des événements est une tâche de calcul intensif dans le sens où elle nécessite une analyse approfondie des relations entre les événements dans des dépôts très grande et qui évolue de plus en plus, et l'exploration de différentes relations possibles entre ces événements. Dans cette thèse, nous présentons une technique d'analyse de données évolutives pour soutenir d'une manière efficace la corrélation des événements pour les fouilles des processus métiers. Nous proposons une approche en deux étapes pour calculer les conditions de corrélation et héritier entraîné des instances de processus de journaux d'événements en utilisant la plateforme MapReduce. Les résultats expérimentaux montrent que l'algorithme s'adapte parfaitement à de grands ensembles de données. / The volume of data related to business process execution is increasing significantly in the enterprise. Many of data sources include events related to the execution of the same processes in various systems or applications. Event correlation is the task of analyzing a repository of event logs in order to find out the set of events that belong to the same business process execution instance. This is a key step in the discovery of business processes from event execution logs. Event correlation is a computationally-intensive task in the sense that it requires a deep analysis of very large and growing repositories of event logs, and exploration of various possible relationships among the events. In this dissertation, we present a scalable data analysis technique to support efficient event correlation for mining business processes. We propose a two-stages approach to compute correlation conditions and their entailed process instances from event logs using MapReduce framework. The experimental results show that the algorithm scales well to large datasets.

Page generated in 0.4487 seconds