• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 25
  • 13
  • 4
  • Tagged with
  • 42
  • 42
  • 26
  • 20
  • 12
  • 11
  • 8
  • 8
  • 8
  • 8
  • 8
  • 7
  • 7
  • 6
  • 6
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Une approche agile, fiable et minimale pour le maintien de la qualité de service lors de l’évolution d’applications à base de processus métiers / An agile, reliable and minimalist approach to preserve the quality of service of business-processes based applications during their evolutions

Feugas, Alexandre 08 October 2014 (has links)
Les logiciels actuels adoptent une méthodologie de développement dite agile et itérative, où chaque itération peut être vue comme une évolution du logiciel, pour prendre en compte les nouveaux besoins des utilisateurs. Dans l’écosystème des architectures orientées services, la conception de logiciels passe par l’orchestration de services par des processus métiers. La phase d’évolution devient une phase complexe, où une simple modification d'une sous-partie d’un processus métier peut avoir des conséquences sur l’ensemble du logiciel, causant par exemple son ralentissement à l’exécution ou la dégradation de sa qualité de service (QoS). Il est nécessaire de pouvoir maintenir la QoS lors de l’évolution de logiciels à base de processus métiers en proposant des mécanismes d’évolution agiles, fiables et minimal afin de ne pas dégrader les performances du logiciel. Les contributions de cette thèse sont mises en œuvre dans notre cycle de développement Blink, centré sur le maintien de la QoS lors de l’évolution, et Smile, un canevas de développement pour le maintien de la QoS lors de l’évolution d’applications orientées service définies à base de processus métiers. Ce dernier repose sur une analyse de l’évolution déterminant son effet sur la QoS du logiciel, en établissant des relations de causalité entre variables, opérations, services et autres parties du système. En identifiant les éléments causalement affectés par l’évolution et en écartant ceux qui ne le sont pas, notre approche permet de limiter le nombre d’éléments à re-vérifier, garantissant ainsi une étape d’évolution fiable, avec une étape de re-vérification minimale. / Current softwares are built using agile and iterative development methods, where each iteration can be seen as a software evolution, to consider the new needs of users. In the Service-Oriented Architecture (SOA) world, the design of software is made of service orchestration using business processes. The evolution step becomes a complex step, where a simple modification on a sub-part of a business process can have consequences on the entire system, causing for example its slowing down or its Quality of Service (QoS) degradation. As a result, it is necessary to preserve the QoS of software made of business processes by proposing agile and reliable evolution mechanisms that have to be minimal in order to not degrade the software performances. The contributions of this thesis are Blink, a development cycle to maintain the QoS during evolution, and Smile, a framework to maintain QoS during the evolution of a service-oriented software made of business processes. Smile relies on an evolution analysis determining its effect of the software QoS, by establishing causal relations between variables, operations, services and other parts of the system. By identifying the elements that are causally affected by the evolution and by ruling out the ones that are not, our approach enables the limitation of the number of elements to (re)check in order to assure a reliable evolution step, with a minimal (re)check step.
2

Modélisation centrée sur les processus métier pour la génération complète de portails collaboratifs / Business process-centered modeling for the complete generation of collaborative portals

Souissi, Amen 20 December 2013 (has links)
Les entreprises collaborent pour saisir des opportunités, échanger des documents et ressources, cela en suivant des processus métier pouvant évoluer. Les portails collaboratifs sont une solution orientée web à ce besoin de collaboration. Cependant, la conception et la maintenance d'un portail collaboratif métier n'est pas trivial et reste peu accessible aux acteurs de l'entreprise. Cela a comme conséquence la difficulté de maintenir et faire évoluer le portail collaboratif sans que cela ne soit trop coûteux en temps et financièrement. Afin de répondre à cette problématique, une solution consiste à capter les besoins métier de la collaboration dans un modèle, puis générer automatiquement le portail collaboratif correspondant. Le modèle, dans ce cas, doit être accessible aux acteurs métier et expressif décrivant ainsi les aspects les plus complexes d'une collaboration. C'est dans ce contexte que se situent nos travaux. À défaut d'avoir une solution toute faite, nous avons mis en place une approche de conception de portail collaboratif fondée sur l’Ingénierie Dirigée par les Modèles. Pour la description de nos portails, nous avons choisi de privilégier la modélisation des entreprises centrée sur les processus métier comme point de départ. Notre solution repose sur notre métamodèle MACoP (Modeling and Analysis of Collaborative Portal). Dans ce métamodèle nous avons fait cohabiter l'accessibilité et l'expressivité. Cela en proposant de nouveaux concepts permettant ainsi la génération complète des portails collaboratifs. Le métamodèle MACoP est accompagné d'une chaîne de transformations permettant de passer directement d'un modèle MACoP au code Python du portail collaboratif. / Companies collaborate to seize opportunities as well as exchange documents and other types of resources. This is achieved by following business processes that are subject to evolution. Collaborative portals are web oriented solutions aimed at this need of collaboration. However, the development and maintenance of a collaborative portal is non-trivial and remains hardly accessible for many companies. As a consequence, the challenge is controlling the costs of maintenance and implementing new features. To circumvent these issues, it is possible to collect business requirements of the collaboration in a model and then generate automatically the corresponding collaborative portal. The model, in this case, must be accessible by the business actors and must express even the most complex aspects of the collaboration needs. This is the context of our work. Having not found a solution which corresponded to our requirements, we have developed a design approach of collaborative portals founded on the Model Driven Engineering. As for the description of our portals, we have chosen to focus on the business modeling based on the business processes like starting point. Our solution relies on our meta-model MACoP (Modeling and Analysis of Collaborative Portal). In this meta-model we have joined together accessibility and the expressivity, by proposing new concepts allowing the complete generation of collaborative portals. The meta-model MACoP is accompanied by a transformations chain that makes it possible to pass directly from a MACoP model to the Python code of the collaborative portal.
3

Towards creating context-aware dynamically-adaptable business processes using complex event processing / Vers la création de processus métiers sensibles au contexte dynamiquement adaptables en utilisant le traitement des événements complexes

Hermosillo, Gabriel 05 June 2012 (has links)
En plus de l'utilisation des appareils ubiquitaires qui continue à croître, nous avons accès à d'informations dites contextuelles. Ces informations permettent de connaître l'état de notre environnement et nous aident à prendre les décisions de notre vie quotidienne en fonction du contexte dans lequel nous nous positionnons. La nature statique des processus métiers ne leur permet pas d'être modifiés dynamiquement, les rendant ainsi moins utiles dans un nouveau contexte. Si nous voulons changer le comportement d'un processus métier, nous devons le stopper, le modifier et le redéployer entièrement. Pour répondre à ces problèmes, nous proposons une approche qui permet de représenter des processus métiers sensibles au contexte où les informations de contexte sont considérées comme des événements contrôlés en temps réel. Avec Ceviche, nous intégrons les informations obtenues à partir du contexte avec la capacité d'adaptation des processus métiers en cours d'exécution. De plus, l'une des originalités du cadre logiciel Ceviche vient de la définition d'une opération de désadaptation et de sa mise en oeuvre, car défaire l'adaptation peut facilement se passer mal et conduire à des états non désirés. En outre, avec Ceviche, nous apportons une propriété de stabilité au niveau du traitement des événements complexes. En définissant notre propre langage, Adaptive Business Process Language (ABPL), comme un langage pivot, Ceviche facilite l'utilisation de CEP sans les inconvénients de l'adoption anticipée de l'approche. Nous utilisons une technique de type plug-in qui permet aux événements définis en ABPL d'être utilisés dans pratiquement n'importe quel moteur CEP. / As the use of ubiquitous devices continues to grow, we have more access to pervasive information around us. This information allows us to know the state of our surroundings, and we make decisions of our everyday life based on that context information. The static nature of business processes does not allow them to be dynamically modified, thus leaving them less useful in the new context. If we want to change the behavior of a business process, we need to stop it, modify it and redeploy it entirely.To address these issues, in this thesis we present the Ceviche Framework. We bring forward an approach which allows to represent context-aware business processes where context information is considered as events which are monitored in real-time. With Ceviche we integrate the information obtained from the context with the capability of adapting business process at run-time. Also, one of the original contributions of the Ceviche Framework is the definition of a correct adaptation undoing mechanism and its implementation, as undoing an adaptation can easily go wrong and lead to undesired states and unstable processes.The implementation of the Ceviche Framework offers flexibility and dynamicity properties to the business processes, using a component-based approach, allowing the modification of their bindings at run-time. Moreover, with Ceviche we also provide a stability property in terms of CEP. By defining our own simple language, the Adaptive Business Process Language (ABPL), as a pivot language, Ceviche facilitates the use of CEP without the drawbacks of early adoption. We use a plug-in approach that allows the events defined in ABPL to be used in virtually any CEP engine.
4

Vers un entrepôt de données et des processus : le cas de la mobilité électrique chez EDF / Towards a Data and Business Process Warehouse : Application to the Electric Mobility at EDF

Royer, Kevin 30 March 2015 (has links)
Le marché du véhicule électrique (VE) est aujourd’hui en plein essor et il s’agit d’un marché quireprésente un intérêt pour des industriels comme EDF. Pour réaliser ses objectifs (optimisation de laconsommation, tarification...) EDF doit d’abord extraire des données hétérogènes (issues des VE etdes bornes de recharge) puis les analyser. Pour cela nous nous sommes orientés vers un entrepôt dedonnées (ED) qui est ensuite exploité par les processus métiers (PM). Afin d’éviter le phénomèneGarbage In/Garbage Out, les données doivent être traitées. Nous avons choisi d’utiliser une ontologiepour réduire l’hétérogénéité des sources de données. La construction d’une ontologie étant lente, nousavons proposé une solution incrémentale à base briques ontologiques modulaires liées entre elles. Laconstruction de l’ED, basé sur l’ontologie, est alors incrémentale. Afin de charger des données dansl’ED, nous avons défini les processus ETL (Extract, Transform & Load) au niveau sémantique. Ensuitenous avons modélisé les PM répétitifs selon les spécifications BPMN (Business Process Modelisation& Notation) pour extraire les connaissances requises par EDF de l’ED. L’ED constitué possède lesdonnées et des PM, le tout dans un cadre sémantique. Nous avons implémenté cela sur la plateformeOntoDB développée au Laboratoire d’Informatique et d’Automatique pour les Systèmes de l’ISAEENSMA.Elle nous a permis de manipuler l’ontologie, les données et les PM d’une manière homogènegrâce au langage OntoQL. De plus, nous lui avons fourni la capacité d’exécuter automatiquement lesPM. Cela nous a permis de fournir à EDF une plate-forme adaptée à leurs besoins à base d’élémentsdéclaratifs. / Nowadays, the electrical vehicles (EV) market is undergoing a rapid expansion and has become ofgreat importance for utility companies such as EDF. In order to fulfill its objectives (demand optimization,pricing, etc.), EDF has to extract and analyze heterogeneous data from EV and charging spots. Inorder to tackle this, we used data warehousing (DW) technology serving as a basis for business process(BP). To avoid the garbage in/garbage out phenomena, data had to be formatted and standardized.We have chosen to rely on an ontology in order to deal with data sources heterogeneity. Because theconstruction of an ontology can be a slow process, we proposed an modular and incremental constructionof the ontology based on bricks. We based our DW on the ontology which makes its construction alsoan incremental process. To upload data to this particular DW, we defined the ETL (Extract, Trasform& Load) process at the semantic level. We then designed recurrent BP with BPMN (Business ProcessModelization & Notation) specifications to extract EDF required knowledge. The assembled DWpossesses data and BP that are both described in a semantic context. We implemented our solutionon the OntoDB platform, developed at the ISAE-ENSMA Laboratory of Computer Science and AutomaticControl for Systems. The solution has allowed us to homogeneously manipulate the ontology, thedata and the BP through the OntoQL language. Furthermore, we added to the proposed platform thecapacity to automatically execute any BP described with BPMN. Ultimately, we were able to provideEDF with a tailor made platform based on declarative elements adapted to their needs.
5

Abstraction and modular verification of inter-enterprise business processes / Abstraction et vérification modulaire des processus métier inter-entreprise

Ochi, Hanen 11 December 2015 (has links)
De nos jours, les entreprises sont de plus en plus étendues et faisant collaborer plusieurs organisations pour la réalisation composée d'un objectif global. Des phénomènes tels que le commerce électronique et l'Internet stimulent en effet la coopération entre les organisations, donnant lieu a des processus métier inter-entreprises. Dans cette thèse de doctorat, nous proposons une approche ascendante pour vérifier l’interaction correcte entre des processus répartis sur un certain nombre d'organisations. Le modèle du système global étant indisponible, une approche d'analyse descendante est tout simplement impossible. Nous considérons deux critères de correction des processus métier inter-entreprises composés de deux (ou plusieurs) processus métier qui communiquent de manière synchrone et/ou asynchrone et/ou partageant des ressources. Le premier critère est générique et est exprimé par la propriété de soundness (robustesse), et certaines de ses variantes. Le deuxième critère est spécifique et peut être exprimé avec n'importe quelle formule de la logique temporelle linéaire. Chaque composante du processus global rend publique un modèle abstrait, représenté par un graphe appelé Graphe d'Observation Symbolique (GOS), permettant à la fois de préserver la confidentialité du processus local, la vérification de sa correction et de celle du processus global par composition de GOSs. Nous avons revisité et adapté le GOS afin de réduire la vérification du modèle composite à la vérification de la composition des abstractions des ses composants (leurs GOSs). Nous avons implémenté notre approche de vérification, basée sur le GOS, aussi bien pour les propriétés génériques que pour les propriétés spécifiques (LTL), et nous avons comparé les résultats obtenus avec ceux d'outils connus dans le domaine. Les résultats obtenus sont encourageants au vu du temps d’exécution et de l'espace mémoire consommés par notre technique. Ceci renforce notre conviction que le GOS est une structure appropriée pour l'abstraction et la vérification de processus métiers, en particulier lorsque ceux-ci sont faiblement couplés. / Today's corporations often must operate across organizational boundaries. Phenomena such as electronic commerce, extended enterprises, and the Internet stimulate cooperation between organizations. We propose a bottom-up approach to check the correct interaction between business processes distributed over a number of organizations. The whole system's model being unavailable, an up-down analysis approach is simply not feasible. We consider two correctness criteria of Inter-Enterprise Business Processes (IEBP) composed by two (or more) business processes communicating either synchronously or asynchronously and sharing resources : a generic one expressed with the well known soundness property (and some of its variants), and a specic one expressed with any linear time temporal logic formula. Each part of the whole organization exposes its abstract model, represented by a Symbolic Observation Graph (SOG), in order to allow the collaboration with possible partners. We revisited and adapted the SOG in order to reduce the verification of the entire composite model to the verification of the composition of the SOG-based abstractions. We implemented our verification algorithms, aiming at checking both specic and generic properties using SOGs, and compared our approach to some well known verification tools. The experimental results are encouraging in terms of both the construction time and the size of the abstraction's size. This strengthen our belief that the SOGs are suitable to abstract and to compose business processes especially when these are loosely coupled.
6

CONTRIBUTION À L'INTEGRATION DES PROCESSUS METIER : APPLICATION A LA MISE EN PLACE D'UN REFERENTIEL QUALITE MULTI-VUES

Ferchichi, Anis, Bourey, Jean Pierre, Bigand, Michel 01 July 2008 (has links) (PDF)
Le croisement de concepts issus de la gestion des processus métier, des normes et standards qualité et de l'interopérabilité nous a permis de nous intéresser à l'organisation et l'intégration des processus métier d'entreprise, pour proposer une démarche de mise en place d'un référentiel qualité multi-vues.<br />Le but de notre travail est de montrer comment intégrer les processus métier d'une entreprise à l'aide d'un référentiel commun offrant différents points de vue. Cette démarche généralisable est appliquée à l'intégration de deux standards de qualité, ISO 9001v2000 et Capability Maturity Model Integration (CMMI), afin de générer un référentiel qualité multi\--vues permettant une certification relative aux deux normes. Ce référentiel prend en compte les chapitres imposés par ISO et les recommandations de CMMI. Dans le cadre de l'implémentation du référentiel, nous nous sommes intéressés à la définition d'une méthodologie d'estimation des délais et charges des projets informatiques afin de rationaliser ce processus critique pour l'entreprise. La mise en place de ce référentiel qualité s'accompagne de la définition d'une démarche assurant l'interopérabilité des processus définis avec ceux des clients et/ou partenaires.<br />Une méthodologie d'audit projet, un référentiel documentaire et un référentiel des compétences viennent compléter le travail déjà réalisé afin d'assurer l'implémentation et le respect du référentiel qualité.
7

Analyse et optimisation d'un processus à partir d'un modèle BPMN dans une démarche globale de conception et de développement d'un processus métier : application à la dématérialisation de flux courrier du projet GOCD (PICOM)

Shraideh, Ahmad 08 December 2009 (has links) (PDF)
Cette thèse a été réalisée dans le cadre du projet " Gestion et Optimisation de la Chaîne Documentaire ", projet labellisé par le Pôle de compétitivité des Industries du Commerce. Le projet a pour but de concevoir et de développer un nouveau workflow et un outil d'aide à la décision. Ce système doit être capable de gérer et d'optimiser le flux complet dématérialisé de contrats reçus à COFIDIS.Nous présentons d'abord le framework retenu dans le cadre du projet pour modéliser et implémenter le workflow. En phase de conception BPMN a été choisi. Pour la partie développement, l'utilisation de BPEL a été préconisée pour implémenter et exécuter l'application finale (services web).Cependant la flexibilité offerte par BPMN peut conduire à des propriétés indésirables du processus telles que blocage et inaccessibilité. De plus, BPMN a été conçu pour fournir des modèles Orientés Process. Les données ou les ressources y sont donc peu représentées. En conséquence, l'analyse de performance sur un modèle BPMN est quasi inexistante.Afin de surmonter ces problèmes nous proposons d'insérer dans le framework deux nouvelles phases. Ces deux phases sont appliquées au modèle BPMN. La première est une phase de vérification et de validation et la deuxième une phase d'optimisation. Ces deux phases sont réalisées en transformant le modèle BPMN vers un langage formel. Notre choix dans ce travail a été d'utiliser les réseaux de Petri. Ce qui nous a permis de vérifier et de valider de bonnes propriétés du process. Quant à l'optimisation, nous avons défini une nouvelle variante du problème d'affectation (bin packing problem) et proposé une résolution à intégrer dans le processus d'aide à la décision
8

Amélioration continue de chorégraphie de services : conception et diagnostic basés sur les modèles / Continuous improvement of service choreographies : Design and diagnostic based on models

Cortes Cornax, Mario 02 July 2014 (has links)
Les processus métier des organisations deviennent de plus en plus complexes et dépendent souvent des processus et des services fournis par d'autres organisations. Le terme processus inter-organisationnel apparaît pour décrire un processus qui franchit les frontières de l'organisation intégrant un ensemble de processus avec un but commun. Du point de vue technique, les organisations mettent en place leurs processus internes sous la forme d'orchestrations de services techniques. Pour permettre à ces derniers d'interagir, il est essentiel d'établir les règles de communication afin de promouvoir une compréhension commune entre les services participants ainsi que de garantir leur interopérabilité. Dans ce cadre apparait le concept de chorégraphie de services. Une chorégraphie est un contrat métier décrivant l'ordre et la manière d'interagir des différents services visant un but commun. La vision globale donnée par la chorégraphie complète la vision locale donnée par les orchestrations. Notre travail a pour objectif de comprendre et exploiter le concept de chorégraphie en considérant le niveau intentionnel (les objectifs), le niveau organisationnel souvent capturés par des modèles graphiques et le niveau opérationnel centré sur les détails techniques. Pour cela, nous proposons une démarche d'amélioration continue en se focalisant sur les phases de conception et de diagnostic. Nous nous appuyons sur les modèles pour mieux comprendre, construire, analyser et maîtriser la complexité des chorégraphies. / Organizations' business processes become increasingly complex and often depend on processes and services provided by other organizations. The term inter-organizational process appears to describe a process that goes beyond an organization's boundaries and integrates a set of processes with a common goal. From a technical point of view, organizations implement their internal processes as service orchestrations. To enable them to interact, it is essential to establish communication protocols to promote a common understanding among the participating services as well as ensuring their interoperability. In this context the service choreography concept appears. Choreography refers to a business contract describing the way business participants with a common goal coordinate their interactions. The overall point of view given by choreographies complements the local point of view given by orchestrations. Our work aims to understand and study the concept of choreography where we consider the intentional level (goals), the organizational level which is often captured by graphical models and the operational level that is focused on technical details. To do so, we propose a continuous improvement approach focusing on the design and diagnosis phases. We rely on models to better understand, build, analyze and manage the complexity of choreographies.
9

PAX : une vision des processus métier basée sur la co-ingénierie de compositions de services / PAX : a vision of business processes based on co-engineering of services compositions

Fakhri, Myriam 14 December 2015 (has links)
Cette thèse aborde la composition de services à un niveau « métier » : un processus métier est vu comme une composition de services permettant de réaliser un objectif en tenant compte d’informations contextuelles sur l’environnement. En outre, dans ces travaux de recherche, l’idée de rendre persistante les compositions est développée à des fins de réutilisation et de partage.L’approche PAX propose des modèles de spécification de compositions avec différents niveaux d’abstraction. Au niveau intentionnel, une composition de services est vue comme une composition de buts métier. À un niveau orchestré, une composition de services est spécifiée comme un processus métier dont les activités sont abstraites. À un niveau exécutable, une composition de services est un processus métier pour lequel les activités sont réalisées par des services identifiés. À un niveau trace, une compose de services est vue comme la trace de l’exécution d’un processus métier mis en œuvre par invocation de services.L’approche PAX fournit aussi une démarche flexible et de type co-ingénierie pour la définition de processus métier satisfaisant un besoin métier et basée sur la réutilisation de services et de composition de services. La démarche proposée est flexible dans la mesure où la réalisation de certaines activités est dépendante du contexte de mise en œuvre de l’approche PAX. La démarche est de type co-ingénierie : elle suggère de faire participer les acteurs métier à la conception d’un processus, i.e. d’une composition de services, pendant son exécution. La démarche de type co-ingénierie assure l’alignement entre le besoin métier et le processus permettant de le satisfaire. / This research work deals with the services compositions at a business level: a business process is seen as a composition of services to achieve an objective, taking into account contextual information on the environment. Also, in this research, the idea of considering the compositions as a persistent artefact is developed for reuse and sharing purposes.The PAχ approach offers models of compositions in order to specify compositions at different levels of abstraction. At the intentional level, a composition of services is seen as a composition of business goals. At the orchestrated level, a composition of services is specified as a business process in which some activities and operations are abstract. At the executable level, a composition of services is a business process in which the activities are carried out by identified services. At the trace level, a composition of services is seen as the trace of the execution of a business process implemented by invocation of services. The PAχ approach provides a flexible approach based on co-engineering paradigm for defining business processes which satisfies a business need and based on the reuse of services and composition of services. The proposed approach is flexible because the realization of activities depends of the context in which the PAχ approach is deployed. The approach is based on co-engineering paradigm: it suggests involving business actors to design a process, i.e. a composition of services during execution. Co-engineering improves alignment between business needs and processes to satisfy these needs.
10

Gestion des risques liés au transport des matières dangereuses / Risk management related to the transport of dangerous goods

Najib, Mehdi 31 October 2014 (has links)
L’évolution du commerce international et la croissance des échanges intercontinentaux ont créé un besoin constant pour le transport de marchandises. Dans ce contexte, le transport maritime a connu un grand engouement vu son efficience pour la mobilité de grande quantité de marchandises. Ce mode de transport a été révolutionné par l’introduction des conteneurs, et le développement de nouvelles plateformes multimodales : les terminaux à conteneurs (TC), spécialisés dans la manutention des conteneurs. Ces derniers sont souvent soumis à des contraintes et des exigences qu'ils doivent satisfaire en termes d'efficience, de sécurité et de sûreté de fonctionnement. L’objectif de cette thèse est de gérer les risques liés au transport des conteneurs dans un TC tout en prenant en compte l’aspect collaboratif au niveau d’une chaîne logistique et les activités qui pourraient être réalisées en amont de la livraison des conteneurs. Ceci en garantissant une réconciliation des aspects gestion des risques et performance dans un TC. La mise en œuvre est basée sur une approche multi-paradigme permettant l’urbanisation du système de traçabilité GOST (Géo-localisation Optimisation et Sécurité de Transport) et le développement d’un Système de Gestion d’un Terminal à Conteneurs (SGTC). Concernant la gestion des risques liés au transport des conteneurs, une solution a été proposée en se basant sur la traçabilité et la géo-localisation en s’appuyant sur le système GOST moyennant son urbanisation, le concept de produit intelligent et des architectures orientées services. Le but de cette solution est d’améliorer la collecte des informations relatives à la gestion des risques fournies par les acteurs de la chaîne logistique. Pour ce faire, nous avons tout d’abord procédé à une urbanisation du système GOST afin de l’adapter aux nouvelles exigences. Ensuite, nous avons proposé un enrichissement du concept de produit intelligent afin de développer un modèle du conteneur intelligent approprié. Enfin, nous avons employé les architectures dirigées par les modèles afin d’automatiser la génération du code des services web pour la collecte des données de traçabilité. A cet effet, deux approches pour l’interfaçage du conteneur intelligent aux différents services web ont été proposées. La première est basée sur l’orchestration des services selon la logique des processus métiers. Quant à la seconde, elle est fondée sur l’utilisation d’un bus de communication l’ESB : Entreprise Service Bus.Toutes ces solutions sont intégrées dans le système SGTC qui s’appui sur la technologie Agent. Ce système intègre une approche de gestion des risques et l’évaluation de la performance du TC. L’approche de gestion des risques est basée sur deux processus. Le premier traite le ciblage des conteneurs suspects et est bâti autour d’un système expert enrichi par une méthode d’apprentissage forcé : l’algorithme Apriori. Le second prend en charge la vérification de la ségrégation spatiale durant l’entreposage. Enfin, une étude de cas a été réalisée afin de valider la solution proposée ainsi qu’une simulation pour l’évaluation de la performance. / The international trade evolution and the growth of intercontinental commercial exchanges have created an ongoing need for goods’ transport. In this context, maritime transport knew an enormous craze due to its efficiency for shipping large quantities of goods. This mode of transport has been revolutionized by the introduction of containers and the development of new multimodal platforms specialized in container handling: Container Terminals (CT). These CTs are subject to a set of constraints and requirements that must be satisfied in terms of efficiency, safety, and dependability. This thesis aims to manage the risks related to containers transport in a CT taking into account the collaborative aspect of the supply chain and the activities carried out before the containers’ delivery. Furthermore, it tackles reconciliation of the risk management aspect and performance aspect in CT. The implementation is based on a multi-paradigm approach for the urbanization of GOST traceability system (Geo-localization, Optimization, Securing, and Transport) and the development of a Container Terminal Management System (CTMS). For the risk management related to containers transport, we proposed a tracking and tracing solution based on the urbanization of GOST system, intelligent product concept and service-oriented architectures. This solution aims to improve the collection of information needed for risk management, which are provided by the supply chain actors. For this purpose, first of all, we propose an urbanization of the GOST system to fit t risk management requirements. In a second step, we define an improved intelligent product concept to develop an appropriate intelligent container model. Finally, we used the model driven architectures to automate code generation of web services needed to collect traceability data. For this purpose, two approaches for interfacing the intelligent container to different web services have been proposed. The first is based on services orchestration using business process. The second is founded on the configuration of an Enterprise Service Bus (ESB). All these solutions are integrated in the CTMS system. This system is developed using the Agent technology and aims to integrate risk management approach and the evaluation of the CT performance. Our risk management approach is based on two processes. The first deals with the suspicious containers targeting and it is based on an expert system enriched by a forced learning method: the Apriori algorithm. The second supports the verification of spatial segregation during storage. Finally, a case study was carried out to validate the proposed solution as well as a simulation to evaluate the performance.

Page generated in 0.0699 seconds