• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 32
  • 8
  • 6
  • Tagged with
  • 50
  • 50
  • 19
  • 16
  • 15
  • 14
  • 11
  • 10
  • 10
  • 9
  • 9
  • 9
  • 8
  • 7
  • 7
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Contribution à l'étude du raisonnement en univers multi-agent : KIDS, une application pour l'interprétation d'images biomédicales

Ovalle Carranza, Demetro Arturo 12 November 1991 (has links) (PDF)
Parmi les systèmes a base de connaissances fondes sur des techniques d'intelligence artificielle nous nous intéressons plus particulièrement aux systèmes de seconde génération (systèmes a schémas de raisonnement multiples) de type multi-agent. Le paradigme multi-agent est issu des approches de l'intelligence artificielle distribuée et permet de pallier les limitations rencontrées lors de la resolution de problèmes complexes. Le but de ce travail est d'analyser le raisonnement, et plus particulièrement d'aborder son étude en univers multi-agent. Il convient de préciser que celui-ci n'est pas un concept indépendant en lui-même: il est au contraire étroitement lie a d'autres problématiques telles que l'étude et la représentation des connaissances, la spécification des structures de contrôle, des protocoles de communication et d'allocation des taches ou le degré de sophistication de l'architecture interne des agents. Pour ce fait deux typologies originales, issues de l'étude approfondie de la connaissance et du raisonnement, seront proposées au long de cette thèse: l'une a caractère formelle l'autre a caractère technologique. La typologie formelle pour la classification des connaissances et du raisonnement permet une vue synthétique d'éléments souvent présentes de façon éparse et s'avère un outil d'assistance a la modélisation des connaissances et des raisonnements. La typologie technologique prend en compte les paramètres régissant les raisonnements propres a la technologie multi-agent non seulement au niveau individuel de l'agent mais aussi ceux développés au sein du groupe d'agents. Ces travaux ont contribue a la conception du système multi-agent kids (knowledge based image diagnosis system), système multi-agent dédié a l'interprétation d'images biomédicales. Ce système, par la variété des formes de connaissances et de raisonnement engages, illustre l'intérêt des typologies formelle et technologique proposées
32

Approches a base de connaissances pour le test de circuits VLSI : application à la validation de prototypes dans le cadre d'un test sans contact

Marzouki, Meryem 06 February 1991 (has links) (PDF)
LES CIRCUITS ET SYSTEMES ANALOGIQUES SONT DE PLUS EN PLUS UTILISES DANS LE CADRE D'APPLICATIONS NOUVELLES. ILS DEVIENNENT EGALEMENT PLUS COMPLEXES, CE QUI CREE LA NECESSITE DE DISPOSER DE METHODES AUTOMATIQUES POUR LEURS TESTS ET LEURS DIAGNOSTICS QUI A EUX DEUX REPRESENTENT UN PROBLEME CRUCIAL DANS CE DOMAINE. BIEN QUE LE TEST ET LE DIAGNOSTIC DES CIRCUITS DIGITAUX AIT ETE DEVELOPPE AVEC SUCCES AU POINT QU'IL A PU ETRE AUTOMATISE, SON DEVELOPPEMENT POUR LES CA EN EST ENCORE A SES PREMIERS PAS. IL Y A DEUX RAISONS PRINCIPALES A CETTE SITUATION, IL N'Y AVAIT PAS UN BESOIN PRESSANT DANS L'INDUSTRIE JUSQU'A RECEMMENT, D'UNE PART, ET D'AUTRE PART, LA NATURE ELECTRIQUE DES CA EST TRES COMPLEXE. CETTE THESE, QUI SE PLACE DANS CE CONTEXTE, A POUR OBJECTIF DE DEVELOPPER UNE NOUVELLE APPROCHE POUR LE TEST ET LE DIAGNOSTIC DES CA ET MIXTES. UNE VOIE RELATIVEMENT PEU EXPLOREE, MAIS PROMETTEUSE EU EGARD AUX RESULTATS OBTENUS POUR LE DIAGNOSTIC D'AUTRES DISPOSITIFS ET SYSTEMES DYNAMIQUES, CONSISTE EN L'ETUDE D'APPROCHES DE L'IA POUR LA RESOLUTION DE PROBLEMES. NOUS AVONS ETUDIE LES DIFFERENTES APPROCHES POSSIBLES ET NOTAMMENT LES APPROCHES SUIVANTES : L'APPROCHE A BASE DE MODELES PROFONDS, L'APPROCHE QUALITATIVE ET L'APPROCHE A BASE DE LOGIQUE FLOUE. LE RESULTAT DE CETTE THESE A DONNE LIEU A UNE NOUVELLE APPROCHE DEVELOPPEE UTILISANT LA LOGIQUE FLOUE ET SES TECHNIQUES. CETTE NOUVELLE APPROCHE A ETE IMPLEMENTEE DANS UN SYSTEME NOMME FLAMES. FLAMES, QUI EST CONCU POUR FAIRE LE DIAGNOSTIC DES CA, A APPORTE PLUSIEURS AMELIORATIONS DE L'ETAT DE L'ART NOTAMMENT EN DEFINISSANT LES TOLERANCES COMME DES INTERVALLES FLOUS. IL EST AUSSI CAPABLE DE REALISER LA SIMULATION DES CIRCUITS ET DE CHOISIR LES MEILLEURS POINTS A TESTER LORSQUE LE DIAGNOSTIC RESTE AMBIGU. CETTE DERNIERE POSSIBILITE EST REALISEE PAR UNE APPROCHE SEMI-QUALITATIVE A BASE DU RAISONNEMENT QUALITATIF ET DE LOGIQUE FLOUE. IL EST POSSIBLE DE LA DEVELOPPER POUR LE TEST ET LE DIAGNOSTIC DES SYSTEMES MIXTES, PUISQU'ELLE S'APPLIQUE AUX CIRCUITS DIGITAUX EGALEMENT. FINALEMENT, LES DIFFERENTS RESULTATS OBTENUS CONFIRMENT LA VALIDITE DE L'APPROCHE DEVELOPPEE ET IMPLEMENTEE. MOTS-CLEFS : TEST ET DIAGNOSTIC, CIRCUITS ANALOGIQUES, LOGIQUE FLOUE, APPROCHES D'INTELLIGENCE ARTIFICIELLE.
33

Une méthode d'indexation fondée sur l'analyse sémantique de documents spécialisés : le prototype RIME et son application à un corpus médical

Berrut, Catherine 13 December 1988 (has links) (PDF)
Étude et réalisation de l'indexation du système de recherche d'informations rime de façon à permettre une compréhension trè fine de documents spécialisés. Ont été examinées la construction d'un modèle de représentation des connaissances des documents traites, l'analyse des phénomènes linguistiques apparaissant dans ces documents. La mise en œuvre de trois processus linguistiques (morphologie, syntaxe, sémantique) et l'élaboration d'un processus de coopération permettant l'enchainement et l'indépendance de ces trois processus linguistiques. L'architecture du systeme est présentée en détail ainsi que les expérimentations faites sur un corpus médical
34

Towards a Cognitive Vision Platform for Semantic Image Interpretation; Application to the Recognition of Biological Organisms

Hudelot, Céline 29 April 2005 (has links) (PDF)
Ces travaux de thèse ont pour but de faire des avancées dans le domaine de la vision cognitive en proposant une plate-forme fonctionnelle et logicielle pour le problème complexe de l'interprétation sémantique d'images. Nous nous sommes focalisés sur la proposition de solutions génériques et indépendantes de toute application. Plus qu'une solution à un problème spécifique, la plate-forme proposée est une architecture minimale qui fournit des outils réutilisables pour la conception de systèmes d'interprétation sémantique d'images.<br />Le problème de l'interprétation sémantique d'images est un problème complexe qui peut se séparer en 3 sous-problèmes plus faciles à résoudre en tant que problèmes indépendants: (1) l'interprétation sémantique, (2) la gestion des données visuelles pour la mise en correspondance des représentations abstraites haut niveau de la scène avec les données image issues des capteurs et (3) le traitement d'images. Nous proposons une architecture distribuée qui se base sur la coopération de trois systèmes à base de connaissances (SBCs).<br />Chaque SBC est spécialisé pour un des sous problèmes de l'interprétation d'images. Pour chaque SBC nous avons proposé un modèle générique en formalisant la connaissance et des stratégies de raisonnement dédiées. De plus, nous proposons d'utiliser deux ontologies pour faciliter l'acquisition de la connaissance et permettre l'interopérabilité entre les trois différents SBCs.<br />Un travail d'implémentation de la plate forme de vision cognitive a été fait à l'aide de la plate-forme de développement de systèmes à base de connaissances LAMA conçue par l'équipe ORION.<br />Les solutions proposées ont été validées sur une application concrète et difficile: le diagnostic précoce des pathologies végétales et en particulier des pathologies du rosier de serre. Ce travail a été effectué en coopération avec l'INRA (Institut National de la Recherche Agronomique).
35

Assistance au calage de modèles numériques en hydraulique fluviale -- Apports de l'intelligence artificielle

Vidal, Jean-Philippe 18 March 2005 (has links) (PDF)
Le calage d'un modèle numérique vise à reproduire des événements de référence par l'ajustement de paramètres à base physique. Cette thèse propose une approche à l'aide de Systèmes à Base de Connaissances. Après une définition des concepts clés, sont présentés un état de l'art et une analyse des différents objets, procédures et raisonnements mis en oeuvre pour mener à bien cette tâche. Ces éléments sont formalisés puis intégrés au sein d'un système d'assistance au calage, selon trois niveaux de connaissances : génériques, propres à l'hydraulique fluviale 1-D, et spécifiques au code de calcul utilisé. Deux cas réels d'application sont traités, en fonction des données disponibles et de l'objectif projeté du modèle. La thèse a permis la capitalisation d'un savoir-faire qui a conduit à un prototype opérationnel d'assistance au calage de modèles hydrauliques et au développement d'outils d'intelligence artificielle dédiés au calage et indépendants de la discipline considérée.
36

Intégration des savoir-faire métier produit-process pour une amélioration de la productivité en développement de produits de style

Bluntzer, Jean-Bernard 20 November 2009 (has links) (PDF)
Face à un durcissement des objectifs de performance Qualité-Coûts-Délais des donneurs d'ordre, à un environnement économique à faible croissance et à forte concurrence, nous constatons une baisse de compétitivité des fournisseurs français au sein de la filière automobile. L'intensification de cette concurrence leurs impose un renouvellement rapide de leurs produits à des coûts toujours plus réduits. Aujourd'hui, les processus d'ingénierie qualifiés de "reconception" représentent dans les bureaux d'études de ces fournisseurs environ 80% du temps, 20% du temps restant étant dédiés à l'innovation, processus hautement stratégique pour assurer la pérennité de l'entreprise. La conception de produits nouveaux reste au cœur des problématiques industrielles. De ce fait, le renouvellement continu de leurs gammes de produits et l'innovation deviennent dès lors indispensables. Dans le cadre de ce travail de thèse, nous nous intéressons à la problématique d'ingénierie collaborative en entreprise étendue et à l'intégration des connaissances métier en conception routinière et innovante pour accélérer justement le processus de conception de produits, afin de faire des produits toujours plus robustes et dans des délais toujours plus courts. A travers différentes expérimentations conduites aussi bien en contexte académique qu'en contexte industriel, ce travail de recherche nous a amené à développer un modèle permettant d'accélérer le processus de conception de produits en réduisant les temps qui sont dédiés à la reconception. Se fondant sur le paradigme de raisonnement à partir de cas, ce nouveau modèle montre qu'il est ainsi possible de fournir un système d'aide efficace aux différents acteurs métier impliqués dans le processus de conception et de développement de produit. Ce travail montre également quelques limites au modèle arrêté et propose à cet égard des perspectives de recherche pour avancer sur le sujet.
37

Ingénierie hautement productive et collaborative à base de connaissances métier : vers une méthodologie et un méta-modèle de gestion des connaissances en configurations

Badin, Julien 29 November 2011 (has links) (PDF)
Ces travaux de recherche concernent le domaine de l'ingénierie des connaissances pour laconception de produits et plus particulièrement les phases amont du couple produit-simulation dansle processus de conception.Au cours de ces différentes phases amont, les acteurs d'un même projet utilisent simultanément denombreuses modélisations géométriques et comportementales du produit. Ils peuvent aussi avoirrecours à plusieurs outils logiciels hétérogènes, communiquant très difficilement entre eux.Dans ce contexte, le partage des connaissances entre les différents modèles métiers apparait commeune nécessité. En effet, concevoir un produit implique une gestion des connaissances d'unegranularité fine en tenant compte de leur niveau de maturité et de leur cohérence.Le recours à de nouvelles méthodes et de nouveaux outils est alors nécessaires dans le but desoutenir l'approche globale PLM et continuer à optimiser et rationaliser le processus de conceptionde produits.Dans ce cadre, nous proposons une approche qualifiée de KCM - Knowledge ConfigurationManagement, basée sur la gestion des connaissances de granularité fine, en configurations. Cetteapproche est de nature à favoriser la collaboration entre les acteurs d'un projet, en améliorant lacapitalisation, la traçabilité, la réutilisation et la cohérence des connaissances, utiliséessimultanément dans plusieurs activités en parallèle du processus de conception.Les principaux résultats de notre travail de recherche se structurent autour de trois axes :* Une méthodologie de gestion des connaissances en configurations qualifiée de KCMethod.* Un méta-modèle, baptisé KCModel, de structuration des concepts manipulés parKCMethod.* Une maquette de faisabilité sous forme d'outil logiciel ADES, permettant d'expérimenteret valider notre approche.L'ensemble des résultats obtenus s'articule autour d'une solution logicielle de nouvelle génération,qualifiée de KCManager, permettant de déployer en entreprise l'ensemble de la démarche proposée.
38

Réduire la probabilité de disparité des termes en exploitant leurs relations sémantiques / Reducing Term Mismatch Probability by Exploiting Semantic Term Relations

Almasri, Mohannad 27 June 2017 (has links)
Les systèmes de recherche d’information utilisent généralement une multitude de fonctionnalités pour classer les documents. Néanmoins, un élément reste essentiel pour le classement, qui est les modèles standards de recherche d’information.Cette thèse aborde une limitation fondamentale des modèles de recherche d’information, à savoir le problème de la disparité des termes <Term Mismatch Problem>. Le problème de la disparité des termes est un problème de longue date dans la recherche d'informations. Cependant, le problème de la récurrence de la disparité des termes n'a pas bien été défini dans la recherche d'information, son importance, et à quel point cela affecterai les résultats de la recherche. Cette thèse tente de répondre aux problèmes présentés ci-dessus.Nos travaux de recherche sont rendus possibles par la définition formelle de la probabilité de la disparité des termes. Dans cette thèse, la disparité des termes est définie comme étant la probabilité d'un terme ne figurant pas dans un document pertinent pour la requête. De ce fait, cette thèse propose des approches pour réduire la probabilité de la disparité des termes. De plus, nous confortons nos proposions par une analyse quantitative de la probabilité de la disparité des termes qui décrit de quelle manière les approches proposées permettent de réduire la probabilité de la disparité des termes tout en conservant les performances du système.Au première niveau, à savoir le document, nous proposons une approche de modification des documents en fonction de la requête de l'utilisateur. Il s'agit de traiter les termes de la requête qui n'apparaissent pas dans le document. Le modèle de document modifié est ensuite utilisé dans un modèle standard de recherche afin d'obtenir un modèle permettant de traiter explicitement la disparité des termes.Au second niveau, à savoir la requête, nous avons proposé deux majeures contributions.Premièrement, nous proposons une approche d'expansion de requête sémantique basée sur une ressource collaborative. Nous concentrons plutôt sur la structure de ressources collaboratives afin d'obtenir des termes d'expansion intéressants qui contribuent à réduire la probabilité de la disparité des termes, et par conséquent, d'améliorer la qualité de la recherche.Deuxièmement, nous proposons un modèle d'expansion de requête basé sur les modèles de langue neuronaux. Les modèles de langue neuronaux sont proposés pour apprendre les représentations vectorielles des termes dans un espace latent, appelées <Distributed Neural Embeddings>. Ces représentations vectorielles s'appuient sur les relations entre les termes permettant ainsi d'obtenir des résultats impressionnants en comparaison avec l'état de l'art dans les taches de similarité de termes. Cependant, nous proposons d'utiliser ces représentations vectorielles comme une ressource qui définit les relations entre les termes.Nous adaptons la définition de la probabilité de la disparité des termes pour chaque contribution ci-dessus. Nous décrivons comment nous utilisons des corpus standard avec des requêtes et des jugements de pertinence pour estimer la probabilité de la disparité des termes. Premièrement, nous estimons la probabilité de la disparité des termes à l'aide les documents et les requêtes originaux. Ainsi, nous présentons les différents cas de la disparité des termes clairement identifiée dans les systèmes de recherche pour les différents types de termes d'indexation. Ensuite, nous indiquons comment nos contributions réduisent la probabilité de la disparité des termes estimée et améliorent le rappel du système.Des directions de recherche prometteuses sont identifiées dans le domaine de la disparité des termes qui pourrait présenter éventuellement un impact significatif sur l'amélioration des scénarios de la recherche. / Even though modern retrieval systems typically use a multitude of features to rank documents, the backbone for search ranking is usually the standard retrieval models.This thesis addresses a limitation of the standard retrieval models, the term mismatch problem. The term mismatch problem is a long standing problem in information retrieval. However, it was not well understood how often term mismatch happens in retrieval, how important it is for retrieval, or how it affects retrieval performance. This thesis answers the above questions.This research is enabled by the formal definition of term mismatch. In this thesis, term mismatch is defined as the probability that a term does not appear in a document given that this document is relevant. We propose several approaches for reducing term mismatch probability through modifying documents or queries. Our proposals are then followed by a quantitative analysis of term mismatch probability that shows how much the proposed approaches reduce term mismatch probability with maintaining the system performance. An essential component for achieving term mismatch probability reduction is the knowledge resource that defines terms and their relationships.First, we propose a document modification approach according to a user query. The main idea of our document modification approach is to deal with mismatched query terms. While prior research on document enrichment provides a static approach for document modification, we are concerned to only modify the document in case of mismatch. The modified document is then used in a standard retrieval model in order to obtain a mismatch aware retrieval model.Second, we propose a semantic query expansion approach based on a collaborative knowledge resource. We focus on the collaborative resource structure to obtain interesting expansion terms that contribute to reduce term mismatch probability, and as a result, improve the effectiveness of search.Third, we propose a query expansion approach based on neural language models. Neural language models are proposed to learn term vector representations, called distributed neural embeddings. Distributed neural embeddings capture relationships between terms, and they obtained impressive results comparing with state of the art approaches in term similarity tasks. However, in information retrieval, distributed neural embeddings are newly started to be exploited. We propose to use distributed neural embeddings as a knowledge resource in a query expansion scenario.Fourth, we apply the term mismatch probability definition for each contribution of the above contributions. We show how we use standard retrieval corpora with queries and relevance judgments to estimate the term mismatch probability. We estimate the term mismatch probability using original documents and queries, and we figure out how mismatch problem is clearly found in search systems for different types of indexing terms. Then, we point out how much our contributions reduce the estimated mismatch probability, and improve the system recall. As a result, we present how the modified document and query representations contribute to build a mismatch aware retrieval model that mitigate term mismatch problem theoretically and practically.This dissertation shows the effectiveness of our proposals to improve retrieval performance. Our experiments are conducted on corpora from two different domains: medical domain and cultural heritage domain. Moreover, we use two different types of indexing terms for representing documents and queries: words and concepts, and we exploit several types of relationships between indexing terms: hierarchical relationships, relationships based on a collaborative resource structure, relationships defined on distributed neural embeddings.Promising research directions are identified where the term mismatch research may make a significance impact on improving the search scenarios.
39

Assistance à l’élaboration d’offres du produit au service : proposition d’un modèle générique centré connaissances et d’une méthodologie de déploiement et d’exploitation / How to assist in bid elaboration from products to services : proposal of a knowledge-based generic model and a methodology for deployment and exploitation

Guillon, Delphine 07 October 2019 (has links)
Les travaux présentés dans ce mémoire s’inscrivent dans une problématique d’aide à l’élaboration d’offres, en adoptant le point de vue de l’entreprise soumissionnaire lors d’un processus de réponse à appel d’offres. Ces offres peuvent concerner indifféremment des produits, des services ou des systèmes produit-service (PSS). Dans le cadre de nos travaux, nous regroupons cette diversité sous le terme « PvSS ». Nous nous intéressons donc à la problématique suivante : «Comment maîtriser et assister l’élaboration d’offres en réponse à appel d’offres ?». Notre première contribution consiste en un cadre de modélisation et d’exploitation des connaissances. Ce cadre est composé d’un modèle générique de structure d’offre, ainsi que d’un modèle d’exploitation des connaissances. Le modèle générique de structure d’offre permet de modéliser à la fois (1) la solution technique (ce que l’entreprise propose au client) et (2) son processus de réalisation (comment l’entreprise fournit cette solution). Il intègre également les notions de contexte d’élaboration, d’exigences client, d’indicateurs d’évaluation (coût, délai de réalisation, confiance, etc.) et de risques. Ce modèle est formalisé et exploité à l’aide d’une taxonomie, d’un problème de satisfaction de contraintes (CSP) et de raisonnement à partir de cas (CBR). Notre deuxième contribution porte sur la caractérisation d’une méthodologie de déploiement et d’exploitation du cadre proposé. Cette méthodologie, appelée ISIEM, intègre des phases d’adaptation et de déploiement du cadre en entreprise (phases d’Initialisation, Spécialisation et Implémentation), mais également des phases d’utilisation (phases d’Exploitation et Mise à jour). Les travaux présentés dans ce mémoire s’inscrivent dans le cadre du projet ANR OPERA. Nos deux contributions sont illustrées par un cas d’étude provenant de l’une des entreprises partenaires du projet. / The work presented in this thesis deals with assistance in bid elaboration, by adopting the point of view of the bidder during a tendering response process. These bids may concern products, services or product-service systems (PSS). As part of our work, we group this diversity under the term“PvSS”. We are therefore interested in the following problem: “How to master and assist in bid elaboration in response to calls for tenders?”. Our first contribution is a framework for modelling and exploiting knowledge. This framework is composed of a generic model of bid structure, as well as a knowledge exploitation model. The generic model of bid structure allows the modelling of both (1) the technical solution (what the company proposes to the customer) and (2) its realization process (how the company provides this solution to the customer). It also integrates the elaboration context, customer requirements, the evaluation indicators (cost, delivery time, confidence, etc.) and risks. This model is formalized and exploited using a taxonomy, a constraint satisfaction problem (CSP) and case-based reasoning (CBR). Our second contribution deals with the characterization of a methodology for deploying and exploiting the proposed framework. This methodology, called ISIEM, includes phases of adaptation and deployment of the framework in enterprise (Initialization, Specialization and Implementation phases), but also phases of use (Exploitation and Maintenance phases). The work presented in this thesis is part of the ANR OPERA project. Our two contributions are illustrated by a case study from one of the project’s partner companies.
40

Modeling and mining business process variants in cloud environments / Modélisation et fouille de variants de procédés d'entreprise dans les environnements cloud

Yongsiriwit, Karn 23 January 2017 (has links)
De plus en plus les organisations adoptent les systèmes d'informations sensibles aux processus basés sur Cloud en tant qu'un environnement pour gérer et exécuter des processus dans le Cloud dans l'objectif de partager et de déployer leurs applications de manière optimale. Cela est particulièrement vrai pour les grandes organisations ayant des succursales opérant dans des différentes régions avec des processus considérablement similaires. Telles organisations doivent soutenir de nombreuses variantes du même processus en raison de la culture locale de leurs succursales, de leurs règlements, etc. Cependant, le développement d'une nouvelle variante de processus à partir de zéro est sujet à l'erreur et peut prendre beaucoup du temps. Motivés par le paradigme "la conception par la réutilisation", les succursales peuvent collaborer pour développer de nouvelles variantes de processus en apprenant de leurs processus similaires. Ces processus sont souvent hétérogènes, ce qui empêche une interopérabilité facile et dynamique entre les différentes succursales. Une variante de processus est un ajustement d'un modèle de processus afin de s'adapter d'une façon flexible aux besoins spécifiques. De nombreuses recherches dans les universités et les industries visent à faciliter la conception des variantes de processus. Plusieurs approches ont été développées pour aider les concepteurs de processus en recherchant des modèles de processus métier similaires ou en utilisant des modèles de référence. Cependant, ces approches sont lourdes, longues et sujettes à des erreurs. De même, telles approches recommandent des modèles de processus pas pratiques pour les concepteurs de processus qui ont besoin d'ajuster une partie spécifique d'un modèle de processus. En fait, les concepteurs de processus peuvent mieux développer des variantes de processus ayant une approche qui recommande un ensemble bien défini d'activités à partir d'un modèle de processus défini comme un fragment de processus. Les grandes organisations multi-sites exécutent les variantes de processus BP dans l'environnement Cloud pour optimiser le déploiement et partager les ressources communes. Cependant, ces ressources Cloud peuvent être décrites en utilisant des différents standards de description des ressources Cloud ce qui empêche l'interopérabilité entre les différentes succursales. Dans cette thèse, nous abordons les limites citées ci-dessus en proposant une approche basée sur les ontologies pour peupler sémantiquement une base de connaissance commune de processus et de ressources Cloud, ce qui permet une interopérabilité entre les succursales de l'organisation. Nous construisons notre base de connaissance en étendant les ontologies existantes. Ensuite, nous proposons une approche pour exploiter cette base de connaissances afin de supporter le développement des variantes BP. De plus, nous adoptons un algorithme génétique pour allouer d'une manière optimale les ressources Cloud aux BPs. Pour valider notre approche, nous développons deux preuves de concepts et effectuons des expériences sur des ensembles de données réels. Les résultats expérimentaux montrent que notre approche est réalisable et précise dans des cas d'utilisation réels / More and more organizations are adopting cloud-based Process-Aware Information Systems (PAIS) to manage and execute processes in the cloud as an environment to optimally share and deploy their applications. This is especially true for large organizations having branches operating in different regions with a considerable amount of similar processes. Such organizations need to support many variants of the same process due to their branches' local culture, regulations, etc. However, developing new process variant from scratch is error-prone and time consuming. Motivated by the "Design by Reuse" paradigm, branches may collaborate to develop new process variants by learning from their similar processes. These processes are often heterogeneous which prevents an easy and dynamic interoperability between different branches. A process variant is an adjustment of a process model in order to flexibly adapt to specific needs. Many researches in both academics and industry are aiming to facilitate the design of process variants. Several approaches have been developed to assist process designers by searching for similar business process models or using reference models. However, these approaches are cumbersome, time-consuming and error-prone. Likewise, such approaches recommend entire process models which are not handy for process designers who need to adjust a specific part of a process model. In fact, process designers can better develop process variants having an approach that recommends a well-selected set of activities from a process model, referred to as process fragment. Large organizations with multiple branches execute BP variants in the cloud as environment to optimally deploy and share common resources. However, these cloud resources may be described using different cloud resources description standards which prevent the interoperability between different branches. In this thesis, we address the above shortcomings by proposing an ontology-based approach to semantically populate a common knowledge base of processes and cloud resources and thus enable interoperability between organization's branches. We construct our knowledge base built by extending existing ontologies. We thereafter propose an approach to mine such knowledge base to assist the development of BP variants. Furthermore, we adopt a genetic algorithm to optimally allocate cloud resources to BPs. To validate our approach, we develop two proof of concepts and perform experiments on real datasets. Experimental results show that our approach is feasible and accurate in real use-cases

Page generated in 0.4987 seconds