• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 5
  • 3
  • Tagged with
  • 8
  • 8
  • 5
  • 4
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Une infrastructure de gestion de l'information de contexte pour l'intelligence ambiante

Pierson, Jérôme 05 October 2009 (has links) (PDF)
Les environnements d'intelligence ambiante servent d'interface entre les applications et les utilisateurs. Ces applications doivent prendre en compte le contexte dans lequel les utilisateurs évoluent (le lieu, la position sociale ou hiérarchique ou l'activité par exemple) pour adapter leur comportement. Il doit exister un flux d'informations de l'environnement vers les applications. Ces applications doivent pouvoir prendre en compte dynamiquement l'arrivée de nouveaux éléments dans l'environnement (utilisateurs ou dispositifs), et les informations de contexte en provenance de l'environnement doivent pouvoir parvenir aux applications entrantes ; ces flux d'informations ne peuvent pas être déterminés à l'avance et doivent se construire pendant l'exécution. Les modèles de gestion de l'information de contexte existants ne traitent pas ou peu cet aspect dynamique de l'informatique diffuse. Nous proposons d'utiliser les technologies du web sémantique pour décrire et rechercher ces informations : l'information de contexte est exprimée en RDF et décrite par des ontologies OWL. Ces technologies, parce qu'elles sont fondées sur l'hypothèse du monde ouvert, assurent l'ouverture du système et la prise en compte de dispositifs hétérogènes. Nous montrons qu'à l'aide d'un protocole simple qui permet à chacun des dispositifs et des applications d'exhiber sur le réseau un modèle des informations de contexte qu'il produit ou qu'il recherche et de s'identifier, toutes les applications de l'environnement satisfont leurs besoins en informations de contexte. De surcroît, l'ouverture des langages de description d'ontologies permet l'extension des descriptions de contexte à tout moment et les technologies d'alignement d'ontologies permettent l'utilisation d'ontologies développées indépendamment. Nous avons implémenté un composant pour la gestion de l'information de contexte fondé sur ce modèle. Puis nous avons développé une architecture distribuée où les dispositifs et les applications embarquent ce composant et exposent un modèle de l'information de contexte qu'ils recherchent ou produisent. Nous avons montré comment cette architecture permet d'accepter sans interruption de nouveaux composants.
2

Une approche organisationnelle pour la conception d'un système de gestion des connaissances fondé sur le paradigme agent.

Davy, Monticolo 26 February 2008 (has links) (PDF)
Ce travail est fondé sur une approche organisationnelle pour la gestion des connaissances lors des projets de conception mécanique. Lors de ces travaux, nous avons pris en compte les aspects sociaux et coopératifs du processus de conception où les acteurs métier travaillent ensemble, créent, utilisent et partagent leurs connaissances pour atteindre le même objectif : le développement d'un nouveau système mécanique. Quatre aspects ont été développés dans ce travail : <br />- L'élaboration d'un modèle organisationnel du processus de conception où sont représentés les rôles des acteurs métier, leurs compétences, leurs interactions ainsi que les connaissances qu'ils utilisent et partagent tout au long des activités de conception. Ce modèle est un guide pour la capitalisation et la réutilisation des connaissances lors des projets de conception ;<br />- La définition d'un modèle de mémoire organisationnelle, MemoDesign, fournissant un cadre pour la structuration et l'indexation des connaissances à archiver lors des projets de conception ;<br />- La construction d'une ontologie appelée OntoDesign permettant d'inférer et de manipuler les connaissances du domaine ;<br />- La conception et l'implantation du système multi-agents KATRAS prenant en compte les aspects sociaux et coopératifs du processus de conception et chargé de la construction de mémoires de projet au fil de l'eau des projets de conception mécaniques.
3

Annotation Semantique de Documents Semi-Structurés pour la recherche d'information

Thiam, Mouhamadou 09 December 2010 (has links) (PDF)
Le web sémantique est défini par un ensemble de méthodes et de technologies permettant à des agents logiciels de raisonner sur le contenu des ressources du Web. Cette vision du Web dépend de la construction des ontologies et de l'utilisation de métadonnées pour représenter ces ressources. L'objectif de notre travail de thèse est d'annoter sémantiquement des documents balisés et relatifs au même domaine. Ces documents peuvent comporter des parties bien structurées et d'autres textuelles. Nous supposons disposer d'une ontologie de domaine définie par des concepts, des relations entre ces concepts et des propriétés. Cette ontologie comporte une composante lexicale où chaque concept est accompagné de labels, d'un ensemble d'entités nommées (EN) et de termes du domaine. Nous avons défini une approche automatique SHIRI-Extract qui permet d'extraire des termes et des EN de manière indépendante du domaine et de les aligner aux concepts de l'ontologie. L'alignement utilise la composante lexicale ou le Web pour découvrir de nouveaux termes. Nous avons défini un modèle d'annotation représentant les résultats d'extraction et d'annotation. Les métadonnées de ce modèle distinguent les nœuds selon que les termes ou les EN agrégés dans un même nœud sont alignés avec un ou plusieurs concepts différents. Elles permettent également d'annoter la relation de voisinage entre les nœuds. Nous avons défini SHIRI-Annot, un ensemble de règles déclaratives pour annoter les nœuds et leurs relations. La base d'annotations RDF(S) construite peut être interrogée à l'aide de requêtes SPARQL. L'évaluation a porté sur une collection de documents portant sur des appels à participation à des conférences.
4

Uncertainty-Sensitive Reasoning over the Web of Data / Modélisation et calcul de la confiance dans les réseaux pair à pair de partage de données

Bakri, Mustafa al 15 December 2014 (has links)
Dans cette thèse, nous étudions plusieurs approches destinées à aider les utilisateurs à trouver des informations utiles et fiables dans le Web de données, en utilisant les technologies du Web sémantique. Nous abordons pour cela deux thèmes de recherche: le liage de données dans le Linked-Data et la confiance dans les réseaux P2P sémantiques. Nous modélisons le problème de liage dans le Web de données comme un problème de raisonnement sur des données incomplètes, qu'il s'agit d'enrichir en interrogeant de façon précise et pertinente le cloud du Linked Data. Nous avons conçu et implémenté un nouvel algorithme qui, à partir d'une requête de liage (du type et d'une base de règles modélisant de manière uniforme diverses connaissances du domaine (contraintes du schéma, axiomes d'inclusion ou d'exclusion d'une ontologie, règles expertes, mappings), construit itérativement des requêtes SPARQL pour importer des sources externes pertinentes du Linked Data les données utiles pour répondre à la requête de liage. Les expérimentations que nous avons menées sur des données réelles ont démontré la faisabilité de cette approche et son utilité dans la pratique pour le liage de données et la résolution d'homonymie. En outre, nous proposons une adaptation de cette approche pour prendre en compte des données et des connaissances éventuellement incertaines, avec en résultat l'inférence de liens ‘sameAs' et ‘differentFrom' associés à des poids de probabilité. Dans cette adaptation nous modélisons l'incertitude comme des valeurs de probabilité. Nos expérimentations ont montré que notre approche passe à l'échelle pour des bases de connaissances constituées de plusieurs millions de faits RDF et produit des poids probabilistes fiables. Concernant la confiance, nous introduisons un mécanisme de confiance permettant de guider le processus de réponse aux requêtes dans des Réseaux P2P sémantiques. Les différents pairs dans les réseaux P2P sémantiques organisent leur information en utilisant des ontologies distinctes et d épendent d'alignements entre ontologies pour traduire leurs requêtes. La notion de confiance dans un tel contexte est subjective ; elle estime la probabilité qu'un pair apportera des réponses satisfaisantes pour les requêtes spécifiques dans les interactions futures. Le mécanisme proposé de calcul de valeurs de confiance combine les informations fournies par les alignements avec celles provenant des interactions passées entre pairs. Les valeurs de confiances calculées sont affinées progressivement à chaque cycle de requête/réponse en utilisant l'inférence bayésienne. Pour l'évaluation de notre mécanisme, nous avons construit un système P2P de partage de signets sémantiques (TrustMe) dans lequel il est possible de faire varier différents paramètres quantitatifs et qualitatifs. Les résultats expérimentaux montrent la convergence des valeurs de confiance ;.ils mettent également en évidence le gain en terme de qualité des réponses des pairs - mesurées selon la précision et le rappel- lorsque le processus de réponse aux requêtes est guidé par notre mécanisme de confiance. / In this thesis we investigate several approaches that help users to find useful and trustful informationin the Web of Data using the Semantic Web technologies. In this purpose, we tackle tworesearch issues: Data Linkage in Linked Data and Trust in Semantic P2P Networks. We model the problem of data linkage in Linked Data as a reasoning problem on possibly decentralized data. We describe a novel Import-by-Query algorithm that alternates steps of subquery rewriting and of tailored querying the Linked Data cloud in order to import data as specific as possible for inferring or contradicting given target same-as facts. Experiments conducted on real-world datasets have demonstrated the feasibility of this approach and its usefulness in practice for data linkage and disambiguation. Furthermore, we propose an adaptation of this approach to take into account possibly uncertain data and knowledge, with a result the inference of same-as and different-from links associated with probabilistic weights. In this adaptation we model uncertainty as probability values. Our experiments have shown that our adapted approach scales to large data sets and produces meaningful probabilistic weights. Concerning trust, we introduce a trust mechanism for guiding the query-answering process in Semantic P2P Networks. Peers in Semantic P2P Networks organize their information using separate ontologies and rely on alignments between their ontologies for translating queries. Trust is such a setting is subjective and estimates the probability that a peer will provide satisfactory answers for specific queries in future interactions. In order to compute trust, the mechanism exploits the information provided by alignments, along with the one that comes from peer's experiences. The calculated trust values are refined over time using Bayesian inference as more queries are sent and answers received. For the evaluation of our mechanism, we have built a semantic P2P bookmarking system (TrustMe) in which we can vary different quantitative and qualitative parameters. The experimental results show the convergence of trust, and highlight the gain in the quality of peers' answers —measured with precision and recall— when the process of query answering is guided by our trust mechanism.
5

OPP_IoT An ontology-based privacy preservation approach for the Internet of Things / Une approche pour la préservation de la confidentialité dans l'internet des objets basée sur les ontologies

Moreira da Costa, Thiago 27 January 2017 (has links)
La vulgarisation de l'informatique omniprésente à travers l'internet des objets (IdO) représente un défi pour la préservation de la vie privée et la confidentialité des individus.Les menaces contre la confidentialité sont directement liées à la capacité de détection de capteur dans l'IdO en suivant les individus dans presque toutes les situations de leur vie.Alliée à cela, les techniques d'exploration de données ont évolué et ont été utilisées pour extraire une multitude d’informations personnelles à partir de données du flux des données des capteurs.Ce modèle de confiance repose sur la fiabilité du consommateur de données pour extraire uniquement des informations accordées.Cependant, ce modèle permet l’exposition d’informations personnelles à des adversaires de la vie privée.Afin de fournir un mécanisme pour préserver la confidentialité dans l'IdO, nous proposons un modèle de capteur virtuel qui renforce une politique de confidentialité dans le flux des données des capteurs.Ce mécanisme intermédiaire se met en place entre les capteurs physiques et les consommateurs de données.En conséquence, nous sommes en mesure d'optimiser l'utilisation des techniques de preservation de confidentialité, telles qu'anonymisation, en les appliquant de manière sélective selon les intentions d'inférence des capteurs virtuelles, tout en empêchant les capteurs virtuels malveillants d'exécuter ou d'obtenir un accès direct aux données brutes des capteurs physiques.En outre, nous proposons une ontologie pour classer les informations personnelles basées sur la science du comportement (Behavior Computing), ce qui facilite la définition de la politique de confidentialité et à la classification de l'information en fonction des contextes comportementaux. / The spread of pervasive computing through the Internet of Things (IoT) represents a challenge for privacy preservation.Privacy threats are directly related to the capacity of the IoT sensing to track individuals in almost every situation of their lives.Allied to that, data mining techniques have evolved and has been used to extract a myriad of personal information from sensor data stream.This trust model relies on the trustworthiness of the data consumer who should infer only intended information.However, this model exposes personal information to privacy adversary.In order to provide a privacy preservation for the IoT, we propose a privacy-aware virtual sensor model that enforces privacy policy in the IoT sensing as a service.This mechanism intermediates physical sensors and data consumers.As a consequence, we are able to optimize the use of privacy preserving techniques by applying them selectively according to virtual sensor inference intentions, while preventing malicious virtual sensors to execute or get direct access to raw sensor data.In addition, we propose an ontology to classify personal information based on the Behavior Computing, facilitating privacy policy definition and information classification based on the behavioral contexts.
6

A Framework for Automatic Annotation of Semantic Trajectories / Un Framework pour l'annotation automatique des trajectoires sémantiques

Paiva Nogueira, Tales 30 January 2017 (has links)
Les données de localisation sont présentes dans plusieurs aspects de notre vie. Nous assistons à une utilisation croissante de ce type de données par une variété d'applications. En conséquence, les systèmes d'information sont demandés à traiter des grands ensembles de données brutes afin de construire des abstractions de haut niveau. La convergence des services de localisation et des standards de la Web sémantique rendent plus faciles les taches d’interconnexion et d’annotation des trajectoires.Dans cette thèse, nous nous concentrons sur la modélisation de trajectoires dans le contexte de la Web sémantique. Nous proposons une ontologie pour représenter des épisodes génériques. Notre modèle couvre aussi des éléments contextuels qui peuvent être liés à des trajectoires. Nous proposons aussi un framework contenant trois algorithmes d'annotation des trajectoires. Le premier détecte les mouvements, les arrêts et les données manquants; le second est capable de compresser des séries temporelles et de créer des épisodes qui reprennent l'évolution des caractéristiques de la trajectoire; le troisième exploite les données liées pour annoter des trajectoires avec des éléments géographiques qui l’intersecte a partir des données d'OpenStreetMap.Comme résultats, nous avons une nouvelle ontologie qui peut représenter des phénomènes spatiotemporels dans différents niveaux de granularité. En outre, notre méthode de détection de mouvement-arrêt-bruit est capable de traiter des traces échantillonnées irrégulièrement et ne dépend pas des données externes; notre méthode de compression des séries temporelles est capable de trouver des valeurs qui la résume en même temps que des segments trop courts sont évités; et notre algorithme d'annotation spatiale explore des données liées et des relations entre concepts pour trouver des types pertinents d'entités spatiales qui peuvent décrire l'environnement où la trajectoire a eu lieu. / Location data is ubiquitous in many aspects of our lives. We are witnessing an increasing usage of this kind of data by a variety of applications. As a consequence, information systems are required to deal with large datasets containing raw data in order to build high level abstractions. Semantic Web technologies offers powerful representation tools for pervasive applications. The convergence of location-based services and Semantic Web standards allows an easier interlinking and annotation of trajectories.In this thesis, we focus in modeling mobile object trajectories in the context of the Semantic Web. First, we propose an ontology that allows the representation of generic episodes. Our model also handles contextual elements that may be related to trajectories. Second, we propose a framework containing three algorithms for automatic annotation of trajectories. The first one detects moves, stops, and noisy data; the second one is able to compress generic time series and create episodes that resumes the evolution of trajectory characteristics; the third one exploits the linked data cloud to annotate trajectories with geographic elements that intersects it with data from OpenStreetMap.As results of this thesis, we have a new ontology that can represent spatiotemporal phenomena at different levels of granularity. Moreover, our framework offers three novel algorithms for trajectory annotation. The move-stop-noise detection method is able to deal with irregularly sampled traces and do not depend on external data of the underlying geography; our time series compression method is able to find values that summarize a series at the same time that too small segments are avoided; and our spatial annotation algorithm explores linked data and the relationships among concepts to find relevant types of spatial features to describe the environment where the trajectory took place.
7

Un Intergiciel de Gestion du Contexte basé Multi-Agent pour les Applications d'Intelligence Ambiante / Multi-Agent Context Management in Support of Ambient Intelligence Applications

Sorici, Alexandru 11 September 2015 (has links)
La complexité et l'ampleur des scénarios de l'Intelligence Ambiante impliquent que des attributs tels que l'expressivité de modelisation, la flexibilité de representation et de deploiement et la facilité de configuration et de developpement deviennent des caracteristiques centrales pour les systèmes de gestion de contexte. Cependant, les ouvrages existants semblent explorer ces attributs orientés-developpement a un faible degré.Notre objectif est de créer un intergiciel de gestion de contexte flexible et bien configurable, capable de répondre aux différents scenarios. A cette fin, notre solution est construite a base de techniques et principes du Web Semantique (WS) et des systèmes multi-agents (SMA).Nous utilisons le WS pour proposer un noveau meta-modèle de contexte, permettant une modelisation expressive et extensible du contenu, des meta-proprietés (e.g. validité temporelle, parametres de qualité) et des dépendances (e.g. les contraintes d'integrité) du contexte.De plus, une architecture a base de SMA et des composants logiciels, ou chaque agent encapsule un aspect fonctionnel du processus de gestion de contexte (acquisition, coordination, diffusion, utilisation) est developpée.Nous introduisons un nouveau moyen de structurer le deploiement d'agents selon les dimensions du modèle de contexte de l'application et nous elaborons des politiques déclaratives gouvernant le comportement d'adaptation du provisionnement contextuel des agents. Des simulations d'un scenario d'université intelligente montrent que un bon outillage construit autour de notre intergiciel peut apporter des avantages significatifs dans la génie des applications sensibles au contexte. / The complexity and magnitude of Ambient Intelligence scenarios imply that attributes such as modeling expressiveness, flexibility of representation and deployment, as well as ease of configuration and development become central features for context management systems.However, existing works in the literature seem to explore these development-oriented attributes at a low degree.Our goal is to create a flexible and well configurable context management middleware, able to respond to different scenarios. To this end, our solution is built on the basis of principles and techniques of the Semantic Web and Multi-Agent Systems.We use the Semantic Web to provide a new context meta-model, allowing for an expressive and extensible modeling of content, meta-properties (e.g. temporal validity, quality parameters) and dependencies (e.g. integrity constraints).In addition, we develop a middleware architecture that relies on Multi-Agent Systems and a service component based design. Each agent of the system encapsulates a functional aspect of the context provisioning processes (acquisition, coordination, distribution, use).We introduce a new way to structure the deployment of agents depending on the multi-dimensionality aspects of the application's context model. Furthermore, we develop declarative policies governing the adaptation behavior of the agents managing the provisioning of context information.Simulations of an intelligent university scenario show that appropriate tooling built around our middleware can provide significant advantages in the engineering of context-aware applications.
8

Supporting cloud resource allocation in configurable business process models / Supporter l'allocation des ressources cloud dans les processus métiers configurables

Hachicha Belghith, Emna 22 September 2017 (has links)
Les organisations adoptent de plus en plus les Systèmes (PAIS) pour gérer leurs processus métiers basés sur les services en utilisant les modèles de processus appelés «modèles de processus métiers». Motivés par l’adaptation aux exigences commerciales et par la réduction des coûts de maintenance, les organisations externalisent leurs processus dans le Cloud Computing. Selon l'Institut NIST, Cloud Computing est un modèle qui permet aux fournisseurs de partager leurs ressources et aux utilisateurs d’y accéder de manière pratique et à la demande. Dans un tel environnement multi-tenant, l'utilisation de modèles de processus configurables permet aux fournisseurs de processus Cloud de fournir un processus personnalisable qui peut être configuré par différents tenants en fonction de leurs besoins.Un processus métier peut être spécifié par plusieurs perspectives tel que la perspective de flux de contrôle, la perspective des ressources, etc. Plusieurs approches ont été proposées au niveau des premières perspectives, notamment le flux de contrôle. Cependant, la perspective ressource, qui est d'une importance égale, était négligée et pas explicitement définie. D’un côté, la gestion de la perspective ressource spécifiquement l’allocation des ressources Cloud est un thème d’actualité qui implique plusieurs recherches. La modélisation et la configuration des ressources sont une tâche sensible nécessitant un travail intensif. Malgré l’existence de différentes approches, elles traitent principalement les ressources humaines plutôt que des ressources Cloud. D’un autre côté, malgré le fait que le concept des modèles de processus configurables est très complémentaire au Cloud, la manière dont comment les ressources sont configurées et intégrées est à peine manipulée. Les approches proposées travaillant sur l’extension de la configuration de ressources, ne couvrent pas les propriétés Cloud notamment l’élasticité et le partage.Pour répondre à ces lacunes, nous proposons une approche pour supporter la modélisation et la configuration de l’allocation des ressources Cloud dans les modèles de processus configurables. Nous visons à (1) définir une description unifiée et formelle pour la perspective ressource, (2) assurer une allocation de ressource correcte, sans conflits et optimisée, (3) Aider les fournisseurs de processus à concevoir leur allocation de ressources configurable de manière fine afin d'éviter des résultats complexes et importants, et (4) Optimiser la sélection des ressources Cloud par rapport aux exigences liées aux propriétés Cloud (élasticité et partage) et propriétés QoS.Pour ce faire, nous proposons d'abord un cadre sémantique pour une description de ressources sémantiquement enrichies dans les processus métiers visant à formaliser les ressources Cloud consommées à l'aide d'une base de connaissances partagée. Ensuite, nous nous basons sur les processus métiers sociales pour fournir des stratégies afin d'assurer une allocation de ressources contrôlée sans conflits en termes de ressources. Par la suite, nous proposons une nouvelle approche qui étend les modèles de processus configurables pour permettre une allocation de ressources Cloud configurable. Notre objectif est de déplacer l'allocation de ressources Cloud du côté des tenants vers le côté du fournisseur de processus Cloud pour une gestion centralisée des ressources. Après, nous proposons des approches génétiques qui visent à choisir une configuration optimale des ressources d'une manière efficace sur le plan énergétique en améliorant les propriétés QoS.Afin de montrer l'efficacité de nos propositions, nous avons développé concrètement (1) une série de preuves de concepts, en tant que partie de validation, pour aider à concevoir des modèles de processus et remplir une base de connaissances de modèles de processus hétérogènes avec des ressources Cloud et (2) ont effectué des expériences sur des modèles de processus réels à partir de grands ensembles de données / Organizations are recently more and more adopting Process-Aware Information Systems (PAIS) for managing their service-based processes using process models referred to as business process models. Motivated by adapting to the rapid changing business requirements and reducing maintenance costs, organizations are outsourcing their processes in an important infrastructure which is Cloud Computing. According to the NIST Institute, Cloud Computing is a model that enables providers sharing their computing resources (e.g., networks, applications, and storage) and users accessing them in convenient and on-demand way with a minimal management effort. In such a multi-tenant environment, using configurable process models allows a Cloud process provider to deliver a customizable process that can be configured by different tenants according to their needs.A business process could be specified from various perspectives such as the control-flow perspective, the organizational perspective, the resource perspective, etc. Several approaches have been correctly proposed at the level of the first perspectives, in particular the control-flow, i.e., the temporal ordering of the process activities. Nevertheless, the resource perspective, which is of equal importance, has been neglected and poorly operated. The management of the resource perspective especially the Cloud resource allocation in business processes is a current interesting topic that increasingly involves many researches in both academics and industry. The design and configuration of resources are undoubtedly sensitive and labor-intensive task. On the one hand, the resource perspective in process models is not explicitly defined. Although many proposals exist in the literature, they all targeted human resources rather than Cloud resources. On the other hand, despite of the fact that the concept of configurable process models is highly complementary to Cloud Computing, the way in how resources can be configured and integrated is hardly handled. The few proposals, which have been suggested on extending configuration to resources, do not cover required Cloud properties such as elasticity or multi-tenancy.To address these limitations, we propose an approach for supporting the design and configuration of Cloud resource Allocation in configurable business process models. We target to (1) define a unified and formal description for the resource perspective, (2) ensure a correct, free-of-conflict and optimized use of Cloud resource consumption, (3) assist process providers to design their configurable resource allocation in a fine-grained way to avoid complex and large results, and (4) optimize the selection of Cloud resources with respect to the requirements related to Cloud properties (elasticity and shareability) and QoS properties.To do so, we first suggest a semantic framework for a semantically-enriched resource description in business processes aiming at formalizing the consumed Cloud resources using a shared knowledge base. Then, we build upon social business processes to provide strategies in order to ensure a controlled resource allocation without conflicts in terms of resources. Next, we propose a novel approach that extends configurable process models to permit a configurable Cloud resource allocation. Our purpose is to shift the Cloud resource allocation from the tenant side to the Cloud process provider side for a centralized resource management. Afterwards, we propose genetic-based approaches that aim at selecting optimal resource configuration in an energy efficient manner and to improve non-functional properties.In order to show the effectiveness of our proposals, we concretely developed (i) a set of proof of concepts, as a validation part, to assist the design of process models and populate a knowledge base of heterogeneous process models with Cloud resources, and (ii) performed experiments on real process models from large datasets

Page generated in 0.0876 seconds