Spelling suggestions: "subject:"cervices web"" "subject:"dervices web""
101 |
Towards a resilient service oriented computing based on ad-hoc web service compositions in dynamic environments / Vers un paradigme service résilient basé sur ad-hoc compositions des services web dans des environnements dynamiquesLi, Wenbin 27 March 2014 (has links)
Le processus de composition des services Web joue un rôle important dans la réalisation des architectures orientées services (SOA). Dans les environnements dynamiques dans lesquels des informations con-textuelles changent souvent, le processus de composition est souvent affec-té pendant les phases de conception et d’exécution. Ce processus devrait par conséquence être en mesure de s'adapter aux changements en temps de conception et exécution. A présent, les architectures orientées services et les mécanismes automatiques de composition de services Web ne parviennent pas à faire face aux changements continus et imprévisibles. Construire des architectures orientées services qui s'adaptent aux changements dans des environnements dynamiques révèle un défi pour les processus de com-position de services Web. En outre, les processus de composition actuelles offrent un support limité pour les utilisateurs professionnels de spécifier leurs exigences métier afin générer automatiquement les processus métiers (services Web composites). Par cela, l'écart entre les exigences fonction-nelles et non-fonctionnelles au niveau métier et les exigences techniques liées aux mécanismes de composition de services Web augmentent la com-plexité du développement d'applications ou de processus métier adaptés aux environnements dynamiques. Pour remédier à ces défis, nous introduisons le concept de rési-lience appliqué à l'informatique orientée services (nommé SOC résilient) afin de construire des applications et processus métier dynamiques en res-pectant les exigences métier dans des environnements dynamiques. La SOA résilient est conçue comme un ensemble de modèles qui affectent, et sont affectées par, d’autres modèles. Dans cette thèse, nos contributions, qui se concentrent en particulier sur le modèle d’exigence de composition et le modèle de composition des services Web, composent trois parties princi-pales: tout d'abord le modèle de d’exigence est modélisé aux trois niveaux, i.e., métier, capacité, et règle. Particulièrement, le modèle de d’exigence métier offre aux utilisateurs un langage structuré à base de langage naturelle pour spécifier les processus métier; d'autre part, un processus de trans-formation dérive par transformation un modèle d’exigence de composition à base de règles. Chaque règle représente un ensemble de contraintes multi-objectives concernant différentes variables liées au processus de composi-tion et à son environnement dynamique. Troisièmement, une approche ad-hoc de composition des services Web a été développée pour construire de services composites sans plans de composition prédéfinis dans des environ-nements dynamiques. L’approche de transformation de modèle-à-modèle génère les règles qui sont récursivement utilisées pour modifier ces modèles et ensuite replanifiés une composition ad-hoc de services Web. / Due to the distributed and asynchronous nature of Web services, the Web service composition process plays an important role in achieving SOC. In dynamic environments by which contextual information such as Web service properties and composition requirements often change, the composition process is thus affected and, consequently, should be able to adapt composite applications to changes at design time and runtime. Un-fortunately, current Service-Oriented Architecture (SOA) and Web service composition approaches lack of the ability to deal with continuous and un-predictable changes. Building resilient service-oriented architectures that are adaptable to endogenous and exogenous changes in dynamic environments reveal a drastic challenge to current composition processes. In addition, current composition processes provide a limited support for business users to specify their requirements in business languages to automatically compose business processes (i.e., composite services). By such, the gap be-tween business requirements and composition requirements related to Web services increases the complexity of developing adaptable SOA-based ap-plications and processes in dynamic environments. To overcome these challenges, we introduce the concept of Resili-ent Service-Oriented Computing (rSOC) to construct resilient SOA-based applications driven by business requirements in dynamic environments. To this end, the resilient SOA is defined as a set of models that affect and are affected by each other, and relies on a model-to-model transformation ap-proach to ensure SOA adaptability and evolution. In this thesis, we particu-larly focus on two models: a three-level composition requirement model and a Web service composition model, to establish the foundation for a re-silient SOA as follows: firstly, composition requirements are modeled in three levels, i.e., business-centric, capability-focused and rule-driven. Par-ticularly the business-centric requirement model provides business users with a structured natural language to specify requirements; secondly, a two-phase requirement transformation process builds the rule-driven Web ser-vice composition requirement model from the business-centric requirement model as set of composition rules, expressing multi-objective constraints that affect the composition process and its dynamic environment; thirdly, an ad-hoc Web service composition approach is introduced to flexibly con-struct composite services without predefined composition plans. Particularly, composition rules generated in composition process may affect other model(s) in the resilient SOA, such as composition requirement model, and recursively invoke the model-to-model transformation approach to replan the ad-hoc Web service composition approach.
|
102 |
Une approche orientée service pour la recherche sémantique de contenus multimédias / An oriented service approach for semantic search of multimedia contentsMidouni, Sid Ahmed Djallal 08 July 2017 (has links)
Les sources de données multimédias provenant de divers domaines (médical, tourisme, commerce, art et culture, etc.) sont devenues incontournables sur le web. L’accès à ces sources multimédias dans les systèmes distribués pose de nouveaux problèmes en raison de nombreux paramètres : volumétrie, diversité des interfaces, format de représentation, localisation, etc. En outre, l’exigence de plus en plus forte des utilisateurs et des applications à vouloir intégrer la sémantique dans la recherche d’information pose de nouvelles questions à résoudre. Pour prendre en compte cette nouvelle complexité, nous nous intéressons dans notre travail de recherche aux solutions d’intégration de données basées sur les services web. Dans cette thèse, nous proposons une approche orientée service pour la recherche sémantique de contenus multimédia. Nous avons appelé cette approche SeSaM (Semantic Search of Multimedia content). SeSaM repose sur la définition d’un nouveau type de services accédant aux contenus multimédias, qui est les services MaaS (Multimedia as a Services). Elle est basée sur un processus en deux phases : description et découverte des services MaaS. En ce qui concerne la description de services MaaS, nous avons défini le langage SA4MaaS (Semantic Annotation for MaaS services), qui est une extension de SAWSDL (recommandation W3C). L’idée principale de ce langage est l’intégration, en plus de la sémantique métier, de la sémantique de l’information multimédia dans la description des services MaaS. En ce qui concerne la découverte de services MaaS, nous avons proposé un nouveau matchmaker MaaS-MX (MaaS services Matchmaker) adapté au modèle de description des MaaS. MaaS-MX est composé de deux étapes primordiales : appariement métier et appariement multimédia. L’appariement métier consiste à comparer la description métier des services et de la requête, tandis que l’appariement multimédia compare la description multimédia des services et de la requête. L’approche a été prototypée et évaluée dans deux domaines différents : médical et tourisme. Les résultats indiquent que l’utilisation de l’appariement métier et l’appariement multimédia a considérablement amélioré les performances des systèmes de recherche de données multimédias. / Multimedia data sources from various fields (medical, tourism, trade, art and culture, etc.) became essential on the web. Accessing to multimedia data in distributed systems poses new challenges due to many system parameters: volume, diversity of interfaces, representation format, location, etc. In addition, the growing needs of users and applications to incorporate semantics in the information retrieval pose new issues. To take into account this new complexity, we are interested in our research of data integration solutions based on web services. In this thesis, we propose an approach-oriented service for the semantic search of multimedia content. We called this approach SeSaM (Semantic Search of Multimedia content). SeSaM is based on the definition of a new pattern of services to access multimedia content, which is the MaaS services (Multimedia as a Services). It is based on a two-phase process: description and discovery of MaaS services. As for the MaaS services description, we have defined the SA4MaaS language (Semantic Annotation for MaaS services), which is an extension of SAWSDL (W3C recommendation). The main idea of this language is the integration, in addition to business domain semantic, of multimedia information semantics in the MaaS services description. As for the MaaS service discovery, we have proposed a new matchmaker MaaS-MX (MaaS services Matchmaker) adapted to the MaaS services description model. MaaS-MX is composed of two essential steps: domain matching and multimedia matching. Domain matching consists in comparing the business domain description of MaaS services and the query, whereas multimedia matching compares the multimedia description of MaaS services and the query. The approach has been implemented and evaluated in two different domains: medical and tourism. The results indicate that using both domain and multimedia matching considerably improves the performance of multimedia data retrieving systems.
|
103 |
Multi-providers location based services for mobile-tourism : a use case for location and cartographic integrations on mobile devices / Services localisés multi-fournisseurs pour le tourisme mobile : un cas d'utilisation pour l'intégration sémantique et cartographique sur des dispositifs portablesKaram, Roula 26 September 2011 (has links)
Les services géolocalisés (LBS) sont destinés à délivrer de l’information adéquate aux utilisateurs quelque soit le temps et l’endroit et ceci en se basant sur leur profil, contexte et position géographique. A travers n’importe quelle application dans ce domaine, par exemple m-tourisme, les utilisateurs souhaitent toujours recevoir une réponse rapide et précise en se déplaçant. Cependant, la qualité de service proposée par les fournisseurs cartographiques actuels (i.e. Google Maps, Bing, Yahoo Maps, Mappy ou Via Michelin) dépend de leurs données géographiques. En général, ces données sont stockées de plusieurs bases de données géographiques (BDG) dans le monde entier. D’autre part, le nombre croissant des différentes BDG couvrant la même zone géographique et la récupération des données/métadonnées non erronées pour un service quelconque, impliquent de nombreux raisonnements et de contrôles d’accès aux BDG afin de résoudre les ambiguïtés dues à la présence des objets homologues dupliqués sur l’écran mobile. Mon travail consiste à permettre cette intégration cartographique pour les applications mtourisme et ceci en récupérant les informations spatiales/non-spatiales (noms, positions géographiques, catégorie du service, détails sémantiques et symboles cartographiques) de plusieurs fournisseurs. Cependant, ceci peut conduire à visualiser des objets dupliqués pour le même point d’intérêt et causer des difficultés au niveau de la gestion des données. En outre, l’utilisateur sera dérouté par la présence de résultats multiples pour un même point. Donc, mon but ultime sera de générer automatiquement une carte unique intégrant plusieurs interfaces des fournisseurs sur laquelle les objets homologues seront intégrés avant de les visualiser sur l’écran mobile. Nos nouveaux concepts, basés sur certains algorithmes de fusion, sur l’ontologie pour assurer l’intégration au niveau sémantique et cartographique, sur l’orchestration des géo web services, sont implémentés dans des prototypes modulaires et évalués. / Through any location based services application (LBA) (i.e. m-tourism), users who request information while on the move, intentionally seek as well a quick and precise answer on any map. However, the quality of the cartographic search engines such as Google maps, Bing, Yahoo Maps, Mappy or Via Michelin relies on their geographic datasets. Typically, these datasets had been collected from many geographic databases worldwide. However, the increasing number of different GDBs covering the same area and the retrieval of accurate data/metadata for the requested service will imply lots of reasoning processes and databases’ accesses in order to avoid nearly-duplicated records when displayed on the screen. The scope of my research is to ensure location and cartographic integrations for m-tourism LBA by retrieving spatial/non-spatial information (place names, geographic positions,category type, semantic details and cartographic symbols) from many service providers.However, this will cause many nearly-duplicated records for the same datasets which would bring trouble to data management and make users confused by the different results of a unique query especially for the same point of interest. In other words, my ultimate goal is to generate automatically a unique map from multiple providers’ portrayals such as Google Maps, Bing and Yahoo Maps while homologous features should be integrated to avoid duplicate icons on the mobile screen. Our conceptual framework, based on some fusion algorithms, ontology reasoning for cartographic interoperability and geo-web services orchestration, had been implemented in some modular prototypes and tested for evaluation purpose.
|
104 |
Intelligent quality of experience (QoE) analysis of network served multimedia and web contents / Analyse intelligente de la qualité d'expérience (QoE) dans les réseaux de diffusion de contenu web et mutimédiaPokhrel, Jeevan 19 December 2014 (has links)
De nos jours, l’expérience de l'utilisateur appelé en anglais « User Experience » est devenue l’un des indicateurs les plus pertinents pour les fournisseurs de services ainsi que pour les opérateurs de télécommunication pour analyser le fonctionnement de bout en bout de leurs systèmes (du terminal client, en passant par le réseaux jusqu’à l’infrastructure des services etc.). De plus, afin d’entretenir leur part de marché et rester compétitif, les différents opérateurs de télécommunication et les fournisseurs de services doivent constamment conserver et accroître le nombre de souscription des clients. Pour répondre à ces exigences, ils doivent disposer de solutions efficaces de monitoring et d’estimation de la qualité d'expérience (QoE) afin d’évaluer la satisfaction de leur clients. Cependant, la QoE est une mesure qui reste subjective et son évaluation est coûteuse et fastidieuse car elle nécessite une forte participation humaine (appelé panel de d’évaluation). Par conséquent, la conception d’un outil qui peut mesurer objectivement cette qualité d'expérience avec une précision raisonnable et en temps réel est devenue un besoin primordial qui constitue un challenge intéressant à résoudre. Comme une première contribution, nous avons analysé l'impact du comportement d’un réseau sur la qualité des services de vidéo à la demande (VOD). Nous avons également proposé un outil d'estimation objective de la QoE qui utilise le système expert basé sur la logique floue pour évaluer la QoE à partir des paramètres de qualité de service de la couche réseau. Dans une deuxième contribution, nous avons analysé l'impact des paramètres QoS de couche MAC sur les services de VoD dans le cadre des réseaux sans fil IEEE 802.11n. Nous avons également proposé un outil d'estimation objective de la QoE qui utilise le réseau aléatoire de neurones pour estimer la QoE dans la perspective de la couche MAC. Pour notre troisième contribution, nous avons analysé l'effet de différents scénarios d'adaptation sur la QoE dans le cadre du streaming adaptatif au débit. Nous avons également développé une plate-Forme Web de test subjectif qui peut être facilement intégré dans une plate-Forme de crowd-Sourcing pour effectuer des tests subjectifs. Finalement, pour notre quatrième contribution, nous avons analysé l'impact des différents paramètres de qualité de service Web sur leur QoE. Nous avons également proposé un algorithme d'apprentissage automatique i.e. un système expert hybride rugueux basé sur la logique floue pour estimer objectivement la QoE des Web services / Today user experience is becoming a reliable indicator for service providers and telecommunication operators to convey overall end to end system functioning. Moreover, to compete for a prominent market share, different network operators and service providers should retain and increase the customers’ subscription. To fulfil these requirements they require an efficient Quality of Experience (QoE) monitoring and estimation. However, QoE is a subjective metric and its evaluation is expensive and time consuming since it requires human participation. Therefore, there is a need for an objective tool that can measure the QoE objectively with reasonable accuracy in real-Time. As a first contribution, we analyzed the impact of network conditions on Video on Demand (VoD) services. We also proposed an objective QoE estimation tool that uses fuzzy expert system to estimate QoE from network layer QoS parameters. As a second contribution, we analyzed the impact of MAC layer QoS parameters on VoD services over IEEE 802.11n wireless networks. We also proposed an objective QoE estimation tool that uses random neural network to estimate QoE from the MAC layer perspective. As our third contribution, we analyzed the effect of different adaption scenarios on QoE of adaptive bit rate streaming. We also developed a web based subjective test platform that can be easily integrated in a crowdsourcing platform for performing subjective tests. As our fourth contribution, we analyzed the impact of different web QoS parameters on web service QoE. We also proposed a novel machine learning algorithm i.e. fuzzy rough hybrid expert system for estimating web service QoE objectively
|
105 |
Approche dirigée par les modèles pour la spécification, la vérification formelle et la mise en oeuvre de services Web composésDumez, Christophe 31 August 2010 (has links) (PDF)
Dans ce travail, une approche pour la spécification, la vérification formelle et la mise en oeuvre de services Web composés est proposée. Il s'agit d'une approche dirigée par les modèles fidèle aux principes de MDA définis par l'OMG. Elle permet au développeur de s'abstraire des difficultés liées à l'implémentation en travaillant sur les modèles de haut niveau, indépendants de la plateforme ou de la technologie d'implémentation cible. Les modèles sont réalisés à l'aide du langage de modélisation UML. Plus précisément, une extension à UML nommée UML-S est proposée pour adapter le langage au domaine de la composition de services. Les modèles UML-S sont suffisamment expressifs et précis pour être directement transformés en code exécutable tout en conservant leur lisibilité. Ces modèles peuvent également être transformés en descriptions formelles LOTOS afin de procéder à leur vérification formelle. L'approche proposée contribue à réduire les temps et les coûts de développement tout en assurant la fiabilité des services composés.
|
106 |
Partage et production de connaissances distribuées dans des plateformes scientifiques collaborativesGaignard, Alban 15 March 2013 (has links) (PDF)
Cette thèse s'intéresse à la production et au partage cohérent de connaissances distribuées dans le domaine des sciences de la vie. Malgré l'augmentation constante des capacités de stockage et de calcul des infrastructures informatiques, les approches centralisées pour la gestion de grandes masses de données scientifiques multi-sources deviennent inadaptées pour plusieurs raisons: (i) elles ne garantissent pas l'autonomie des fournisseurs de données qui doivent conserver un certain contrôle sur les don- nées hébergées pour des raisons éthiques et/ou juridiques, (ii) elles ne permettent pas d'envisager le passage à l'échelle des plateformes en sciences computationnelles qui sont la source de productions massives de données scientifiques. Nous nous intéressons, dans le contexte des plateformes collaboratives en sci- ences de la vie NeuroLOG et VIP, d'une part, aux problématiques de distribution et d'hétérogénéité sous-jacentes au partage de ressources, potentiellement sensibles ; et d'autre part, à la production automatique de connaissances au cours de l'usage de ces plateformes, afin de faciliter l'exploitation de la masse de données produites. Nous nous appuyons sur une approche ontologique pour la modélisation des connaissances et pro- posons à partir des technologies du web sémantique (i) d'étendre ces plateformes avec des stratégies efficaces, statiques et dynamiques, d'interrogations sémantiques fédérées et (ii) d'étendre leur environnent de traitement de données pour automatiser l'annotation sémantique des résultats d'expérience "in silico", à partir de la capture d'informations de provenance à l'exécution et de règles d'inférence spécifiques au domaine. Les résultats de cette thèse, évalués sur l'infrastructure distribuée et contrôlée Grid'5000, apportent des éléments de réponse à trois enjeux majeurs des plateformes collaboratives en sciences computationnelles : (i) un modèle de collaborations sécurisées et une stratégie de contrôle d'accès distribué pour permettre la mise en place d'études multi-centriques dans un environnement compétitif, (ii) des résumés sémantiques d'expérience qui font sens pour l'utilisateur pour faciliter la navigation dans la masse de données produites lors de campagnes expérimentales, et (iii) des stratégies efficaces d'interrogation et de raisonnement fédérés, via les standards du Web Sémantique, pour partager les connaissances capitalisées dans ces plateformes et les ouvrir potentiellement sur le Web de données.
|
107 |
Conception et mise en oeuvre d'une plate-forme pour la sûreté de fonctionnement des services WebSalatgé, Nicolas 08 December 2006 (has links) (PDF)
Basés sur les protocoles XML, SOAP et WSDL, les Services Web (SW) sont la technologie de base pour le développement d'Architectures Orientées Services (AOS). Ces architectures permettent de mettre en place des applications faiblement couplées avec un fort degré de configuration dynamique. Elles se basent sur la notion de relation de "services" formalisée par un contrat qui unit le client et le prestataire de services. Ce contrat est le point charnière de ce type d'applications. D'un point de vue purement marketing, les Services Web peuvent être développés pour satisfaire les besoins des clients, être facile à maintenir et aussi fournir un haut niveau de qualité de service. Les prestataires de Services Web doivent s'assurer de la fiabilité et de la disponibilité de leur infrastructure individuelle de Services Web. Cependant, les prestataires ne peuvent pas tenir compte de tous les besoins possibles des clients et des contraintes liées au développement de l'application donnée. Cela signifie que des mécanismes additionnels doivent être développés et ciblés pour un contexte d'utilisation donné. C'est exactement le type de problèmes que j'ai examiné dans mes travaux. Les développeurs d'application regardent les Services Web comme des COTS (Component Off-The Shell) et ignorent donc leurs implémentations et leurs comportements en présence de fautes. De ce point de vue, les clients ont besoin de développer des mécanismes de tolérances aux fautes spécifiques bien adaptés à leurs applications. Dans ce but, mes travaux de thèse m'ont conduit à proposer une plate-forme pour aider les clients à réaliser des connecteurs spécifiques de tolérance aux fautes (SFTC - Specifique Fault Tolerance Connectors) qui implémentent des filtres et autres techniques de détection d'erreurs (c.à.d des assertions exécutables) ainsi que des mécanismes de recouvrement qui sont déclenchés quand les Services Web ne satisfont plus les caractéristiques de sûreté demandées. De plus, le même Services Web peut être employé dans plusieurs applications orientées services avec différentes contraintes et peut donc tirer profit de plusieurs connecteurs (SFTCs). Le problème est similaire à l'utilisation des composants COTS dans les systèmes critiques de sûreté, et des travaux précédents ont déjà prouvé que des mécanismes tels que les wrappers étaient une solution possible. La différence dans le contexte des Architectures Orientées Services est que des wrappers prédéfinis ne peuvent pas être spécifiés pour satisfaire tous les besoins possibles. L'approche doit être plus adaptative pour permettre à des mécanismes de sûreté : 1) d'être définis au cas par cas pour une utilisation donnée du Service Web et 2) d'avoir une forte dynamique afin d'être modifiés selon les besoins. Ainsi, mes travaux de recherches ont permis de fournir aux développeurs d'Architectures Orientées Services: 1) un langage nommé DeWeL pour décrire les caractéristiques de sûreté de fonctionnement du connecteur et 2) l'infrastructure IWSD pour dynamiquement contrôler et exécuter les connecteurs dans des applications critiques. L'objectif final est de fournir aux développeurs d' Architectures Orientées Services une infrastructure et des outils capables de les aider à déployer des applications orientées services tolérants les fautes.
|
108 |
Vers le recouvrement automatique dans la composition de services WEB basée protocoleMenadjelia, Nardjes 15 July 2013 (has links) (PDF)
Dans une composition de services Web basée protocole, un ensemble de services composants se collaborent pour donner lieu à un service Composite. Chaque service est représenté par un automate à états finis (AEF). Au sein d'un AEF, chaque transition exprime l'exécution d'une opération qui fait avancer le service vers un état suivant. Une exécution du composite correspond à une séquence de transitions où chacune est déléguée à un des composants. Lors de l'exécution du composite, un ou plusieurs composants peuvent devenir indisponibles. Ceci peut produire une exécution incomplète du composite, et de ce fait un recouvrement est nécessaire. Le recouvrement consiste à transformer l'exécution incomplète en une exécution alternative ayant encore la capacité d'aller vers un état final. La transformation s'effectue en compensant certaines transitions et exécutant d'autres. Cette thèse présente une étude formelle du problème de recouvrement dans une composition de service Web basée protocole. Le problème de recouvrement consiste à trouver une meilleure exécution alternative parmi celles disponibles. Une meilleure alternative doit être atteignable à partir de l'exécution incomplète avec un nombre minimal de compensations visibles (vis-à-vis le client). Pour une exécution alternative donnée, nous prouvons que le problème de décision associé au calcul du nombre de transitions invisiblement compensées est NP-Complet. De ce fait, nous concluons que le problème de décision associé au recouvrement appartient à la classe ΣP2.
|
109 |
Active XML Data Warehouses for Intelligent, On-line Decision Support / Entrepôts de données XML actifs pour la décision intelligente en ligneSalem, Rashed 23 March 2012 (has links)
Un système d'aide à la décision (SIAD) est un système d'information qui assiste lesdécideurs impliqués dans les processus de décision complexes. Les SIAD modernesont besoin d'exploiter, en plus de données numériques et symboliques, des donnéeshétérogènes (données texte, données multimédia, ...) et provenant de sources diverses(comme le Web). Nous qualifions ces données complexes. Les entrepôts dedonnées forment habituellement le socle des SIAD. Ils permettent d'intégrer des données provenant de diverses sources pour appuyer le processus décisionnel. Cependant, l'avènement de données complexes impose une nouvelle vision de l'entreposagedes données, y compris de l'intégration des données, de leur stockage et de leuranalyse. En outre, les exigences d'aujourd'hui imposent l'intégration des donnéescomplexes presque en temps réel, pour remplacer le processus ETL traditionnel(Extraction, Transformation et chargement). Le traitement en temps réel exige unprocessus ETL plus actif. Les tâches d'intégration doivent réagir d'une façon intelligente, c'est-à-dire d'une façon active et autonome pour s'adapter aux changementsrencontrés dans l'environnement d'intégration des données, notamment au niveaudes sources de données.Dans cette thèse, nous proposons des solutions originales pour l'intégration dedonnées complexes en temps réel, de façon active et autonome. En eet, nous avons conçu une approche générique basé sur des métadonnées, orientée services et orienté évènements pour l'intégration des données complexes. Pour prendre en charge lacomplexité des données, notre approche stocke les données complexes à l'aide d'unformat unie en utilisant une approche base sur les métadonnées et XML. Nous noustraitons également la distribution de données et leur l'interopérabilité en utilisantune approche orientée services. Par ailleurs, pour considérer le temps réel, notreapproche stocke non seulement des données intégrées dans un référentiel unie,mais présente des fonctions d'intégration des données a la volée. Nous appliquonségalement une approche orientée services pour observer les changements de donnéespertinentes en temps réel. En outre, l'idée d'intégration des données complexes defaçon active et autonome, nous proposons une méthode de fouille dans les évènements.Pour cela, nous proposons un algorithme incrémentiel base sur XML pourla fouille des règles d'association a partir d’évènements. Ensuite, nous denissonsdes règles actives a l'aide des données provenant de la fouille d'évènements an deréactiver les tâches d'intégration.Pour valider notre approche d'intégration de données complexes, nous avons développé une plateforme logicielle, à savoir AX-InCoDa ((Active XML-based frameworkfor Integrating Complex Data). AX-InCoDa est une application Web implémenté à l'aide d'outils open source. Elle exploite les standards du Web (comme les services Web et XML) et le XML actif pour traiter la complexité et les exigences temps réel. Pour explorer les évènements stockés dans base d'évènement, nous avons proposons une méthode de fouille d'évènements an d'assurer leur autogestion.AX-InCoDa est enrichi de règles actives L'ecacite d'AX-InCoDa est illustrée par une étude de cas sur des données médicales. En, la performance de notre algorithme de fouille d'évènements est démontrée expérimentalement. / A decision support system (DSS) is an information system that supports decisionmakers involved in complex decision-making processes. Modern DSSs needto exploit data that are not only numerical or symbolic, but also heterogeneouslystructured (e.g., text and multimedia data) and coming from various sources (e.g,the Web). We term such data complex data. Data warehouses are casually usedas the basis of such DSSs. They help integrate data from a variety of sourcesto support decision-making. However, the advent of complex data imposes anothervision of data warehousing including data integration, data storage and dataanalysis. Moreover, today's requirements impose integrating complex data in nearreal-time rather than with traditional snapshot and batch ETL (Extraction, Transformationand Loading). Real-time and near real-time processing requires a moreactive ETL process. Data integration tasks must react in an intelligent, i.e., activeand autonomous way, to encountered changes in the data integration environment,especially data sources.In this dissertation, we propose novel solutions for complex data integration innear real-time, actively and autonomously. We indeed provide a generic metadatabased,service-oriented and event-driven approach for integrating complex data.To address data complexity issues, our approach stores heterogeneous data into aunied format using a metadata-based approach and XML. We also tackle datadistribution and interoperability using a service-oriented approach. Moreover, toaddress near real-time requirements, our approach stores not only integrated datainto a unied repository, but also functions to integrate data on-the-y. We also apply a service-oriented approach to track relevant data changes in near real-time.Furthermore, the idea of integrating complex data actively and autonomously revolvesaround mining logged events of data integration environment. For this sake,we propose an incremental XML-based algorithm for mining association rules fromlogged events. Then, we de ne active rules upon mined data to reactivate integrationtasks.To validate our approach for managing complex data integration, we develop ahigh-level software framework, namely AX-InCoDa (Active XML-based frameworkfor Integrating Complex Data). AX-InCoDa is implemented as Web application usingopen-source tools. It exploits Web standards (e.g., XML and Web services) andActive XML to handle complexity issues and near real-time requirements. Besidewarehousing logged events into an event repository to be mined for self-managingpurposes, AX-InCoDa is enriched with active rules. AX-InCoDa's feasibility is illustratedby a healthcare case study. Finally, the performance of our incremental eventmining algorithm is experimentally demonstrated.
|
110 |
Vers le recouvrement automatique dans la composition de services WEB basée protocole / Towards automatic recovery in protocol-based Web service compositionMenadjelia, Nardjes 15 July 2013 (has links)
Dans une composition de services Web basée protocole, un ensemble de services composants se collaborent pour donner lieu à un service Composite. Chaque service est représenté par un automate à états finis (AEF). Au sein d’un AEF, chaque transition exprime l’exécution d’une opération qui fait avancer le service vers un état suivant. Une exécution du composite correspond à une séquence de transitions où chacune est déléguée à un des composants. Lors de l’exécution du composite, un ou plusieurs composants peuvent devenir indisponibles. Ceci peut produire une exécution incomplète du composite, et de ce fait un recouvrement est nécessaire. Le recouvrement consiste à transformer l’exécution incomplète en une exécution alternative ayant encore la capacité d’aller vers un état final. La transformation s'effectue en compensant certaines transitions et exécutant d’autres. Cette thèse présente une étude formelle du problème de recouvrement dans une composition de service Web basée protocole. Le problème de recouvrement consiste à trouver une meilleure exécution alternative parmi celles disponibles. Une meilleure alternative doit être atteignable à partir de l’exécution incomplète avec un nombre minimal de compensations visibles (vis-à-vis le client). Pour une exécution alternative donnée, nous prouvons que le problème de décision associé au calcul du nombre de transitions invisiblement compensées est NP-Complet. De ce fait, nous concluons que le problème de décision associé au recouvrement appartient à la classe ΣP2. / In a protocol-based Web service composition, a set of available component services collaborate together in order to provide a new composite service. Services export their protocols as finite state machines (FSMs). A transition in the FSM represents a task execution that makes the service moving to a next state. An execution of the composite corresponds to a sequence of transitions where each task is delegated to a component service. During composite run, one or more delegated components may become unavailable due to hard or soft problems on the Network. This unavailability may result in a failed execution of the composite. We provide in this thesis a formal study of the automatic recovery problem in the protocol-based Web service composition. Recovery consists in transforming the failed execution into a recovery execution. Such a transformation is performed by compensating some transitions and executing some others. The recovery execution is an alternative execution of the composite that still has the ability to reach a final state. The recovery problem consists then in finding the best recovery execution(s) among those available. The best recovery execution is attainable from the failed execution with a minimal number of visible compensations with respect to the client. For a given recovery execution, we prove that the decision problem associated with computing the number of invisibly-compensated transitions is NP-complete. Thus, we conclude that deciding of the best recovery execution is in ΣP2.
|
Page generated in 0.0477 seconds