• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 67
  • 41
  • 10
  • 2
  • 1
  • Tagged with
  • 121
  • 121
  • 46
  • 45
  • 37
  • 27
  • 27
  • 19
  • 14
  • 12
  • 12
  • 11
  • 11
  • 11
  • 10
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Modélisation des architectures logicielles dynamiques : application à la gestion de la qualité de service des applications à base de services web

Moo-Mena, Francisco José 04 April 2007 (has links) (PDF)
Nos travaux se situent dans le cadre des architectures logicielles dynamiques en tant qu'outil pour l'adaptation des applications à base de services Web, l'objectif étant de proposer des mécanismes d'aide à la gestion de la QdS. Nous proposons une approche de modélisation par le biais d'éléments architecturaux étendant la vue de déploiement d'UML. A partir de la définition de règles de base, issues des techniques de réécriture de graphes, des actions de reconfiguration architecturale sont introduites. Un premier scénario applicatif traite le processus de revue coopérative adapté au cas spécifique d'un système de gestion de conférences. Un deuxième scénario traite le cas d'un magasin en ligne. Nous proposons une classification des cas de dysfonctionnement pour la gestion de la QdS, classification que nous formalisons par le biais d'une ontologie. Notre dernière proposition concerne une architecture de gestion de la QdS, modélisée et validée au moyen de l'outil UML Tau G2.
62

Un système multi-agents pour la gestion des connaissances hétérogènes et distribuées

Lahoud, Inaya 10 September 2013 (has links) (PDF)
La gestion des connaissances permet d'identifier et de capitaliser les savoirs faires de l'entreprise afin de les organiser et de les diffuser. Cette thèse propose un système de gestion des connaissances hétérogènes et distribuées, appelé OCEAN. Basé sur les ontologies et sur un système multi-agents, OCEAN a pour but de résoudre le problème de la capitalisation et de réutilisation des connaissances provenant de plusieurs sources différentes, afin d'aider les acteurs métiers dans le processus de développement de produits mécaniques. Le système OCEAN repose sur un cycle de vie de quatre étapes Ce cycle de vie possède les phases : d'identification, d'extraction, de validation et se termine par la réutilisation des connaissances. Chaque phase constitue l'objectif d'une organisation d'agents.L'identification dans le système OCEAN consiste à définir les connaissances par un expert métier sous la forme d'une ontologie. Les ontologies sont utilisées dans notre système pour représenter les connaissances définis d'une façon structurée et formelle afin d'être compréhensible par les machines. L'extraction des connaissances dans OCEAN est réalisée par les agents de manière automatique à l'aide des ontologies créées par les experts métiers. Les agents interagissent avec les différentes applications métiers via des services web. Le résultat de cette phase est stocké dans une mémoire organisationnelle. La validation des connaissances consiste à permettre aux acteurs métiers de valider les connaissances de la mémoire organisationnelle dans un wiki sémantique. Ce wiki permet de présenter les connaissances de la mémoire organisationnelle aux acteurs pour les réutiliser, les évaluer et les faire évoluer. La réutilisation des connaissances dans OCEAN est inspiré de travaux antérieurs intégrés au sein d'OCEAN. Les quatre phases du cycle de vie des connaissances traitées dans cette thèse nous ont permis de réaliser un système apte à gérer les connaissances hétérogènes et distribuées dans une entreprise étendue.
63

Multi-providers location based services for mobile-tourism : a use case for location and cartographic integrations on mobile devices

Karam, Roula 26 September 2011 (has links) (PDF)
Les services géolocalisés (LBS) sont destinés à délivrer de l'information adéquate aux utilisateurs quelque soit le temps et l'endroit et ceci en se basant sur leur profil, contexte et position géographique. A travers n'importe quelle application dans ce domaine, par exemple m-tourisme, les utilisateurs souhaitent toujours recevoir une réponse rapide et précise en se déplaçant. Cependant, la qualité de service proposée par les fournisseurs cartographiques actuels (i.e. Google Maps, Bing, Yahoo Maps, Mappy ou Via Michelin) dépend de leurs données géographiques. En général, ces données sont stockées de plusieurs bases de données géographiques (BDG) dans le monde entier. D'autre part, le nombre croissant des différentes BDG couvrant la même zone géographique et la récupération des données/métadonnées non erronées pour un service quelconque, impliquent de nombreux raisonnements et de contrôles d'accès aux BDG afin de résoudre les ambiguïtés dues à la présence des objets homologues dupliqués sur l'écran mobile. Mon travail consiste à permettre cette intégration cartographique pour les applications mtourisme et ceci en récupérant les informations spatiales/non-spatiales (noms, positions géographiques, catégorie du service, détails sémantiques et symboles cartographiques) de plusieurs fournisseurs. Cependant, ceci peut conduire à visualiser des objets dupliqués pour le même point d'intérêt et causer des difficultés au niveau de la gestion des données. En outre, l'utilisateur sera dérouté par la présence de résultats multiples pour un même point. Donc, mon but ultime sera de générer automatiquement une carte unique intégrant plusieurs interfaces des fournisseurs sur laquelle les objets homologues seront intégrés avant de les visualiser sur l'écran mobile. Nos nouveaux concepts, basés sur certains algorithmes de fusion, sur l'ontologie pour assurer l'intégration au niveau sémantique et cartographique, sur l'orchestration des géo web services, sont implémentés dans des prototypes modulaires et évalués.
64

Approche multi-perspective centrée exigences de composition de services Web

Driss, Maha 08 December 2011 (has links) (PDF)
Le paradigme architecture orientée service AOS est devenu un standard pour la conception et le développement d'applications distribuées dans base de services Web. Malgré tous les avantages qu'elles apportent en termes d'interopérabilité et de réutilisation, les solutions de développement associées au paradigme AOS sont destinées aux programmeurs et restent difficiles à comprendre par le monde de l'entreprise. Pour être en phase avec le monde de l'entreprise, les applications à base de services Web doivent être décrites en termes d'exigences qu'elles permettent de satisfaire et non pas en termes de fonctionnalités qu'elles permettent de réaliser. Ceci permet de minimiser la discordance conceptuelle entre les services logiciels et l'énoncé des exigences des utilisateurs. Nous proposons dans le cadre de ce travail de thèse, une approche multi-perspective centrée exigences pour la composition de services Web. Notre approche positionne la composition des services dans une perspective centrée exigences dans laquelle les services métiers de haut niveau sont décrits en termes d'exigences qu'ils permettent de satisfaire. Un processus d'alignement est proposé pour assurer une mise en correspondance de ces services avec les services logiciels de bas niveau qui sont décrits en termes de déclarations techniques au niveau d'une perspective centrée fonctions. Ce processus intègre la variabilité de composition tout au long des étapes de construction de ces applications à base de services.
65

Un cadre de conception pour la Visualisation d'Information Interactive

Vuillemot, Romain 07 December 2010 (has links) (PDF)
Les interfaces visuelles interactives exploitent les capacités visuelles et cognitives de l'humain, afin de lui permettre de manipuler et de comprendre de grandes quantités de données abstraites. La conception et l'évaluation de ces interfaces restent cependant des processus complexes, car ils portent sur toute la chaine de traitement de l'information, des données bru tes, jusqu'au rendu sous forme d'image. Les interfaces actuelles sont également peu flexibles et adaptables à une nouvelle donnée, tâche ou technique d'exploration, car elles nécessitent alors une nouvelle itération de développement logiciel et redéploiement chez l'utilisateur. Dans cette thèse nous nous sommes intéressés à l'amélioration de ce processus de conception, en proposant une approche orientée services permettant de limiter tout redéploiement et de faciliter le partage et la collaboration autour de représentations visuelles. Notre démarche a tout d'abord été d'étudier les espaces de design de la visualisation d'information, de l'interaction visuelle et de l'exploration visuelle de données de manière étendue. Nous avons ensuite proposé une architecture de conception composée d'un profil applicatif, d'un graphe de scène et de services web de visualisation. La réalisation de quatre applications interactives a permis de montrer la mise en œuvre opérationnelle de cette architecture, dans des contextes aussi différents en termes de données et de tâches à réaliser que sont l'exploration de bases de données de films, d'images, de réseaux sociaux et de collection de textes littéraires.
66

An ontology-based approach to manage conflicts in collaborative design / Une approche basée sur les ontologies pour la gestion de conflits dans un environnement collaboratif

Lima Dutra, Moisés 27 November 2009 (has links)
De nos jours, les projets de conception complexes de produits exigent que les équipes de concepteurs se réunissent pour faciliter le partage de leurs compétences et expertises respectives afin de produire un ensemble de solutions de conception efficace. Dû au besoin croissant d’échanger les connaissances, les projets de conception modernes sont encore plus structurés pour travailler avec des équipes distribuées qui collaborent sur un réseau informatique pour accomplir une conception optimale de produit. Néanmoins, dans ce processus de conception collaborative, l'intégration d'équipes multidisciplinaires – qui implique l'échange et le partage des connaissances et compétences – génère fréquemment des situations conflictuelles. Les différents points de vue et perspectives des experts, les différentes façons de communiquer et collaborer au niveau de connaissances, rendent le processus difficilement maitrisable. Pour accomplir un scénario optimal, certains problèmes doivent d’abords être résolus comme la spécification et formalisation des besoins, l’intégration d'ontologies, la détection et la résolution des conflits. Spécifier et formaliser les connaissances demandent un grand effort afin d’obtenir un modèle de représentation pour agréger plusieurs domaines différents des connaissances. Chaque expert pourrait s'exprimer afin que les autres comprennent leurs informations correctement. Il est donc nécessaire d’utiliser un modèle de représentation de données suffisamment clair et flexible pour accomplir cette tâche. Certains modèles actuels ne parviennent pas à fournir une solution efficace pour le partage des connaissances et pour la collaboration des projets de conception, car ces modèles n’intègrent pas les aspects géographiques, temporels, fonctionnels de la conception avec un modèle de représentation des connaissances flexible et générique. Ce travail propose une architecture, pour la conception collaborative, qui ambitionne d'être synchrone, générique, orientée aux services, basée sur les agents, et basée sur les ontologies. Des modèles particuliers de représentation sont transformés en instances d'ontologie et sont fusionnés pour accomplir le model final de conception d’un produit. C'est une approche synchrone parce que le processus de fusion est entrepris en même temps que l'interaction entre concepteurs. C'est générique parce qu'elle permet aux utilisateurs de travailler avec deux approches pour l’intégration d'ontologies : celle qui utilise une ontologie générique et celle qui utilise un processus d'harmonisation. Notre proposition se concentre sur les conflits de la conception collaborative et fait usage de Web Ontology Language (OWL) et des Services Web, le premier comme langage pour représenter les connaissances et le dernier comme un support technologique pour la communication. / Today’s complex design projects require teams of designers to work collaboratively by sharing their respective expertise in order to produce effective design solutions. Due to the increasing need for exchanging knowledge, modern design projects are more structured to work with distributed virtual teams that collaborate over computer networks to achieve overall optimization in design. Nevertheless, in a collaborative design process, the integration of multidisciplinary virtual teams – involving exchange and sharing of knowledge and expertise – frequently and inevitably generates conflicting situations. Different experts’ viewpoints and perspectives, in addition to several ways of communicating and collaborating at the knowledge level, make all this process very hard to manage. In order to achieve an optimal scenario, some problems must first be solved, such as requirement specification and formalization, ontology integration, and conflict detection and resolution. Specifying and formalizing the knowledge demands a great effort towards obtaining representation patterns that aggregate several disjoint knowledge areas. Each expert should express himself so that the others can understand his information correctly. It is necessary, therefore, to use a flexible and sufficiently extensive data representation model to accomplish such a task. Some current models fall short of providing an effective solution to effective knowledge sharing and collaboration on design projects, because they fail to combine the geographical, temporal, and functional design aspects with a flexible and generic knowledge representation model. This work proposes an information model-driven collaborative design architecture that supports synchronous, generic, service-oriented, agent-based, and ontology-based teamwork. Particular representation models are transformed into ontology instances and merged together in order to accomplish the final product design. It is a synchronous approach because the concurrent processes are undertaken at the same time that the interactions among designers take place. It is generic because it provides the users with two approaches for ontology integration: the use of a predefined generic ontology and the harmonization process. Our proposal focuses on collaborative design conflict resolution by using Web Ontology Language (OWL) and Web Services, the former as a tool for knowledge representation and the latter as a technological support for communication.
67

Selected applications and services of the web 2.0 / Vybrané aplikace a služby webu 2.0

Chudán, David January 2008 (has links)
Submitted thesis is divided into two main parts. The first part is theoretical, focused on description of individual part of web 2.0 and on description of chosen applications and services. Second, practical part is focused on comparison of selected applications of web 2.0. To be more concrete, it is focused on blogging system comparison, online word processor comparison and on online maps comparison. In the appendix, there is own survey based on a questionnaire. The main objective of this thesis is to provide general summary of this issue. Besides delimitation of the term web 2.0, it is a summary of applications and services, which achieves the characteristics of web 2.0. As for subsidiary objectives, there is a possibility for users to choose optimal blogging system, online word processor or online map due to their demands. This possibility is based on conducted comparison.
68

Testabilité des services Web / Web services testability

Rabhi, Issam 09 January 2012 (has links)
Cette thèse s’est attaquée sous diverses formes au test automatique des services Web : une première partie est consacrée au test fonctionnel à travers le test de robustesse. La seconde partie étend les travaux précédents pour le test de propriétés non fonctionnelles, telles que les propriétés de testabilité et de sécurité. Nous avons abordé ces problématiques à la fois d’un point de vue théorique et pratique. Nous avons pour cela proposé une nouvelle méthode de test automatique de robustesse des services Web non composés, à savoir les services Web persistants (stateful) et ceux non persistants. Cette méthode consiste à évaluer la robustesse d’un service Web par rapport aux opérations déclarées dans sa description WSDL, en examinant les réponses reçues lorsque ces opérations sont invoquées avec des aléas et en prenant en compte l’environnement SOAP. Les services Web persistants sont modélisés grâce aux systèmes symboliques. Notre méthode de test de robustesse dédiée aux services Web persistants consiste à compléter la spécification du service Web afin de décrire l’ensemble des comportements corrects et incorrects. Puis, en utilisant cette spécification complétée, les services Web sont testés en y intégrant des aléas. Un verdict est ensuite rendu. Nous avons aussi réalisé une étude sur la testabilité des services Web composés avec le langage BPEL. Nous avons décrit précisément les problèmes liés à l’observabilité qui réduisent la faisabilité du test de services Web. Par conséquent, nous avons évalué des facteurs de la testabilité et proposé des solutions afin d’améliorer cette dernière. Pour cela, nous avons proposé une approche permettant, en premier lieu, de transformer la spécification ABPEL en STS. Cette transformation consiste à convertir successivement et de façon récursive chaque activité structurée en un graphe de sous-activités. Ensuite, nous avons proposé des algorithmes d’améliorations permettant de réduire ces problèmes de testabilité. Finalement, nous avons présenté une méthode de test de sécurité des services Web persistants. Cette dernière consiste à évaluer quelques propriétés de sécurité, tel que l’authentification, l’autorisation et la disponibilité, grâce à un ensemble de règles. Ces règles ont été crée, avec le langage formel Nomad. Cette méthodologie de test consiste d’abord à transformer ces règles en objectifs de test en se basant sur la description WSDL, ensuite à compléter, en parallèle, la spécification du service Web persistant et enfin à effectuer le produit synchronisé afin de générer les cas de test. / This PhD thesis focuses on diverse forms of automated Web services testing : on the one hand, is dedicated to functional testing through robustness testing. On the other hand, is extends previous works on the non-functional properties testing, such as the testability and security properties. We have been exploring these issues both from a theoretical and practical perspective. We proposed a robustness testing method which generates and executes test cases automatically from WSDL descriptions. We analyze the Web service over hazards to find those which may be used for testing. We show that few hazards can be really handled and then we improve the robustness issue detection by separating the SOAP processor behavior from the Web service one. Stateful Web services are modeled with Symbolic Systems. A second method dedicated to stateful Web services consists in completing the Web service specification to describe correct and incorrect behaviors. By using this completed specification, the Web services are tested with relevant hazards and a verdict is returned. We study the BPEL testability on a well-known testability criterion called observability. To evaluate, we have chosen to transform ABPEL specifications into STS to apply existing methods. Then, from STS testability issues, we deduce some patterns of ABPEL testability degradation. These latter help to finally propose testability enhancement methods of ABPEL specifications. Finally, we proposed a security testing method for stateful Web Services. We define some specific security rules with the Nomad language. Afterwards, we construct test cases from a symbolic specification and test purposes derived from the previous rules. Moreover, to validate our proposal, we have applied our testing approach on real size case studies.
69

Attack tolerance for services-based applications in the Cloud / Tolérance aux attaques pour les applications orientées services Web dans le cloud

Ouffoué, Georges 21 December 2018 (has links)
Les services Web permettent la communication de systèmes hétérogènes sur le Web. Ces facilités font que ces services sont particulièrement adaptés au déploiement dans le cloud. Les efforts de formalisation et de vérification permettent d’améliorer la confiance dans les services Web, néanmoins des problèmes tels que la haute disponibilité et la sécurité ne sont pas entièrement pris en compte. Par ailleurs, les services Web déployés dans une infrastructure cloud héritent des vulnérabilités de cette dernière. En raison de cette limitation, ils peuvent être incapables d’exécuter parfaitement leurs tâches. Dans cette thèse, nous pensons qu’une bonne tolérance nécessite un monitoring constant et des mécanismes de réaction fiables. Nous avons donc proposé une nouvelle méthodologie de monitoring tenant compte des risques auxquels peuvent être confrontés nos services. Pour mettre en oeuvre cette méthodologie, nous avons d’abord développé une méthode de tolérance aux attaques qui s’appuie sur la diversification au niveau modèle. On définit un modèle du système puis on dérive des variantes fonctionnellement équivalents qui remplaceront ce dernier en cas d’attaque. Pour ne pas dériver manuellement les variants et pour augmenter le niveau de diversification nous avons proposé une deuxième méthode complémentaire. Cette dernière consiste toujours à avoir des variants de nos services; mais contrairement à la première méthode, nous proposons un modèle unique avec des implantations différentes tant au niveau des interfaces, du langage qu’au niveau des exécutables. Par ailleurs, pour détecter les attaques internes, nous avons proposé un mécanisme de détection et de réaction basé sur la reflexivité. Lorsque le programme tourne, nous l’analysons pour détecter les exécutions malveillantes. Comme contremesure, on génère de nouvelles implantations en utilisant la reflexivité. Pour finir, nous avons étendu notre environnement formel et outillé de services Web en y incorporant de manière cohérente tous ces mécanismes. L’idée est de pouvoir combiner ces différentes méthodes afin de tirer profit des avantages de chacune d’elle. Nous avons validé toute cette approche par des expériences réalistes. / Web services allow the communication of heterogeneous systems on the Web. These facilities make them particularly suitable for deploying in the cloud. Although research on formalization and verification has improved trust in Web services, issues such as high availability and security are not fully addressed. In addition, Web services deployed in cloud infrastructures inherit their vulnerabilities. Because of this limitation, they may be unable to perform their tasks perfectly. In this thesis, we claim that a good tolerance requires attack detection and continuous monitoring on the one hand; and reliable reaction mechanisms on the other hand. We therefore proposed a new formal monitoring methodology that takes into account the risks that our services may face. To implement this methodology, we first developed an approach of attack tolerance that leverages model-level diversity. We define a model of the system and derive more robust functionally equivalent variants that can replace the first one in case of attack. To avoid manually deriving the variants and to increase the level of diversity, we proposed a second complementary approach. The latter always consists in having different variants of our services; but unlike the first, we have a single model and the implementations differ at the language, source code and binaries levels. Moreover, to ensure detection of insider attacks, we investigated a new detection and reaction mechanism based on software reflection. While the program is running, we analyze the methods to detect malicious executions. When these malicious activities are detected, using reflection again, new efficient implementations are generated as countermeasure. Finally, we extended a formal Web service testing framework by incorporating all these complementary mechanisms in order to take advantage of the benefits of each of them. We validated our approach with realistic experiments.
70

Conception et développement d'un service web de mise à jour incrémentielle pour les cubes de données spatiales

Declercq, Charlotte 13 April 2018 (has links)
Les applications géodécisionnelles évoluent vers le temps réel et nécessitent un mécanisme de mise à jour rapide. Or, ce processus est complexe et très coûteux en temps de calcul à cause de la structure dénormalisée des données, stockées sous forme de cube. La méthode classique qui consistait à reconstruire entièrement le cube de données prend de plus en plus de temps au fur et à mesure que le cube grossit, et n'est plus envisageable. De nouvelles méthodes de mise à jour dites incrémentielles ont fait leurs preuves dans le domaine du Business Intelligence. Malheureusement, de telles méthodes n'ont jamais été transposées en géomatique décisionnelle, car les données géométriques nécessitent des traitements spécifiques et complexes. La mise à jour des cubes de données spatiales soulève des problèmes jusqu'alors inconnus dans les cubes de données classiques. En plus de cela, une large confusion règne autour de la notion de mise à jour dans les entrepôts de données. On remarque également que l'architecture des entrepôts de données suit la tendance actuelle d'évolution des architectures de systèmes informatiques vers une distribution des tâches et des ressources, au détriment des systèmes centralisés, et vers le développement de systèmes interopérables. Les architectures en émergence, dites orientées services deviennent dans ce sens très populaires. Cependant, les services dédiés à des tâches de mise à jour de cubes sont pour l'heure inexistants, même si ceux-ci représenteraient un apport indéniable pour permettre la prise de décision sur des données toujours à jour et cohérentes. Le but de ce mémoire est d'élaborer des méthodes de mise à jour incrémentielles pour les cubes spatiaux et d'inscrire le dispositif dans une architecture orientée services. La formulation de typologies pour la gestion de l'entrepôt de données et pour la mise à jour de cube a servi de base à la réflexion. Les méthodes de mise à jour incrémentielles existantes pour les cubes non spatiaux ont été passées en revue et ont permis d'imaginer de nouvelles méthodes incrémentielles adaptées aux cubes spatiaux. Pour finir, une architecture orientée services a été conçue, elle intègre tous les composants de l'entrepôt de données et contient le service web de mise à jour de cube, qui expose les différentes méthodes proposées.

Page generated in 0.068 seconds