• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 67
  • 41
  • 10
  • 2
  • 1
  • Tagged with
  • 121
  • 121
  • 46
  • 45
  • 37
  • 27
  • 27
  • 19
  • 14
  • 12
  • 12
  • 11
  • 11
  • 11
  • 10
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
71

Réconciliation sémantique des données et des services mis en œuvre au sein d’une situation collaborative / Collaborative mediation information system design from business process cartography to executable system

Boissel-Dallier, Nicolas 20 November 2012 (has links)
La collaboration entre organisations est l’un des principaux enjeux de l’écosystème industriel actuel. L’établissement d’une telle collaboration doit être réactive, afin de saisir les différentes opportunités, et flexibles, pour pouvoir s’adapter aux changements dans la collaboration. Pour cela, ces collaborations doivent être supportées par un système d’information (SI) dédié, en charge de fournir l’interopérabilité entre les différents SI des partenaires et capable de gérer les spécificités de la collaboration. Le projet MISE (Mediation Information System Engineering) propose une approche dirigée par les modèles permettant à l’utilisateur de concevoir un Système d’Information de Médiation (SIM) adapté au support de cette collaboration. Deux étapes sont au coeur de la conception de ce SIM : la génération du processus métier collaboratif depuis une description de la situation (niveau abstrait) et sa transformation en un système exécutable (niveau concret). Ce manuscrit s’intéresse à cette seconde phase et tente, à l’aide de technologies basées sur la connaissance, de réconcilier ces modèles métiers avec les services techniques disponibles. Après une étude du besoin et des méthodes existantes d’apport sémantique pour les différents niveaux d’abstraction, nous faisons le choix de nous intéresser aux standards SAWSDL et WSMO-Lite au niveau des services et nous proposons un nouveau mécanisme d’annotation sémantique au niveau des processus métier (appelé SABPMN), faute de standard reconnu. Les informations sémantiques ajoutées aux modèles sont ensuite exploitées lors de la transformation des processus métier en workflows exécutables proposée ici. Cette transformation se déroule alors en trois phases : (i) on recherche pour les différentes activités métier du processus le ou les service(s) qui répond(ent) au besoin métier exprimé à l’aide de mécanismes de sélection et de composition de services ; (ii) on génère pour chaque service à invoquer la transformation de données nécessaire pour garantir une bonne communication avec les autres composants ; (iii) une fois ces informations validées par l’utilisateur, on génère les fichiers nécessaires à l’exécution de ce processus sur la plateforme collaborative. Les résultats de cette thèse s’inscrivent aussi au sein du projet FUI ISTA3 (Interopérabilité de 3ème génération pour les Sous-Traitants de l’Aéronautique) qui se propose d’améliorer l’interopérabilité de la chaine logistique des sous-traitants aéronautiques de l’Aerospace Valley afin de faciliter la co-conception. Une implémentation des différents mécanismes proposés a été réalisée et est disponible sous la forme d’un prototype fonctionnel open-source. / Collaboration bewteen organisations is one of nowadays main stakes in industrial ecosystem. Establishment of such collaboration must be reactive, in order to take avantage of opportunities, and flexible, in order to adapt collaboration to context changes. In this view, such collaboration must be supported by a dedicated Information System (IS), responsible for ensuring interoperability between partner’s IS and able to manage collaboration specificities. MISE project (Mediation Information System Engineering) provides a model-driven engineering approach dedicated to design a Mediation Information System (MIS) which supports this collaboration. Two steps are involved in the MIS design : generation of business processes from the description of the collaborative situation (abstract level) and transformation of these process models into an executable system (concrete level). This PhD thesis takes interest in the second level trying to match those business models with available technical services, thanks to knowledge based technologies. First, we studied our semantic needs and existing methods of semantic annotation for models from both business and technical levels. We chose SAWSDL and WSMOLite standards for service annotations whereas we provided a new semantic annotation mechanism for business processes (called SABPMN), in the absence of existing standard. Added semantic information is then used during the business processes to executable workflows transformation. This transformation is performed in three steps : (i) for each activity involved in business processes we search for technical services which fit our business needs thanks to our service selection and composition mechanisms ; (ii) we generate for each selected service the required data transformation to ensure correct communication with other components ; (iii) once this information validated by user, we generate technical files expected by the collaborative platform to execute those processes. Those results are in line with the FUI ISTA3 project (3rd generation of Interoperability for Aeronautics Sub-contracTors) which focuses on improving supply chain interoperability for aeronautics sub-contractors of Aerospace Valley in order to facilitate co-design. All proposed transformation and matchmaking mecanisms are implemented as open-source functional prototypes.
72

Feeding a data warehouse with data coming from web services. A mediation approach for the DaWeS prototype / Alimenter un entrepôt de données par des données issues de services web. Une approche médiation pour le prototype DaWeS

Samuel, John 06 October 2014 (has links)
Cette thèse traite de l’établissement d’une plateforme logicielle nommée DaWeS permettant le déploiement et la gestion en ligne d’entrepôts de données alimentés par des données provenant de services web et personnalisés à destination des petites et moyennes entreprises. Ce travail s’articule autour du développement et de l’expérimentation de DaWeS. L’idée principale implémentée dans DaWeS est l’utilisation d’une approche virtuelle d’intégration de données (la médiation) en tant queprocessus ETL (extraction, transformation et chargement des données) pour les entrepôts de données gérés par DaWeS. A cette fin, un algorithme classique de réécriture de requêtes (l’algorithme inverse-rules) a été adapté et testé. Une étude théorique sur la sémantique des requêtes conjonctives et datalog exprimées avec des relations munies de limitations d’accès (correspondant aux services web) a été menée. Cette dernière permet l’obtention de bornes supérieures sur les nombres d’appels aux services web requis dans l’évaluation de telles requêtes. Des expérimentations ont été menées sur des services web réels dans trois domaines : le marketing en ligne, la gestion de projets et les services d’aide aux utilisateurs. Une première série de tests aléatoires a été effectuée pour tester le passage à l’échelle. / The role of data warehouse for business analytics cannot be undermined for any enterprise, irrespective of its size. But the growing dependence on web services has resulted in a situation where the enterprise data is managed by multiple autonomous and heterogeneous service providers. We present our approach and its associated prototype DaWeS [Samuel, 2014; Samuel and Rey, 2014; Samuel et al., 2014], a DAta warehouse fed with data coming from WEb Services to extract, transform and store enterprise data from web services and to build performance indicators from them (stored enterprise data) hiding from the end users the heterogeneity of the numerous underlying web services. Its ETL process is grounded on a mediation approach usually used in data integration. This enables DaWeS (i) to be fully configurable in a declarative manner only (XML, XSLT, SQL, datalog) and (ii) to make part of the warehouse schema dynamic so it can be easily updated. (i) and (ii) allow DaWeS managers to shift from development to administration when they want to connect to new web services or to update the APIs (Application programming interfaces) of already connected ones. The aim is to make DaWeS scalable and adaptable to smoothly face the ever-changing and growing web services offer. We point out the fact that this also enables DaWeS to be used with the vast majority of actual web service interfaces defined with basic technologies only (HTTP, REST, XML and JSON) and not with more advanced standards (WSDL, WADL, hRESTS or SAWSDL) since these more advanced standards are not widely used yet to describe real web services. In terms of applications, the aim is to allow a DaWeS administrator to provide to small and medium companies a service to store and query their business data coming from their usage of third-party services, without having to manage their own warehouse. In particular, DaWeS enables the easy design (as SQL Queries) of personalized performance indicators. We present in detail this mediation approach for ETL and the architecture of DaWeS. Besides its industrial purpose, working on building DaWeS brought forth further scientific challenges like the need for optimizing the number of web service API operation calls or handling incomplete information. We propose a bound on the number of calls to web services. This bound is a tool to compare future optimization techniques. We also present a heuristics to handle incomplete information.
73

Gestionnaire contextualisé de sécurité pour des « Process 2.0 » / Contextualized security management for “Process 2.0”

Ouedraogo, Wendpanga Francis 29 November 2013 (has links)
Compte tenu de l’environnement économique globalisé et de plus en plus concurrentiel, les entreprises et en particulier les PME/PMI, pour rester compétitif,doivent développer de nouvelles stratégie de collaborations (intra et inter-entreprises) et se restructurer pour rendre leur organisation et le système d’information agile. Alors que jusqu'à présent le Web 2.0 permettait de collaborer sur les données elles-mêmes, nous proposons de passer à une logique de « process 2.0 » permettant de rechercher / composer sémantiquement des services existants pour collaborer directement en partageant des fonctionnalités et non plus seulement des données. Couplé au développement du Cloud Computing, facilitant l’hébergement, une telle stratégie permettrait de coupler plus fortement les niveaux SaaS et PaaS. Toutefois, ceci pose d’évidents problèmes de gestion des contraintes de sécurité. Le développement de stratégies de sécurité est usuellement basé sur une analyse systématique des risques afin de les réduire en adoptant des contre-mesures. Ces approches sont lourdes, complexes à mettre en œuvre et sont souvent rendues caduques car les risques sont évalués dans un monde « fermé », ce qui n’est pas le cas d’une approche par composition de services métier réutilisable où le contexte d’utilisation des différents services au niveau métier et plateforme est inconnu a priori. Dans ce type d’approche, le contexte au niveau métier évoque à la fois les fonctionnalités apportées par chaque service, l’organisation (Qui fait à quoi ?) et l’enchainement de ces services ainsi que les types de données (d’ordre stratégique ou pas,..) que manipulent ces services. Au niveau plateforme, le contexte dépend de l’environnement (privé, public,..) dans lequel les services vont s’exécuter. C’est donc sur la base de l’analyse du contexte que l’on peut définir les contraintes de sécurités propres à chaque service métier, pouvoir spécifier les politiques de sécurités adéquates et mettre en œuvre les moyens de sécurisation adaptés. En outre, il est aussi nécessaire de pouvoir propager les politiques de sécurités sur tout le processus afin d’assurer la cohérence et une sécurité globale lors de l’exécution du processus. Pour répondre à ces enjeux, nous proposons d’étudier la définition des politiques de sécurité à base de « patrons » apportant une réponse graduée en fonction de la confiance que l’on a sur l’environnement. Ainsi des patrons de sécurité qui répondent à des besoins de sécurité métiers et à des besoins de sécurité plateforme seront définis et permettront d’exprimer l’ensemble des politiques de sécurité. La sélection et de mise en œuvre de ces politiques de sécurités se feront à partir de patrons de contexte. Notre proposition simple à appréhender par des non spécialistes, permettra, par des transformations de modèles, d’intégrer ces politiques au niveau technologique afin de garantir un niveau de qualité de protection constant quel que soit l’environnement de déploiement. / To fit the competitive and globalized economic environment, companies and especially SMEs / SMIs are more and more involved in collaborative strategies, requiring organizational adaptation to fit this openness constraints and increase agility (i.e. the ability to adapt and fit the structural changes). While the Web 2.0 allows sharing data (images, knowledge, CV, micro-blogging, etc...) and while SOA aims at increasing service re-using rate and service interoperability, no process sharing strategies are developed. To overcome this limit, we propose to share processes as well to set a "process 2.0" framework allowing sharing activities. This will support an agile collaborative process enactment by searching and composing services depending on the required business organization and the service semantics. Coupled with the cloud computing deployment opportunity, this strategy will lead to couple more strongly Business, SaaS and PaaS levels. However, this challenges security constraints management in a dynamic environment. The development of security policies is usually based on a systematic risks analysis, reducing them by adopting appropriate countermeasures. These approaches are complex and as a consequence difficult to implement by end users. Moreover risks are assessed in a "closed" and static environment so that these methods do not fit the dynamic business services composition approach, as services can be composed and run in different business contexts (including the functionalities provided by each service, the organization (Who does what?), the coordination between these services and also the kind of data (strategic or no...) that are used and exchanged) and runtime environment (public vs private platform…). By analyzing these contextual information, we can define specific security constraints to each business service, specify the convenient security policies and implement appropriate countermeasures. In addition, it is also necessary to be able to propagate the security policies throughout the process to ensure consistency and overall security during the process execution. To address these issues, we propose to study the definition of security policies coupling Model Driven Security and Pattern based engineering approach to generate and deploy convenient security policies and protection means depending on the (may be untrusted) runtime environment. To this end, we propose a set of security patterns which meet the business and platform related security needs to set the security policies. The selection and the implementation of these security policies will be achieved thank to context-based patterns. Simple to understand by non-specialists, these patterns will be used by the model transformation process to generate these policies in a Model@Runtime strategy so that security services will be selected and orchestrated at runtime to provide a constant quality of protection (independent of the deployment).
74

Compliance of Web services over a high level specification / Conformité de services Web par rapport à des spécifications de haut niveau

Elabd, Emad 13 July 2011 (has links)
Actuellement, la technologie des services Web évolue rapidement, en étant soutenue par les grands acteurs du domaine des systèmes d'information. Les applications basés sur services Web sont faiblement couplées et utilisables de façon automatique via l'utilisation d'un ensemble de normes basées sur XML. Hormis la description syntaxique des messages, il est nécessaire d’avoir une description sémantique du comportement des services. En effet, lors de la conception d'un service ou lors d'une composition de services, il est important de vérifier la conformité avec un cahier des charges. L’enrichissement des descriptions des services par l’inclusion de leurs comportements est de plus en plus important. Ce comportement peut être décrit par des protocoles métier représentant les séquences possibles d'échanges de messages. Les services Web utilisent des politiques de contrôle d'accès (ACP) pour restreindre l'accès à des consommateurs autorisés. Ces politiques doivent faire partie de la description du service. Dans cette thèse, l'analyse d'interopérabilité en termes de contrôle d’accès après la formalisation des services Web annotés avec les politiques de contrôle d’accès est réalisée. Nous présentons une approche pour intégrer les outils de vérification dans l'architecture de contrôle d’accès de façon à garantir une interaction sans erreurs. Les politiques et les crédits sont présentés comme une ontologie afin de bénéficier de la flexibilité offerte par subsomption sur des concepts. La chorégraphie des services Web est utilisée dans la phase de conception d’applications pair à pair complexes dans lesquelles chaque pair peut être implémenté par un service Web. Par conséquent, la sélection des services Web pour l’implémentation de chorégraphie en utilisant l’approche de vérification de compatibilité avec contrôle d'accès est l'un des objectifs de notre recherche. Dans ce travail, les modèles de protocole métier du service Web sont étendus en ajoutant des informations au message sur chaque transition du service dans lequel ce message sera envoyé ou reçu. Nous définissons et vérifions la compatibilité des services Web afin de voir si (et comment) plusieurs services peuvent avoir des interactions en fonction de leurs protocoles. Cette approche aidera les concepteurs à choisir des services Web de manière simple et à vérifier s’ils peuvent mettre en œuvre la chorégraphie nécessaire en vérifiant la compatibilité avec notre approche / Currently, Web services technology is rapidly move forward supported by major players in the field of information systems. Web services applications are loosely coupled and usable in an automatic way via the use of a set of standards based on XML. Beside the syntactic description of messages, there is a need for the semantic description of the behavior of services. Indeed, whether in the design of a service or composition of services, it is important to check compliance with a set of specifications. Enriching services descriptions by including their behaviors is becoming more and more important. This behavior can be described by business protocols representing the possible sequences of message exchanges. Web services use access control policies (ACP) to restrict the access to authorized consumer. These policies should be a part of the service description. In this thesis, the interoperability analysis in terms of AC after the formalization of the Web services annotated with the access control (AC) is performed. In addition, we present an approach for embedding the checking tools in the AC enforcement architecture to guarantee the errors free interaction. The ACP and the credentials are presented as ontology in order to benefit from the flexibility offered by subsumption on concepts. Web services choreography is used in the design phase of complex peer-to-peer applications in which each peer can be implemented by a Web service. Therefore, selecting Web services for choreography implementation using the compatibility checking approach with access control is one of the objectives of our research. In this work, the business protocol models of the Web service are extended by adding information to the message on each transition about the service in which this message will sent to or received from. We define and verify Web service compatibility in order to see if (and how) several services can have interactions based on their protocols. This approach will help the designers to select Web services in an easy way and verify if they can implement the required choreography or not by checking the compatibly using our approach
75

Synthèse et compilation de services web sécurisés / Synthesis and Compilation of Secured Web Services

Mekki, Mohamed-Anis 19 December 2011 (has links)
La composition automatique de services web est une tâche difficile. De nombreux travaux ont considérés des modèles simplifiés d'automates qui font abstraction de la structure des messages échangés par les services. Pour le domaine des services sécurisés nous proposons une nouvelle approche pour automatiser la composition des services basée sur leurs politiques de sécurité. Étant donnés, une communauté de services et un service objectif, nous réduisons le problème de la synthèse de l'objectif à partir des services dans la communauté à un problème de sécurité, où un intrus que nous appelons médiateur doit intercepter et rediriger les messages depuis et vers la communauté de services et un service client jusqu'à atteindre un état satisfaisant pour le dernier. Nous avons implémenté notre algorithme dans la plateforme de validation du projet AVANTSSAR et nous avons testé l'outil correspondant sur plusieurs études de cas. Ensuite, nous présentons un outil qui compile les traces obtenues décrivant l'exécution d'un médiateur vers le code exécutable correspondant. Pour cela nous calculons d'abord une spécification exécutable aussi prudente que possible de son rôle dans l'orchestration. Cette spécification est exprimé en ASLan, un langage formel conçu pour la modélisation des services Web liés à des politiques de sécurité. Ensuite, nous pouvons vérifier avec des outils automatiques que la spécification ASLan obtenue vérifie certaines propriétés requises de sécurité telles que le secret et l'authentification. Si aucune faille n'est détectée, nous compilons la spécification ASLan vers une servlet Java qui peut être utilisé par le médiateur pour contrôler l'orchestration / Automatic composition of web services is a challenging task. Many works have considered simplified automata models that abstract away from the structure of messages exchanged by the services. For the domain of secured services we propose a novel approach to automated composition of services based on their security policies. Given a community of services and a goal service, we reduce the problem of composing the goal from services in the community to a security problem where an intruder we call mediator should intercept and redirect messages from the service community and a client service till reaching a satisfying state. We have implemented the algorithm in AVANTSSAR Platform and applied the tool to several case studies. Then we present a tool that compiles the obtained trace describing the execution of a the mediator into its corresponding runnable code. For that we first compute an executable specification as prudent as possible of her role in the orchestration. This specification is expressed in ASLan language, a formal language designed for modeling Web Services tied with security policies. Then we can check with automatic tools that this ASLan specification verifies some required security properties such as secrecy and authentication. If no flaw is found, we compile the specification into a Java servlet that can be used by the mediatior to lead the orchestration
76

Gouvernance et supervision décentralisée des chorégraphies inter-organisationnelles / Decentralized Monitoring of Cross-Organizational Service Choreographies

Baouab, Aymen 27 June 2013 (has links)
Durant la dernière décennie, les architectures orientées services (SOA) d'une part et la gestion des processus business (BPM) d'autre part ont beaucoup évolué et semblent maintenant en train de converger vers un but commun qui est de permettre à des organisations complètement hétérogènes de partager de manière flexible leurs ressources dans le but d'atteindre des objectifs communs, et ce, à travers des schémas de collaboration avancée. Ces derniers permettent de spécifier l'interconnexion des processus métier de différentes organisations. La nature dynamique et la complexité de ces processus posent des défis majeurs quant à leur bonne exécution. Certes, les langages de description de chorégraphie aident à réduire cette complexité en fournissant des moyens pour décrire des systèmes complexes à un niveau abstrait. Toutefois, rien ne garantit que des situations erronées ne se produisent pas suite, par exemple, à des interactions "mal" spécifiées ou encore des comportements malhonnêtes d'un des partenaires. Dans ce manuscrit, nous proposons une approche décentralisée qui permet la supervision de chorégraphies au moment de leur exécution et la détection instantanée de violations de séquences d'interaction. Nous définissons un modèle de propagation hiérarchique pour l'échange de notifications externes entre les partenaires. Notre approche permet une génération optimisée de requêtes de supervision dans un environnement événementiel, et ce, d'une façon automatique et à partir de tout modèle de chorégraphie / Cross-organizational service-based processes are increasingly adopted by different companies when they can not achieve goals on their own. The dynamic nature of these processes poses various challenges to their successful execution. In order to guarantee that all involved partners are informed about errors that may happen in the collaboration, it is necessary to monitor the execution process by continuously observing and checking message exchanges during runtime. This allows a global process tracking and evaluation of process metrics. Complex event processing can address this concern by analyzing and evaluating message exchange events, to the aim of checking if the actual behavior of the interacting entities effectively adheres to the modeled business constraints. In this thesis, we present an approach for decentralized monitoring of cross-organizational choreographies. We define a hierarchical propagation model for exchanging external notifications between the collaborating parties. We also propose a runtime event-based approach to deal with the problem of monitoring conformance of interaction sequences. Our approach allows for an automatic and optimized generation of rules. After parsing the choreography graph into a hierarchy of canonical blocks, tagging each event by its block ascendancy, an optimized set of monitoring queries is generated. We evaluate the concepts based on a scenario showing how much the number of queries can be significantly reduced
77

Modélisation et utilisation de ressources et services Web et indexation de données dans un contexte d’incertitude / Management approach of services, web resources and indexing in a context of uncertainties

Omri, Asma 30 August 2018 (has links)
Il est communément admis que la production de données connait, depuis plusieurs années, un développement spectaculaire en raison de la multiplication des nouvelles technologies telles que les réseaux sociaux, les nouveaux appareils mobiles, les compteurs intelligents, les capteurs et le cloud computing. De fait, cette explosion de données devrait se poursuivre et même accélérer. S'interroger sur la façon dont on devrait traiter cette masse de qui devient de plus en plus variée, complexe et moins structurée, est alors essentiel. DaaS ( Data As A Service) peut être définie comme l'approvisionnement, la gestion et la fourniture de données présentées dans un format immédiatement consommable aux utilisateurs professionnels des organisations en tant que service. Les données retournées par ces services se caractérisent généralement par l'incertitude et l'hétérogénéité. Nombreux sont les approches qui traitent les données selon le cycle de vie du service Web qui repose sur 6 phases à savoir la création, la sélection, la découverte, la modélisation, l'invocation et la composition des services, dans le but de résoudre le problème de volume de données, de son hétérogénéité ou de sa vitesse d'évolution. En revanche, il y a très peu d'approches qui s'intéressent à la qualité de données et au traitement de son incertitude dans le Web. Nous nous sommes naturellement intéressés, dans cette thèse, à la question des services Web dans un contexte de systèmes distribués et hétérogènes. La principale contribution à apporter dans le cadre de ce travail de recherche est d'étudier la composition de services et/ou de ressources Web et l'indexation de données dans un contexte incertain. Dans un premier temps, au travers des apports de la littérature, le cadre théorique relatif aux spécificités du concept de service DaaS incertain, est présente en adoptant la théorie possibiliste. Le problème de la composition de services Web et l'impact de l'incertitude, qui peut être associée à la sortie d'un service, sur les processus de sélection et de composition des services sont explicites. Pour ce faire, nous avons proposé une approche possibiliste afin de modéliser l'incertitude des données renvoyées par des services incertains. Plus précisément, nous avons étendu les normes de description de service Web (par exemple, WSDL) pour représenter les degrés d'incertitude des sorties. Nous avons également étendu le processus d'invocation de service pour prendre en compte l'incertitude des données d'entrée. Cette extension est basée sur la théorie des mondes possibles utilisée dans les bases de données possibilistes. Nous avons également mis en avant un ensemble d'operateurs de composition, sensibles aux valeurs d'incertitude, dans le but d'orchestrer des services de données incertains. Dans un deuxième temps, nous avons étudié l'impact de l'incertitude sur la représentation et la manipulation des ressources Web. Nous avons défini le concept de ressource Web incertaine et proposé des mécanismes de composition de ressources. Pour ce faire, un modèle de description de l'incertitude à travers le concept de ressource Web incertaine a été présente. Celui-ci est basé sur un modèle probabiliste ou chaque ressource peut avoir plusieurs représentations possibles, avec une certaine probabilité. Enfin, et dans un dernier temps, nous avons proposé des méthodes d'indexation documentaire des données de type Big Data. Au commencement, nous avons adopté une approche d'indexation syntaxique de données incertaines, ensuite, nous avons suivi une méthode d'indexation sémantique incertaine. Enfin, et pour booster cette démarche, nous avons proposé une méthode hybride d'indexation dans un contexte incertain / It is widely accepted that data production has been developing spectacularly for several years due to the proliferation of new technologies such as social networks, new mobile devices, smart meters, sensors and cloud computing. In fact, this data explosion should continue and even accelerate. To wonder about the way in which one should treat this mass of which becomes more and more varied, complex and less structured, is then essential. DaaS (Data As A Service) can be defined as the supply, management and delivery of data presented in an immediately consumable format business users of organizations as a service. The data returned by these services are generally characterized by uncertainty and heterogeneity. There are many approaches that process data across the Web service lifecycle, which is based on six phases: creation, selection, discovery, modeling, invocation, and composition of services, in order to solve the problem. problem of data volume, its heterogeneity or its speed of evolution. On the other hand, there are very few approaches to data quality and the treatment of uncertainty in the Web. In this thesis, we are naturally interested in the question of Web services in a context of distributed and heterogeneous systems. The main contribution to be made in this research is to study the composition of Web services and / or resources and the indexing of data in an uncertain context. First, through the contributions of the literature, the theoretical framework relative to the specificities of the concept of DaaS service uncertain, is presented by adopting the possibilistic theory. The problem of the composition of Web services and the impact of the uncertainty, which can be associated with the exit of a service, on the processes of selection and composition of the services are explained. To do this, we proposed a possibilistic approach to model the uncertainty of data returned by uncertain services. Specifically, we have extended Web service description standards (for example, WSDL) to represent the uncertainty levels of the outputs. We have also extended the service invocation process to account for the uncertainty of input data. This extension is based on the theory of possible worlds used in possibilistic databases. We also put forward a set of composition operators, sensitive to uncertainty values, in order to orchestrate uncertain data services. Second, we studied the impact of uncertainty on the representation and manipulation of Web resources. We defined the concept of an uncertain web resource and proposed resource composition mechanisms. To do this, a model describing uncertainty through the concept of uncertain web resource was presented. This one is based on a probabilistic model where each resource can have several possible representations, with a certain probability. Finally, and finally, we proposed methods of documentary indexing of data of the Big Data type. Initially, we adopted an approach of syntactic indexing of uncertain data, then we followed an uncertain method of semantic indexing. Finally, and to boost this approach, we have proposed a hybrid method of indexing in an uncertain context
78

Détection et analyse de communautés dans les réseaux / Community detection and analysis in networks

Serrour, Belkacem 10 December 2010 (has links)
L'étude de structures de communautés dans les réseaux devient de plus en plus une question importante. La connaissance des modules de base (communautés) des réseaux nous aide à bien comprendre leurs fonctionnements et comportements, et à appréhender les performances de ces systèmes. Une communauté dans un graphe (réseau) est définie comme un ensemble de nœuds qui sont fortement liés entre eux, mais faiblement liés avec le reste du graphe. Les membres de la même communauté partagent les mêmes centres d'intérêt. La plupart des travaux qui existent dans ce domaine se scindent en deux grandes thématiques: la détection de communautés et l'analyse de communautés. La détection de communautés consiste à trouver les communautés dans un réseau donné, sans connaître à priori ni la taille ni le nombre des communautés. La partie analyse de communautés, quant à elle, consiste à étudier les propriétés structurelles et sémantiques des communautés détectées et de celles du réseau étudié. Dans cette thèse, nous nous intéressons à l'étude de structures de communautés dans les réseaux. Nous contribuons dans les deux parties, analyse et détection de communautés. Dans la partie analyse de communautés, nos contributions sont l'étude des communautés dans les réseaux de communication et l'étude des communautés dans les services Web. D'une part, nous étudions l'émergence de communautés dans les réseaux de communication. Nous proposons une classification de structures de communautés émergées dans un réseau de communication donné. Nous modélisons les réseaux par les graphes et nous les caractérisons par un ensemble de paramètres. Nous concluons par une corrélation directe entre le réseau initial et les types de structures de communautés émergées. D'autre part, nous étudions les communautés dans les logs de services Web. Nous analysons les historiques d'exécution (les fichiers logs) afin de découvrir les protocoles métiers de services (séquences de messages échangés entre le service et le client pour aboutir à un but donné). Nous modélisons les logs par les graphes, et nous cherchons l'ensemble de conversations (communautés) issues de notre graphe de messages (le graphe de messages est un graphe induit du graphe de logs). Notre contribution dans la partie détection de communautés, est la proposition d'un algorithme de détection de communautés basé sur les motifs utilisant l'optimisation spectrale. Nous définissons une matrice de modularité motif (particulièrement, le triangle), et nous utilisons l'algorithme de décomposition et d'optimisation spectrale pour détecter les communautés basées sur des motifs. Nous montrons l'apport des communautés basées sur les motifs en appliquant notre algorithme sur des réseaux sociaux connus dans la littérature et en comparant les communautés basées sur les motifs trouvées avec les communautés classiques. / The study of the sub-structure of complex networks is of major importance to relate topology and functionality. Understanding the modular units (communities) of graphs is of utmost importance to grasping knowledge about the functionality and performance of such systems. A community is defined as a group of nodes such that connections between the nodes are denser than connections with the rest of the network. Generally, the members of one community share the same interest. Many efforts have been devoted to the analysis of the modular structure of networks. The most of these works are grouped into two parts: community detection and community analysis. Community detection consists on finding communities in networks whithout knowing there size and number. While the community analysis deals the study of the structural and semantic properties of the emerged communities, and the understanding of the functionality and the performance of the network. In this thesis, we are interested on the study of the community structures in networks. We give contributions in both community analysis and community detection parts. In the community analysis part, we study the communities of communication networks and the communities in web services. On the one hand, we study the community emergence in communication networks. We propose a classification of the emerged community structures in a given network. We model the networks by graphs and we characterize them by some parameters (network size, network density, number of resources in the network, number of providers in the network, etc.). We give also a direct correlation between the network parameters and the emerged community structures. On the other hand, we study the communities in the web service logs. We aim to discover the business protocol of services (sequences of messages exchanged between the service and a client to achieve a given goal). We analyze the log files and we model them by graphs. In our final tree graph (message graph), the paths represent the conversations (communities). In the community detection part, the main goal of our contribution is to determine communities using as building blocks triangular motifs. We propose an approach for triangle community detection based on modularity optimization using the spectral algorithm decomposition and optimization. The resulting algorithm is able to identify efficiently the best partition in communities of triangles of any given network, optimizing their correspondent modularity function.
79

Contribution à l'amélioration de l'expertise en situation de crise par l'utilisation de l'informatique distribuée : application aux crues à cinétique rapide

Thierion, Vincent 09 July 2010 (has links) (PDF)
Les crues à cinétique rapide, telles que l'évènement du 8 et 9 septembre 2002 dans le département du Gard, causent régulièrement d'importants dommages socio-économiques. A la suite de cette catastrophe, une réforme des services d'annonce des crues (SAC) a été initiée, et a engendré la transformation des 52 services existants en 22 services de prévision des crues (SPC) et la création d'un service central au niveau national, le SCHAPI. Plus cohérent hydrologiquement, ces services se sont vus assigner une nouvelle mission de prévision des crues. Dans le cadre des prévisions des crues à cinétique rapide, le service de prévision des crues " Grand Delta " (SPC-GD) utilise l'application ALHTAÏR capable d'intégrer des données hydrométéorologiques et la modélisation " temps réel " des débits des cours d'eau des bassins versants amont. Cependant, ce service ne dispose pas à l'heure actuelle d'une véritable capacité de prévision des crues à cinétique rapide. Cette thèse s'attache donc à perfectionner cette capacité de prévision en utilisant la vocation de la technologie grille, une technologie informatique innovante, à fournir de ressources informatiques à la demande et un environnement collaboratif. La méthodologie et les expérimentations ont permis de développer un système spatial d'aide à la décision hydrologique (G-ALHTAÏR) basé sur les ressources de l'architecture de grille européenne EGEE (Enabling Grids for E-science). Des résultats prometteurs montrent une capacité à modéliser un nombre important de scénarios de prévision hydrologique dans un contexte opérationnel, et en adéquation avec les besoins du SPC-GD.
80

Semantic Service Discovery With Heuristic Relevance Calculation

Ozyonum, Muge 01 February 2010 (has links) (PDF)
In this thesis, a semantically aided web service and restful service search mechanism is presented that makes use of an ontology. The mechanism relates method names, input and output parameters for ontology guided matches and offers results with varying relevance corresponding to the matching degree. The mechanism is demonstrated using an experimental domain that is tourism and travel. An ontology is created to support a set of web services that exist in this domain.

Page generated in 0.0623 seconds