• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 119
  • 65
  • 11
  • Tagged with
  • 197
  • 197
  • 109
  • 63
  • 62
  • 51
  • 47
  • 41
  • 35
  • 34
  • 34
  • 33
  • 23
  • 22
  • 21
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

From quantitative spatial operators to qualitative spatial relationships : a new approach applied to the detection and the semantic qualification of 3D objects / Déduction des relations spatiales qualitatives à partir d'opérateurs géométriques quantitatifs : une nouvelle approche appliquée à la détection et la qualification sémantique d'objets 3D

Ben Hmida, Helmi 12 December 2012 (has links)
Pas de résumé / This work presents the 3D Spatial Qualification tool (3DSQ) which was created tocompute spatial data stored in OWL-DL ontology. By using the adjustment principle ofan existing ontology, it is then possible to add 3D data to existing objects and computetheir spatial relationships from their 3D models. The 3DSQ Platform makes an attempt toensure the interaction between heterogeneous environments. Actually, such a semanticplatform connects an adjusted OWL ontology structure, a 3D quantification engine, avisualization engine and a set of geometry via knowledge processing technologymaterialized via SWRL, SQWRL rules and SPARQL queries within its extended Built-Ins. The created Spatial Built-Ins are connected to the presented quantification engine andenable qualifying semantic spatial relationships. This will mainly help us to not just applysemantic queries selecting geometry based on such a qualified relationship, but also tobenefit from the richness of the knowledge based schema, from a logical point of view. Itincludes the semantic definition and the implementation of the standard 3D spatialrelationships and uses sophisticated geometry data structure like NEF Polyhedra. Itfurther describes the implementation of the suggested bridge by the means of the NEFPolyhedra operation and the DLs definition of spatial relation.In addition, this thesis presents an application of the 3DSQ platform. It is argued that therepresentation of spatial information is not a fundamental limitation of OWL, wherelinking top level semantic qualification with low level quantitative calculation is highlypossible and efficient via the OWL-DL expressive power. This efficiency is carried outby the semantic rule system, and the geometry data structure required for therepresentation of spatial regions. In fact, such a semantic qualification based ondescription logic (DLs), and OWL ontologies enable much more efficient and intelligentspatial analysis semantically. To prove the feasibility and to validate the 3DSQ Platformwithin its quantitative and qualitative 3D spatial operators, real applied areas related toBuilding Information Model (BIM), IFC and especially 3D point clouds data wereaddressed. Given the complexity of the underlying problems, the suggested new methodsresort to using semantic knowledge, in particular, to support the object detection andqualification. In this context, a novel approach which makes use of the 3DSQ platformand benefits from intelligent knowledge management strategies to qualify objects will bediscussed. It is based on the semantics of different associated domains to assist inknowledge formalization where Knowledge helps in the qualification process, and can beclearly palpable through the thesis.Such a conception will bring solutions to the problem raised by the syntactic exchangelevel between CAD software packages, IFCs or 3D point cloud geometries. Moreover, allrelations between the different geometries are defined by elements suggested in thisthesis. In fact, these relations define how elements can interact. Such a semantic can onlybe synthetized, used and invested by OWL ontology structure with all the robustness ofthe Description Logics
52

Gestion de l'incertitude dans le processus d'extraction de connaissances à partir de textes / Uncertainty management in the knowledge extraction process from text

Kerdjoudj, Fadhela 08 December 2015 (has links)
La multiplication de sources textuelles sur le Web offre un champ pour l'extraction de connaissances depuis des textes et à la création de bases de connaissances. Dernièrement, de nombreux travaux dans ce domaine sont apparus ou se sont intensifiés. De ce fait, il est nécessaire de faire collaborer des approches linguistiques, pour extraire certains concepts relatifs aux entités nommées, aspects temporels et spatiaux, à des méthodes issues des traitements sémantiques afin de faire ressortir la pertinence et la précision de l'information véhiculée. Cependant, les imperfections liées au langage naturel doivent être gérées de manière efficace. Pour ce faire, nous proposons une méthode pour qualifier et quantifier l'incertitude des différentes portions des textes analysés. Enfin, pour présenter un intérêt à l'échelle du Web, les traitements linguistiques doivent être multisources et interlingue. Cette thèse s'inscrit dans la globalité de cette problématique, c'est-à-dire que nos contributions couvrent aussi bien les aspects extraction et représentation de connaissances incertaines que la visualisation des graphes générés et leur interrogation. Les travaux de recherche se sont déroulés dans le cadre d'une bourse CIFRE impliquant le Laboratoire d'Informatique Gaspard Monge (LIGM) de l'Université Paris-Est Marne la Vallée et la société GEOLSemantics. Nous nous appuyons sur une expérience cumulée de plusieurs années dans le monde de la linguistique (GEOLSemantics) et de la sémantique (LIGM).Dans ce contexte, nos contributions sont les suivantes :- participation au développement du système d'extraction de connaissances de GEOLSemantics, en particulier : (1) le développement d'une ontologie expressive pour la représentation des connaissances, (2) le développement d'un module de mise en cohérence, (3) le développement d'un outil visualisation graphique.- l'intégration de la qualification de différentes formes d'incertitude, au sein du processus d'extraction de connaissances à partir d'un texte,- la quantification des différentes formes d'incertitude identifiées ;- une représentation, à l'aide de graphes RDF, des connaissances et des incertitudes associées ;- une méthode d'interrogation SPARQL intégrant les différentes formes d'incertitude ;- une évaluation et une analyse des résultats obtenus avec notre approche / The increase of textual sources over the Web offers an opportunity for knowledge extraction and knowledge base creation. Recently, several research works on this topic have appeared or intensified. They generally highlight that to extract relevant and precise information from text, it is necessary to define a collaboration between linguistic approaches, e.g., to extract certain concepts regarding named entities, temporal and spatial aspects, and methods originating from the field of semantics' processing. Moreover, successful approaches also need to qualify and quantify the uncertainty present in the text. Finally, in order to be relevant in the context of the Web, the linguistic processing need to be consider several sources in different languages. This PhD thesis tackles this problematic in its entirety since our contributions cover the extraction, representation of uncertain knowledge as well as the visualization of generated graphs and their querying. This research work has been conducted within a CIFRE funding involving the Laboratoire d'Informatique Gaspard Monge (LIGM) of the Université Paris-Est Marne la Vallée and the GEOLSemantics start-up. It was leveraging from years of accumulated experience in natural language processing (GeolSemantics) and semantics processing (LIGM).In this context, our contributions are the following:- the integration of a qualifation of different forms of uncertainty, based on ontology processing, within the knowledge extraction processing,- the quantification of uncertainties based on a set of heuristics,- a representation, using RDF graphs, of the extracted knowledge and their uncertainties,- an evaluation and an analysis of the results obtained using our approach
53

Recherche top-k pour le contenu du Web / Top-k search over rich web content

Bonaque, Raphaël 30 September 2016 (has links)
Les réseaux sociaux sont de plus en plus présents dans notre vie de tous les jours et sont en passe de devenir notre moyen de communication et d'information principal. Avec l'augmentation des données qu'ils contiennent sur nous et notre environnement, il devient décisif d'être en mesure d'accéder et d'analyser ces données. Aujourd'hui la manière la plus commune d'accéder à ces données est d'utiliser la recherche par mots-clés : on tape une requête de quelques mots et le réseau social renvoie un nombre fixe de documents qu'il juge pertinents. Dans les approches actuelles de recherche top-k dans un contexte social, la pertinence d'un document dépend de deux facteurs: la proximité sociale entre le document et l'utilisateur faisant la requête et le recoupement entre les mots-clés de la requête et les mots contenus dans le document. Nous trouvons cela limité et proposons de prendre en compte les interactions complexes entres les utilisateurs liés à ce document mais aussi sa structure et le sens des mots qu'il contient, au lieu de leur formulation. Dans ce but, nous identifions les exigences propres à la création d'un modèle qui intégrerait pleinement des données sémantiques, structurées et sociales et proposons un nouveau modèle, S3, satisfaisant ces exigences. Nous rajoutons un modèle de requêtes à S3 et développons S3k, un algorithme personnalisable de recherche top-k par mots-clés sur S3. Nous prouvons la correction de notre algorithme et en proposons une implémentation. Nous la comparons, à l'aide de jeux de données créés à partir du monde réel, avec celle d'une autre approche de recherche top-k par mots-clés dans un contexte social et montrons les différences fondamentales entre ces approches ainsi que les avantages qu'on peut tirer de la nôtre. / Social networks are increasingly present in our everyday life and are fast becoming our primary means of information and communication. As they contain more and more data about our surrounding and ourselves, it becomes vital to access and analyze this data. Currently, the primary means to query this data is through top-k keyword search: you enter a few words and the social network service sends you back a fixed number of relevant documents. In current top-k searches in a social context the relevance of a document is evaluated based on two factors: the overlapping of the query keywords with the words of the document and the social proximity between the document and the user making the query. We argue that this is limited and propose to take into account the complex interactions between the users linked to the document, its structure and the meaning of the words it contains instead of their phrasing. To this end we highlight the requirements for a model integrating fully structured, semantic and social data and propose a new model, called S3, satisfying these requirements. We introduce querying capabilities to S3 and develop an algorithm, S3k, for customizable top-k keyword search on S3. We prove the correctness of our algorithm and propose an implementation for it. We compare this implementation with another top-k keyword search in a social context, using datasets created from real world data, and show their differences and the benefits of our approach.
54

Méthodologie pour l’orchestration sémantique de services, application au traitement de documents multimédia / Methodology for semantic services orchestration, application to multimedia document processing

Doucy, Jérémie 17 October 2011 (has links)
Après un état de l'art complet nous avons détaillé notre approche de services sémantiques utilisant une méthode innovante pour la composition de services, les patrons de chaînes de traitements. Notre approche est constituée d'un annuaire sémantique hybride proposant différents niveaux de correspondances entre services, de règles de compositions automatiques dans le cas où une demande de services n'est pas fructueuse et enfin d'un moteur d'exécution supportant la résolution et la composition dynamique de services. Par la suite nous avons défini une méthodologie innovante, basée sur l'utilisation de taxonomies de services permettant de peupler rapidement un annuaire sémantique de services. Pour ce faire, nous avons mis au point une ontologie de haut niveau qui permet de lier la classe d'une taxonomie avec un service abstrait annoté sémantiquement. Enfin, nous avons évalué notre prototype à partir des chaînes de traitement mises en place dans les plate-formes déployées par Cassidian. / After a complete state of the art we detailed our semantic services approach which uses an innovative method for services composition: processing chains patterns. Our approach is composed on an hybrid semantic servicers registry which propose different levels of matching between services, some composition rules when the matching phase failde and an execution engine which is able to dynamically resolve and com^pose services. In order to solve the service regitry population issue, we have designed an upper ontology, which enables links between a service taxonomy class with a semantically annotated abstract service. Finally, we have evaluated our prototype using real processing chains used by Cassidian platforms.
55

Gestion d'identité dans des graphes de connaissances / Identity Management in Knowledge Graphs

Raad, Joe 30 November 2018 (has links)
En l'absence d'une autorité de nommage centrale sur le Web de données, il est fréquent que différents graphes de connaissances utilisent des noms (IRIs) différents pour référer à la même entité. Chaque fois que plusieurs noms sont utilisés pour désigner la même entité, les faits owl:sameAs sont nécessaires pour déclarer des liens d’identité et améliorer l’exploitation des données disponibles. De telles déclarations d'identité ont une sémantique logique stricte, indiquant que chaque propriété affirmée à un nom sera également déduite à l'autre et vice versa. Bien que ces inférences puissent être extrêmement utiles pour améliorer les systèmes fondés sur les connaissances tels que les moteurs de recherche et les systèmes de recommandation, l'utilisation incorrecte de l'identité peut avoir des effets négatifs importants dans un espace de connaissances global comme le Web de données. En effet, plusieurs études ont montré que owl:sameAs est parfois incorrectement utilisé sur le Web des données. Cette thèse étudie le problème de liens d’identité erronés ou inappropriés qui sont exprimés par des liens owl:sameAs et propose des solutions différentes mais complémentaires. Premièrement, elle présente une ressource contenant la plus grande collection de liens d’identité collectés du LOD Cloud, avec un service Web à partir duquel les données et leur clôture transitive peuvent être interrogées. Une telle ressource a à la fois des impacts pratiques (elle aide les utilisateurs à trouver différents noms pour la même entité), ainsi qu'une valeur analytique (elle révèle des aspects importants de la connectivité du LOD Cloud). En outre, en s’appuyant sur cette collection de 558 millions liens d’identité, nous montrons comment des mesures de réseau telles que la structure de communauté du réseau owl:sameAs peuvent être utilisées afin de détecter des liens d’identité éventuellement erronées. Pour cela, nous attribuons un degré d'erreur pour chaque lien owl:sameAs en fonction de la densité de la ou des communautés dans lesquelles elles se produisent et de leurs caractéristiques symétriques. L'un des avantages de cette approche est qu'elle ne repose sur aucune connaissance supplémentaire. Finalement, afin de limiter l'utilisation excessive et incorrecte du owl:sameAs, nous définissons une nouvelle relation pour représenter l'identité de deux instances d’une classe dans un contexte spécifique (une sous-partie de l’ontologie). Cette relation d'identité s'accompagne d'une approche permettant de détecter automatiquement ces liens, avec la possibilité d'utiliser certaines contraintes expertes pour filtrer des contextes non pertinents. La détection et l’exploitation des liens d’identité contextuels détectés sont effectuées sur deux graphes de connaissances pour les sciences de la vie, construits en collaboration avec des experts du domaine de l’institut national de la recherche agronomique (INRA). / In the absence of a central naming authority on the Web of data, it is common for different knowledge graphs to refer to the same thing by different names (IRIs). Whenever multiple names are used to denote the same thing, owl:sameAs statements are needed in order to link the data and foster reuse. Such identity statements have strict logical semantics, indicating that every property asserted to one name, will also be inferred to the other, and vice versa. While such inferences can be extremely useful in enabling and enhancing knowledge-based systems such as search engines and recommendation systems, incorrect use of identity can have wide-ranging effects in a global knowledge space like the Web of data. With several studies showing that owl:sameAs is indeed misused for different reasons, a proper approach towards the handling of identity links is required in order to make the Web of data succeed as an integrated knowledge space. This thesis investigates the identity problem at hand, and provides different, yet complementary solutions. Firstly, it presents the largest dataset of identity statements that has been gathered from the LOD Cloud to date, and a web service from which the data and its equivalence closure can be queried. Such resource has both practical impacts (it helps data users and providers to find different names for the same entity), as well as analytical value (it reveals important aspects of the connectivity of the LOD Cloud). In addition, by relying on this collection of 558 million identity statements, we show how network metrics such as the community structure of the owl:sameAs graph can be used in order to detect possibly erroneous identity assertions. For this, we assign an error degree for each owl:sameAs based on the density of the community(ies) in which they occur, and their symmetrical characteristics. One benefit of this approach is that it does not rely on any additional knowledge. Finally, as a way to limit the excessive and incorrect use of owl:sameAs, we define a new relation for asserting the identity of two ontology instances in a specific context (a sub-ontology). This identity relation is accompanied with an approach for automatically detecting these links, with the ability of using certain expert constraints for filtering irrelevant contexts. As a first experiment, the detection and exploitation of the detected contextual identity links are conducted on two knowledge graphs for life sciences, constructed in a mutual effort with domain experts from the French National Institute of Agricultural Research (INRA).
56

A conceptual framework for semantic web-based ecommerce

Yang, Kun 11 April 2018 (has links)
Présentement, le commerce électronique est requis pour agir plus intelligemment et de façon autonome avec le minimum d'intervention humaine. Cette exigence demande à la communauté du Web de développer une infrastructure qui soutient un interfonctionnement au niveau sémantique. En attendant, le Web Sémantique, comme une recherche du Web futur, apporte une nouvelle occasion et une perspective au commerce électronique conventionnel. Le Web Sémantique est une recherche avancée promue par W3C, qui vise à améliorer de l'état du World Wide Web par les techniques sémantiques. Dans ce mémoire, nous proposons une plateforme conceptuelle pour le commerce électronique basée sur les technologies du Web Sémantique, dans laquelle une Machine Virtuelle Sémantique est ajoutée. Par ailleurs, nous suggérons un workflow corrélatif en faisant une recherche des techniques liées à ce dernier. Finalement, un outil pratique de recommandation de carte de crédit est construit sur la plateforme conçue. Par cet outil l'admission traditionnelle de la lecture de document et d'interaction humaine est remplacée par la suggestion intelligente de la machine qui augmente significativement la qualité des services et la satisfaction des utilisateurs. / Nowadays, eCommerce is asked to act more intelligently and autonomously with a minimal human intervention. This requirement challenges the Web community to develop an infrastructure that supports a semantic level interoperability. Meanwhile, the Semantic Web, as an investigation of the next generation Web, brings a new opportunity and perspective to eCommerce. The Semantic Web is a W3C driven major development aiming at improving the state of the World Wide Web through semantic technologies. In this thesis, towards the study of the Semantic Web applied to eCommerce, we propose a conceptual framework for the Semantic Web-based eCommerce, in which a Semantic Virtual Machine is added. Besides, we suggest a correlative workflow and make an investigation of the key technologies related with this workflow. Finally, a practical credit card recommendation tool is built on the framework. Through this tool, the traditional document-reading and human-interactive admission is replaced by the smart machine suggestion, which significantly enhances the services' quality and users' satisfaction.
57

Intégration d'une couche spatiale dans l'architecture du Web sémantique : une proposition via la plateforme ArchaeoKM

Karmacharya, Ashish 30 June 2011 (has links) (PDF)
L'analyse spatiale de données géographies connaît un regain d'intérêt dans la communauté des bases de données relationnelles. Plus spécifiquement, les opérations et les fonctions spatiales utilisées comme base de l'analyse spatiale sont implémentées par les grands noms des systèmes de gestion de bases de données relationnelles limitant ainsi l'hétérogénéité structurelle des systèmes. En outre, la littérature est abondante en publications dans le domaine des ontologies spatiales afin de limiter l'hétérogénéité sémantique des sources de données tout en améliorant l'interopérabilité de ces données. Bien que l'interopérabilité des données soit l'un des objectifs du Web Sémantique, tout le potentiel de ces outils et de ces techniques basés sur la connaissance n'a pas été révélé. Avec l'influence sans cesse croissante du Web Sémantique à travers ces outils et applications en gestion de la connaissance et système intelligent, les applications utilisant des données géospatiales suivent ce phénomène en bénéficiant de son influence. Cette thèse se focalise sur l'utilisation de la connaissance métier afin de gérer des données spatiales à l'aide des technologies du Web sémantique. L'activité de recherche menée dans le cadre de cette thèse est réalisée sur des données provenant du domaine de l'archéologie industrielle. Cet environnement se caractérise par son hétérogénéité et sa grande quantité de données offrant ainsi un cadre idéal pour la réalisation d'un outil de gestion de connaissance. Cet outil basé sur les technologies du Web Sémantique a été prototypé sous le nom d'ArchaeoKM suivant le principe des 4 K, Knowledge Acquisition, Knowledge Management, Knowledge Visualization and Knowledge Analysis. Ce même principe est mis en œuvre pour les données spatiales. Une ontologie de haut niveau a été développée pour servir de cadre applicatif à la gestion des données spatiales permettant d'ajuster une ontologie de domaines sans composante spatiale. Le processus de gestion de la connaissance commence avec l'acquisition de la signature spatiale des objets identifiés. Cette signature est stockée dans un système de gestion de bases de données spatiales et est référencée par l'objet correspondant dans la base de connaissance. La connaissance spatiale de ces objets est générée à l'aide des fonctions et des opérations spatiales au niveau de la base de données spatiale et l'enrichissement de la base de connaissance est réalisé avec le résultat de ces opérations et fonctions. L'inférence de nouvelle connaissance sur la base des données existante est réalisée à l'aide de SWRL (Semantic Web Rule Language). De plus, ce langage a été étendu à l'aide de nouveaux built-ins spatiaux afin de prendre en sidération la dimension spatiale des données. De même, cette dimension spatiale a été apportée au langage SPARQL afin de réaliser des requêtes spatiales sur la base de connaissances.En effet, l'objectif principal de cette thèse est d'initier le premier pas vers l'intégration des composantes spatiales avec les technologies du Web Sémantique. Le processus d'intégration est premier plan pour les deux technologies. D'un point de vue Web Sémantique, l'intégration de données non communes dans ce cadre applicatif ouvre la porte à l'intégration de données beaucoup plus large. D'un point de vue des systèmes d'information géographique, l'inclusion de la connaissance permet une gestion métier des données rendant l'analyse plus proche de l'interprétation humaine.
58

Semantic service provisioning for 6LoWPAN : powering internet of things applications on Web / La provision de services sémantiques pour 6LoWPAN : faciliter le développement des applications IoT sur le Web

Han, Ngoc Son 08 July 2015 (has links)
L'Internet des objets (IoT) implique la connexion des appareils embarqués tels que les capteurs, les électroménagers, les compteurs intelligents, les appareils de surveillance de la santé, et même les lampadaires à l'Internet. Une grande variété d'appareils intelligents et en réseau sont de plus en plus à la disposition de bénéficier de nombreux domaines d'application. Pour faciliter cette connexion, la recherche et l'industrie ont mis un certain nombre d'avancées dans la technologie microélectronique, de la radio de faible puissance, et du réseautage au cours de la dernière décennie. L'objectif est de permettre aux appareils embarqués de devenir IP activé et une partie intégrante des services sur l'Internet. Ces appareils connectés sont considérés comme les objets intelligents qui sont caractérisés par des capacités de détection, de traitement, et de réseautage. Les réseaux personnels sans fil à faible consommation d'IPv6 (6LoWPANs) jouent un rôle important dans l'IoT, surtout sur la consommation d'énergie (de faible puissance), la disponibilité omniprésente (sans fil), et l'intégration d'Internet (IPv6). La popularité des applications sur le Web, aux côtés de ses standards ouverts et de l'accessibilité à travers d'une large gamme d'appareils tels que les ordinateurs de bureau, les ordinateurs portables, les téléphones mobiles, les consoles de jeu, fait que le Web est une plateforme universelle idéale pour l'IoT à l'avenir. Par conséquent, quand de plus en plus d'objets intelligents se connectent à l'Internet, l'IoT est naturellement évolué pour la provision des services des objets intelligents sur le Web, comme des millions de services Web d'aujourd'hui. Puis vient une nouvelle opportunité pour des applications vraiment intelligentes et omniprésentes qui peuvent intégrer des objets intelligents et des services Web conventionnels en utilisant des standards Web ouverts. Nous appelons ces applications les applications IoT sur le Web. Cette thèse propose une solution complète pour la provision de 6LoWPAN avec une annotation sémantique pour pousser le développement d'applications IoT sur le Web. Nous visons à offrir des services d'objets intelligents pour le Web et les rendre accessibles par beaucoup d'API Web qui existe en considérant des contraintes de 6LoWPAN comme les ressources limitées (ROM, RAM et CPU), la faible puissance, et la communication à faible débit. Il y a quatre contributions: (i) La première contribution est sur l'architecture globale de la provision sémantique de services pour les applications IoT sur le Web qui comprennent trois sous-systèmes: le système de communication des services, le système de provision des services, et le système d'intégration des services. (ii) La deuxième contribution étudie un modèle d'interconnexion entre les réseaux 6LoWPAN et les réseaux IPv6 réguliers par la conception, la mise en oeuvre et l'évaluation de la performance d'un 6LoWPAN qui constitué des MTM-CM5000-MSP TelosB motes pour les objets intelligents, et le Raspberry Pi pour un routeur de bordure. (iii) La troisième contribution présente en détails de l'architecture, des algorithmes et des mécanismes pour la provision des services des objets intelligents fiables, évolutifs et sécurisés en respectant des contraintes de ressources limitées; (iv) La quatrième contribution est composée de deux applications innovantes IoT sur le Web pour l'intégration des services dans lesquels nous appliquons l'architecture proposée: un système d'automatisation de la construction (SamBAS) et une plateforme Social IoT (ThingsChat) / This dissertation proposes a complete solution to provision 6LoWPAN services with semantic annotation that enables the development of IoT applications on Web. We aim to bring smart object services to the Web and make them accessible by plenty of existing Web APIs in consideration of 6LoWPAN constraints such as limited resources (ROM, RAM, and CPU), low-power, and low-bitrate communication links. There are four contributions: (i) The first contribution is about the overall architecture of the semantic service provisioning for IoT application on Web consisting of three subsystems: service communication, service provisioning, and service integration. (ii) The second contribution studies the internetworking model between 6LoWPAN and regular IPv6 networks by a design, implementation, and performance evaluation of a 6LoWPAN consisting of MTM-CM5000-MSP TelosB motes with TI MSP430F1611 microprocessors and CC2420 IEEE 802.15.4 radio transceivers for smart objects, and Raspberry Pi for an edge router; (iii) The third contribution presents the detailed architecture, algorithms, and mechanisms for provisioning reliable, scalable, and secure smart object services with respect to its resource-constrained requirements; (iv) The fourth contribution is in application domain for service integration in which we apply the proposed architecture on two innovative IoT applications on Web: a building automation system (SamBAS) and a Social IoT platform (ThingsChat)
59

Structuration de débats en ligne à l’aide d’Annotationssocio-sémantiquesVers une analyse de réseaux sociaux centrés sur l’interaction / Soci-semantic annotations to structurate online debates.Toward a social network analysis based on interactions.

Seilles, Antoine 25 January 2012 (has links)
Cette thèse traite de l'usage de l'annotation socio-sémantique dans le cadre de la dé-mocratie électronique et plus particulièrement des débats en ligne. L'annotation socio-sémantique est utilisée ici comme solution de structuration des débats. La représentationdes données des débats est pensée pour faciliter la mise en place de méthodes d'extrac-tion et d'analyses du réseau social des utilisateurs, en particulier pour faciliter l'extractionde groupes d'opinions. La thèse est réalisée dans le contexte de l'ANR Intermed qui vise àproduire des outils d'aide à la concertation en ligne, en particulier pour la gestion de zonescôtiéres.En nous appuyant sur la tendance 2.0, nous définissons la notion de débat 2.0. Débat àgrande échelle, au moins l'échelle d'une collectivité territoriale, s'appuyant sur l'usage detechnologies du Web 2.0 pour faciliter les interactions entre les citoyens. Dans ce contexte,l'interopérabilité est un enjeu crucial. Si les annotations discursives s'inscrivent dans latendance 2.0 et permettent aux citoyens de discuter en ligne, le traitement des donnéesproduites en vue de structurer les débats, de synthétiser les discussions, de modérer, d'éva-luer la représentativité ... devient une tâche de plus en plus complexe avec l'augmentationde la quantité de données produites. Nous proposons d'utiliser les technologies du websémantique, et donc des annotations à la fois discursives et sémantiques (appelées anno-tations socio-sémantique), pour représenter les données produites par les citoyens dansun outil de débat 2.0 et pour faciliter l'interopérabilité de ces données, faciliter la créationd'autres services comme par exemple un service d'analyse du réseau social, un service derecommandation, un service de visualisation des débats ... Nous présentons donc un mé-canisme d'annotation structurant les discussions, fruit d'un processus incrémental d'im-plémentation et d'expérimentation sur le terrain. / This pdh deals with socio-semantic annotations for e-democracy and online debates. Socio-semantic annotation are used to structurate debates. Data representation was designed to facilitate social network analysis and community detection based on opinion mining. This phd was made during the ANR project Intermed wich has to develop e-participation tools for geolocalised planning.Based on Web 2.0 trend, we define debate 2.0 concept as great scale online debates. A debate 2.0 is a debate that involves at least an important part of the inhabitants of a county and that uses web 2.0 tools. Interoperability is a main challenge of debates 2.0. If discursive annotations are a web 2.0 way of interaction between citizen, to process data from citizen participation is a complicate and expensive task. We recommand to use web semantic technology and socio-semantic annotations to represent data produced by citizen. Il will increase interoperability and easiness to create new applications and features consuming this data. We propose an annotation mecanism to structurate discussions and we have developped a platform through an agile loop with on field experiment.
60

Interrogation des sources de données hétérogènes : une approche pour l'analyse des requêtes / Querying heterogeneous data sources

Soumana, Ibrahim 07 June 2014 (has links)
Le volume des données structurées produites devient de plus en plus considérable. Plusieurs aspects concourent à l’accroissement du volume de données structurées. Au niveau du Web, le Web de données (Linked Data) a permis l’interconnexion de plusieurs jeux de données disponibles créant un gigantesque hub de données. Certaines applications comme l’extraction d’informations produisent des données pour peupler des ontologies. Les capteurs et appareils (ordinateur, smartphone, tablette) connectés produisent de plus en plus de données. Les systèmes d’information d’entreprise sont également affectés. Accéder à une information précise devient de plus en plus difficile. En entreprise, des outils de recherche ont été mis au point pour réduire la charge de travail liée à la recherche d’informations, mais ces outils génèrent toujours des volumes importants. Les interfaces en langage naturel issues du Traitement Automatique des Langues peuvent être mises à contribution pour permettre aux utilisateurs d’exprimer naturellement leurs besoins en informations sans se préoccuper des aspects techniques liés à l’interrogation des données structurées. Les interfaces en langage naturel permettent également d’avoir une réponse concise sans avoir besoin de fouiller d’avantage dans une liste de documents. Cependant actuellement, ces interfaces ne sont pas assez robustes pour être utilisées par le grand public ou pour répondre aux problèmes de l’hétérogénéité ou du volume de données. Nous nous intéressons à la robustesse de ces systèmes du point de vue de l’analyse de la question. La compréhension de la question de l’utilisateur est une étape importante pour retrouver la réponse. Nous proposons trois niveaux d’interprétation pour l’analyse d’une question : domaine abstrait, domaine concret et la relation domaine abstrait/concret. Le domaine abstrait s’intéresse aux données qui sont indépendantes de la nature des jeux de données. Il s’agit principalement des données de mesures. L’interprétation s’appuie sur la logique propre à ces mesures. Le plus souvent cette logique a été bien décrite dans les autres disciplines, mais la manière dont elle se manifeste en langage naturel n’a pas fait l’objet d’une large investigation pour les interfaces en langage naturel basées sur des données structurées. Le domaine concret couvre le domaine métier de l’application. Il s’agit de bien interpréter la logique métier. Pour une base de données, il correspond au niveau applicatif (par opposition à la couche des données). La plupart des interfaces en langage naturel se focalisent principalement sur la couche des données. La relation domaine abstrait/concret s’intéresse aux interprétations qui chevauchent les deux domaines. Du fait de l’importance de l’analyse linguistique, nous avons développé l’infrastructure pour mener cette analyse. L’essentiel des interfaces en langage naturel qui tentent de répondre aux problématiques du Web de données (Linked Data) ont été développées jusqu’ici pour la langue anglaise et allemande. Notre interface tente d’abord de répondre à des questions en français / No english summary available

Page generated in 0.0731 seconds