• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 107
  • 25
  • 11
  • 1
  • 1
  • 1
  • Tagged with
  • 147
  • 69
  • 44
  • 42
  • 35
  • 22
  • 21
  • 20
  • 20
  • 19
  • 17
  • 16
  • 16
  • 16
  • 16
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Knowledge-based Semantic Measures : From Theory to Applications / Mesures sémantiques à base de connaissance : de la théorie aux applicatifs

Harispe, Sébastien 25 April 2014 (has links)
Les notions de proximité, de distance et de similarité sémantiques sont depuis longtemps jugées essentielles dans l'élaboration de nombreux processus cognitifs et revêtent donc un intérêt majeur pour les communautés intéressées au développement d'intelligences artificielles. Cette thèse s'intéresse aux différentes mesures sémantiques permettant de comparer des unités lexicales, des concepts ou des instances par l'analyse de corpus de textes ou de représentations de connaissance (e.g. ontologies). Encouragées par l'essor des technologies liées à l'Ingénierie des Connaissances et au Web sémantique, ces mesures suscitent de plus en plus d'intérêt à la fois dans le monde académique et industriel. Ce manuscrit débute par un vaste état de l'art qui met en regard des travaux publiés dans différentes communautés et souligne l'aspect interdisciplinaire et la diversité des recherches actuelles dans ce domaine. Cela nous a permis, sous l'apparente hétérogénéité des mesures existantes, de distinguer certaines propriétés communes et de présenter une classification générale des approches proposées. Par la suite, ces travaux se concentrent sur les mesures qui s'appuient sur une structuration de la connaissance sous forme de graphes sémantiques, e.g. graphes RDF(S). Nous montrons que ces mesures reposent sur un ensemble réduit de primitives abstraites, et que la plupart d'entre elles, bien que définies indépendamment dans la littérature, ne sont que des expressions particulières de mesures paramétriques génériques. Ce résultat nous a conduits à définir un cadre théorique unificateur pour les mesures sémantiques. Il permet notamment : (i) d'exprimer de nouvelles mesures, (ii) d'étudier les propriétés théoriques des mesures et (iii) d'orienter l'utilisateur dans le choix d'une mesure adaptée à sa problématique. Les premiers cas concrets d'utilisation de ce cadre démontrent son intérêt en soulignant notamment qu'il permet l'analyse théorique et empirique des mesures avec un degré de détail particulièrement fin, jamais atteint jusque-là. Plus généralement, ce cadre théorique permet de poser un regard neuf sur ce domaine et ouvre de nombreuses perspectives prometteuses pour l'analyse des mesures sémantiques. Le domaine des mesures sémantiques souffre d'un réel manque d'outils logiciels génériques et performants ce qui complique à la fois l'étude et l'utilisation de ces mesures. En réponse à ce manque, nous avons développé la Semantic Measures Library (SML), une librairie logicielle dédiée au calcul et à l'analyse des mesures sémantiques. Elle permet d'utiliser des centaines de mesures issues à la fois de la littérature et des fonctions paramétriques étudiées dans le cadre unificateur introduit. Celles-ci peuvent être analysées et comparées à l'aide des différentes fonctionnalités proposées par la librairie. La SML s'accompagne d'une large documentation, d'outils logiciels permettant son utilisation par des non informaticiens, d'une liste de diffusion, et de façon plus large, se propose de fédérer les différentes communautés du domaine afin de créer une synergie interdisciplinaire autour la notion de mesures sémantiques : http://www.semantic-measures-library.org Cette étude a également conduit à différentes contributions algorithmiques et théoriques, dont (i) la définition d'une méthode innovante pour la comparaison d'instances définies dans un graphe sémantique – nous montrons son intérêt pour la mise en place de système de recommandation à base de contenu, (ii) une nouvelle approche pour comparer des concepts représentés dans des taxonomies chevauchantes, (iii) des optimisations algorithmiques pour le calcul de certaines mesures sémantiques, et (iv) une technique d'apprentissage semi-supervisée permettant de cibler les mesures sémantiques adaptées à un contexte applicatif particulier en prenant en compte l'incertitude associée au jeu de test utilisé. Travaux validés par plusieurs publications et communications nationales et internationales. / The notions of semantic proximity, distance, and similarity have long been considered essential for the elaboration of numerous cognitive processes, and are therefore of major importance for the communities involved in the development of artificial intelligence. This thesis studies the diversity of semantic measures which can be used to compare lexical entities, concepts and instances by analysing corpora of texts and knowledge representations (e.g., ontologies). Strengthened by the development of Knowledge Engineering and Semantic Web technologies, these measures are arousing increasing interest in both academic and industrial fields.This manuscript begins with an extensive state-of-the-art which presents numerous contributions proposed by several communities, and underlines the diversity and interdisciplinary nature of this domain. Thanks to this work, despite the apparent heterogeneity of semantic measures, we were able to distinguish common properties and therefore propose a general classification of existing approaches. Our work goes on to look more specifically at measures which take advantage of knowledge representations expressed by means of semantic graphs, e.g. RDF(S) graphs. We show that these measures rely on a reduced set of abstract primitives and that, even if they have generally been defined independently in the literature, most of them are only specific expressions of generic parametrised measures. This result leads us to the definition of a unifying theoretical framework for semantic measures, which can be used to: (i) design new measures, (ii) study theoretical properties of measures, (iii) guide end-users in the selection of measures adapted to their usage context. The relevance of this framework is demonstrated in its first practical applications which show, for instance, how it can be used to perform theoretical and empirical analyses of measures with a previously unattained level of detail. Interestingly, this framework provides a new insight into semantic measures and opens interesting perspectives for their analysis.Having uncovered a flagrant lack of generic and efficient software solutions dedicated to (knowledge-based) semantic measures, a lack which clearly hampers both the use and analysis of semantic measures, we consequently developed the Semantic Measures Library (SML): a generic software library dedicated to the computation and analysis of semantic measures. The SML can be used to take advantage of hundreds of measures defined in the literature or those derived from the parametrised functions introduced by the proposed unifying framework. These measures can be analysed and compared using the functionalities provided by the library. The SML is accompanied by extensive documentation, community support and software solutions which enable non-developers to take full advantage of the library. In broader terms, this project proposes to federate the several communities involved in this domain in order to create an interdisciplinary synergy around the notion of semantic measures: http://www.semantic-measures-library.org This thesis also presents several algorithmic and theoretical contributions related to semantic measures: (i) an innovative method for the comparison of instances defined in a semantic graph – we underline in particular its benefits in the definition of content-based recommendation systems, (ii) a new approach to compare concepts defined in overlapping taxonomies, (iii) algorithmic optimisation for the computation of a specific type of semantic measure, and (iv) a semi-supervised learning-technique which can be used to identify semantic measures adapted to a specific usage context, while simultaneously taking into account the uncertainty associated to the benchmark in use. These contributions have been validated by several international and national publications.
32

A constraint-based approach to modelling spatial semantics of vitual environments / Une approche basée sur des contraintes pour la modélisation des sémantiques spatiales des environnements virtuels

Trinh, Thanh-Hai 05 April 2012 (has links)
Dans des environnements de réalité virtuelle, les relations spatiales entre les objets transmettent les connaissances fondamentales sur l'environnement, par exemple la direction (« à gauche », « à droite »), la distance (« proche », « loin »), la topologie (« disjoint », « en contact »), et la projection (« entre », « entourée par »). La modélisation des relations spatiales est essentielle dans une grande variété d'applications de réalité virtuelle, tel que des environnements d'apprentissage humain, des musées virtuels, des systèmes d'aides à la navigation. Cependant, les relations spatiales ont été considérées comme des informations abstraites et donc, difficiles à spécifier. Afin d'aborder cette question, cette thèse propose une approche pour modéliser les relations spatiales entre les objets virtuels dans des environnements de réalité virtuelle. Nous formalisons un modèle formel des relations spatiales dédié aux environnements de réalité virtuelle. Ensuite, nous proposons un langage et un cadre pour spécifier les relations spatiales à un niveau conceptuel. Enfin, nous appliquons notre modèle pour spécifier les relations spatiales dans deux applications réelles : TPPhysique – un environnement d'apprentissage humain des exercices de physiques, et BrestCoz – une application pour visiter le port de Brest au 18ème siècle. Nous montrons que le langage proposé est une base pertinente pour spécifier des contraintes spatiales liées aux activités des agents et des utilisateurs dans les environnements de réalité virtuelle. / Within Virtual Reality Environments (VREs), spatial relationships among objects convey fundamental knowledge about the environment, namely direction ("left", "right", "front of"), distance ("near", "far"), topology ("inside", "disjoint"), and projection ("between", "surrounded by"). Modelling spatial relationships is critical in a variety of applications of VREs, such as human learning environments, virtual museums, or navigation-aids systems. However, spatial relationships have been considered as abstract information and thus, difficult to specify. Addressing this issue, this thesis proposes an approach to model spatial relationships among virtual objects in VREs. First, we formalise a formal model of spatial relationships dedicated to VREs. Second, we provide a language and a framework to specify spatial relationships at a conceptual level. Finally, we apply our model to specify spatial relations in two real applications: Virtual Physics Laboratory -- a VRE for learning physics, and BrestCoz -- an application for visiting Brest harbour in the 18th century. We claim that the proposed language is a relevant basis to specify spatial constraints related to activities of agents and users within VREs.
33

Analyse distributionnelle appliquée aux textes de spécialité : réduction de la dispersion des données par abstraction des contextes / Distributional analysis applied to specialised corpora : reduction of data sparsity through context abstraction

Périnet, Amandine 17 March 2015 (has links)
Dans les domaines de spécialité, les applications telles que la recherche d’information ou la traduction automatique, s’appuient sur des ressources terminologiques pour prendre en compte les termes, les relations sémantiques ou les regroupements de termes. Pour faire face au coût de la constitution de ces ressources, des méthodes automatiques ont été proposées. Parmi celles-ci, l’analyse distributionnelle s’appuie sur la redondance d’informations se trouvant dans le contexte des termes pour établir une relation. Alors que cette hypothèse est habituellement mise en oeuvre grâce à des modèles vectoriels, ceux-ci souffrent du nombre de dimensions considérable et de la dispersion des données dans la matrice des vecteurs de contexte. En corpus de spécialité, ces informations contextuelles redondantes sont d’autant plus dispersées et plus rares que les corpus ont des tailles beaucoup plus petites. De même, les termes complexes sont généralement ignorés étant donné leur faible nombre d’occurrence. Dans cette thèse, nous nous intéressons au problème de la limitation de la dispersion des données sur des corpus de spécialité et nous proposons une méthode permettant de densifier la matrice des contextes en réalisant une abstraction des contextes distributionnels. Des relations sémantiques acquises en corpus sont utilisées pour généraliser et normaliser ces contextes. Nous avons évalué la robustesse de notre méthode sur quatre corpus de tailles, de langues et de domaines différents. L’analyse des résultats montre que, tout en permettant de prendre en compte les termes complexes dans l’analyse distributionnelle, l’abstraction des contextes distributionnels permet d’obtenir des groupements sémantiques de meilleure qualité mais aussi plus cohérents et homogènes. / In specialised domains, the applications such as information retrieval for machine translation rely on terminological resources for taking into account terms or semantic relations between terms or groupings of terms. In order to face up to the cost of building these resources, automatic methods have been proposed. Among those methods, the distributional analysis uses the repeated information in the contexts of the terms to detect a relation between these terms. While this hypothesis is usually implemented with vector space models, those models suffer from a high number of dimensions and data sparsity in the matrix of contexts. In specialised corpora, this contextual information is even sparser and less frequent because of the smaller size of the corpora. Likewise, complex terms are usually ignored because of their very low number of occurrences. In this thesis, we tackle the problem of data sparsity on specialised texts. We propose a method that allows making the context matrix denser, by performing an abstraction of distributional contexts. Semantic relations acquired from corpora are used to generalise and normalise those contexts. We evaluated the method robustness on four corpora of different sizes, different languages and different domains. The analysis of the results shows that, while taking into account complex terms in distributional analysis, the abstraction of distributional contexts leads to defining semantic clusters of better quality, that are also more consistent and more homogeneous.
34

Méthodologie pour l’orchestration sémantique de services, application au traitement de documents multimédia / Methodology for semantic services orchestration, application to multimedia document processing

Doucy, Jérémie 17 October 2011 (has links)
Après un état de l'art complet nous avons détaillé notre approche de services sémantiques utilisant une méthode innovante pour la composition de services, les patrons de chaînes de traitements. Notre approche est constituée d'un annuaire sémantique hybride proposant différents niveaux de correspondances entre services, de règles de compositions automatiques dans le cas où une demande de services n'est pas fructueuse et enfin d'un moteur d'exécution supportant la résolution et la composition dynamique de services. Par la suite nous avons défini une méthodologie innovante, basée sur l'utilisation de taxonomies de services permettant de peupler rapidement un annuaire sémantique de services. Pour ce faire, nous avons mis au point une ontologie de haut niveau qui permet de lier la classe d'une taxonomie avec un service abstrait annoté sémantiquement. Enfin, nous avons évalué notre prototype à partir des chaînes de traitement mises en place dans les plate-formes déployées par Cassidian. / After a complete state of the art we detailed our semantic services approach which uses an innovative method for services composition: processing chains patterns. Our approach is composed on an hybrid semantic servicers registry which propose different levels of matching between services, some composition rules when the matching phase failde and an execution engine which is able to dynamically resolve and com^pose services. In order to solve the service regitry population issue, we have designed an upper ontology, which enables links between a service taxonomy class with a semantically annotated abstract service. Finally, we have evaluated our prototype using real processing chains used by Cassidian platforms.
35

PROTOCOLE DE DECOUVERTE SENSIBLE AU CONTEXTE POUR LES SERVICES WEB SEMANTIQUES

Roxin, Ana 30 November 2009 (has links) (PDF)
Le Web d'aujourd'hui représente un espace où les utilisateurs recherchent, découvrent et partagent des informations. Dans ce cadre, les processus de découverte de services Web jouent un rôle fondamental. Un tel processus permet de faire le lien entre des informations publiées par des fournisseurs de services et des requêtes créées par les internautes. Généralement, un tel processus repose sur une recherche " textuelle " ou à base de " mots-clés ". Or, ce type de recherche ne parvient pas à toujours identifier les services les plus pertinents. Notre idée est de concevoir un système plus " intelligent ", permettant d'utiliser, lors du processus de découverte, une base de connaissances associées aux informations, comme c'est le cas pour le Web sémantique. Cette thèse présente un prototype pour la découverte de services Web sémantiques, utilisant des caractéristiques non-fonctionnelles (descriptives) des services. Notre approche emploie le langage OWL-S (Web Ontology Language for Services) pour définir un modèle de description des paramètres non-fonctionnels des services. Ce modèle a pour but de faciliter la découverte de services Web sémantiques. Ce modèle représente le centre de notre contribution, étant utilisé pour la conception des interfaces et des requêtes. Deux interfaces sont développées, l'une s'adressant aux fournisseurs de services, alors que la deuxième interface est conçue pour l'utilisateur final. L'algorithme de recherche présenté dans cette thèse a pour but d'améliorer la précision et la complétude du processus de découverte de services.
36

Utilisation d'ontologies comme support à la recherche et à la navigation dans une collection de documents / ONTOLOGY BASED INFORMATION RETRIEVAL

Sy, Mohameth François 11 December 2012 (has links)
Les ontologies offrent une modélisation des connaissances d'un domaine basée sur une hiérarchie des concepts clefs de ce domaine. Leur utilisation dans le cadre des Systèmes de Recherche d'Information (SRI), tant pour indexer les documents que pour exprimer une requête, permet notamment d'éviter les ambiguïtés du langage naturel qui pénalisent les SRI classiques. Les travaux de cette thèse portent essentiellement sur l'utilisation d'ontologies lors du processus d'appariement durant lequel les SRI ordonnent les documents d'une collection en fonction de leur pertinence par rapport à une requête utilisateur. Nous proposons de calculer cette pertinence à l'aide d'une stratégie d'agrégation de scores élémentaires entre chaque document et chaque concept de la requête. Cette agrégation, simple et intuitive, intègre un modèle de préférences dépendant de l'utilisateur et une mesure de similarité sémantique associée à l'ontologie. L'intérêt majeur de cette approche est qu'elle permet d'expliquer à l'utilisateur pourquoi notre SRI, OBIRS, estime que les documents qu'il a sélectionnés sont pertinents. Nous proposons de renforcer cette justification grâce à une visualisation originale où les résultats sont représentés par des pictogrammes, résumant leurs pertinences élémentaires, puis disposés sur une carte sémantique en fonction de leur pertinence globale. La Recherche d'Information étant un processus itératif, il est nécessaire de permettre à l'utilisateur d'interagir avec le SRI, de comprendre et d'évaluer les résultats et de le guider dans sa reformulation de requête. Nous proposons une stratégie de reformulation de requêtes conceptuelles basée sur la transposition d'une méthode éprouvée dans le cadre de SRI vectoriels. La reformulation devient alors un problème d'optimisation utilisant les retours faits par l'utilisateur sur les premiers résultats proposés comme base d'apprentissage. Nous avons développé une heuristique permettant de s'approcher d'une requête optimale en ne testant qu'un sous-espace des requêtes conceptuelles possibles. Nous montrons que l'identification efficace des concepts de ce sous-espace découle de deux propriétés qu'une grande partie des mesures de similarité sémantique vérifient, et qui suffisent à garantir la connexité du voisinage sémantique d'un concept.Les modèles que nous proposons sont validés tant sur la base de performances obtenues sur des jeux de tests standards, que sur la base de cas d'études impliquant des experts biologistes. / Domain ontologies provide a knowledge model where the main concepts of a domain are organized through hierarchical relationships. In conceptual Information Retrieval Systems (IRS), where they are used to index documents as well as to formulate a query, their use allows to overcome some ambiguities of classical IRSs based on natural language processes.One of the contributions of this study consists in the use of ontologies within IRSs, in particular to assess the relevance of documents with respect to a given query. For this matching process, a simple and intuitive aggregation approach is proposed, that incorporates user dependent preferences model on one hand, and semantic similarity measures attached to a domain ontology on the other hand. This matching strategy allows justifying the relevance of the results to the user. To complete this explanation, semantic maps are built, to help the user to grasp the results at a glance. Documents are displayed as icons that detail their elementary scores. They are organized so that their graphical distance on the map reflects their relevance to a query represented as a probe. As Information Retrieval is an iterative process, it is necessary to involve the users in the control loop of the results relevancy in order to better specify their information needs. Inspired by experienced strategies in vector models, we propose, in the context of conceptual IRS, to formalize ontology based relevance feedback. This strategy consists in searching a conceptual query that optimizes a tradeoff between relevant documents closeness and irrelevant documents remoteness, modeled through an objective function. From a set of concepts of interest, a heuristic is proposed that efficiently builds a near optimal query. This heuristic relies on two simple properties of semantic similarities that are proved to ensure semantic neighborhood connectivity. Hence, only an excerpt of the ontology dag structure is explored during query reformulation.These approaches have been implemented in OBIRS, our ontological based IRS and validated in two ways: automatic assessment based on standard collections of tests, and case studies involving experts from biomedical domain.
37

Mise en œuvre des préférences dans des problèmes de décision / Preference Handling in Decision-Making Problems

Patel, Namrata 07 October 2016 (has links)
Il y a une forte croissance, à nos jours, de «services» intelligents proposés aux clients sur les plates-formes de commerce électronique, destinés à une assistance personnalisée. L'étude de préférences a suscité un grand intérêt dans ce contexte, grâce à leur utilisation dans la résolution de problèmes liés à la prise de décision. En effet, la recherche sur les préférences en intelligence artificielle (IA) propose différentes manières d'aborder ce problème : de l'acquisition des préférences à leur représentation formelle et, éventuellement, à leur gestion suivant plusieurs méthodes de raisonnement. Dans cette thèse, nous adressons la problématique de la mise en œuvre de préférences comparatives pour l'aide à la décision par le développement d'un système interactif «intelligent» de recommandations personnalisées. Nous suivons une tendance récente, et le concevons sur une base de considérations psychologiques, linguistiques et personnelles. Nous contribuons ainsi aux domaines suivants de préférences en IA : (1) leur acquisition, (2) leur représentation, et (3) leur mise en œuvre. Nous examinons d'abord un goulot d'étranglement dans l'acquisition de préférences et proposons une méthode d'acquisition de préférences exprimées en langage naturel (LN), qui permet leur représentation formelle en tant que préférences comparatives. Nous étudions ensuite les aspects théoriques de la représentation et du raisonnement avec les préférences comparatives pour aide à la décision. Finalement, nous décrivons notre outil de recommandations qui utilise : (1) une base de données de produits qualifiée par une analyse de critiques d'utilisateurs, (2) une approche interactive pour guider les utilisateurs à exprimer leurs préférences comparatives, et (3) un moteur de raisonnement qui manipule ces préférences afin de proposer une recommandation basée sur les préférences de l'utilisateur. / Intelligent ‘services’ are increasingly used on e-commerce platforms to provide assistance to customers. In this context, preferences have gained rapid interest for their utility in solving problems related with decision making. Research on preferences in AI has shed light on various ways of tackling this problem, ranging from the acquisition of preferences to their formal representation and eventually their proper manipulation. Following a recent trend of stepping back and looking at decision-support systems from the user’s point of view, i.e. designing them on the basis of psychological, linguistic and personal considerations, we take up the task of developing an “intelligent” tool which uses comparative preference statements for personalised decision support. We tackle and contribute to different branches of research on preferences in AI: (1) their acquisition (2) their formal representation and manipulation (3) their implementation. We first address a bottleneck in preference acquisition by proposing a method of acquiring user preferences, expressed in natural language (NL), which favours their formal representation and further manipulation. We then focus on the theoretical aspects of handling comparative preference statements for decision support. We finally describe our tool for product recommendation that uses: (1) a review-based analysis to generate a product database, (2) an interactive preference elicitation unit to guide users to express their preferences, and (3) a reasoning engine that manipulates comparative preference statements to generate a preference-based ordering on outcomes as recommendations.
38

Fondation constitutive du milieu intermédiaire / The « Intermediary Mental Space » As a New Way for Language Study

Faure, Jean-Philippe 11 May 2012 (has links)
Ce travail s’est construit en partant d’une déclaration de Ferdinand de Saussure présentant le langage comme un « milieu intermédiaire ». Ce propos de Saussure n’a d’abord existé que sous la forme orale, mais fut transcrit dans les notes de cours de ses auditeurs ; il figure finalement dans l’édition critique du Cours, due à Rudolf Engler (que l’on doit considérer comme le véritable éditeur de Saussure). Librement inspiré de la Généalogie de la morale de Nietzsche, cette étude poursuit le but d’enquêter généalogiquement sur les présupposés des principales écoles linguistiques du 20ème siècle (néo-grammairiens, structuralisme, grammaire générative, fonctionnalisme, cognitivisme à la manière de Rosch et Varela). L’enquête généalogique vise à montrer que la conception dite « théorie du reflet » a ses racines dans le pessimisme romantique. Ce nouveau positionnement devrait permettre d’élaborer une nouvelle orientation (justifiant la revendication d’une « fondation constitutive »), par le recours méthodique à la phénoménologie ainsi qu’à l’outil de la Gestalt, issue de la psychologie de même nom. Il faut voir le « milieu intermédiaire » comme métaphore équivalente aux champs sémantiques, ce qui conduit à intégrer dans ce travail un examen critique des précurseurs dans cette voie que sont Jost Trier et Els Oksaar. / This work mainly deals with a statement of Ferdinand de Saussure, describing language as « milieu intermédiaire » (which might be named in english : « intermediary mental space », in accordance to Fauconnier’s « mental space ») ; Saussure’s statement was only in spoken form, but fortunately transcribed by listeners of his lectures in Geneva. Freely inspired from Nietzsche‘s Genealogy of morals, this study means to enquire into the main XXth century linguistic schools (neo-grammarians, structuralism, generative grammar, fonctionalism, cognitive sciences as with Varela and Rosch), which should make it possible to elaborate a new orientation of this science (justifying the claim of a « fondation constitutive »). This research aims at thoroughly recasting the method through the screen of phenomenology (including recourse to the « Gestalt », of the same-named psychology). The « intermediary mental space » is to be seen as an eq! uivalent of the semantic fields, which had led me to survey – as an important part of my work - the studies of the precursors in this direction, Jost Trier and Els Oksaar, but through a critical approach of their work.
39

Infrastrucuture orientée service pour le développement d'applications ubiquitaires

Lancia, Julien 18 December 2008 (has links) (PDF)
Un grand nombre de périphériques actuels sont dotés de connexions réseaux qui permettent d'accéder à leurs fonctionnalités au travers d'un réseau informatique. Les applications ubiquitaires visent à structurer ces fonctionnalités pour les mettre au service de l'utilisateur.<br /><br />Les environnements ubiquitaires sont caracttérisés par une disponibilité dynamique des fonctionnalités et une hétérogénéité matérielle et logicielle des périphériques. De plus les applications doivent s'adapter en fonction du contexte des utilisateurs.
40

Communication en langue naturelle avec un système d'aide à la conception d'assemblages physiques : un essai d'utilisation de réseaux sémantiques partitionnés

Lopez, Mauricio 29 September 1979 (has links) (PDF)
.

Page generated in 0.0343 seconds