• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 32
  • 8
  • 6
  • Tagged with
  • 50
  • 50
  • 19
  • 16
  • 15
  • 14
  • 11
  • 10
  • 10
  • 9
  • 9
  • 9
  • 8
  • 7
  • 7
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Pour une ingénierie des connaissances pour le développement d'applications de traitement d'images

Clouard, Régis 16 December 2009 (has links) (PDF)
Les travaux de recherche développés dans ce manuscrit portent sur la conception de systèmes de génération automatique de programmes de traitement d'images. De tels systèmes ont pour ambition de permettre à des utilisateurs non nécessairement experts en traitement d'images de construire seuls des programmes de traitement d'images dédiés. Cet objectif pose des défis importants en grande partie causés par les fossés sensoriel et sémantique qui séparent le contenu des images à traiter des besoins des utilisateurs. Les contributions se situent dans le domaine de l'ingénierie des connaissances où l'objectif est abordé sous l'angle du pilotage d'algorithmes à partir de systèmes à base de connaissances. Le point de vue développé soutient que le recours aux connaissances symboliques explicites, et donc à des systèmes à base de connaissances, est une voie prometteuse pour concevoir des systèmes de traitement d'images, dès lors que l'on envisage d'accroître les capacités d'adaptation à tout un ensemble de contextes différents. C'est sous cet angle que sont abordées les différentes parties du système : la formulation d'objectifs de traitement d'images ; la génération automatique de programmes ; l'interaction Homme-Machine ; l'acquisition de connaissances.
22

Gestion de l’incertitude et de l’imprécision dans un processus d’extraction de connaissances à partir des textes / Uncertainty and imprecision management in a knowledge extraction process from unstructured texts

Jean, Pierre-Antoine 23 November 2017 (has links)
Les concepts de découverte et d’extraction de connaissances ainsi que d’inférencesont abordés sous différents angles au sein de la littérature scientifique. En effet, de nombreux domaines s’y intéressent allant de la recherche d’information, à l’implication textuelle en passant par les modèles d’enrichissement automatique des bases de connaissances. Ces concepts suscitent de plus en plus d’intérêt à la fois dans le monde académique et industriel favorisant le développement de nouvelles méthodes.Cette thèse propose une approche automatisée pour l’inférence et l’évaluation de connaissances basée sur l’analyse de relations extraites automatiquement à partir de textes. L’originalité de cette approche repose sur la définition d’un cadre tenant compte (i) de l’incertitude linguistique et de sa détection dans le langage naturel réalisée au travers d’une méthode d’apprentissage tenant compte d’une représentation vectorielle spécifique des phrases, (ii) d’une structuration des objets étudiés (e.g. syntagmes nominaux) sous la forme d’un ordre partiel tenant compte à la fois des implications syntaxiques et d’une connaissance a priori formalisée dans un modèle de connaissances de type taxonomique (iii) d’une évaluation des relations extraites et inférées grâce à des modèles de sélection exploitant une organisation hiérarchique des relations considérées. Cette organisation hiérarchique permet de distinguer différents critères en mettant en œuvre des règles de propagation de l’information permettant ainsi d’évaluer la croyance qu’on peut accorder à une relation en tenant compte de l’incertitude linguistique véhiculée. Bien qu’a portée plus large, notre approche est ici illustrée et évaluée au travers de la définition d’un système de réponse à un questionnaire, généré de manière automatique, exploitant des textes issus du Web. Nous montrons notamment le gain informationnel apporté par la connaissance a priori, l’impact des modèles de sélection établis et le rôle joué par l’incertitude linguistique au sein d’une telle chaîne de traitement. Les travaux sur la détection de l’incertitude linguistique et la mise en place de la chaîne de traitement ont été validés par plusieurs publications et communications nationales et internationales. Les travaux développés sur la détection de l’incertitude et la mise en place de la chaîne de traitement sont disponibles au téléchargement à l’adresse suivante : https ://github.com/PAJEAN/. / Knowledge discovery and inference are concepts tackled in different ways in the scientific literature. Indeed, a large number of domains are interested such as : information retrieval, textual inference or knowledge base population. Theses concepts are arousing increasing interest in both academic and industrial fields, promoting development of new methods.This manuscript proposes an automated approach to infer and evaluate knowledge from extracted relations in non-structured texts. Its originality is based on a novel framework making possible to exploit (i) the linguistic uncertainty thanks to an uncertainty detection method described in this manuscript (ii) a generated partial ordering of studied objects (e.g. noun phrases) taking into account of syntactic implications and a prior knowledge defined into taxonomies, and (iii) an evaluation step of extracted and inferred relations by selection models exploiting a specific partial ordering of relations. This partial ordering allows to compute some criteria in using information propagation rules in order to evaluate the belief associated to a relation in taking into account of the linguistic uncertainty. The proposed approach is illustrated and evaluated through the definition of a system performing question answering by analysing texts available on the Web. This case study shows the benefits of structuring processed information (e.g. using prior knowledge), the impact of selection models and the role of the linguistic uncertainty for inferring and discovering new knowledge. These contributions have been validated by several international and national publications and our pipeline can be downloaded at https ://github.com/PAJEAN/.
23

Système à base de connaissances pour le processus de plan d'expériences numériques / Knowledge-based system for the numerical design of experiments process

Blondet, Gaëtan 09 June 2017 (has links)
Le besoin de compétitivité des entreprises, dans un contexte économique mondialisé, repose sur l'amélioration de la qualité des produits et la réduction des coûts et du temps de mise sur le marché. Pour atteindre ces objectifs, la simulation numérique est couramment utilisée pour la conception de produits complexes et mobilise des expertises diverses. Les Plans d'Expériences Numériques (PEN) sont de plus en plus utilisés pour simuler les variabilités des propriétés et de l’environnement du produit. Un processus de PEN apporte des méthodes de planification et d'analyse d'un ensemble de simulations, pour mieux maîtriser les performances du produit. La problématique traitée repose sur deux points. D'une part, la définition d'un processus de PEN repose sur de nombreux choix et l'utilisation de méthodes complexes, nécessitant une expertise avancée. Cette définition est d'autant plus complexe que le modèle de simulation est complexe et coûteux à exécuter. D'autre part, l'utilisation de PEN conduit à une production de grands volumes de données en multipliant les simulations. Ces travaux portent sur l'obtention rapide de la configuration optimale du processus de PEN pour raccourcir la préparation et l’exécution d’un PEN. Ces travaux se sont orientés vers la réutilisation des connaissances en entreprise pour un système à base de connaissances, composé d'une ontologie spécifique, pour capitaliser et partager les connaissances, et d'un moteur d'inférences, basé sur les réseaux bayésiens, pour proposer aux concepteurs des configurations efficaces et innovantes. Cette proposition est illustrée par une application sur un produit industriel issue du secteur automobile. / In order to improve industrial competitiveness, product design relies more and more on numerical tools, such as numerical simulation, to develop better and cheaper products faster. Numerical Design of Experiments (NDOE) are more and more used to include variabilities during simulation processes, to design more robust, reliable and optimized product earlier in the product development process. Nevertheless, a NDOE process may be too expensive to be applied to a complex product, because of the high computational cost of the model and the high number of required experiments. Several methods exist to decrease this computational cost, but they required expert knowledge to be efficiently applied. In addition to that, NDoE process produces a large amount of data which must be managed. The aim of this research is to propose a solution to define, as fast as possible, an efficient NDoE process, which produce as much useful information as possible with a minimal number of simulations, for complex products. The objective is to shorten both process definition and execution steps. A knowledge-based system is proposed, based on a specific ontology and a bayesian network, to capitalise, share and reuse knowledge and data to predict the best NDoE process definition regarding to a new product. This system is validated on a product from automotive industry.
24

Indexation et recommandation d'informations : vers une qualification précise des items par une approche ontologique, fondée sur une modélisation métier du domaine : application à la recommandation d'articles économiques / Information indexing and recommendation : toward a precise description if items by an ontological approach based on business domain modeling : application to recommander system of economic news

Werner, David 08 July 2015 (has links)
La gestion efficace de grandes quantités d’informations est devenue un défi de plus en plus importantpour les systèmes d’information. Tous les jours, de nouvelles sources d’informations émergent surle web. Un humain peut assez facilement retrouver ce qu’il cherche, lorsqu’il s’agit d’un article,d’une vidéo, d’un artiste précis. En revanche, il devient assez difficile, voire impossible, d’avoir unedémarche exploratoire pour découvrir de nouveaux contenus. Les systèmes de recommandationsont des outils logiciels ayant pour objectif d’assister l’humain afin de répondre au problème desurcharge d’informations. Les travaux présentés dans ce document proposent une architecturepour la recommandation efficace d’articles d’actualité. L’approche ontologique utilisée repose surun modèle permettant une qualification précise des items sur la base d’un vocabulaire contrôlé.Contenu dans une ontologie, ce vocabulaire constitue une modélisation formelle de la vue métier surle domaine traité. Réalisés en collaboration avec la société Actualis SARL, ces travaux ont permis lacommercialisation d’un nouveau produit hautement compétitif, FristECO Pro’fil. / Effective management of large amounts of information has become a challenge increasinglyimportant for information systems. Everyday, new information sources emerge on the web. Someonecan easily find what he wants if (s)he seeks an article, a video or a specific artist. However,it becomes quite difficult, even impossible, to have an exploratory approach to discover newcontent. Recommender systems are software tools that aim to assist humans to deal withinformation overload. The work presented in this Phd thesis proposes an architecture for efficientrecommendation of news. In this document, we propose an architecture for efficient recommendationof news articles. Our ontological approach relies on a model for precise characterization of itemsbased on a controlled vocabulary. The ontology contains a formal vocabulary modeling a view on thedomain knowledge. Carried out in collaboration with the company Actualis SARL, this work has ledto the marketing of a new highly competitive product, FristECO Pro’fil.
25

Nouvelles méthodes pour l'évaluation, l'évolution et l'interrogation des bases du Web des données / New methods to evaluate, check and query the Web of data

Maillot, Pierre 26 November 2015 (has links)
Le Web des données offre un environnement de partage et de diffusion des données, selon un cadre particulier qui permet une exploitation des données tant par l’humain que par la machine. Pour cela, le framework RDF propose de formater les données en phrases élémentaires de la forme (sujet, relation, objet) , appelées triplets. Les bases du Web des données, dites bases RDF, sont des ensembles de triplets. Dans une base RDF, l’ontologie – données structurelles – organise la description des données factuelles. Le nombre et la taille des bases du Web des données n’a pas cessé de croître depuis sa création en 2001. Cette croissance s’est même accélérée depuis l’apparition du mouvement du Linked Data en 2008 qui encourage le partage et l’interconnexion de bases publiquement accessibles sur Internet. Ces bases couvrent des domaines variés tels que les données encyclopédiques (e.g. Wikipédia), gouvernementales ou bibliographiques. L’utilisation et la mise à jour des données dans ces bases sont faits par des communautés d’utilisateurs liés par un domaine d’intérêt commun. Cette exploitation communautaire se fait avec le soutien d’outils insuffisamment matures pour diagnostiquer le contenu d’une base ou pour interroger ensemble les bases du Web des données. Notre thèse propose trois méthodes pour encadrer le développement, tant factuel qu’ontologique, et pour améliorer l’interrogation des bases du Web des données. Nous proposons d’abord une méthode pour évaluer la qualité des modifications des données factuelles lors d’une mise à jour par un contributeur. Nous proposons ensuite une méthode pour faciliter l’examen de la base par la mise en évidence de groupes de données factuelles en conflit avec l’ontologie. L’expert qui guide l’évolution de cette base peut ainsi modifier l’ontologie ou les données. Nous proposons enfin une méthode d’interrogation dans un environnement distribué qui interroge uniquement les bases susceptibles de fournir une réponse. / The web of data is a mean to share and broadcast data user-readable data as well as machine-readable data. This is possible thanks to rdf which propose the formatting of data into short sentences (subject, relation, object) called triples. Bases from the web of data, called rdf bases, are sets of triples. In a rdf base, the ontology – structural data – organize the description of factual data. Since the web of datacreation in 2001, the number and sizes of rdf bases have been constantly rising. This increase has accelerated since the apparition of linked data, which promote the sharing and interlinking of publicly available bases by user communities. The exploitation – interrogation and edition – by theses communities is made without adequateSolution to evaluate the quality of new data, check the current state of the bases or query together a set of bases. This thesis proposes three methods to help the expansion at factual and ontological level and the querying of bases from the web ofData. We propose a method designed to help an expert to check factual data in conflict with the ontology. Finally we propose a method for distributed querying limiting the sending of queries to bases that may contain answers.
26

Alimentation automatique d'une base de connaissances à partir de textes en langue naturelle. Application au domaine de l'innovation

Al Haj Hasan, Issam 20 November 2008 (has links) (PDF)
Dans ce travail nous nous sommes intéressés à l'alimentation automatique d'une base de connaissances pour l'aide à l'innovation. Ce processus s'appuie sur une ontologie du domaine. La base de connaissances est organisée autour des opérateurs d'innovation. Cette base est initialisée par un expert qui doit définir les opérateurs concernés et les ressources associées. Le système d'alimentation automatique permet alors l'enrichissement de cette base par des exemples de résolution de problèmes d'innovation à partir de textes en langue naturelle. Ce système met en oeuvre une nouvelle approche pour l'extraction automatique d'informations. Cette approche n'est pas spécifique à l'innovation et peut être adaptée à d'autres problèmes d'extraction d'informations dans d'autres domaines.
27

Aide à la décision en réponse à appel d'offres : une approche intégrée de conception conjointe produit-processus, de gestion des risques et de retour d'expérience / Decision support in bidding process : an integrated approach of concurrent design of system and process, risk management and experience feedback

Sylla, Abdourahim 13 July 2018 (has links)
Dans le cadre d’une relation client / fournisseur, les entreprises proposant des produits ou systèmes doivent élaborer et proposer des offres personnalisées, attractives et réalisables. Pour cela, elles doivent tout d’abord concevoir et évaluer un ensemble d’offres techniques (couples systèmes / processus de réalisation). Ensuite, sélectionner, sur la base d’un ensemble de critères de décision pertinents, l’offre technique à considérer dans la proposition à transmettre au client. Dans des situations où les solutions techniques disponibles au sein de l’entreprise fournisseur couvrent une bonne partie des besoins exprimés par le client mais pas la totalité, situations dites de « conception non-routinière », l’analyse des pratiques industrielles et des travaux scientifiques a permis de définir trois problématiques de recherche majeures : (i) la conception des offres en situations de conception non-routinière, (ii) l’évaluation de la confiance dans les offres quant à leur bonne réalisation au regard des attentes et objectifs fixés, et (iii) la sélection, parmi un ensemble d’offres potentielles, de l’offre la plus intéressante en tenant compte de l’imprécision, de l’incertitude et de la confiance associées aux offres. Les travaux réalisés dans cette thèse apportent des solutions scientifiques et pragmatiques à ces trois problématiques. Concernant la conception des offres, des solutions sont proposées pour étendre les principes de configuration à des situations de « conception non-routinière ». Deux indicateurs ainsi qu’une méthode permettant de les quantifier sont proposés pour l’évaluation de la confiance de chaque offre technique. Enfin, une approche d’aide à la décision multicritère est développée pour aider à la sélection de l’offre technique la plus intéressante en tenant compte de l’imprécision, de l’incertitude et de la confiance. / In the context of a customer / supplier relationship, companies offering products or systems must develop and propose personalized, attractive and achievable offers. In order to do so, they have to design and evaluate a set of technical offers corresponding to pairs of systems and delivery processes. Then, on the basis of a set of relevant decision criteria, they must select the technical offer to be considered and sent to the customer. In situations where the technical solutions available within the supplier company cover a good part of the customer’s requirements but not all, so-called "non-routine design" situations, the analysis of industrial practices and scientific works has led us to identify three major research problems: (i) the design of technical offers in non-routine design situations, (ii) the evaluation of the confidence in these offers as to their good achievement with regard to customer’s expectations and supplier’s objectives, and (iii) the selection of the most interesting offer from a set of potential technical offers while taking into account imprecision, uncertainty and confidence. This thesis provides scientific and pragmatic solutions to these problems. Regarding the design of the offers, solutions are proposed to extend the principles of configuration to "non-routine design" situations. Two indicators and a method for quantifying them are proposed for the assessment of the confidence of each technical offer. Finally, a multi-criteria decision support approach is developed to assist the supplier in the selection of the most interesting technical offer, taking into account imprecision, uncertainty and confidence.
28

Représentation et simulation de projets de construction entachés d’incertitudes en utilisant des modèles relationnels probabilistes / Representation and simulation of construction projects tainted with uncertainties by using probabilistic relational models

Tran, Thi Thuy Phuong 14 February 2018 (has links)
La gestion des risques est un enjeu majeur, mais difficile pour les projets de construction. La difficulté à gérer les risques dans les projets de construction vient de leur complexité. Ils sont composés de nombreuses entités (activités, acteurs, contrats, ressources, etc.) dont le comportement collectif influencent les comportements individuels. Afin de mieux appréhender et comprendre la complexité du système dans son ensemble, il est nécessaire de capitaliser et structurer la connaissance dans le but de proposer un modèle capable de décrire et simuler le comportement du système étudié. Cependant, la formalisation de tels modèles se confronte à de nombreuses difficultés : présence de facteurs humains, raretés de modèles, connaissances souvent expertes et qualitatives difficiles à formaliser, méconnaissance des mécanismes régissant certains processus, données parcellaires, hétérogènes et souvent imparfaites, échelles multiples, etc. L’objectif est de proposer des approches conceptuelles permettant d’assembler des morceaux de connaissances hétérogènes multi-sources et multi-échelles dans le but de proposer un modèle capable de réduire les incertitudes liées au fonctionnement, au devenir, à la conception et au pilotage des projets de construction.Différentes approches et outils ont été proposés pour modéliser et simuler les projets de construction : structure de répartition des risques, réseaux bayésiens, théorie des réseaux, simulation de Monte Carlo, réseau analytique, etc. Ces outils et méthodes sont utilisés pour simuler le comportement de systèmes, mais inadéquats pour représenter des systèmes complexes dynamiques à grandes échelles. Ils sont pour la plupart parcellaires et ne présentent pas ou peu de généricités. Dans ce contexte, les modèles relationnels probabilistes (MRPs) fourniront un formalisme mathématique pratique permettant de représenter et de simuler des systèmes dynamiques complexes entachés d’incertitudes. Les MRPs étendent le formalisme des réseaux bayésiens en ajoutant la notion de paradigme objet où l'incertitude attachée au système est alors prise en compte en quantifiant la dépendance probabiliste entre les propriétés des objets.Pour ce faire, une ontologie du domaine a été développée pour (a) fournir un vocabulaire commun capable de représenter les connaissances sur les projets de construction, (b) identifier les interconnections entre les différentes entités techniques, humaines, économiques à différents niveaux de description. Guidé par cette ontologie unMRP a été élaboré et utilisé pour simuler le comportement des projets de construction tout en prenant en compte les incertitudes. On montrera comment il peut être utilisé pour prédire la réponse incertaine du système ainsi que pour étudier comment la réponse globale du système est sensible aux valeurs ou hypothèses locales. Enfin, le MRP sera utilisé pour deux études de cas (la construction de routes et de ponts à Hue-Vietnam et d’un bâtiment en France). Les résultats montrent que le formalisme des MRPs permet (1) d’instancier tout type de projets de construction, (2) de prendre en compte l'incertitude, (3) de simuler et prédire le comportement du système et (4) d’extraire de la connaissance à partir d’informations partielles. / The difficulty to manage risks in construction projects comes from their complexity. They are composed of many entities (activities, actors, contracts, resources, etc.) among which interactions exist at many levels and influence the system response. In turn, this response can influence the behaviour of some entities. In order to capture the complexity of the system, it is necessary to structure, model and share cross-disciplinary and interdisciplinary knowledge flows in a common and unifying framework. Because of this high complexity, the system response may appear as unpredictable. Uncertainties at all scales are source of risk for the construction project itself. Tackling this complexity could improve our grasp of the whole system, in order to provide more robust and efficient decision alternatives in risk management. It is then essential to propose conceptual approaches able to represent the behaviour and the interactions of system entities over the time.Different approaches and tools have been proposed to model and simulate risk of construction project as Risk Breakdown Structure, Bayesian networks, Network Theory, Monte Carlo Simulation, Analytical Network Process, etc. These tools and methods can be used to simulate the behaviour of the system, but they are inadequate for representing large and complex dynamical system because they are based on case-dependant model (i.e. a specific model has to be built for each studied construction project), the fragmented representation of knowledge, the lack of common vocabulary, the lack of generic character. Hence, an ontology paradigm is developed in order (a) to provide a common vocabulary able to represent the knowledge about construction projects and its risks, (b) to shape the structure (interrelations) between those identified database and (c) to represent construction project integrating as well technical, human, sustainability dimensions at different detailed levels of uncertainty.In this context, by coupling the advantages of ontology and Bayesian network, the framework of probabilistic relational model (PRM) will provide a practical mathematical formalism allowing to represent and simulate complex stochastic dynamical systems. PRMs extend the formalism of Bayesian networks by adding the notion of object paradigm where uncertainty attached to the system is then taken into account by quantifying probabilistic dependence between the properties of objects and other properties of related objects. To the best of our knowledge, this thesis report will be the first application in which PRM have been proposed to model and simulate construction project while accounting uncertainties.Therefore PRM is used to simulate the propagation of uncertainties existing in this complexdynamic and multi-scale system, which lead to construction project risk. A prototypal software framework has been developed to check the consistency and the viability of the concept. It will be shown how it can be used in order to predict the uncertain response of the system as well as to study how the overall response of the system is sensitive to local values or assumptions. Lastly, PRM will be applied for two case-studies (a road and bridge construction in Hue-Vietnam and another building project in France). Results show that the formalism of PRMs allows to (1) implement any kind of construction project, (2) to take uncertainty into account, (3) to simulate and predict the behaviour of system and (4) to derive information from partial knowledge.
29

Agrégation des résultats dans les systèmes de recherche d’information pair-à-pair non structurés / Results aggregation in unstructured peer-to-peer information retrieval systems

Mghirbi, Rim 18 January 2013 (has links)
Une grande partie de l’impulsion de diverses technologies d’Internet par les systèmes Pair-à-Pair (Peer-to-Peer ou P2P) peut être vue comme une réaction au détriment du centrage de contenu sur les serveurs devant des clients passifs. Une des caractéristiques distinctives de tout système P2P est ce que nous appelons souvent connectivité directe de bout en bout entre pairs égaux. Le Pair-à-Pair a augmenté les débits des échanges entre des communautés dynamiques des utilisateurs qui tendent à augmenter rapidement. Nous parlons donc de systèmes distribués à large échelle dans lesquels l’information échangée, partagée et recherchée atteint des volumes de plus en plus impressionnants. Dans le cadre de cette thèse, nous nous intéressons essentiellement à la Recherche d'Information dans les systèmes de Recherche d’Information P2P (RIP2P) et plus précisément au problème d'agrégation des résultats dans de tels systèmes. Résoudre le problème d'agrégation en RIP2P de la même manière que sa résolution dans un cadre de Recherche d’Information Distribuée (RID) va manquer beaucoup d’intelligibilité. En effet, ça fait perdre de vue tout un contexte qui a changé en RIP2P, vu le facteur d'échelle et l’absence d’une vision globale sur le système, dans ces réseaux qui s'étendent naturellement à des milliers voire des millions de pairs. Ceci va impliquer notamment la suppression d'un serveur courtier inadéquat dans ce contexte et va soulever le problème de retrouver de nouvelles politiques pour agréger des résultats provenant de pairs hétérogènes dans une liste unique tout en reflétant les attentes de l'utilisateur. Toutes ces raisons nous ont incités à explorer un mécanisme d’agrégation basé sur les profils des utilisateurs déduits de leurs comportements passés suite à leurs interactions avec les résultats d’une requête. Dans cette thèse nos contributions portent sur deux axes complémentaires. D’abord, nous proposons une nouvelle vision d'agrégation de résultats dans un contexte large échelle. Dans ce cadre un modèle de profils et une approche de score hybride à base de profils sont proposés. Ensuite nous avons mis l’accent sur la mise en place d’un cadre d'évaluation de notre approche dans les systèmes à large échelle / A huge part of the impetus of various internet technologies through the Peer-to-Peer (Peer-to-Peer or P2P) system can be seen as a reaction to the content centering detriment on the servers in front of passive clients. One of the distinctive features of any P2P system is what we often call direct connectivity between equal peers. The Peer-to-Peer increased the exchange flows between dynamic communities of users which tend to grow rapidly. We talk, therefore, about large-scale distributed systems in which the exchanged, shared and sought information reaches a more and more impressive volumes. Solving the aggregation problem in P2PIR systems the same way as its resolution in Distributed Information Retrieval (DIR) will miss a lot of intelligibility. In fact, the context has changed in RIP2P, given the scale factor and the lack of a global vision of the system in these networks that extend naturally to thousands or even millions peers. This will involve the removal of a broker server that is inadequate in this context and will raise the problem of finding new policies to aggregate results coming from heterogeneous peers in a single list while reflecting the user’s expectations. All these reasons prompted us to explore an aggregation mechanism based on user profiles deduced from their past behavior due to their interaction with query results. Our contributions, in this thesis, focus on two complementary axes. First, we propose a new vision of results aggregation in a large scale system. In this context, a profiles model and a hybrid score profiles-based approach are proposed. Second, we focused on the development of an evaluation framework of our approach in large-scale systems. In this thesis, we are mainly interested in the Information Retrieval problem in P2P systems (P2PIR) and focusing more specifically on the problem of results’ aggregation in such systems
30

Graphes RDF et leur Manipulation pour la Gestion de Connaissances

Gandon, Fabien 05 November 2008 (has links) (PDF)
Le premier chapitre montre que nos scénarios d'usages sont issus de problèmes de capitalisation, de gestion et de diffusion de connaissances. Nous étudions donc des mémoires individualisées (rattachées à un utilisateur donné), organisationnelles (rattachées à une organisation, notamment une entreprise) ou plus généralement communautaires (rattachées à une communauté d'intérêt ou de pratique). Nous donnons dans le premier chapitre des contextes d'application de nos travaux que nous utiliserons comme des scénarios motivants pour les chapitres suivants. Nous y définissons aussi notre positionnement en représentation des connaissances, notamment pour ce qui est de la représentation d'une mémoire à base d'ontologies.<br />Dans le deuxième chapitre, nous rappelons comment les formalismes à base de graphes peuvent être utilisés pour représenter des connaissances avec un degré variable de formalisation en fonction des besoins identifiés dans les scénarios d'application et des traitements à effectuer notamment pour la mise en place de webs sémantiques. Nous identifierons brièvement les caractéristiques de certains de ces formalismes qui sont utilisés dans nos travaux et les opportunités d'extensions qu'ils offrent. Nous synthétiserons aussi une initiative en cours pour factoriser la définition des structures mathématiques partagées par ces formalismes et réutiliser l'algorithmique des traitements communs à ces structures.<br />Dans le troisième chapitre nous expliquons que l'ontologie offre un support à d'autres types de raisonnement que la dérivation logique. Par exemple, la hiérarchie de notions contenue dans une ontologie peut être vue comme un espace métrique permettant de définir des distances pour comparer la proximité sémantique de deux notions. Nous avons mis en œuvre cette idée dans plusieurs scénarios comme l'allocation distribuée d'annotations, la recherche approchée ou le clustering. Nous résumons dans ce troisième chapitre diverses utilisations que nous avons faites des distances sémantiques et discutons notre position sur ce domaine. Nous donnons les scénarios d'utilisation et les distances utilisées dans un échantillon représentatif de projets que nous avons menés. Pour nous, cette première série d'expériences a permis de démontrer l'intérêt et le potentiel des distances, et aussi de souligner l'importance du travail restant à faire pour identifier et caractériser les familles de distances existantes et leur adéquation respective aux tâches pour lesquelles nos utilisateurs souhaitent être assistés.<br />Dans le quatrième chapitre, nous rappelons qu'un web sémantique, tel que nous en utilisons dans nos scénarios, qu'il soit public ou sur l'intranet d'une entreprise, repose généralement sur plusieurs serveurs web qui proposent chacun différentes ontologies et différentes bases d'annotations utilisant ces ontologies pour décrire des ressources. Les scénarios d'usage amènent souvent un utilisateur à formuler des requêtes dont les réponses combinent des éléments d'annotation distribués entre plusieurs de ces serveurs.<br />Ceci demande alors d'être capable :<br />(1) d'identifier les serveurs susceptibles d'avoir des éléments de réponse ;<br />(2) d'interroger des serveurs distants sur les éléments qu'ils connaissent sans surcharger le réseau;<br />(3) de décomposer la requête et router les sous-requêtes vers les serveurs idoines ;<br />(4) de recomposer les résultats à partir des réponses partielles.<br />Nous avons, avec le web sémantique, les briques de base d'une architecture distribuée. Le quatrième chapitre résume un certain nombre d'approches que nous avons proposées pour tenir compte de la distribution et gérer des ressources distribuées dans les webs sémantiques que nous concevons.<br />Les ontologies et les représentations de connaissances sont souvent dans le cœur technique de nos architectures, notamment lorsqu'elles utilisent des représentations formelles. Pour interagir avec le web sémantique et ses applications, le cinquième chapitre rappelle que nous avons besoin d'interfaces qui les rendent intelligibles pour les utilisateurs finaux. Dans nos systèmes d'inférences des éléments de connaissances sont manipulés et combinés, et même si les éléments de départ étaient intelligibles, l'intelligibilité des résultats, elle, n'est pas préservée par ces transformations.<br />Actuellement, et dans le meilleur des cas, les concepteurs d'interfaces mettent en œuvre des transformations ad hoc des structures de données internes en représentations d'interface en oubliant souvent les capacités de raisonnement que pourraient fournir ces représentations pour construire de telles interfaces. Dans le pire des cas, et encore trop souvent, les structures de représentation normalement internes sont directement mises à nu dans des widgets sans que cela soit justifié et, au lieu d'assister l'interaction, ces représentations alourdissent les interfaces.<br />Puisqu'elles reçoivent les contributions d'un monde ouvert, les interfaces du web sémantique devront être, au moins en partie, générées dynamiquement et rendues pour chaque structure devant rentrer en contact avec les utilisateurs. Le cinquième et dernier chapitre souligne cette opportunité croissante d'utiliser des systèmes à base d'ontologies dans l'assistance aux interactions avec nos utilisateurs.

Page generated in 0.5348 seconds