• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 3
  • 1
  • Tagged with
  • 4
  • 4
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Modélisation d'un système de recherche d'information pour les systèmes hypertextes. Application à la recherche d'information sur le World Wide Web

Carvalho De Aguiar, Fernando Jorge 28 June 2002 (has links) (PDF)
Dans un hypertexte, un document est souvent composé de plusieurs nœuds et non pas d'un seul. L'information véhiculée par un nœud donné peut difficilement être appréhendée à travers la lecture du seul contenu de ce nœud, le contenu des autres nœuds qui composent un document avec le premier nœud lui apportent un contexte .La connaissance de ce contexte est fondamentale dans la compréhension de l'information véhiculée par le premier nœud. Un système de recherche d'information, ou plus couramment un moteur de recherche, appliqué au système hypertexte que constitue le Web devrait considérer dans son fonctionnement la fragmentation des documents hypertextuels en plusieurs pages : une page ne constitue pas un document à part entière, elle n'en est qu'une partie. Ainsi, pour bien indexer une page le contexte de l'information qu'elle véhicule doit être considéré. Les moteurs de recherche considèrent souvent une page comme un document et l'indexent en analysant uniquement son contenu. Le contexte des pages est ignoré. Dans ce travail nous proposons un modèle de recherche d'information pour un moteur de recherche appliqué à un système hypertexte constitué par un site Web. Ce modèle repose sur la construction d'un index à deux niveaux pour chacune des pages du site : un premier niveau, niveau inférieur, construit à partir du seul contenu de la page, et un deuxième niveau, niveau supérieur, construit à partir du contenu des pages qui apportent un contexte au contenu de la page en train d'être indexée. En améliorant la qualité des index des pages on cherche à améliorer l'efficacité du moteur de recherche. Grâce à l'implémentation d'un prototype de moteur de recherche intégrant le modèle proposé ainsi que l'utilisation de la collection de tests WT10g issue des conférences TREC et adaptée à nos besoins, nous avons pu mener des expérimentations. Les résultats de ces dernières, une amélioration dans la qualité des réponses retournées par le moteur prototype, sont des indicateurs favorables de l'utilité de l'information contextuelle des pages. L'efficacité du moteur prototype a été comparée avec celle d'un moteur de recherche adoptant un modèle traditionnel où un seul niveau d'index, celui issu du seul contenu des pages, est utilisé.
2

Calcul de centralité et identification de structures de communautés dans les graphes de documents

Chikhi, Nacim Fateh 17 December 2010 (has links) (PDF)
Dans cette thèse, nous nous intéressons à la caractérisation de grandes collections de documents (en utilisant les liens entre ces derniers) afin de faciliter leur utilisation et leur exploitation par des humains ou par des outils informatiques. Dans un premier temps, nous avons abordé la problématique du calcul de centralité dans les graphes de documents. Nous avons décrit les principaux algorithmes de calcul de centralité existants en mettant l'accent sur le problème TKC (Tightly Knit Community) dont souffre la plupart des mesures de centralité récentes. Ensuite, nous avons proposé trois nouveaux algorithmes de calcul de centralité (MHITS, NHITS et DocRank) permettant d'affronter le phénomène TKC. Les différents algorithmes proposés ont été évalués et comparés aux approches existantes. Des critères d'évaluation ont notamment été proposés pour mesurer l'effet TKC. Dans un deuxième temps, nous nous sommes intéressés au problème de la classification non supervisée de documents. Plus précisément, nous avons envisagé ce regroupement comme une tâche d'identification de structures de communautés (ISC) dans les graphes de documents. Nous avons décrit les principales approches d'ISC existantes en distinguant les approches basées sur un modèle génératif des approches algorithmiques ou classiques. Puis, nous avons proposé un modèle génératif (SPCE) basé sur le lissage et sur une initialisation appropriée pour l'ISC dans des graphes de faible densité. Le modèle SPCE a été évalué et validé en le comparant à d'autres approches d'ISC. Enfin, nous avons montré que le modèle SPCE pouvait être étendu pour prendre en compte simultanément les liens et les contenus des documents.
3

Impact des liens hypertextes sur la précision en recherche d'information.

Chibane, Idir 10 December 2008 (has links) (PDF)
Le Web est caractérisé par un volume d'information exponentiellement croissant ainsi que par l'hétérogénéité de ses ressources. Face au très grand nombre de réponses fournies par un moteur de recherche, il s'agit de fournir des réponses pertinentes parmi les premières réponses. Nous nous intéressons aux algorithmes de propagation de pertinence pour des corpus de documents hypertextes, et en particulier à l'analyse des liens afin d'exploiter l'information véhiculée par ses liens et par le voisinage des documents Web. Cependant, les différentes techniques proposées dépendent de paramètres statiques, fixés à priori selon le type de collection et l'organisation des pages Web. Dans cette thèse, nous proposons une nouvelle méthode de propagation de pertinence en utilisant des paramètres calculés dynamiquement, indépendamment de la collection utilisée. En effet, nous proposons de modéliser une fonction de correspondance d'un système de recherche d'information en prenant en compte à la fois le contenu d'un document et le voisinage de ce document. Ce voisinage est calculé dynamiquement en pondérant les liens hypertextes reliant les documents en fonction du nombre de termes distincts de la requête contenus dans ces documents. Pour traiter l'hétérogénéité des documents Web, nous modélisons les ressources Web à différents niveaux de granularité (site, page, bloc) afin de prendre en compte les différents thèmes contenus dans un même document. Nous proposons aussi une méthode de segmentation thématique des pages Web en utilisant des critères visuels et de représentation du contenu des pages afin d'extraire des blocs thématiques qui seront utilisés pour améliorer les performances de la recherche d'information. Nous avons expérimenté notre système sur deux collections de test WT10g et GOV. Nous concluons que notre modèle fournit de bons résultats par rapport aux algorithmes classiques reposant sur le contenu seul d'un document et ceux reposant sur l'analyse des liens (PageRank, HITS, propagation de pertinence).
4

Consensus opinion model in online social networks based on the impact of influential users / Modèle d'avis de consensus dans les réseaux sociaux en ligne basé sur l'impact des utilisateurs influents

Mohammadinejad, Amir 04 December 2018 (has links)
Cette thèse s'intéresse particulièrement aux sites de vente en ligne et à leurs réseaux sociaux. La propension des utilisateurs utiliser ces sites Web tels qu'eBay et Amazon est de plus en plus importante en raison de leur fiabilité. Les consommateurs se réfèrent à ces sites Web pour leurs besoins et en deviennent clients. L'un des défis à relever est de fournir les informations utiles pour aider les clients dans leurs achats. Ainsi, une question sous-jacente à la thèse cherche à répondre est de savoir comment fournir une information complète aux clients afin de les aider dans leurs achats. C'est important pour les sites d'achats en ligne car cela satisfait les clients par ces informations utiles. Pour surmonter ce problème, trois études spécifiques ont été réalisées : (1) Trouver les utilisateurs influents, (2) Comprendre la propagation d'opinion et (3) Agréger les opinions. Dans la première partie, la thèse propose une méthodologie pour trouver les utilisateurs influents du réseau qui sont essentiels pour une propagation précise de l'opinion. Pour ce faire, les utilisateurs sont classés en fonction de deux scores : optimiste et pessimiste. Dans la deuxième partie, une nouvelle méthodologie de propagation de l'opinion est présentée pour parvenir à un accord et maintenir la cohérence entre les utilisateurs, ce qui rend l'agrégation possible. La propagation se fait en tenant compte des impacts des utilisateurs influents et des voisins. Enfin, dans la troisième partie, l'agrégation des avis est proposée pour rassembler les avis existants et les présenter comme des informations utiles pour les clients concernant chaque produit du site de vente en ligne. Pour ce faire, l'opérateur de calcul de la moyenne pondérée et les techniques floues sont utilisées. La thèse présente un modèle d'opinion consensuelle dans les réseaux. Les travaux peuvent s'appliquer à tout groupe qui a besoin de trouver un avis parmi les avis de ses membres. Par conséquent, le modèle proposé dans la thèse fournit un taux précis et approprié pour chaque produit des sites d'achat en ligne / Online Social Networks are increasing and piercing our lives such that almost every person in the world has a membership at least in one of them. Among famous social networks, there are online shopping websites such as Amazon, eBay and other ones which have members and the concepts of social networks apply to them. This thesis is particularly interested in the online shopping websites and their networks. According to the statistics, the attention of people to use these websites is growing due to their reliability. The consumers refer to these websites for their need (which could be a product, a place to stay, or home appliances) and become their customers. One of the challenging issues is providing useful information to help the customers in their shopping. Thus, an underlying question the thesis seeks to answer is how to provide comprehensive information to the customers in order to help them in their shopping. This is important for the online shopping websites as it satisfies the customers by this useful information and as a result increases their customers and the benefits of both sides. To overcome the problem, three specific connected studies are considered: (1) Finding the influential users, (2) Opinion Propagation and (3) Opinion Aggregation. In the first part, the thesis proposes a methodology to find the influential users in the network who are essential for an accurate opinion propagation. To do so, the users are ranked based on two scores namely optimist and pessimist. In the second part, a novel opinion propagation methodology is presented to reach an agreement and maintain the consistency among users which subsequently, makes the aggregation feasible. The propagation is conducted considering the impacts of the influential users and the neighbors. Ultimately, in the third part, the opinion aggregation is proposed to gather the existing opinions and present it as the valuable information to the customers regarding each product of the online shopping website. To this end, the weighted averaging operator and fuzzy techniques are used. The thesis presents a consensus opinion model in signed and unsigned networks. This solution can be applied to any group who needs to find a plenary opinion among the opinions of its members. Consequently, the proposed model in the thesis provides an accurate and appropriate rate for each product of the online shopping websites that gives precious information to their customers and helps them to have a better insight regarding the products.

Page generated in 0.094 seconds