• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 36
  • 20
  • 9
  • 4
  • 2
  • Tagged with
  • 89
  • 83
  • 49
  • 27
  • 19
  • 17
  • 16
  • 14
  • 13
  • 13
  • 12
  • 12
  • 12
  • 11
  • 11
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

A study of corporate culture compatibility on supply chain performance

Al-Mutawah, Khalid January 2009 (has links)
Supply chain systems have become a vital component of successful networked business firms/organisations. Over the last three decades, there has been a dramatic growth globally in the formation of supply chain networks. Research, however, indicates that there has been an increase in reported supply chains failures, and the incompatibility issues between participated organisations. Yet, these incompatibility issues are not just technical, but encompass wider cultural, organisational, and economical factors. Whilst research has shown the effect of such factors on supply chain performance, the influence of achieving corporate culture compatibility to the success of supply chains remains poorly understood. This is because it is widely accepted that organisations that operate in the same region possess a similar culture. In contrast, this research will examine the existence of corporate culture diversity between organisations in the same region, rather than diversity of national culture across different regions. Specifically, the study described the development of corporate culture compatibility between supply chains’ organisations and its influences on supply chain performance. Therefore, the thesis focus is the complex interrelationships between corporate culture compatibility of member organisations and supply chain performance. This research identifies cultural norms and beliefs of supply chain members within key organisational factors, rather than national or multi-national organisations factors, as in Hofstede (1983). A multi-method research design (combining case study, simulation, and neuro-fuzzy methods) was used to provide a rounded perspective on the phenomena studied. The multiple case studies helped to explore how corporate culture compatibility influences supply chain performance and develop a conceptual model for this association. The simulation experiments were conducted to verify the obtained conceptual framework from the multiple case studies, and investigate the effects of changing the corporate culture compatibility level on supply chain performance. The simulation is designed based on a Multi-Agent System (MAS) approach, in which each organisation in a supply chain is represented as an intelligent agent. Finally, a neuro-fuzzy approach is presented to assess corporate culture on supply chains context using real data. The analysis of the quantitative neuro-fuzzy study confirmed and validated the theoretical findings and adds depth to our understanding of the influences of corporate culture compatibility on supply chain performance. The study confirmed that organisations within the same supply chain in the same region possess different corporate cultures that consequently need the achievement of corporate culture compatibility as it is indicated by the literature. Moreover, the study revealed two types of corporate culture in supply chains’ context: individual culture and common culture. Individual culture refers to the internal beliefs within the organisation’s boundary, while common culture refers to beliefs when trading with partners across the organisation’s boundary. However, the study shows that common culture has more influences on supply chain performance than individual culture. In addition, the study highlighted bi-directional association between individual culture and common culture that helps the supply chain’s organisations developing their corporate culture compatibility. The results from the current study also showed that supply chain performance was shown to arise dramatically in response to corporate culture compatibility level increases. Yet, this increase in performance is diminished at a higher level of corporate culture compatibility, because more corporate culture compatibility increases are not cost effective for the organisations. In addition, organisations at a higher level of compatibility have more preferences to preserve their individual culture because it represents their identity. Furthermore, the study complements the gap in the literature related to the assessment of corporate culture of individual organisations in supply chains for sustaining a higher supply chain performance. While current culture assessment models observe individual organisations’ culture, the proposed approach describes a single concentrated model that integrates both individual and common culture in measuring influences of culture compatibility on supply chain performance. The findings from this study provide scholars, consultants, managers, and supply chain systems vendors with valuable information. This research thesis contributes to supply chain configuration and partnership formation theory, along with corporate culture theory, and is the first of its kind to establish the use of intelligent methods to model corporate culture compatibility. It is also one of the first empirical studies to compare corporate culture compatibility of supply chains’ organisations from organisational perspectives, rather than national perspectives.
62

Modélisation prédictive de l'occupation des sols en contexte agricole intensif<BR />Application à la couverture hivernale des sols en Bretagne

Corgne, Samuel 10 December 2004 (has links) (PDF)
La couverture hivernale des sols a un impact avéré sur la qualité de l'eau, en influant sur le transfert des flux de polluants d'origine agricole au sein de bassins versants. sa prédiction, si elle peut constituer une aide à la programmation d'actions dans le cadre de programmes de restauration de la qualité de l'eau, pose cependant un certain nombre de problèmes d'ordre méthodologique. L'objectif de ce travail est de développer une méthode reproductible qui permette d'effectuer une prédiction à court terme de la couverture hivernale des sols. Une approche approximative reposant sur un modèle expert utilisant la règle des évidences de dempster-Shafer a été retenue, car elle permet de prendre en compte l'imprécision et les lacunes de connaissances liées à cette problématique et aux données disponibles, et d'associer un degré de confiance aux résultats produits. Des prédictions de la couverture hivernale des sols sont d'abord effectuées sur un site expérimental localisé en Bretagne selon les deux hypothèses "sols couverts" et "sols nus à peu couverts". Après avoir déterminé les dynamiques spatio-temporelles des changements passés, notamment à partir d'une série multitemporelle d'images de télédétection, et avoir défini les facteurs motivant les changements passés et à venir, la fusion des sources d'informations qui représentent ces facteurs est réalisée avec la règle de Dempster-Shafer. Les résultats sont mitigés: les prédictions sont cohérentes à l'échelle du bassin versant mais l'affectation spatiale des prédictions à l'échelle parcellaire, qui est bonne pour la classe "sols couverts" reste problématique pour la classe "sols nus à peu couverts" en raison du niveau de conflit élévé entre les sources d'information pour cette hypothèse. L'utilisation de la théorie récente de Dezert-Smarandache, qui autorise la prise en compte d'informations paradoxales, permet d'améliorer les scores de prédictions pour la classe "sols nus à peu couverts". Une évaluation de la reproductibilité de l'approche prédictive développée est alors effectuée à travers l'application du modèle sur un bassin versant plus étendu et où les données sont moins nombreuses. Si la classe "sols couverts" reste bien évaluée avec les deux règles de fusion, l'affectation spatiale de la classe "sols nus à peu couverts" est en revanche toujours affectée d'un faible taux de prédiction correcte, illustrant la nécessité de l'intégration de nouvelles sources d'information dans le modèle pour cette hypothèse aux fortes variabilités spatiotemporelles.
63

Fonctions de Croyance et Indexation Multimodale<br />Application à l'Identification de Personnes dans des Albums

Kharbouche, Said 08 December 2006 (has links) (PDF)
Cette thèse se situe dans la cadre de l'organisation semi-automatique d'albums photo et s'intègre dans un cadre applicatif particulier d'un prototype de service développé par la division recherche et développement de France Telecom. Dans ce cadre applicatif, les photos peuvent être partagées entre plusieurs personnes et peuvent êtres commentées vocalement et/ou textuellement par ces déférents utilisateurs. Le processus d'indexation développé dans cette thèse ne se limite pas seulement à l'indexation d'une collection d'images mais traite également leurs commentaires associés ce qui rend ces contenus multimédia. D'autres informations peuvent également être associées aux photos comme les dates et les lieux d'acquisition de l'image (qui sont connus avec une grande précision grâce notamment au développement de moyens de géo-localisation des appareils multimédia) et peuvent êtres exploitées pour l'organisation de la base. Ainsi, le travail envisagé dans le cadre de cette thèse se focalise sur des documents multimédias avec déférentes modalités : image, texte, son et données. L'un des objectifs à atteindre concerne la fusion des informations issues de ces déférentes modalités dans le but d'identifier les personnages figurant dans les images qui permettent ainsi d'indexer les documents. Chacun des documents de la collection est représenté par ses contenus relatifs aux déférents médias mais est aussi considéré dans son contexte. Pour analyser chaque contenu d'un document, nous utilisons des outils d'indexation qui leur sont spécifiques. Le contexte d'une image est exploité à partir de descripteurs déjà calculés sur des documents de la base en exploitant les dates et lieux d'acquisition des images associées. La contribution essentielle de ce travail concerne donc l'indexation de documents multimédia par leur contenu et leur contexte.
64

Information fusion for scene understanding / Fusion d'informations pour la compréhesion de scènes

Xu, Philippe 28 November 2014 (has links)
La compréhension d'image est un problème majeur de la robotique moderne, la vision par ordinateur et l'apprentissage automatique. En particulier, dans le cas des systèmes avancés d'aide à la conduite, la compréhension de scènes routières est très importante. Afin de pouvoir reconnaître le grand nombre d’objets pouvant être présents dans la scène, plusieurs capteurs et algorithmes de classification doivent être utilisés. Afin de pouvoir profiter au mieux des méthodes existantes, nous traitons le problème de la compréhension de scènes comme un problème de fusion d'informations. La combinaison d'une grande variété de modules de détection, qui peuvent traiter des classes d'objets différentes et utiliser des représentations distinctes, est faites au niveau d'une image. Nous considérons la compréhension d'image à deux niveaux : la détection d'objets et la segmentation sémantique. La théorie des fonctions de croyance est utilisée afin de modéliser et combiner les sorties de ces modules de détection. Nous mettons l'accent sur la nécessité d'avoir un cadre de fusion suffisamment flexible afin de pouvoir inclure facilement de nouvelles classes d'objets, de nouveaux capteurs et de nouveaux algorithmes de détection d'objets. Dans cette thèse, nous proposons une méthode générale permettant de transformer les sorties d’algorithmes d'apprentissage automatique en fonctions de croyance. Nous étudions, ensuite, la combinaison de détecteurs de piétons en utilisant les données Caltech Pedestrian Detection Benchmark. Enfin, les données du KITTI Vision Benchmark Suite sont utilisées pour valider notre approche dans le cadre d'une fusion multimodale d'informations pour de la segmentation sémantique. / Image understanding is a key issue in modern robotics, computer vison and machine learning. In particular, driving scene understanding is very important in the context of advanced driver assistance systems for intelligent vehicles. In order to recognize the large number of objects that may be found on the road, several sensors and decision algorithms are necessary. To make the most of existing state-of-the-art methods, we address the issue of scene understanding from an information fusion point of view. The combination of many diverse detection modules, which may deal with distinct classes of objects and different data representations, is handled by reasoning in the image space. We consider image understanding at two levels : object detection ans semantic segmentation. The theory of belief functions is used to model and combine the outputs of these detection modules. We emphazise the need of a fusion framework flexible enough to easily include new classes, new sensors and new object detection algorithms. In this thesis, we propose a general method to model the outputs of classical machine learning techniques as belief functions. Next, we apply our framework to the combination of pedestrian detectors using the Caltech Pedestrain Detection Benchmark. The KITTI Vision Benchmark Suite is then used to validate our approach in a semantic segmentation context using multi-modal information
65

An empirical study for the application of the evidential reasoning rule to decision making in financial investment

Gao, Quanjian January 2016 (has links)
The aim of this thesis is to explore the adaptability of the Evidential Reasoning (ER) Rule as a method to provide a useful supporting tool for helping investors make decisions on financial investments. Decision making in financial investment often involves conflicting information and subjective judgment of the investors. Accordingly, the ER Rule, extended from the original popular Evidential Reasoning algorithm and developed for MCDM (Multiple Criteria Decision Making), is particularly suited for handling conflicts in information and to allow for judgmental weighting on the sources of evidence. In order to do so, a specific EIA (Efficient Information Assessment) process modeled by the mass function of Dempster-Shafer Theory has been constructed such that the underlying architecture of the model satisfies the requirement of the ER rule. The fundamental concern is to define and assess “efficient information”. For this purpose, a process denoted the Efficient Information Assessment (EIA) is defined which applies the mass function of Dempster-Shafer theory. Any relevant information selected from an expert’s knowledge database is “efficient” if the data is fully in compliance with the requirement of the ER rule. The logical process of the EIA model proceeds with a set of portfolio strategies from the information recommended by top financial analysts. Then, as a result, the model enables the ER rule to make an evaluation of all strategies for helping investors make decisions. Experiments were carried out to back-test the investment strategy using data from the China Stock Market & Accounting Research (CSMAR) Database for the four-year period between 2009 and 2012. The data contained more than 270,000 reports from more than 4,600 financial analysts. The risk-adjusted average annual return of the strategy outperformed that of the CSI300 index by as much as 10.69% for an investment horizon of six months, with the p value from Student’s t-test as low as 0.02%. The EIA model serves as the first successful application adapting the ER Rule for a new and effective decision-making process in financial investment, and this work is the only empirical study applying the ER Rule to the opinions of financial analysts, to the best of my knowledge.
66

Impact of information fusion in complex decision making

Aziz, Tariq January 2011 (has links)
In military battlefield domain, decision making plays a very important part because safety and protection depends upon the accurate decisions made by the commanders in complex situations. In military and defense applications, there is a need of such technology that helps leaders to take good decisions in the critical situations with information overload. With the help of multi-sensor information fusion, the amount of information can be reduced as well as uncertainties in the information in the decision making of identifying and tracking targets in the military area.   Information fusion refers to the process of getting information from different sources and fusing this information, to supply an enhanced decision support. Decision making is the very core and a vital part in the field of information fusion and better decisions can be obtained by understanding how situation awareness can be enhanced. Situation awareness is about understanding the elements of the situation i.e. circumstances of the surrounding environment, their relations and their future impacts, for better decision making. Efficient situation awareness can be achieved with the effective use of the sensors. Sensors play a very useful role in the multi-sensor fusion technology to collect the data about, for instance, the enemy regarding their movements across the border and finding relationships between different objects in the battlefield that helps the decision makers to enhance situation awareness.   The purpose of this thesis is to understand and analyze the critical issue of uncertainties that results information in overload in military battlefield domain and benefits of using multi-sensor information fusion technology to reduce uncertainties by comparing uncertainty management methods of Bayesian and Dempster Shafer theories to enhance decision making and situation awareness for identifying the targets in battlefield domain.
67

Définition d'une fonction de pronostic des systèmes techniques multi composants prenant en compte les incertitudes à partir des pronostics de leurs composants / Definition of a generic prognostic function of technical multi-component systems taking into account the uncertainties of the predictions of their components

Le Maitre Gonzalez, Esteban Adolfo 24 January 2019 (has links)
Face au défi des entreprises pour le maintien de leurs équipements au maximum de leur fiabilité, de leur disponibilité, de leur rentabilité et de leur sécurité au coût de maintenance minimum, des stratégies de maintenance telles que le CBM et le PHM ont été développées. Pour mettre en œuvre ces stratégies, comme pour la planification des activités de production il est nécessaire de connaître l’aptitude des systèmes à réaliser les futures tâches afin de réaliser le séquencement des opérations de production et de maintenance. Cette thèse présente les éléments d'une fonction générique qui évalue la capacité des systèmes techniques multi-composants à exécuter les tâches de production de biens ou de services assignées. Ce manuscrit présente une proposition de modélisation de systèmes techniques multi-composants représentant les différentes entités qui les composent, leurs états et leurs relations. Plusieurs types d’entités ont été identifiés. Pour chacun d’eux, des inférences sont proposées pour définir à l’intérieur du système l’aptitude de l’entité à accomplir les futures tâches de production à partir des évaluations de son état présent et futur et des évaluations des états présents et futurs des autres entités avec lesquelles elle est en relation. Ces évaluations des états présents et futurs sont basées sur l’exploitation de pronostics locaux des composants. Ces pronostics sont des prévisions qui intrinsèquement comportent des incertitudes pouvant être aléatoires ou épistémiques. La fonction proposée et les inférences prennent en compte ces deux formes d’incertitudes. Pour cela, les traitements et la fonction proposée exploite des éléments de la théorie de Dempster-Shafer. La modélisation des systèmes multi-composants pouvant être représentée sous la forme de graphes dont les états des nœuds dépendent de données comportant des incertitudes, des éléments des réseaux bayésiens sont également utilisés. Cette fonction fournit des indicateurs, sur l’aptitude de chaque entité du système à accomplir les futures tâches de production mais aussi indique les composants nécessitant une intervention afin d’améliorer cette aptitude. Ainsi, ces indicateurs constituent les éléments d'aide à la décision pour la planification des opérations de maintenance de façon conditionnelle et préventive, mais aussi pour la planification des opérations de production. / One major challenge of companies consists in maintaining their technical production resources at the maximum level of reliability, availability, profitability and safety for a minimum maintenance cost, maintenance strategies such as CBM and PHM have been developed. To implement these strategies, as with production activity planning, it is necessary to know the ability of systems to perform future tasks to order production and maintenance operations. This thesis presents the generic function that evaluates the ability of multi-component technical systems to perform the production tasks of goods or services. This manuscript presents a proposal for the modelling of multi-component technical systems representing the different entities that compose them, their states and their relationships. Several types of entities have been identified. For each of them, inferences are proposed to define within the system the entity's ability to perform future production tasks based on its own assessment of its present and future state and the assessments of the present and future states of the other entities with which it is involved. These assessments of present and future states are based on the use of local prognoses of components. These prognoses are predictions that inherently involve uncertainties that may be aleatory or epistemic. The proposed function and inferences take into account these two kinds of uncertainty. To do this, the inferences and the proposed function uses elements of the Dempster-Shafer theory. Since the modelling of multi-component systems can be represented in the form of graphs whose node states depend on data with uncertainties, elements of Bayesian networks are also used. This function provides indicators on the ability of each system entity to perform future production tasks but also indicates the components that require maintenance to improve this ability. Thus, these indicators constitute the elements of decision support for the planning of maintenance operations in a conditional and preventive way, but also for the planning of production tasks.
68

A basic probability assignment methodology for unsupervised wireless intrusion detection

Ghafir, Ibrahim, Kyriakopoulos, K.G., Aparicio-Navarro, F.J., Lambotharan, S., Assadhan, B., Binsalleeh, A.H. 24 January 2020 (has links)
Yes / The broadcast nature of wireless local area networks has made them prone to several types of wireless injection attacks, such as Man-in-the-Middle (MitM) at the physical layer, deauthentication, and rogue access point attacks. The implementation of novel intrusion detection systems (IDSs) is fundamental to provide stronger protection against these wireless injection attacks. Since most attacks manifest themselves through different metrics, current IDSs should leverage a cross-layer approach to help toward improving the detection accuracy. The data fusion technique based on the Dempster–Shafer (D-S) theory has been proven to be an efficient technique to implement the cross-layer metric approach. However, the dynamic generation of the basic probability assignment (BPA) values used by D-S is still an open research problem. In this paper, we propose a novel unsupervised methodology to dynamically generate the BPA values, based on both the Gaussian and exponential probability density functions, the categorical probability mass function, and the local reachability density. Then, D-S is used to fuse the BPA values to classify whether the Wi-Fi frame is normal (i.e., non-malicious) or malicious. The proposed methodology provides 100% true positive rate (TPR) and 4.23% false positive rate (FPR) for the MitM attack and 100% TPR and 2.44% FPR for the deauthentication attack, which confirm the efficiency of the dynamic BPA generation methodology. / Gulf Science, Innovation and Knowledge Economy Programme of the U.K. Government under UK-Gulf Institutional Link Grant IL 279339985 and in part by the Engineering and Physical Sciences Research Council (EPSRC), U.K., under Grant EP/R006385/1.
69

Fusion of Soft and Hard Data for Event Prediction and State Estimation

Thirumalaisamy, Abirami 11 1900 (has links)
Social networking sites such as Twitter, Facebook and Flickr play an important role in disseminating breaking news about natural disasters, terrorist attacks and other events. They serve as sources of first-hand information to deliver instantaneous news to the masses, since millions of users visit these sites to post and read news items regularly. Hence, by exploring e fficient mathematical techniques like Dempster-Shafer theory and Modi ed Dempster's rule of combination, we can process large amounts of data from these sites to extract useful information in a timely manner. In surveillance related applications, the objective of processing voluminous social network data is to predict events like revolutions and terrorist attacks before they unfold. By fusing the soft and often unreliable data from these sites with hard and more reliable data from sensors like radar and the Automatic Identi cation System (AIS), we can improve our event prediction capability. In this paper, we present a class of algorithms to fuse hard sensor data with soft social network data (tweets) in an e ffective manner. Preliminary results using are also presented. / Thesis / Master of Applied Science (MASc)
70

Relating Dependent Terms in Information Retrieval

Shi, Lixin 11 1900 (has links)
Les moteurs de recherche font partie de notre vie quotidienne. Actuellement, plus d’un tiers de la population mondiale utilise l’Internet. Les moteurs de recherche leur permettent de trouver rapidement les informations ou les produits qu'ils veulent. La recherche d'information (IR) est le fondement de moteurs de recherche modernes. Les approches traditionnelles de recherche d'information supposent que les termes d'indexation sont indépendants. Pourtant, les termes qui apparaissent dans le même contexte sont souvent dépendants. L’absence de la prise en compte de ces dépendances est une des causes de l’introduction de bruit dans le résultat (résultat non pertinents). Certaines études ont proposé d’intégrer certains types de dépendance, tels que la proximité, la cooccurrence, la contiguïté et de la dépendance grammaticale. Dans la plupart des cas, les modèles de dépendance sont construits séparément et ensuite combinés avec le modèle traditionnel de mots avec une importance constante. Par conséquent, ils ne peuvent pas capturer correctement la dépendance variable et la force de dépendance. Par exemple, la dépendance entre les mots adjacents "Black Friday" est plus importante que celle entre les mots "road constructions". Dans cette thèse, nous étudions différentes approches pour capturer les relations des termes et de leurs forces de dépendance. Nous avons proposé des méthodes suivantes: ─ Nous réexaminons l'approche de combinaison en utilisant différentes unités d'indexation pour la RI monolingue en chinois et la RI translinguistique entre anglais et chinois. En plus d’utiliser des mots, nous étudions la possibilité d'utiliser bi-gramme et uni-gramme comme unité de traduction pour le chinois. Plusieurs modèles de traduction sont construits pour traduire des mots anglais en uni-grammes, bi-grammes et mots chinois avec un corpus parallèle. Une requête en anglais est ensuite traduite de plusieurs façons, et un score classement est produit avec chaque traduction. Le score final de classement combine tous ces types de traduction. Nous considérons la dépendance entre les termes en utilisant la théorie d’évidence de Dempster-Shafer. Une occurrence d'un fragment de texte (de plusieurs mots) dans un document est considérée comme représentant l'ensemble de tous les termes constituants. La probabilité est assignée à un tel ensemble de termes plutôt qu’a chaque terme individuel. Au moment d’évaluation de requête, cette probabilité est redistribuée aux termes de la requête si ces derniers sont différents. Cette approche nous permet d'intégrer les relations de dépendance entre les termes. Nous proposons un modèle discriminant pour intégrer les différentes types de dépendance selon leur force et leur utilité pour la RI. Notamment, nous considérons la dépendance de contiguïté et de cooccurrence à de différentes distances, c’est-à-dire les bi-grammes et les paires de termes dans une fenêtre de 2, 4, 8 et 16 mots. Le poids d’un bi-gramme ou d’une paire de termes dépendants est déterminé selon un ensemble des caractères, en utilisant la régression SVM. Toutes les méthodes proposées sont évaluées sur plusieurs collections en anglais et/ou chinois, et les résultats expérimentaux montrent que ces méthodes produisent des améliorations substantielles sur l'état de l'art. / Search engine has become an integral part of our life. More than one-third of world populations are Internet users. Most users turn to a search engine as the quick way to finding the information or product they want. Information retrieval (IR) is the foundation for modern search engines. Traditional information retrieval approaches assume that indexing terms are independent. However, terms occurring in the same context are often dependent. Failing to recognize the dependencies between terms leads to noise (irrelevant documents) in the result. Some studies have proposed to integrate term dependency of different types, such as proximity, co-occurrence, adjacency and grammatical dependency. In most cases, dependency models are constructed apart and then combined with the traditional word-based (unigram) model on a fixed importance proportion. Consequently, they cannot properly capture variable term dependency and its strength. For example, dependency between adjacent words “black Friday” is more important to consider than those of between “road constructions”. In this thesis, we try to study different approaches to capture term relationships and their dependency strengths. We propose the following methods for monolingual IR and Cross-Language IR (CLIR): We re-examine the combination approach by using different indexing units for Chinese monolingual IR, then propose the similar method for CLIR. In addition to the traditional method based on words, we investigate the possibility of using Chinese bigrams and unigrams as translation units. Several translation models from English words to Chinese unigrams, bigrams and words are created based on a parallel corpus. An English query is then translated in several ways, each producing a ranking score. The final ranking score combines all these types of translations. We incorporate dependencies between terms in our model using Dempster-Shafer theory of evidence. Every occurrence of a text fragment in a document is represented as a set which includes all its implied terms. Probability is assigned to such a set of terms instead of individual terms. During query evaluation phase, the probability of the set can be transferred to those of the related query, allowing us to integrate language-dependent relations to IR. We propose a discriminative language model that integrates different term dependencies according to their strength and usefulness to IR. We consider the dependency of adjacency and co-occurrence within different distances, i.e. bigrams, pairs of terms within text window of size 2, 4, 8 and 16. The weight of bigram or a pair of dependent terms in the final model is learnt according to a set of features. All the proposed methods are evaluated on several English and/or Chinese collections, and experimental results show these methods achieve substantial improvements over state-of-the-art baselines.

Page generated in 0.1692 seconds