• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 21
  • 11
  • 1
  • Tagged with
  • 33
  • 33
  • 33
  • 27
  • 6
  • 6
  • 6
  • 5
  • 5
  • 5
  • 5
  • 5
  • 5
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Une approche de personnalisation de la recherche d'information basée sur le Web sémantique / An approach of personalization of information retrieval based on the semantic Web

Essayeh, Aroua 09 February 2018 (has links)
Le travail de cette thèse s’inscrit dans le cadre de la recherche d’information (RI) et plus précisément la recherche d’information personnalisée. En effet, avec la prolifération des données de différentes sources et malgré la diversité de méthodes et d’approches de la recherche d’information classique, cette dernière n’est plus considérée aujourd’hui comme un moyen efficace pour répondre aux exigences de l’utilisateur considéré comme l’acteur principal de tout système de recherche d’information (SRI). Dans ce travail de thèse, nous adressons deux principaux problèmes liés à la RI personnalisée : (1) la formalisation et la mise en œuvre d’un modèle utilisateur et (2) la formulation de la requête de recherche dans le but d’améliorer les résultats retournés à l'utilisateur en fonction de sa perception et de ses préférences. Pour atteindre ces objectifs, nous avons proposé une approche de recherche d’information guidée par les ontologies et basée sur l’utilisation sémantique des informations. En effet, notre contribution se décline en trois principaux points : (1) la modélisation et la construction de profil utilisateur suivant une approche ontologique modulaire. Ce modèle permet de capturer les informations relatives à l’utilisateur, de les modéliser suivant l’approche sémantique dans le but de les réutiliser pour des tâches de raisonnement et d’inférence ; (2) la reformulation sémantique de la requête de recherche en exploitant les concepts, les relations syntaxiques et non syntaxiques entre les concepts et les propriétés ; et finalement, (3) la recommandation des résultats qui consiste à proposer des résultats de recherche en se basant sur l’ensemble des communautés utilisateurs construites par l’approche de classification non supervisée « Fuzzy K-mode » améliorée. Ces communautés sont aussi modélisées sémantiquement dans l’ontologie modulaire de profil. Ensuite, afin de valider l’approche proposée, nous avons mis en œuvre un système pour la recherche des itinéraires dans le transport public. Enfin, cette thèse propose des perspectives de recherche sur la base des limites rencontrées. / This PhD thesis reports on a recent study in the field of information retrieval (IR), more specifically personalized IR. Traditional IR uses various methods and approaches. However, given the proliferation of data from different sources, traditional IR is no longer considered to be an effective means of meeting users’ requirements. (‘Users’ here refers to the main actor in an IR system.) In this thesis, we address two main problems related to personalized IR: (1) the development and implementation of a user model; and (2) the formulation of a search query to improve the results returned to users according to their perceptions and preferences. To achieve these goals, we propose a semantic information search approach, based on the use of semantic information and guided by ontologies. The contribution of our work is threefold. First, it models and constructs user profiles following a modular ontological approach; this model allows the capture of information related to the user, and models the data according to the semantic approach so that the data can be re-used for reasoning and inference tasks. Second, it provides evidence for reformulating a query by exploiting concepts, hierarchical and non-hierarchical relationships between concepts and properties. Third, based on our findings, we recommend search results that are informed by the user’s communities, built by the improved unsupervised classification approach called the ‘Fuzzy K-mode’. These communities are also semantically modeled with modular profile ontology. To validate our proposed approach, we implemented a system for searching the itineraries for public transport. Finally, this thesis proposes research perspectives based on the limitations we encountered.
12

Recovering traceability links between artifacts of software variants in the context of software product line engineering / Identification des liens de traçabilité entre les artefacts logiciels d'applications similaires dans le contexte de l'ingénierie des lignes de produits

Eyal Salman, Hamzeh 17 June 2014 (has links)
L'ingénierie des lignes de produits logiciels (Software Product Line Engineering-SPLE en Anglais) est une discipline qui met en œuvre des principes de réutilisation pour le développement efficace de familles de produits. Une famille de produits logiciels est un ensemble de logiciels similaires, ayant des fonctionnalités communes, mais néanmoins différents selon divers aspects; nous parlerons des différentes variantes d'un logiciel. L'utilisation d'une ligne de produit permet de développer les nouveaux produits d'une famille plus vite et d'augmenter la qualité de chacun d'eux. Ces avantages sont liés au fait que les éléments communs aux membres d'une même famille (besoin, architecture, code source, etc.) sont réutilisés et adaptés. Créer de toutes pièces une ligne de produits est une tâche difficile, coûteuse et longue. L'idée sous-jacente à ce travail est qu'une ligne de produits peut être créée par la réingénierie de logiciels similaires (de la même famille) existants, qui ont été préalablement développés de manière ad-hoc. Dans ce contexte, la contribution de cette thèse est triple. La première contribution est la proposition d'une approche pour l'identification des liens de traçabilité entre les caractéristiques (features) d'une application et les parties du code source qui les implémentent, et ce pour toutes les variantes d'une application. Ces liens sont utiles pour générer (dériver) de nouveaux logiciels par la sélection de leurs caractéristiques. L'approche proposée est principalement basée sur l'amélioration de la technique conventionnelle de recherche d'information (Information Retrieval –IR en Anglais) et des approches les plus récentes dans ce domaine. Cette amélioration est liée à deux facteurs. Le premier facteur est l'exploitation des informations liées aux éléments communs ou variables des caractéristiques et du code source des produits logiciels analysés. Le deuxième facteur concerne l'exploitation des similarités et des dépendances entre les éléments du code source. Les résultats que nous avons obtenus par expérimentation confirment l'efficacité de notre approche. Dans la deuxième contribution, nous appliquons nos résultats précédents (contribution no 1) à l'analyse d'impact (Change Impact Analysis –CIA en Anglais). Nous proposons un algorithme permettant à un gestionnaire de ligne de produit ou de produit de détecter quelles les caractéristiques (choix de configuration du logiciel) impactées par une modification du code. Cet algorithme améliore les résultats les plus récents dans ce domaine en permettant de mesurer à quel degré la réalisation d'une caractéristique est impactée par une modification. Dans la troisième contribution nous exploitons à nouveau ces liens de traçabilité (contribution No 1) pour proposer une approche permettant de satisfaire deux objectifs. Le premier concerne l'extraction de l'architecture de la ligne de produits. Nous proposons un ensemble d'algorithmes pour identifier les points de variabilité architecturale à travers l'identification des points de variabilité au niveau des caractéristiques. Le deuxième objectif concerne l'identification des liens de traçabilité entre les caractéristiques et les éléments de l'architecture de la ligne de produits. Les résultats de l'expérimentation montre que l'efficacité de notre approche dépend de l'ensemble des configurations de caractéristiques utilisé (disponibles via les variantes de produits analysés). / Software Product Line Engineering (SPLE) is a software engineering discipline providing methods to promote systematic software reuse for developing short time-to-market and quality products in a cost-efficient way. SPLE leverages what Software Product Line (SPL) members have in common and manages what varies among them. The idea behind SPLE is to builds core assets consisting of all reusable software artifacts (such as requirements, architecture, components, etc.) that can be leveraged to develop SPL's products in a prescribed way. Creating these core assets is driven by features provided by SPL products.Unfortunately, building SPL core assets from scratch is a costly task and requires a long time which leads to increasing time-to-market and up-front investment. To reduce these costs, existing similar product variants developed by ad-hoc reuse should be re-engineered to build SPLs. In this context, our thesis proposes three contributions. Firstly, we proposed an approach to recover traceability links between features and their implementing source code in a collection of product variants. This helps to understand source code of product variants and facilitate new product derivation from SPL's core assets. The proposed approach is based on Information Retrieval (IR) for recovering such traceability links. In our experimental evaluation, we showed that our approach outperforms the conventional application of IR as well as the most recent and relevant work on the subject. Secondly, we proposed an approach, based on traceability links recovered in the first contribution, to study feature-level Change Impact Analysis (CIA) for changes made to source code of features of product variants. This approach helps to conduct change management from a SPL's manager point of view. This allows him to decide which change strategy should be executed, as there is often more than one change that can solve the same problem. In our experimental evaluation, we proved the effectiveness of our approach in terms of the most used metrics on the subject. Finally, based on traceability recovered in the first contribution, we proposed an approach to contribute for building Software Product Line Architecture (SPLA) and linking its elements with features. Our focus is to identify mandatory components and variation points of components. Therefore, we proposed a set of algorithms to identify this commonality and variability across a given collection of product variants. According to the experimental evaluation, the efficiency of these algorithms mainly depends on the available product configurations.
13

Agrégation des résultats dans les systèmes de recherche d’information pair-à-pair non structurés / Results aggregation in unstructured peer-to-peer information retrieval systems

Mghirbi, Rim 18 January 2013 (has links)
Une grande partie de l’impulsion de diverses technologies d’Internet par les systèmes Pair-à-Pair (Peer-to-Peer ou P2P) peut être vue comme une réaction au détriment du centrage de contenu sur les serveurs devant des clients passifs. Une des caractéristiques distinctives de tout système P2P est ce que nous appelons souvent connectivité directe de bout en bout entre pairs égaux. Le Pair-à-Pair a augmenté les débits des échanges entre des communautés dynamiques des utilisateurs qui tendent à augmenter rapidement. Nous parlons donc de systèmes distribués à large échelle dans lesquels l’information échangée, partagée et recherchée atteint des volumes de plus en plus impressionnants. Dans le cadre de cette thèse, nous nous intéressons essentiellement à la Recherche d'Information dans les systèmes de Recherche d’Information P2P (RIP2P) et plus précisément au problème d'agrégation des résultats dans de tels systèmes. Résoudre le problème d'agrégation en RIP2P de la même manière que sa résolution dans un cadre de Recherche d’Information Distribuée (RID) va manquer beaucoup d’intelligibilité. En effet, ça fait perdre de vue tout un contexte qui a changé en RIP2P, vu le facteur d'échelle et l’absence d’une vision globale sur le système, dans ces réseaux qui s'étendent naturellement à des milliers voire des millions de pairs. Ceci va impliquer notamment la suppression d'un serveur courtier inadéquat dans ce contexte et va soulever le problème de retrouver de nouvelles politiques pour agréger des résultats provenant de pairs hétérogènes dans une liste unique tout en reflétant les attentes de l'utilisateur. Toutes ces raisons nous ont incités à explorer un mécanisme d’agrégation basé sur les profils des utilisateurs déduits de leurs comportements passés suite à leurs interactions avec les résultats d’une requête. Dans cette thèse nos contributions portent sur deux axes complémentaires. D’abord, nous proposons une nouvelle vision d'agrégation de résultats dans un contexte large échelle. Dans ce cadre un modèle de profils et une approche de score hybride à base de profils sont proposés. Ensuite nous avons mis l’accent sur la mise en place d’un cadre d'évaluation de notre approche dans les systèmes à large échelle / A huge part of the impetus of various internet technologies through the Peer-to-Peer (Peer-to-Peer or P2P) system can be seen as a reaction to the content centering detriment on the servers in front of passive clients. One of the distinctive features of any P2P system is what we often call direct connectivity between equal peers. The Peer-to-Peer increased the exchange flows between dynamic communities of users which tend to grow rapidly. We talk, therefore, about large-scale distributed systems in which the exchanged, shared and sought information reaches a more and more impressive volumes. Solving the aggregation problem in P2PIR systems the same way as its resolution in Distributed Information Retrieval (DIR) will miss a lot of intelligibility. In fact, the context has changed in RIP2P, given the scale factor and the lack of a global vision of the system in these networks that extend naturally to thousands or even millions peers. This will involve the removal of a broker server that is inadequate in this context and will raise the problem of finding new policies to aggregate results coming from heterogeneous peers in a single list while reflecting the user’s expectations. All these reasons prompted us to explore an aggregation mechanism based on user profiles deduced from their past behavior due to their interaction with query results. Our contributions, in this thesis, focus on two complementary axes. First, we propose a new vision of results aggregation in a large scale system. In this context, a profiles model and a hybrid score profiles-based approach are proposed. Second, we focused on the development of an evaluation framework of our approach in large-scale systems. In this thesis, we are mainly interested in the Information Retrieval problem in P2P systems (P2PIR) and focusing more specifically on the problem of results’ aggregation in such systems
14

Recherche d'information dans les documents numériques : vers une variation des modalités d'exécution procédurale / Information retrieval in digital documents : a variation patterns of procedural execution

Djouani, Mohamed 05 December 2013 (has links)
L'activité de recherche d'information sur le web est devenue courante dans notre vie journalière. Malgré cela, elle pose encore de nombreux problèmes chez l’utilisateur qui ne trouve pas l'information qu’il recherche ou qui se perd devant la quantité d'informations disponible. Cette étude vise à expérimenter un nouveau dispositif de prévisualisation, breveté permettant à des utilisateurs de naviguer et de consulter des pages en profondeur. La tâche consiste à trouver un appartement cible possédant un ou plusieurs critères spécifiques dans un site web d’agence immobilière spécialement conçu. Plusieurs conditions ont été testées. L’une « habituelle » présentant les caractéristiques classiques de recherche, page par page; l’autre « transparente » qui permet de pré-visualiser les pages choisies et de ne sélectionner que les pages pertinentes. Nous nous intéressons à la mise en oeuvre des processus cognitifs ou s’ajoute l’importance du maintien du but de la recherche en mémoire de travail et aussi à la notion de charge cognitive investie dans une telle activité. Nous utilisons entre autres la technique des mouvements oculaires qui permet de déterminer comment un utilisateur traite et recherche des informations dans un document numérique. Par ailleurs, nous comparons les performances de ce dispositif avec une tablette tactile. Les résultats obtenus révèlent des effets significatifs de ce dispositif de prévisualisation. / The research activity of information on the internet has become common in our daily life. Despite this fact, it still raises many problems for the user who does not find the information they want or is lost to the amount of information available. This study aims at testing a new patented preview device, enabling users to browse and view pages in depth. The task is to find a target apartment with one or more specific criteria in a real estate agency designed website. Several conditions were tested. The “usual” condition with the classic search features, page by page, the other "transparent" condition which enables you to preview selected pages and select only relevant pages. We are interested in the implementation of cognitive processes to which is added the importance of maintaining the goal of research in working memory, and also in the concept of cognitive load invested in such activity. We use the technique of eye movements among others which determines how a user addresses and searches for information in a digital document. We also compare the performance of this device to a touch pad. The results show significant effects of such previewing device.
15

Personalized Access to Contextual Information by using an Assistant for Query Reformulation / Personnalisation et Adaptation de L’accès à L’information Contextuelle en utilisant un Assistant Intelligent

Asfari, Ounas 19 September 2011 (has links)
Les travaux présentés dans cette thèse rentrent dans le cadre de la Recherche d'Information (RI) et s'intéressent à une des questions de recherche actuellement en vogue dans ce domaine: la prise en compte du contexte de l'utilisateur pendant sa quête de l'information pertinente. Nous proposons une approche originale de reformulation automatique de requêtes basée sur le profil utilisateur et sa tâche actuelle. Plus précisément, notre approche tient compte deux éléments du contexte, les centres d'intérêts de l'utilisateur (son profil) et la tâche qu'il réalise, pour suggérer des requêtes appropriées à son contexte. Nous proposons, en particulier, toute une démarche originale permettant de bien interpréter et réécrire la requête initiale en fonction des activités réalisées dans la tâche courante de l'utilisateur.Nous considérons qu'une tâche est jalonnée par des activités, nous proposons alors d'interpréter le besoin de l'utilisateur, représenté initialement par la requête, selon ses activités actuelles dans la tâche (et son profil) et de suggérer des reformulations de requêtes appropriées à ces activités.Une implémentation de cette approche est faite, et elle est suivie d’une étude expérimentale. Nous proposons également une procédure d'évaluation qui tient compte l'évaluation des termes d'expansion, et l'évaluation des résultats retournés en utilisant les requêtes reformulées, appelés SRQ State Reformulated Query. Donc, trois facteurs d’évaluation sont proposés sur lesquels nous nous appuierons pour l'analyse et l'évaluation des résultats. L’objective est de quantifier l'amélioration apportée par notre système dans certains contextes par rapport aux autres systèmes. Nous prouvons que notre approche qui prend en compte la tâche actuelle de l'utilisateur est effectivement plus performante que les approches basées, soit uniquement sur la requête initiale, ou encore celle basée sur la requête reformulée en considérant uniquement le profil de l'utilisateur. / Access to relevant information adapted to the needs and the context of the user is areal challenge in Web Search, owing to the increases of heterogeneous resources andthe varied data on the web. There are always certain needs behind the user query,these queries are often ambiguous and shortened, and thus we need to handle thesequeries intelligently to satisfy the user’s needs. For improving user query processing,we present a context-based hybrid method for query expansion that automaticallygenerates new reformulated queries in order to guide the information retrieval systemto provide context-based personalized results depending on the user profile andhis/her context. Here, we consider the user context as the actual state of the task thatthe user is undertaking when the information retrieval process takes place. Thus StateReformulated Queries (SRQ) are generated according to the task states and the userprofile which is constructed by considering related concepts from existing concepts ina domain ontology. Using a task model, we will show that it is possible to determinethe user’s current task automatically. We present an experimental study in order toquantify the improvement provided by our system compared to the direct querying ofa search engine without reformulation, or compared to the personalized reformulationbased on a user profile only. The Preliminary results have proved the relevance of ourapproach in certain contexts.
16

Contribution à la construction d’ontologies et à la recherche d’information : application au domaine médical / Contribution to ontology building and to semantic information retrieval : application to medical domain

Drame, Khadim 10 December 2014 (has links)
Ce travail vise à permettre un accès efficace à des informations pertinentes malgré le volume croissant des données disponibles au format électronique. Pour cela, nous avons étudié l’apport d’une ontologie au sein d’un système de recherche d'information (RI).Nous avons tout d’abord décrit une méthodologie de construction d’ontologies. Ainsi, nous avons proposé une méthode mixte combinant des techniques de traitement automatique des langues pour extraire des connaissances à partir de textes et la réutilisation de ressources sémantiques existantes pour l’étape de conceptualisation. Nous avons par ailleurs développé une méthode d’alignement de termes français-anglais pour l’enrichissement terminologique de l’ontologie. L’application de notre méthodologie a permis de créer une ontologie bilingue de la maladie d’Alzheimer.Ensuite, nous avons élaboré des algorithmes pour supporter la RI sémantique guidée par une ontologie. Les concepts issus d’une ontologie ont été utilisés pour décrire automatiquement les documents mais aussi pour reformuler les requêtes. Nous nous sommes intéressés à : 1) l’identification de concepts représentatifs dans des corpus, 2) leur désambiguïsation, 3), leur pondération selon le modèle vectoriel, adapté aux concepts et 4) l’expansion de requêtes. Ces propositions ont permis de mettre en œuvre un portail de RI sémantique dédié à la maladie d’Alzheimer. Par ailleurs, le contenu des documents à indexer n’étant pas toujours accessible dans leur ensemble, nous avons exploité des informations incomplètes pour déterminer les concepts pertinents permettant malgré tout de décrire les documents. Pour cela, nous avons proposé deux méthodes de classification de documents issus d’un large corpus, l’une basée sur l’algorithme des k plus proches voisins et l’autre sur l’analyse sémantique explicite. Ces méthodes ont été évaluées sur de larges collections de documents biomédicaux fournies lors d’un challenge international. / This work aims at providing efficient access to relevant information among the increasing volume of digital data. Towards this end, we studied the benefit from using ontology to support an information retrieval (IR) system.We first described a methodology for constructing ontologies. Thus, we proposed a mixed method which combines natural language processing techniques for extracting knowledge from text and the reuse of existing semantic resources for the conceptualization step. We have also developed a method for aligning terms in English and French in order to enrich terminologically the resulting ontology. The application of our methodology resulted in a bilingual ontology dedicated to Alzheimer’s disease.We then proposed algorithms for supporting ontology-based semantic IR. Thus, we used concepts from ontology for describing documents automatically and for query reformulation. We were particularly interested in: 1) the extraction of concepts from texts, 2) the disambiguation of terms, 3) the vectorial weighting schema adapted to concepts and 4) query expansion. These algorithms have been used to implement a semantic portal about Alzheimer’s disease. Further, because the content of documents are not always fully available, we exploited incomplete information for identifying the concepts, which are relevant for indexing the whole content of documents. Toward this end, we have proposed two classification methods: the first is based on the k nearest neighbors’ algorithm and the second on the explicit semantic analysis. The two methods have been evaluated on large standard collections of biomedical documents within an international challenge.
17

Approche de recherche intelligente fondée sur le modèle des Topic Maps : application au domaine de la construction durable / An Intelligent Research Approach based on Topic Map Model

Ellouze, Nebrasse 03 December 2010 (has links)
Cette thèse aborde les problématiques liées à la construction de Topic Maps et à leur utilisation pour la recherche d’information dans le cadre défini par le Web sémantique (WS). Le WS a pour objectif de structurer les informations disponibles sur le Web. Pour cela, les ressources doivent être sémantiquement étiquetées par des métadonnées afin de permettre d'optimiser l'accès à ces ressources. Ces métadonnées sont actuellement spécifiées à l'aide des deux standards qui utilisent le langage XML : RDF et les Topic Maps. Un contenu à organiser étant très souvent volumineux et sujet à enrichissement perpétuel, il est pratiquement impossible d’envisager une création et gestion d’une Topic Map, le décrivant, de façon manuelle. Plusieurs travaux de recherche ont concerné la construction de Topic Maps à partir de documents textuels [Ellouze et al. 2008a]. Cependant, aucune d’elles ne permet de traiter un contenu multilingue. De plus, bien que les Topic Maps soient, par définition, orientées utilisation (recherche d’information), peu d’entre elles prennent en compte les requêtes des utilisateurs.Dans le cadre de cette thèse, nous avons donc conçu une approche que nous avons nommée ACTOM pour « Approche de Construction d’une TOpic Map Multilingue ». Cette dernière sert à organiser un contenu multilingue composé de documents textuels. Elle a pour avantage de faciliter la recherche d’information dans ce contenu. Notre approche est incrémentale et évolutive, elle est basée sur un processus automatisé, qui prend en compte des documents multilingues et l’évolution de la Topic Map selon le changement du contenu en entrée et l’usage de la Topic Map. Elle prend comme entrée un référentiel de documents que nous construisons suite à la segmentation thématique et à l’indexation sémantique de ces documents et un thésaurus du domaine pour l’ajout de liens ontologiques. Pour enrichir la Topic Map, nous nous basons sur deux ontologies générales et nous explorons toutes les questions potentielles relatives aux documents sources. Dans ACTOM, en plus des liens d’occurrences reliant un Topic à ses ressources, nous catégorisons les liens en deux catégories: (a) les liens ontologiques et (b) les liens d’usage. Nous proposons également d’étendre le modèle des Topic Maps défini par l’ISO en rajoutant aux caractéristiques d’un Topic des méta-propriétés servant à mesurer la pertinence des Topics plus précisément pour l’évaluation de la qualité et l’élagage dynamique de la Topic Map. / The research work in this thesis is related to Topic Map construction and their use in semantic annotation of web resources in order to help users find relevant information in these resources. The amount of information sources available today is very huge and continuously increasing, for that, it is impossible to create and maintain manually a Topic Map to represent and organize all these information. Many Topic Maps building approaches can be found in the literature [Ellouze et al. 2008a]. However, none of these approaches takes as input multilingual document content. In addition, although Topic Maps are basically dedicated to users navigation and information search, no one approach takes into consideration users requests in the Topic Map building process. In this context, we have proposed ACTOM, a Topic Map building approach based on an automated process taking into account multilingual documents and Topic Map evolution according to content and usage changes. To enrich the Topic Map, we are based on a domain thesaurus and we propose also to explore all potential questions related to source documents in order to represent usage in the Topic Map. In our approach, we extend the Topic Map model that already exists by defining the usage links and a list of meta-properties associated to each Topic, these meta-properties are used in the Topic Map pruning process. In our approach ACTOM, we propose also to precise and enrich semantics of Topic Map links so, except occurrences links between Topics and resources, we classify Topic Map links in two different classes, those that we have called “ontological links” and those that we have named “usage links”.
18

Traitement automatique d’informations appliqué aux ressources humaines / Automatic processing of information applied to human resources

Kessler, Rémy 10 July 2009 (has links)
Depuis les années 90, Internet est au coeur du marché du travail. D’abord mobilisée sur des métiers spécifiques, son utilisation s’étend à mesure qu’augmente le nombre d’internautes dans la population. La recherche d’emploi au travers des « bourses à l’emploi électroniques » est devenu une banalité et le e-recrutement quelque chose de courant. Cette explosion d’informations pose cependant divers problèmes dans leur traitement en raison de la grande quantité d’information difficile à gérer rapidement et efficacement pour les entreprises. Nous présentons dans ce mémoire, les travaux que nous avons développés dans le cadre du projet E-Gen, qui a pour but la création d’outils pour automatiser les flux d’informations lors d’un processus de recrutement. Nous nous intéressons en premier lieu à la problématique posée par le routage précis de courriels. La capacité d’une entreprise à gérer efficacement et à moindre coût ces flux d’informations, devient un enjeu majeur de nos jours pour la satisfaction des clients. Nous proposons l’application des méthodes d’apprentissage afin d’effectuer la classification automatique de courriels visant leur routage, en combinant techniques probabilistes et machines à vecteurs de support. Nous présentons par la suite les travaux qui ont été menés dans le cadre de l’analyse et l’intégration d’une offre d’emploi par Internet. Le temps étant un facteur déterminant dans ce domaine, nous présentons une solution capable d’intégrer une offre d’emploi d’une manière automatique ou assistée afin de pouvoir la diffuser rapidement. Basé sur une combinaison de systèmes de classifieurs pilotés par un automate de Markov, le système obtient de très bons résultats. Nous proposons également les diverses stratégies que nous avons mises en place afin de fournir une première évaluation automatisée des candidatures permettant d’assister les recruteurs. Nous avons évalué une palette de mesures de similarité afin d’effectuer un classement pertinent des candidatures. L’utilisation d’un modèle de relevance feedback a permis de surpasser nos résultats sur ce problème difficile et sujet à une grande subjectivité. / Since the 90s, Internet is at the heart of the labor market. First mobilized on specific expertise, its use spreads as increase the number of Internet users in the population. Seeking employment through "electronic employment bursary" has become a banality and e-recruitment something current. This information explosion poses various problems in their treatment with the large amount of information difficult to manage quickly and effectively for companies. We present in this PhD thesis, the work we have developed under the E-Gen project, which aims to create tools to automate the flow of information during a recruitment process.We interested first to the problems posed by the routing of emails. The ability of a companie to manage efficiently and at lower cost this information flows becomes today a major issue for customer satisfaction. We propose the application of learning methods to perform automatic classification of emails to their routing, combining technical and probabilistic vector machines support. After, we present work that was conducted as part of the analysis and integration of a job ads via Internet. We present a solution capable of integrating a job ad from an automatic or assisted in order to broadcast it quickly. Based on a combination of classifiers systems driven by a Markov automate, the system gets very good results. Thereafter, we present several strategies based on vectorial and probabilistic models to solve the problem of profiling candidates according to a specific job offer to assist recruiters. We have evaluated a range of measures of similarity to rank candidatures by using ROC curves. Relevance feedback approach allows to surpass our previous results on this task, difficult, diverse and higly subjective.
19

Le comportement dans la recherche d’information des étudiants au doctorat en médecine au Burkina Faso

Ouangré, Zoé Aubierge 12 1900 (has links)
Dans les pays du Nord, les étudiants disposent d’une multitude de sources numériques et imprimées ainsi que de nombreux outils de recherche pour réaliser leurs travaux universitaires. La réalité est encore toute autre dans les universités africaines, particulièrement au Burkina Faso où l’accès des étudiants à ces ressources est limité. Cette étude, première du genre en Afrique de l’Ouest francophone, veut contribuer à une meilleure compréhension du comportement dans la recherche d’information des étudiants au doctorat en médecine de l’Université Joseph Ki-Zerbo de Ouagadougou (Burkina Faso). Les objectifs sont les suivants : 1) identifier les sources et outils de recherche d’information utilisés par ces étudiants dans leur processus de recherche d’information et les critères qui président ces choix ; 2) identifier les personnes (professeurs, collègues étudiants, bibliothécaires, etc.) qui soutiennent ces étudiants dans leur processus de recherche d’information et comprendre quelle(s) forme(s) de soutien elles apportent ; 3) identifier les barrières auxquelles ces étudiants sont confrontés lors de leur processus de recherche d’information et décrire les moyens utilisés pour les surmonter. L’étude s’appuie sur le modèle de processus de recherche d’information (Information Search Process) de Kuhlthau (1991, 2004), enrichi au moyen des variables intervenantes du modèle de comportement informationnel de Wilson (1996). Un devis de recherche mixte est adopté. Il est composé de deux volets : 1) un volet quantitatif qui consiste en un questionnaire administré aux étudiants de l’Unité de formation et de recherche en sciences de la santé et auquel 269 étudiants ont répondu et 2) un volet qualitatif, qui consiste en des entrevues semi-dirigées réalisées auprès de 25 étudiants ayant participé au premier volet. L’analyse des données a révélé que ces étudiants en médecine utilisent plusieurs types d’outils dans leur processus de recherche d’information tout en ayant un penchant pour les moteurs de recherche Web et les bases de données en accès libre. Ces choix sont influencés par des facteurs tels que la facilité d’utilisation et l’accessibilité des outils, de même que les sources d’information auxquelles ils ont accès. Pour ce qui est du support, les sources numériques sont plus utilisées que les imprimées pour des raisons d’accessibilité, de portabilité et de facilité d’utilisation. L’analyse des données montre également que plusieurs personnes apportent leur aide aux étudiants au doctorat en médecine pendant leur processus de recherche d’information. Parmi ces personnes, on iv compte le corps professoral, les collègues étudiants, les membres de la parenté et, dans une moindre mesure, les bibliothécaires. De plus, l’analyse révèle que les « aînés » (c’est-à-dire les médecins et les étudiants des cohortes précédentes) jouent un rôle particulièrement important : ils fournissent aux étudiants des documents, souvent puisés dans leur collection personnelle, et les orientent vers des thèmes de recherche porteurs et des sources d’information pertinentes. Il est également apparu que ces étudiants font face à différents types de barrières au cours de leur processus de recherche d’information. Les freins les plus importants sont les suivants : les coûts directs pour accéder à l’information, c’est-à-dire les frais demandés pour commander des articles scientifiques (barrières économiques) ; les délestages, l’instabilité de la connexion Internet et les ressources limitées des bibliothèques universitaires (barrières environnementales) ; les contraintes de temps (barrières situationnelles) ; la rareté de la documentation scientifique médicale en langue française et rapportant des études réalisées en contexte africain (barrières liées aux caractéristiques des sources). Les résultats suggèrent par ailleurs que plusieurs n’ont pas les compétences informationnelles requises pour mener de la recherche d’information de niveau doctoral. Cependant, malgré toutes ces difficultés, les étudiants trouvent des stratégies alternatives pour surmonter ou contourner les barrières qui entravent leur accès à l’information. / In northern countries, students have access to a wide range of digital and printed sources as well as search tools to support their academic work. The situation is quite different in African universities, particularly in Burkina Faso, where students’ access to library resources remains limited. This study, the first of its kind in French-speaking West Africa, aims to contribute to a better understanding of the information-seeking behaviour of doctoral students in medicine at Joseph Ki-Zerbo University in Ouagadougou (Burkina Faso). The objectives are the following: 1) to identify the information sources and tools these students use in their information search process and the criteria that govern this selection; 2) to identify the persons (professors, students, librarians, etc.) who assist these students in their information search process and understand what type(s) of assistance they provide; 3) to identify the barriers these students face during their information search process, and the measures they take to overcome them. This study is based on Kuhlthau’s Information Search Process model (1991, 2004), supplemented by the intervening variables included in Wilson’s Information Behaviour model (1996). A mixed-methods design was adopted. It consisted of two phases: 1) a quantitative component consisting in a survey conducted among students of the Training and research unit in health science to which 269 students have responded, and 2) a quantitative component consisting in semi-structured in-depth interviews with 25 students, selected among respondents from phase I. Data analysis showed that these medical students use various search tools in their information search process but expressed a preference for Web search engines and open access databases. These choices are influenced by factors such as the tools’ ease of use and ease of access, as well as the information sources to which they have access. In terms of document formats, digital sources are more heavily used than printed ones, for they are easier to access, more portable and more user friendly. Data analysis also showed that several persons assist doctoral students in medicine in their information search process. Among them are faculty members, student peers, relatives, and, to a lesser extent, librarians. Additionally, the analysis revealed that “elders” (i.e., physicians and students from previous cohorts) play an especially important role: they provide students with documents, often from their own personal collection, and they orient students towards promising research topics and relevant information sources. vi The study also reveals that these students face different types of barriers in their information search process. The main barriers are direct information access costs—i.e., fees charged for ordering scientific papers (economic barriers); load sheddings, unreliable Internet connection, and limited resources of academic libraries (environmental barriers); time constraints (situational barriers); the scarcity of medical scientific information in French and reporting studies conducted in African setting (barriers related to information sources characteristics). Moreover, results suggest that many do not possess the information literacy skills needed to conduct information searching at the doctoral level. However, despite these difficulties, these students find alternative strategies to overcome or circumvent the barriers that impede information access.
20

Les compétences informationnelles des futurs enseignants québécois sur le Web

Dumouchel, Gabriel 06 1900 (has links)
Bien que les apprenants québécois de tous les niveaux d’éducation cherchent majoritairement vers le Web pour trouver de l’information dans le cadre de leur formation, bon nombre d’entre eux présentent des difficultés pour obtenir celle dont ils ont besoin. Face à cette nouvelle réalité, les enseignants actuels et futurs ont certes pour mission de développer les compétences informationnelles des apprenants, à savoir leurs compétences de recherche, d’évaluation et d’utilisation de l’information, mais sont-ils pour autant bien préparés pour le faire? La présente étude vise donc à vérifier si les futurs enseignants québécois possèdent les compétences nécessaires pour chercher, évaluer et utiliser de l’information pour répondre à leurs propres besoins informationnels et s’ils sont adéquatement formés pour enseigner ces compétences à leurs élèves. Afin d’atteindre cet objectif général de recherche, la présente thèse s’appuie sur un cadre conceptuel élaboré autour de trois éléments complémentaires : le concept de compétences informationnelles, le processus de recherche et de traitement de l’information et les méthodes d’enseignement des compétences informationnelles en milieu scolaire. Pour atteindre les objectifs spécifiques de recherche qui ont découlé de la synthèse de ces éléments, cette thèse a eu recours à une méthodologie mixte mariant sondage, entrevues et observations auprès de 353 futurs enseignants d’une université québécoise. Dans un premier temps, nous avons décrit et analysé leurs pratiques déclarées et effectives en recherche et traitement d’information sur le Web. Les principaux résultats concernant la recherche d’information démontrent que la majorité des futurs enseignants font figure de novices alors qu’ils planifient peu ou pas leurs recherches, emploient des stratégies de recherche basiques et diversifient peu les outils de recherche pour arriver à leurs fins, Google dominant largement. Dans un deuxième temps, les principaux résultats au sujet du traitement d’information montrent que la plupart des futurs enseignants évaluent l’information trouvée selon plusieurs critères dont la vérifiabilité de l’information et son utilisation à des fins d’enseignement et d’apprentissage. De plus, on constate que si la majorité d’entre eux sont en mesure de synthétiser l’information trouvée sur le Web, il reste que seule une minorité cite les sources utilisées. Dans un troisième temps, nos résultats dénotent que la formation initiale en compétences informationnelles est nettement insuffisante aux yeux des futurs enseignants, celle-ci étant principalement concentrée en début de baccalauréat sous la forme d’ateliers offerts par la bibliothèque. Parallèlement, les résultats démontrent que la majorité des futurs enseignants mettront davantage l’accent sur l’enseignement de l’évaluation et l’utilisation de l’information que sur sa recherche sur le Web. De fait les élèves seront sensibilisés à évaluer l’information trouvée selon une multitude de critères et à faire attention au plagiat. Dans un dernier temps, les résultats de notre étude sont synthétisés et analysés à la lumière de la littérature et des pistes de recommandations sont proposées dans le but d’améliorer la formation initiale en compétences informationnelles. / While Québec’s students from elementary schools to university now mainly use the Web to find information for their studies. many have difficulties getting the information they need. Faced with this new reality, inservice and preservice teachers must give students the proper information literacy training, that is to learn how to search, evaluate and use information to meet their needs. This study aims to analyze if Québec’s preservice teachers have the information literacy competencies to meet their own needs and if they are adequately trained to teach information literacy. To achieve this goal, this research uses a conceptual framework developed around three complementary elements: the information literacy concept, the information seeking process, and information literacy teaching methods. To meet the specific research objectives that resulted from the synthesis of these elements, a mixed methodology combines data collected from a survey, interviews and observations conducted with 353 preservice teachers of a university in Québec. Results on reported and actual practices of the students’ information seeking process on the Web show, firstly, that a majority of them are novice information searchers, as they plan little or not at all their research on the Web, use basic search strategies, and scarcely diversify their research tools, with Google as their preferred tool by far. Secondly, results show that most preservice teachers evaluate the information they find on the Web according to several criteria, including information verifiability and potential use for teaching and learning. But while a majority of preservice teachers are able to synthesize the information found on the Web, only a minority cites correctly their sources. Thirdly, results indicate that preservice teachers perceive their initial training in information literacy as clearly insufficient, for it has been mainly received at the beginning of their program and in the form of workshops by the university’s librarians. Our results also show that while a majority of preservice teachers plan to teach how to evaluate information found on the Web using many criteria and educate them about plagiarism, they will put less emphasis on teaching how to search for information on the Web. We conclude our study by summarizing and analyzing our results in the light of the existing literature and offering recommandations to improve information literacy teacher training.

Page generated in 0.1149 seconds