• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 47
  • 11
  • 5
  • 1
  • Tagged with
  • 67
  • 67
  • 19
  • 19
  • 19
  • 15
  • 14
  • 13
  • 12
  • 10
  • 10
  • 9
  • 8
  • 8
  • 7
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Visualisation des résultats de recherche classifiés en contexte de recherche d’information exploratoire : une évaluation d’utilisabilité

Crédeville, Aline 10 1900 (has links)
La recherche d’information exploratoire sur le Web présente des défis cognitifs en termes de stratégies cognitives et de tactiques de recherche. Le modèle « question-réponse » des moteurs de recherche actuels est inadéquat pour faciliter les stratégies de recherche d’information exploratoire, assimilables aux stratégies cognitives de l’apprentissage. La visualisation des résultats de recherche est un dispositif qui possède des propriétés graphiques et interactives pertinentes pour le traitement de l’information et l’utilisation de la mémoire et, plus largement de la cognition humaine. Plusieurs recherches ont été menées dans ce contexte de recherche d’information exploratoire, mais aucune n’a distinctement isolé le facteur graphique et interactif de la « visualisation » au sein de son évaluation. L’objectif principal de cette thèse est de vérifier si la visualisation des résultats en contexte de recherche d’information exploratoire témoigne des avantages cognitifs et interactifs pressentis selon ses présupposés théoriques. Pour décrire et déterminer la valeur ajoutée de la visualisation des résultats de recherche dans un contexte de recherche d’information exploratoire sur le Web, cette recherche propose de mesurer son utilisabilité. En la comparant selon les mêmes critères et indicateurs à une interface homologue textuelle, nous postulons que l’interface visuelle atteindra une efficacité, efficience et satisfaction supérieure à l’interface textuelle, dans un contexte de recherche d’information exploratoire. Les mesures objectives de l’efficacité et de l’efficience reposent principalement sur l’analyse des traces de l’interaction des utilisateurs, leur nombre et leur durée. Les mesures subjectives attestant de la satisfaction procurée par l’usage du système dans ce contexte repose sur la perception des utilisateurs par rapport à des critères de perception de la facilité d’utilisation et de l’utilité de l’interface testée et par rapport à des questions plus large sur l’expérience de recherche vécue. Un questionnaire et un entretien ont été passés auprès de chacun des vingt-trois répondants. Leur session de recherche a aussi été enregistré par un logiciel de capture vidéo d’écran. Sur les données des vingt-trois utilisateurs divisés en deux groupes, l’analyse statistique a révélé de faibles différences significatives entre les deux interfaces. Selon les mesures effectuées, l’interface textuelle s’est révélée plus efficace en terme de rappel et de pertinence ; et plus efficiente pour les durées de la recherche d’information. Sur le plan de la satisfaction, les interfaces ont été appréciées toutes deux posivitivement, ne permettant pas de les distinguer pour la grande majorité des métriques. Par contre, au niveau du comportement interactif, des différences notables ont montré que les utilisateurs de l’interface visuelle ont réalisé davantage d’interactions de type exploratoire, et ont procédé à une collecte sélective des résultats de recherche. L’analyse statistique et de contenu sur le critère de l’expérience vécue a permis de démontrer que la visualisation offre l’occasion à l’utilisateur de s’engager davantage dans le processus de recherche d’information en raison de l’impact positif de l’esthétique de l’interface visuelle. De plus, la fonctionnalité de classification a été perçue de manière ambivalente, divisant les candidats peu importe l’interface testée. Enfin, l’analyse des verbatims des « visuelle » a permis d’identifier le besoin de fonctionnalités de rétroaction de l’utilisateur afin de pouvoir communiquer le besoin d’information ou sa pondération des résultats ou des classes, grâce à des modalités interactives de manipulation directe des classes sur un espace graphique. / Conducting exploratory searches on the web presents a number of cognitive difficulties as regards search strategies and tactics. The “question-response” model used by the available search engines does not respond adequately to exploratory searches, which are akin to cognitive learning strategies. Visualising search results involves graphic and interactive properties for presenting information that are pertinent for processing and using information, as well as for remembering and, more broadly, for human cognition. Many studies have been conducted in the area of exploratory searches, but none have focussed specifically on the graphic and interactive features of visualisation in their analysis. The principal objective of this thesis is to confirm whether the visualisation of results in the context of exploratory searches offers the cognitive and interactive advantages predicted by conjectural theory. In order to describe and to determine the added value of visualising search results in the context of exploratory web searches, the study proposes to measure its usability. By comparing it to a parallel text interface, using the same criteria and indicators, the likelihood of better efficiency, efficacy, and satisfaction when using a visual interface can be established. The objective measures of efficiency and efficacy are based mainly on the analysis of user interactions, including the number of these interactions and the time they take. Subjective measures of satisfaction in using the system in this context are based on user perception regarding ease of use and the usefulness of the interface tested, and on broader questions concerning the experience of using the search interface. These data were obtained using a questionnaire and a discussion with each participant. Statistical analysis of the data from twenty-three participants divided into two groups showed slightly significant differences between the two interfaces. Analysis of the metrics used showed that the textual interface is more efficient in terms of recall and pertinence, and more efficacious concerning the time needed to search for information. Regarding user satisfaction, both interfaces were seen positively, so that no differences emerged for the great majority of metrics used. However, as regards interactive behaviour, notable differences emerged. Participants using the visual interface had more exploratory interaction, and went on to select and collect pertinent search results. Statistical and content analysis of the experience itself showed that visualisation invites the user to become more involved in the search process, because of the positive effect of a pleasing visual interface. In addition, the classification function was perceived as ambivalent, dividing the participants no matter which interface was used. Finally, analysis of the verbatim reports of participants classed as “visual” indicated the need for a user feedback mechanism in order to communicate information needs or for weighting results or classes, using the interactive function for manipulating classes within a geographic space.
62

Extraction automatique et visualisation des thèmes abordés dans des résumés de mémoires et de thèses en anthropologie au Québec, de 1985 à 2009

Samson, Anne-Renée 06 1900 (has links)
S’insérant dans les domaines de la Lecture et de l’Analyse de Textes Assistées par Ordinateur (LATAO), de la Gestion Électronique des Documents (GÉD), de la visualisation de l’information et, en partie, de l’anthropologie, cette recherche exploratoire propose l’expérimentation d’une méthodologie descriptive en fouille de textes afin de cartographier thématiquement un corpus de textes anthropologiques. Plus précisément, nous souhaitons éprouver la méthode de classification hiérarchique ascendante (CHA) pour extraire et analyser les thèmes issus de résumés de mémoires et de thèses octroyés de 1985 à 2009 (1240 résumés), par les départements d’anthropologie de l’Université de Montréal et de l’Université Laval, ainsi que le département d’histoire de l’Université Laval (pour les résumés archéologiques et ethnologiques). En première partie de mémoire, nous présentons notre cadre théorique, c'est-à-dire que nous expliquons ce qu’est la fouille de textes, ses origines, ses applications, les étapes méthodologiques puis, nous complétons avec une revue des principales publications. La deuxième partie est consacrée au cadre méthodologique et ainsi, nous abordons les différentes étapes par lesquelles ce projet fut conduit; la collecte des données, le filtrage linguistique, la classification automatique, pour en nommer que quelques-unes. Finalement, en dernière partie, nous présentons les résultats de notre recherche, en nous attardant plus particulièrement sur deux expérimentations. Nous abordons également la navigation thématique et les approches conceptuelles en thématisation, par exemple, en anthropologie, la dichotomie culture ̸ biologie. Nous terminons avec les limites de ce projet et les pistes d’intérêts pour de futures recherches. / Taking advantage of the recent development of automated analysis of textual data, digital records of documents, data graphics and anthropology, this study was set forth using data mining techniques to create a thematic map of anthropological documents. In this exploratory research, we propose to evaluate the usefulness of thematic analysis by using automated classification of textual data, as well as information visualizations (based on network analysis). More precisely, we want to examine the method of hierarchical clustering (HCA, agglomerative) for thematic analysis and information extraction. We built our study from a database consisting of 1 240 thesis abstracts, granted from 1985 to 2009, by anthropological departments at the University of Montreal and University Laval, as well as historical department at University Laval (for archaeological and ethnological abstracts). In the first section, we present our theoretical framework; we expose definitions of text mining, its origins, the practical applications and the methodology, and in the end, we present a literature review. The second part is devoted to the methodological framework and we discuss the various stages through which the project was conducted; construction of database, linguistic and statistical filtering, automated classification, etc. Finally, in the last section, we display results of two specific experiments and we present our interpretations. We also discuss about thematic navigation and conceptual approaches. We conclude with the limitations we faced through this project and paths of interest for future research.
63

Ampliando horizontes da missão espacial Gaia graças à análise de objetos extensos / Plus loin avec la mission spatiale Gaia grâce à l\'analyse des objets étendus

Martins, Alberto Garcez de Oliveira Krone 18 March 2011 (has links)
Este trabalho tem como objetivo principal verificar se é possível fazer ciência com as observações de objetos extensos que serão realizadas pela missão espacial Gaia. Um dos mais ambiciosos projetos da Astronomia moderna, essa missão observará mais de um bilhão de objetos em todo o céu com precisões inéditas, fornecendo dados astrométricos, fotométricos e espectroscópicos. Naturalmente, devido à sua prioridade astrométrica o Gaia foi optimizado para o estudo de objetos pontuais. Contudo, diversas fontes associadas a emissões extensas serão observadas. Essas emissões podem ter origem intrínseca, como galáxias, ou extrínseca, como projeções de objetos distintos na mesma linha de visada, e deverão ter soluções astrométricas aquém do ideal. Para estudar essas emissões suas imagens bidimensionais devem ser analisadas. Contudo, como o Gaia não obtém tais dados, iniciamos este trabalho verificando se a partir de suas observações unidimensionais seria possível reconstruir imagens de objetos em todo céu. Dessa forma, por um lado, nós estimamos a quantidade de casos sujeitos à presença de emissões extensas extrínsecas, apresentamos um método que desenvolvemos para segregar fontes astronômicas em imagens reconstruídas, e mostramos que sua utilização possibilitará estender o catálogo final de forma confiável em milhões de fontes pontuais, muitas das quais estarão além da magnitude limite do instrumento. Por outro lado, no caso de emissões intrínsecas, primeiro obtivemos uma es- timativa superior para o número de casos que o Gaia poderá observar. Então verificamos que após reconstruções de imagens, os códigos aqui desenvolvidos per- mitirão classificar morfologicamente milhões de galáxias nos tipos precoce/tardio e elíptico/espiral/irregular. Mostramos ainda um método que construímos para realizar a decomposição bojo/disco diretamente a partir das observações unidimensionais do Gaia de forma completamente automática. Finalmente concluímos que sim, é possível aproveitar muitos desses dados que poderiam ser ignorados para fazer ciência. E que salva-los possibilitará tanto a detecção de milhões de objetos além do limite de magnitude do Gaia, quanto estudos da morfologia de milhões de galáxias cujas estruturas podem ser apenas reveladas do espaço ou por meio de óptica adaptativa, expandindo um pouco mais os horizontes dessa já abrangente missão. / Ce travail a comme objectif principal de vérifier s\'il est possible de faire de la science avec les observations d\'objets étendus qui seront réalisées par la mission spatiale Gaia. Cette mission, l\'un des plus ambitieux projets de l\'Astronomie moderne, observera plus d\'un milliard d\'objets dans tout le ciel avec des précisions inédites, fournissant des données astrométriques, photométriques et spectroscopiques. Naturellement, en fonction de sa priorité astrométrique, Gaia a été optimisé pour l\'étude d\'objets ponctuels. Néanmoins, diverses sources associées à des émissions étendues seront observées. Ces émissions peuvent avoir une origine intrinsèque, telles que les galaxies, ou extrinsèque, telles que les projections d\'objets distincts sur la même ligne de visée, et présenteront probablement de solutions astrométriques moins bonnes. Pour étudier ces émissions, leurs images bidimensionnelles doivent être analysées. Néanmoins, comme Gaia ne produit pas de telles données, nous avons commencé ce travail en vérifiant si à partir de ses observations unidimensionnelles il serait possible de reconstruire des images 2D d\'objets dans tout le ciel. Nous avons ainsi estimé la quantité de cas sujets à la présence démissions étendues extrinsèques, et nous avons présenté une méthode que nous avons développée pour analyser leurs images reconstruites. Nous avons montré que l\'utilisation de cette méthode permettra détendre le catalogue final de façon fiable à des millions de sources ponctuelles dont beaucoup dépasseront la magnitude limite de l\'instrument. Dun autre coté, dans le cas démissions intrinsèques, nous avons premièrement obtenu une estimation supérieure du nombre de cas que Gaia pourra observer. Nous avons alors vérifié qu\'après les reconstructions d\'images, les codes que nous avons développés permettront de classifier morphologiquement des millions de galaxies dans les types précoce/tardif et elliptique/spirale/irrégulière. Nous avons de plus présenté une méthode que nous avons développée pour réaliser la décomposition bulbe/disque directement à partir des observations unidimensionnelles de Gaia de façon complètement automatique. Finalement nous avons conclu qu\'il est possible d\'utiliser beaucoup de ces données qui pourraient être ignorées pour faire de la science. Et que le fait de les exploiter permettra aussi bien la détection de millions d\'objets qui dépassent la limite de magnitude de Gaia, que de mener des études sur la morphologie de millions de galaxies dont les structures ne peuvent être révélées qu\'à partir de l\'espace ou au moyen d\'optique adaptative, augmentant un peu plus les horizons de cette mission déjà immense.
64

Classification automatique des signaux audio-fréquences : reconnaissance des instruments de musique

Essid, Slim 13 December 2005 (has links) (PDF)
L'objet de cette thèse est de contribuer à améliorer l'identification automatique des instruments de musique dans des contextes réalistes, (sur des solos de musique, mais également sur des pièces multi-instrumentales). Nous abordons le problème suivant une approche de classification automatique en nous efforçant de rechercher des réalisations performantes des différents modules constituant le système que nous proposons. Nous adoptons un schéma de classification hiérarchique basé sur des taxonomies des instruments et des mélanges d'instruments. Ces taxonomies sont inférées au moyen d'un algorithme de clustering hiérarchique exploitant des distances probabilistes robustes qui sont calculées en utilisant une méthode à noyau. Le système exploite un nouvel algorithme de sélection automatique des attributs pour produire une description efficace des signaux audio qui, associée à des machines à vecteurs supports, permet d'atteindre des taux de reconnaissance élevés sur des pièces sonores reflétant la diversité de la pratique musicale et des conditions d'enregistrement rencontrées dans le monde réel. Notre architecture parvient ainsi à identifier jusqu'à quatre instruments joués simultanément, à partir d'extraits de jazz incluant des percussions.
65

Extraction automatique et visualisation des thèmes abordés dans des résumés de mémoires et de thèses en anthropologie au Québec, de 1985 à 2009

Samson, Anne-Renée 06 1900 (has links)
S’insérant dans les domaines de la Lecture et de l’Analyse de Textes Assistées par Ordinateur (LATAO), de la Gestion Électronique des Documents (GÉD), de la visualisation de l’information et, en partie, de l’anthropologie, cette recherche exploratoire propose l’expérimentation d’une méthodologie descriptive en fouille de textes afin de cartographier thématiquement un corpus de textes anthropologiques. Plus précisément, nous souhaitons éprouver la méthode de classification hiérarchique ascendante (CHA) pour extraire et analyser les thèmes issus de résumés de mémoires et de thèses octroyés de 1985 à 2009 (1240 résumés), par les départements d’anthropologie de l’Université de Montréal et de l’Université Laval, ainsi que le département d’histoire de l’Université Laval (pour les résumés archéologiques et ethnologiques). En première partie de mémoire, nous présentons notre cadre théorique, c'est-à-dire que nous expliquons ce qu’est la fouille de textes, ses origines, ses applications, les étapes méthodologiques puis, nous complétons avec une revue des principales publications. La deuxième partie est consacrée au cadre méthodologique et ainsi, nous abordons les différentes étapes par lesquelles ce projet fut conduit; la collecte des données, le filtrage linguistique, la classification automatique, pour en nommer que quelques-unes. Finalement, en dernière partie, nous présentons les résultats de notre recherche, en nous attardant plus particulièrement sur deux expérimentations. Nous abordons également la navigation thématique et les approches conceptuelles en thématisation, par exemple, en anthropologie, la dichotomie culture ̸ biologie. Nous terminons avec les limites de ce projet et les pistes d’intérêts pour de futures recherches. / Taking advantage of the recent development of automated analysis of textual data, digital records of documents, data graphics and anthropology, this study was set forth using data mining techniques to create a thematic map of anthropological documents. In this exploratory research, we propose to evaluate the usefulness of thematic analysis by using automated classification of textual data, as well as information visualizations (based on network analysis). More precisely, we want to examine the method of hierarchical clustering (HCA, agglomerative) for thematic analysis and information extraction. We built our study from a database consisting of 1 240 thesis abstracts, granted from 1985 to 2009, by anthropological departments at the University of Montreal and University Laval, as well as historical department at University Laval (for archaeological and ethnological abstracts). In the first section, we present our theoretical framework; we expose definitions of text mining, its origins, the practical applications and the methodology, and in the end, we present a literature review. The second part is devoted to the methodological framework and we discuss the various stages through which the project was conducted; construction of database, linguistic and statistical filtering, automated classification, etc. Finally, in the last section, we display results of two specific experiments and we present our interpretations. We also discuss about thematic navigation and conceptual approaches. We conclude with the limitations we faced through this project and paths of interest for future research.
66

Classification Automatique d'Images, Application à l'Imagerie du Poumon Profond

Desir, Chesner 10 July 2013 (has links) (PDF)
Cette thèse porte sur la classification automatique d'images, appliquée aux images acquises par alvéoscopie, une nouvelle technique d'imagerie du poumon profond. L'objectif est la conception et le développement d'un système d'aide au diagnostic permettant d'aider le praticien à analyser ces images jamais vues auparavant. Nous avons élaboré, au travers de deux contributions, des méthodes performantes, génériques et robustes permettant de classer de façon satisfaisante les images de patients sains et pathologiques. Nous avons proposé un premier système complet de classification basé à la fois sur une caractérisation locale et riche du contenu des images, une approche de classification par méthodes d'ensemble d'arbres aléatoires et un mécanisme de pilotage du rejet de décision, fournissant à l'expert médical un moyen de renforcer la fiabilité du système. Face à la complexité des images alvéoscopiques et la difficulté de caractériser les cas pathologiques, contrairement aux cas sains, nous nous sommes orientés vers la classification one-class qui permet d'apprendre à partir des seules données des cas sains. Nous avons alors proposé une approche one-class tirant partie des mécanismes de combinaison et d'injection d'aléatoire des méthodes d'ensemble d'arbres de décision pour répondre aux difficultés rencontrées dans les approches standards, notamment la malédiction de la dimension. Les résultats obtenus montrent que notre méthode est performante, robuste à la dimension, compétitive et même meilleure comparée aux méthodes de l'état de l'art sur une grande variété de bases publiques. Elle s'est notamment avérée pertinente pour notre problématique médicale.
67

Classification automatique de textes pour les revues de littérature mixtes en santé

Langlois, Alexis 12 1900 (has links)
Les revues de littérature sont couramment employées en sciences de la santé pour justifier et interpréter les résultats d’un ensemble d’études. Elles permettent également aux chercheurs, praticiens et décideurs de demeurer à jour sur les connaissances. Les revues dites systématiques mixtes produisent un bilan des meilleures études portant sur un même sujet tout en considérant l’ensemble des méthodes de recherche quantitatives et qualitatives. Leur production est ralentie par la prolifération des publications dans les bases de données bibliographiques et la présence accentuée de travaux non scientifiques comme les éditoriaux et les textes d’opinion. Notamment, l’étape d’identification des études pertinentes pour l’élaboration de telles revues s’avère laborieuse et requiert un temps considérable. Traditionnellement, le triage s’effectue en utilisant un ensemble de règles établies manuellement. Dans cette étude, nous explorons la possibilité d’utiliser la classification automatique pour exécuter cette tâche. La famille d’algorithmes ayant été considérée dans le comparatif de ce travail regroupe les arbres de décision, la classification naïve bayésienne, la méthode des k plus proches voisins, les machines à vecteurs de support ainsi que les approches par votes. Différentes méthodes de combinaison de caractéristiques exploitant les termes numériques, les symboles ainsi que les synonymes ont été comparés. La pertinence des concepts issus d’un méta-thésaurus a également été mesurée. En exploitant les résumés et les titres d’approximativement 10 000 références, les forêts d’arbres de décision admettent le plus haut taux de succès (88.76%), suivies par les machines à vecteurs de support (86.94%). L’efficacité de ces approches devance la performance des filtres booléens conçus pour les bases de données bibliographiques. Toutefois, une sélection judicieuse des entrées de la collection d’entraînement est cruciale pour pallier l’instabilité du modèle final et la disparité des méthodologies quantitatives et qualitatives des études scientifiques existantes. / The interest of health researchers and policy-makers in literature reviews has continued to increase over the years. Mixed studies reviews are highly valued since they combine results from the best available studies on various topics while considering quantitative, qualitative and mixed research methods. These reviews can be used for several purposes such as justifying, designing and interpreting results of primary studies. Due to the proliferation of published papers and the growing number of nonempirical works such as editorials and opinion letters, screening records for mixed studies reviews is time consuming. Traditionally, reviewers are required to manually identify potential relevant studies. In order to facilitate this process, a comparison of different automated text classification methods was conducted in order to determine the most effective and robust approach to facilitate systematic mixed studies reviews. The group of algorithms considered in this study combined decision trees, naive Bayes classifiers, k-nearest neighbours, support vector machines and voting approaches. Statistical techniques were applied to assess the relevancy of multiple features according to a predefined dataset. The benefits of feature combination for numerical terms, synonyms and mathematical symbols were also measured. Furthermore, concepts extracted from a metathesaurus were used as additional features in order to improve the training process. Using the titles and abstracts of approximately 10,000 entries, decision trees perform the best with an accuracy of 88.76%, followed by support vector machine (86.94%). The final model based on decision trees relies on linear interpolation and a group of concepts extracted from a metathesaurus. This approach outperforms the mixed filters commonly used with bibliographic databases like MEDLINE. However, references chosen for training must be selected judiciously in order to address the model instability and the disparity of quantitative and qualitative study designs.

Page generated in 0.1674 seconds