• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 22
  • Tagged with
  • 22
  • 22
  • 16
  • 14
  • 13
  • 12
  • 11
  • 9
  • 7
  • 7
  • 7
  • 6
  • 6
  • 6
  • 6
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

A arte de indexar artigos de periódicos: a política de indexação da seção de periódicos da Biblioteca Central da UFPB

Galvino, Claudio Cesar Temoteo 02 April 2012 (has links)
Submitted by Morgana Silva (morgana_linhares@yahoo.com.br) on 2016-12-05T13:35:19Z No. of bitstreams: 1 arquivototal.pdf: 845823 bytes, checksum: f32ffdac6c4ead88c64b88e070441d64 (MD5) / Made available in DSpace on 2016-12-05T13:35:19Z (GMT). No. of bitstreams: 1 arquivototal.pdf: 845823 bytes, checksum: f32ffdac6c4ead88c64b88e070441d64 (MD5) Previous issue date: 2012-04-02 / The present research aimed to evaluate the Indexing Policy of Journal Articles of the Central Library of Federal University of Paraíba. In order to have a better understanding between theory and practice, the phases of the indexing process were identified as well as the observation concerning indexing policy accomplished by indexers. Taking into account the comparison of the indexing policy guidelines with the subject catalogue, we could detect inconsistencies regarding the construction of the controlled vocabulary. Finally, we verified auxiliary instruments used in the indexing process of journal articles. In this way, it was used the qualitative / quantitative method through the analysis of the subject descriptors referred to the controlled vocabulary built and available in the manual catalogue format for the users´ consultation. A total of, approximately, 27 thousand descriptors were registered from which a sample of 1.350 of them was taken for re-evaluation in the indexing policy. It was used the technique of individual verbal protocol with indexers and both undergraduate and graduate students of the Federal University of Paraíba. Bardin´s content analysis method about verbalizations was used. We categorized some users´ speeches so that we could analyze their content related to the services offered by the Journal Sector. The obtained results were satisfactory considering the current problems. We realized that the phases of the indexing process through documental reading are fulfilled according to Lancaster’s theory as well as other authors´. Descriptors of subjects, in their majority, are in accordance with the standards expected by indexing policy. The inconsistency problem is invariable in an indexing service and it is in permanent search for solutions. The representation instruments of information which aid the indexing service still need to be defined so as to encompass all knowledge areas of the archive of the mentioned journal sector. This research is of great relevance, though there is very little scientific literature about indexing policy of journal articles in information systems in Brazil, specifically in university libraries. / A presente pesquisa objetivou avaliar a Política de Indexação de Artigos de Periódicos da Biblioteca Central da Universidade Federal da Paraíba. Para uma melhor compreensão entre a teoria e a prática, buscou-se identificar as etapas do processo de indexação como também observar a utilização da política de indexação pelos indexadores. A partir da comparação das diretrizes da política de indexação com o catálogo de assunto pode-se detectar as inconsistências ocorridas na construção do vocabulário controlado. Por fim, verificaram-se os instrumentos auxiliares utilizados no processo de indexação de artigos de periódicos. Desse modo, foi utilizado o método qualitativo/quantitativo através da análise de descritores de assunto do vocabulário controlado construído e disponível no formato de catálogo manual para consulta dos usuários. Foram contabilizados aproximadamente 27 mil descritores dos quais foi retirada uma amostragem de 1.350 para reavaliação diante da política de indexação. Aplicou-se a técnica do protocolo verbal individual com os indexadores e estudantes de graduação e pós-graduação da Universidade Federal da Paraíba. Utilizou-se o método de análise de conteúdo, de Bardin, sobre as verbalizações. Categorizaram-se algumas falas dos usuários para que se pudesse analisar o seu conteúdo relacionado com os serviços oferecidos pela Seção de Periódicos. Os resultados obtidos foram satisfatórios diante dos problemas enfrentados. Constatou-se que as etapas do processo de indexação através da leitura documentária são feitas de acordo com a teoria vigente em Lancaster e outros autores. Os descritores de assuntos, em sua grande maioria, estão dentro dos padrões desejados pela política de indexação. O problema de inconsistência é uma constante num serviço de indexação e em permanente busca de soluções. E os instrumentos de representação da informação que auxiliam o serviço de indexação necessitam ainda serem definidos de forma que contemple todas as áreas do conhecimento do acervo da seção de periódicos em questão. Esta pesquisa possui grande relevância, ainda que haja escassa literatura científica sobre política de indexação de artigos de periódicos em sistemas de informação no Brasil, especificamente em bibliotecas universitárias.
22

Criação de vetores temáticos de domínios para a desambiguação polissêmica de termos. / Creation of thematic vectors of domains for the polysemic disambiguation of terms.

BISPO, Magna Celi Tavares. 01 August 2018 (has links)
Submitted by Johnny Rodrigues (johnnyrodrigues@ufcg.edu.br) on 2018-08-01T17:34:31Z No. of bitstreams: 1 MAGNA CELI TAVARES BISPO - DISSERTAÇÃO PPGCC 2012..pdf: 13590339 bytes, checksum: 3903bd3ab6c0c474a6a7e9bf8b04e08a (MD5) / Made available in DSpace on 2018-08-01T17:34:31Z (GMT). No. of bitstreams: 1 MAGNA CELI TAVARES BISPO - DISSERTAÇÃO PPGCC 2012..pdf: 13590339 bytes, checksum: 3903bd3ab6c0c474a6a7e9bf8b04e08a (MD5) Previous issue date: 2012-11-30 / A ambiguidade de termos é um dos fatores que dificulta o processo de indexação de documentos e recuperação de informação desejada por um usuário. O presente trabalho se baseia na hipótese de que parte deste problema pode ser minimizado sabendo-se de antemão o domínio do documento que contém termos ambíguos. Para determinar este domínio foram construídos vocabulários temáticos por meio da extração de termos de documentos de domínios de conhecimento pré-determinados, com o uso de regras sintáticas. A Wikipédia foi usada como base de consulta, por ser uma enciclopédia digital contendo as categorias definidas semelhantes à Classificação Decimal Universal (CDU), e cada categoria com uma vasta quantidade de documentos específicos, sendo essa característica fundamental para formação de um vocabulário específico do domínio de um conhecimento. A escolha das categorias foi baseada na CDU, composta de 10 domínios e seus respectivos subdomínios. Os vocabulários obtidos, denominados de Vetores Temáticos de Domínio (VTD), serviram de base para a classificação de novos documentos. Para validação dos VTD's, foram realizados três tipos de experimentos diferentes, o primeiro foi classificar novos documentos utilizando o método vetorial, tendo o VTD como base de consulta. O segundo experimento foi uma classificação utilizando outro classificador, o Intellexer Categorizer, e o terceiro experimento, criou-se um vetor de termos através do Weka, o qual foi submetido a servir de base de consulta para classificar novos documentos, utilizando o modelo vetorial. Os resultados foram satisfatórios, pois mostrou que o VTD obteve uma melhor classificação em relação aos outros métodos, dos 14 novos documentos, classificou 10 corretamente e 4 errados, apresentando uma acurácia de 80%, contra a acurácia de 57% do Intellexer Categorizer e de 50% da classificação utilizando o vetor de termos criado pelo Weka. / Terms ambiguity is one of the factors that hinders the document indexation and information retrieval processes desired by a user. This work is based on the hypothesis that part of this problem can be minimized by knowing beforehand the field of the document that contains ambiguous terms. To determine this domain, typical vocabularies were created through the extraction of terms from documents of predetermined knowledge domains, with the use of syntactical rules. Wikipedia was used as a consultation base because it is a digital encyclopedia that contains the categories defined similar to the Universal Decimal Classification (UDC), each category containing a vast amount of specific documents, being this feature essential for the formation of a domain-specific vocabulary. The choice of the categories was based on the UDC, composed of 10 domains and their respective subdomains. The vocabularies obtained, denominated as Thematic Domain Vectors (TDV), served as the basis for the classification of new documents. For the validation of the TDVs, three different types of experiments were performed: the first was to classify new documents using the vectorial method, with the TDV as a basis of consultation. The second experiment was a classification using another classifier, the Intellexer Categorizer. For the third experiment was created a vector of terms through Weka, which was submitted to serve as a a consultation base to classify new documents using the vectorial model. The results were satisfactory, because they showed that the TDV obtained a better classification relative to other methods. Of the 14 new documents, properly it rated 10 and 4 incorrectly, with an accuracy of 80%, against 57% accuracy of the Intellexer Categorizer program and 50% of the classification using the Weka created vector of terms.

Page generated in 0.0754 seconds