• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 890
  • 73
  • 66
  • 66
  • 66
  • 39
  • 29
  • 29
  • 26
  • 26
  • 13
  • 9
  • 1
  • 1
  • 1
  • Tagged with
  • 931
  • 931
  • 438
  • 291
  • 234
  • 191
  • 185
  • 162
  • 161
  • 144
  • 124
  • 118
  • 114
  • 100
  • 97
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
131

Modelagem de sistema de conhecimento para apoio a decisão sentencial na justiça estadual

Sewald Junior, Egon January 2012 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Engenharia e Gestão do Conhecimento, Florianópolis, 2012 / Made available in DSpace on 2013-06-25T21:38:02Z (GMT). No. of bitstreams: 1 313717.pdf: 3120477 bytes, checksum: 141c5f3427e29b8de29649f444a599d4 (MD5) / O papel de manutenção do estado de direito exercido pelo poder judiciário, guardando a constituição e suas leis, julgando conflitos de interesses e mantendo a ordem social, deve ser prestado de forma a atender o cidadão e empresas de forma adequada. Um dos principais pontos a ser considerado é a luta contra a morosidade do judiciário, ou seja, alcançar celeridade razoável nos processos. O processo eletrônico diminuiu o tempo de trâmite judicial diminuindo tempo "morto", como por exemplo, montagem da pasta do processo, numeração de páginas e, principalmente com o trânsito físico das peças processuais. Observa-se que, para uma maior diminuição do tempo de trâmite dessas ações, é necessário uso adequado dos recursos do tribunal e aumento de desempenho no processo decisório sentencial, atividades intensivas de conhecimento. Esse trabalho tem como objetivo levantar o contexto organizacional, identificando as atividades intensivas de conhecimento e definir modelagem de Sistema de Conhecimento para auxiliar o processo decisório, no âmbito da justiça estadual. Foram levantadas aplicações de engenharia de conhecimento aplicadas ao judiciário e a partir desta revisão de literatura, gerar base para modelo de sistema de conhecimento. Para modelagem do sistema organizacional "Tribunal de Justiça do Estado do Amazonas" foi aplicado modelo CESM, de modo a estabelecer componentes, estrutura, ambiente e mecanismos deste, para entendimento de sua complexidade. A metodologia CommomKADS foi aplicada de forma a levantar o contexto organizacional, assim como os conceitos a serem concebidos para a resolução dos problemas e aproveitamento de oportunidade, bem como definições do projeto do artefato, ou seja, do Sistema de Conhecimento. A partir da metodologia foram estabelecidos modelo de organização, onde podem ser definidos os problemas e oportunidades, que podem ou não ser relacionadas a atividades intensivas de conhecimento, identificando, portanto, ativos de conhecimento aplicados. O Modelo de Tarefa descreve os processos do TJ/AM, identificando o uso do conhecimento e uma crítica com relação a sua aplicação correta. O modelo de agente oferece levantamento dos agentes, humanos ou de software. Com base nesses modelos é apresentado o contexto e definido o conceito do sistema de conhecimento, através dos modelos de conhecimento, que descreve a aplicação do mesmo nas tarefas, e os modelos de comunicação, que define a interação entre os agentes. A partir disto é definido o projeto do software, definindo um artefato. Desta forma, este trabalho contribui com a academia demonstrando quais atividades intensivas de conhecimento carecem de melhorias para melhorar o desempenho do judiciário, a aplicação de técnicas de engenharia de conhecimento para tal identificação, bem como apresenta uma sistemática de recuperação de documentos aplicada ao judiciário, de modo a melhorar o processo decisório e impactar positivamente com a diminuição temporal do trâmite judicial.<br> / Abstract : The duty of maintaining the rule of law applied by the judiciary board, watching the constitution and its laws, judging conflicts of interest and maintaining the social order, must be provided to meet the citizens and businesses needs properly. One of the main points to be considered is the fight against the slowness of the judiciary; in other words, achieve reasonable quickness in the processes. The electronic process reduced the judicial proceeding time, allowing to diminish "dead time", for example, assembly the process files, page numbering, and mainly with the physical transit of procedural parts. Notice that, to a greater reduction in length of these pending actions, it is necessary a correct use of resources of the court and increase the performance in decisionmaking judgment, intensive knowledge activities. This essay aims to raise the organizational context, identifying the intensive knowledge activities and define the Knowledge System pattern to support the decision-making process within the state courts. It has brought up engineering applications expertise applied to the judiciary and from this literature review, to generate a pattern to the knowledge system model. For the organizational system pattern "Court of justice of the State of Amazonas" the CESM model was applied in order to establish the components, structure, and mechanisms of this environment to understand its complexity. The CommomKADS methodology was applied to raise the organizational context as well as the concepts to be designed to solve problems and exploit opportunities, as well as the design definitions of the artifact, in other words, the Knowledge System. From this methodology, it was established organization models, where it can define problems and opportunities, which may or may not be related to knowledge intensive activities, so identifying applied knowledge assets. The task model describes the processes of the CJ/AM, identifying the use of knowledge and a review about its correct application. The instrument model provides a study about the human agents or software. Based on these models the context is presented and it is defined the concept of the knowledge system, through the knowledge systems models, which describes its application during the tasks, as well as the communication models that define the interaction between the agents. Thenceforth, it is defined the software design, outlining an artifact. Thus, this study contributes to the academy demonstrating which intensive knowledge activities need to be improved to enhance the performance of the judiciary, and the application of engineering knowledge techniques to such identification, even as presents systematic document retrieval applied to the judiciary to improve decision-making processes and impacting positively with the decrease in length of pending actions.
132

Recuperação da informação em acervos digitais de jornais

Santos, Luana Carla de Moura dos January 2016 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro de Ciências da Educação, Programa de Pós-Graduação em Ciência da Informação, Florianópolis, 2016. / Made available in DSpace on 2016-10-11T04:06:33Z (GMT). No. of bitstreams: 0 Previous issue date: 2016Bitstream added on 2016-10-18T03:08:11Z : No. of bitstreams: 1 342214.pdf: 4790844 bytes, checksum: ea44107485a64556ab7e277a76707360 (MD5) / Esta pesquisa visa a modelagem de uma ontologia do domínio do futebol para o tratamento de variações diacrônicas e sincrônicas da língua, com intuito de apoiar a recuperação da informação em acervos digitais de jornais. Com a oferta dos acervos de jornais em sítios na Internet é preciso que os acessos a essas informações sejam facilitados, pois esses ambientes reúnem documentos de diferentes épocas e culturas e também estão em constante atualização. Por essa razão, necessitam de uma organização que contemple a diversidade linguística e de conteúdo. Quando a organização da informação é conduzida para um domínio do conhecimento, as ambiguidades podem ser tratadas e entendidas conforme o contexto que se aplicam. Assim, o futebol tem o jornal como importante fonte de informação e também apresenta mudanças gramaticais e variações linguísticas que se mostraram pertinentes a este estudo. Trata-se de uma pesquisa aplicada, utilizando como base um acervo digital de jornal. Possui caracterização exploratória e descritiva e abordagem qualitativa. Utiliza a metodologia OntoForInfoScience, de Mendonça (2015) para desenvolver a ontologia do domínio do futebol. A coleta das informações foi realizada em materiais de referência do domínio e em notícias de jornais. Cronologicamente, o recorte estabelecido abrange terminologia utilizada entre 1900 a 2015, período que contempla a existência dos clubes de futebol no Brasil. A coleta foi realizada em jornais digitalizados e também nascidos digitais. A partir da amostra dos termos criou-se artefatos como Glossário de Conceitos, Dicionário de Conceitos, Glossário de Relações, Tabela de Conceitos e Valores e modelo de representação gráfica, em que foram tratados os aspectos linguísticos do domínio do futebol presentes nos acervos digitais. Com base do que foi modelado em linguagem natural foi formalizada a ontologia em linguagem lógica, com o auxílio do editor Protegé, etapa em que foram definidas classes, subclasses, propriedades de relação e equivalências. Como forma de avaliar a ontologia desenvolvida, elaborou-se questões de competência que foram executadas em linguagem SPARQL. Para atestar o uso da ontologia em ambientes compostos por jornais impressos e digitais foram realizadas buscas demonstrativas em um acervo real, analisando quais os resultados obtidos sem a ontologia e quais os prováveis resultados se ela fosse implementada. A análise dos resultados permitiu evidenciar que sem o uso da ontologia nos acervos digitais de jornais, a recuperação das informações é exaustiva e recupera documentos não relevantes, devido à ausência de relacionamentos entre os termos que formam o domínio. Dessa forma, com a inclusão da ontologia no sistema, a pesquisa por informações não exigiria tanto letramento do usuário, visto que as ontologias tornam mais inteligentes os sistemas, pois suas relações são feitas com base na realidade. Assim, as principais contribuições científicas deste trabalho para a Ciência da Informação envolvem a análise e tratamento de documentos históricos do domínio do futebol, a fim de apoiar a recuperação da informação de acervos digitais de jornais, utilizando como recurso uma ontologia de domínio.<br> / Abstract : This research proposes the making of a domain-ontology on soccer, to deal with the synchronic and diachronic variances of the language, and to aid information retrieval on digital files of newspapers. With the supply of newspaper archives in websites, it is necessary for the access to this information to be improved, because these sites group documents from different times and cultures and also are constantly under update. For that reason, they need an arrangement that encompasses the diversity of language and content. When the arrangement of the information is placed in a domain knowledge, all ambiguity can be dealt with and understood according to the context to which they apply. Thus, soccer has the newspaper as an important source of information, and also presents grammar changes and linguistic variations that are shown to be pertinent to this study. This is an applied research, based on a digital newspaper archive. it is exploratory and descriptive and a qualitative approach to its subject matter. Uses Mendonça s OntoForInfoScience methodology (2015) to develop the domain-ontology on soccer. The gathering of information was done based on reference material from the domain and in newspaper articles. The chronological interval that was established encompasses the terminology used between 1900 and 2015, period that covers the spawn of soccer clubs in Brazil. The data collection was from digitized and originally digital newspapers. Artifacts were created from the sample of terms, which are: glossary of concepts, dictionary of concepts, glossary of relationships, table of concepts and values, and graphic representation model, in which we deal with the linguistic aspects of the soccer domain, in the digital files. Based on what was modeled in natural language we formalized the ontology in logic language, with the help of the Protegé editor. At this stage, we defined categories, subcategories, relationship properties and equivalences. As a means to evaluate the developed ontology, questions of competence were created and executed in SPARQL language. In order to attest the usage of the ontology in environments with digital and printed newspapers some demonstrative searches were carried out in a real archive, analyzing what were the results without the ontology and the probable results if it were implemented. The analysis of the results allowed us to show that without the use of the ontology in the digital archive of newspaper the information retrieval is exhaustive and retrieves irrelevant documents, due to the lack of relationships among the terms that compose the domain. In this fashion, having the ontology included in the system, the research would not require much specific knowledge of the user, since the ontologies make systems smarter because their relationships are based on reality. So the main scientific contributions of this work to the Information Science are about the analysis and management of historical documents on the soccer domain, in order to improve the information retrieval in digital archives of newspapers, using the domain ontology as a resource.
133

Sistemas multiagentes cognitivos para recuperação, classificação e extração integradas de informação da web

Freitas, Frederico L. G. de January 2002 (has links)
Tese (doutorado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Engenharia Elétrica. / Made available in DSpace on 2012-10-20T00:02:59Z (GMT). No. of bitstreams: 0Bitstream added on 2016-01-09T05:03:29Z : No. of bitstreams: 1 187270.pdf: 14096583 bytes, checksum: 9f30553ddb0afc6646b5614580defa38 (MD5) / Existem, na Web, classes de páginas com conteúdo e estrutura similar (por exemplo, páginas de chamadas de trabalhos, referências bibliográficas, etc); algumas delas têm sido tratadas por agentes extratores. Porém, estes sistemas negligenciam o fato de que algumas destas classes inter-relacionam-se, formando grupos (por exemplo, o meio científico). Propomos uma arquitetura de sistemas multiagentes cognitivos para a recuperação, classificação e extração integradas de informação, a partir destes grupos. Para a realização destas tarefas, uma visão da Web que incorpora estas classes (visão por conteúdo) e também a funcionalidade de apresentação das informações mantidas nas páginas (i.e., se a página é uma lista, mensagem, página de uma classe ou nenhuma delas) faz-se necessária. Cada agente processa uma classe, empregando ontologias do domínio e ontologias estratégicas para reconhecer páginas e extrair delas as possíveis informações úteis, comunicando-se e cooperando com os outros agentes. As "dicas quentes" sobre páginas e links, trocadas entre os agentes, normalmente contêm menos lixo do que os resultados às consultas dos mecanismos de buscas tradicionais (por exemplo, AltaVista e Excite). A arquitetura de agente apresenta várias formas de reuso: código, esquema da base de dados, conhecimento e serviços dos mecanismos de busca. Resultados promissores da recuperação e classificação funcional e de conteúdo foram obtidos para agentes que processam eventos e artigos científicos, empregando uma ontologia do domínio científico criada especificamente para este fim, sugerindo que a arquitetura é factível. Foram usados a linguagem Java, o motor de inferência Jess e o editor de ontologias Protégé, para a construção dos agentes.
134

Um ambiente genérico para a construção de bibliotecas digitais

Souza, Agnaldo Izidoro de January 2001 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. / Made available in DSpace on 2012-10-18T11:57:05Z (GMT). No. of bitstreams: 0Bitstream added on 2014-09-25T22:55:15Z : No. of bitstreams: 1 177274.pdf: 3506453 bytes, checksum: 23fe135f0ec8589dce6568280e69da2c (MD5) / Com a popularização de inúmeros meios digitais, tais como texto, imagem, som, vídeo, etc., e a grande tendência para a digitalização da informação, têm surgido mecanismos que armazenam e permitem acesso a um volume cada vez maior de informação multimídia. Sendo assim, esta dissertação elaborará um ambiente para construção de bibliotecas digitais para multimídia, provendo uma infra-estrutura e interfaces flexíveis, permitindo maior facilidade, integração e manutenção, atendendo assim os requisitos de incorporação e demanda das mídias. Neste contexto, o ambiente irá possibilita, dentre outras coisas, a captura, o armazenamento e a recuperação desses meios digitais, de uma maneira rápida e interativa, possibilitando também a manutenção de vários tipos de mídias, formatos, áreas, bibliotecas e conteúdo, tornando-o totalmente genérico para a construção de bibliotecas digitais, pois sua atualização e feita dinamicamente. Utilizando-se destes conceitos é possível fazer uma analogia com o termo, framework: que captura a funcionalidade comum a várias aplicações de um mesmo domínio de problema, que pode ser adaptado para resolver seus problemas específicos. Ao contrário das abordagens tradicionais para a reutilização de software que se limitam basicamente na construção de bibliotecas de classes, que permitem reutilizar não apenas componentes isolados mas toda a arquitetura de sistemas computacionais projetadas para um domínio específico. Por isto, toda esta aplicação está moldada visando o seu reuso, flexibilidade e extensibilidade, as quais permitem a construção de qualquer tipo de biblioteca com qualquer tipo de mídia. BUZATO & RUBICA(1998). Para tanto faz-se uso de mecanismos de integração Web e banco de dados, fazendo referência à arquitetura que roda no lado do Servidor Web. A escolha da aplicação para este estudo deve-se a sua representatividade no contexto atual das arquiteturas disponíveis no mercado e sua relevância no contexto do problema. Optou-se em implementar esta aplicação utilizando tecnologia proprietária da Microsoft, por ter uma maior ganho de integridade e desempenho, devido à tecnologia pertencer a uma mesma empresa.
135

Utilização de dicionários probabilísticos personalizados para decifrar arquivos em análises periciais / Use of custom probabilistic dictionaries to decipher files during a forensic analysis

Kuppens, Luciano Lima 31 January 2012 (has links)
Dissertação (mestrado)—Universidade de Brasília, Faculdade de Tecnologia, Departamento de Engenharia Elétrica, 2012. / Submitted by Albânia Cézar de Melo (albania@bce.unb.br) on 2012-05-10T15:38:13Z No. of bitstreams: 1 2012_LucianoLimaKuppens.pdf: 5066405 bytes, checksum: ab18cae97010a1dd52e0b70215687822 (MD5) / Approved for entry into archive by Marília Freitas(marilia@bce.unb.br) on 2012-05-11T14:38:03Z (GMT) No. of bitstreams: 1 2012_LucianoLimaKuppens.pdf: 5066405 bytes, checksum: ab18cae97010a1dd52e0b70215687822 (MD5) / Made available in DSpace on 2012-05-11T14:38:03Z (GMT). No. of bitstreams: 1 2012_LucianoLimaKuppens.pdf: 5066405 bytes, checksum: ab18cae97010a1dd52e0b70215687822 (MD5) / O objetivo do presente trabalho é determinar se senhas geradas com gramáticas probabilísticas especializadas são mais eficazes para decifrar arquivos que os métodos normalmente utilizados durante uma análise pericial. Foi realizado um extenso estudo sobre utilização de senhas e uma análise comparativa dos métodos existentes para recuperá-las. O resultado da análise de cinquenta mil senhas de usuários brasileiros foi apresentado. Com essas senhas, coletadas durante a elaboração desta obra, foi criada uma gramática probabilística especializada brasileira que se mostrou bastante eficaz em relação a outras técnicas de recuperação de senhas, como regras de alteração, cadeias de Markov e força bruta. Essa gramática recuperou senhas mais complexas e mais rapidamente que as outras técnicas. No total, utilizando todos os métodos, foram descobertas 85% das senhas do grupo de controle. Finalmente, para utilização prática durante análises periciais, foi proposto o uso de Dicionários Probabilísticos Personalizados criados a partir da gramática brasileira e de dados biográficos e palavras-chave do caso sendo analisado. ______________________________________________________________________________ ABSTRACT / The objective of this study is to determine whether passwords generated with specialized probabilistic grammars are more effective to decipher files than the methods typically used during a forensic analysis. We conducted an extensive study on the use of passwords and a comparative analysis of existing methods to retrieve them. The result of the analysis of fifty thousand Brazilian user passwords was presented. With these passwords, collected during the preparation of this work, a Brazilian specialized probabilistic grammar was created. It proved quite effective in relation to other password recovery techniques, such as mangling rules, Markov chains and brute force. This grammar recovered faster and more complex passwords than the other techniques. In total, using all methods, 85% of passwords in the control group were discovered. Finally, for real application during a forensic analysis, we proposed the use of Custom Probabilistic Dictionaries created from the Brazilian grammar, biographical data and the wordlist of the case under analysis.
136

Recuperação da informação na descrição de documentos fotográficos de arquivo e a possibilidade de uso de uma ontologia leve : estudo de caso DigifotoUnB

Nogueira, Rodrigo de Freitas 31 March 2017 (has links)
Dissertação (mestrado)—Universidade de Brasília, Faculdade de Ciência da Informação, Programa de Pós-Graduação em Ciência da Informação, 2017. / Submitted by Raiane Silva (raianesilva@bce.unb.br) on 2017-07-18T16:44:18Z No. of bitstreams: 1 2017_RodrigodeFreitasNogueira.pdf: 1623553 bytes, checksum: 844364b367aa9c3e74a830c77aa4711c (MD5) / Approved for entry into archive by Raquel Viana (raquelviana@bce.unb.br) on 2017-08-25T19:42:27Z (GMT) No. of bitstreams: 1 2017_RodrigodeFreitasNogueira.pdf: 1623553 bytes, checksum: 844364b367aa9c3e74a830c77aa4711c (MD5) / Made available in DSpace on 2017-08-25T19:42:27Z (GMT). No. of bitstreams: 1 2017_RodrigodeFreitasNogueira.pdf: 1623553 bytes, checksum: 844364b367aa9c3e74a830c77aa4711c (MD5) Previous issue date: 2017-08-25 / A presente pesquisa discutiu o problema da recuperação de documentos fotográficos nos arquivos, pois a análise do conteúdo informacional presente na imagem preterindo o contexto de produção tem trazido problemas para a recuperação da informação. Assim, o objetivo desta pesquisa é propor requisitos para o desenvolvimento de uma ontologia leve a partir de elementos de descrição que auxilie na recuperação de documentos fotográficos de arquivo. De modo específico, objetiva identificar elementos de descrição de documentos fotográficos de arquivo utilizados pelo sistema DigifotoUnB; explorando a descrição de documentos fotográficos de arquivo, para, em seguida, definir uma proposta para o desenvolvimento de uma ontologia leve. Dessa forma, a pesquisa se caracterizou como descritiva e utilizou-se do método de estudo de caso para analisar o sistema DigifotoUnB. Inserida na Ciência da Informação, buscou propor solução para o tratamento e gestão de informações orgânicas nos Arquivos, se utilizando de pesquisa bibliográfica, tabelas para análise, mapas conceituais e conceitos de ontologia como referenciais de pesquisa. Entre os resultados obtidos tem-se a validação de requisitos que permitem a aplicação dos conhecimentos de ontologia à gestão de documentos fotográficos de arquivo no sistema DigifotoUnB, tornando-se uma possibilidade de trabalho futuro o desenvolvimento de uma ontologia para melhorar a recuperação de documentos fotográficos no sistema DigifotoUnB. / The present study discussed the problem of the retrieval of photographic documents in the archives, because the analysis of the informational content present in the image disregarding the production context has brought problems for the information retrieval. Thus, the objective of this research is to propose requirements for the development of a light ontology from elements of description that aid in the retrieval of archival photographic documents. Specifically, it aims to identify elements of description of archival photographic documents used by the DigifotoUnB system; Exploring the description of photographic archival documents, to then define a proposal for the development of a lightweight ontology. Thus, the research was characterized as descriptive, and it was used the case study method to analyze the DigifotoUnB system. Inserted in Information Science, it sought to propose a solution for the processing and management of organic information in the Archives, if using bibliographical research, tables for analysis, conceptual maps and concepts of ontology as research references. Among the results obtained is the validation of premises that allow the application of the knowledge of ontology to the management of archival photographic documents in the DigifotoUnB system, enabling the development of an ontology to improve the retrieval of photographic documents in the Digifoto system as future work.
137

Ontologias no processo de indexação automática de documentos textuais /

Pansani Junior, Eder Antonio. January 2016 (has links)
Orientador: Edberto Ferneda / Banca: Mariângela Spotti Lopes Fujita / Banca: Elvis Fusco / Resumo: Apesar dos avanços tecnológicos das últimas décadas, a busca por informações relevantes ainda é uma tarefa árdua. A recuperação de informação envolve, por um lado, um acervo documental que deve ser representado por expressões linguísticas que resumem seu conteúdo temático. Por outro lado, pessoas tentam descrever linguisticamente as suas necessidades de informação a fim de obterem documentos relevantes para satisfazer tais necessidades. Um sistema de recuperação de informação é, portanto, um elemento mediador entre um acervo documental e seus requisitantes. Um dos aspectos que interferem diretamente na sua eficiência é a forma como os documentos são representados. Sendo assim, pesquisas sobre indexação automática tomam importância, principalmente em ambiente de grande produção e disseminação de documentos, como é o caso da Web. A utilização de vocabulários controlados como elementos de normalização terminológica é um recurso utilizado para melhorar os resultados do processo de indexação. Este trabalho tem por objetivo propor, avaliar e desenvolver um método de utilização de ontologias no processo de indexação automática de documentos textuais, fazendo uso da estrutura lógica e conceitual das ontologias de domínio e implementado um método que permite aos sistemas de indexação automática a realização de inferências automáticas, favorecendo uma representação dos documentos mais semântica e abrangente. Conclui-se com o estudo que a utilização das ontologias como vocabulários cont... (Resumo completo, clicar acesso eletrônico abaixo) / Abstract: Despite the technological advances of recent decades, the search for relevant information is still an arduous task. The information retrieval involves, on the one hand, a documentary collection that must be represented by linguistic expressions which summarize its thematic content. On the other hand, people try describing linguistically their information needs in order to obtain relevant documents to satisfy those needs. An information retrieval system is therefore a mediating element between a documentary collection and its requesters. One of the aspects that directly interferes in their efficiency is how documents are represented. Therefore, researches on automatic indexing take importance, particularly, in an environment of large production and dissemination of documents, as it's the case of the Web. The use of controlled vocabularies as terminology standardization elements is a feature used to improve the results of the indexing process. This study aims to propose, evaluate and develop a method for using ontologies in the automatic indexing process of textual documents, making use of logical and conceptual structure of domain ontologies and implementing a method that enables automatic indexing systems, an execution of automatic inferences, favoring a semantic and comprehensive documents representation. The study conclusion is that the use of ontologies as controlled vocabularies in automatic indexing systems can offer promising results, allowing the automatic discovery of... (Complete abstract click electronic access below) / Mestre
138

Proposta de critérios de qualidade para avaliação da informação em saúde recuperada nos sites brasileiros da world wide web

Lopes, Ilza Leite January 2006 (has links)
Submitted by Marcos Felipe Gonçalves Maia (felipehowards@gmail.com) on 2010-06-13T20:19:08Z No. of bitstreams: 1 2006 Ilza Leite de Azevedo Santos Lopes.pdf: 4100063 bytes, checksum: 6cfc30992aeb1f64cb464a4c2d00236e (MD5) / Approved for entry into archive by Lucila Saraiva(lucilasaraiva1@gmail.com) on 2010-06-18T16:47:16Z (GMT) No. of bitstreams: 1 2006 Ilza Leite de Azevedo Santos Lopes.pdf: 4100063 bytes, checksum: 6cfc30992aeb1f64cb464a4c2d00236e (MD5) / Made available in DSpace on 2010-06-18T16:47:16Z (GMT). No. of bitstreams: 1 2006 Ilza Leite de Azevedo Santos Lopes.pdf: 4100063 bytes, checksum: 6cfc30992aeb1f64cb464a4c2d00236e (MD5) Previous issue date: 2006 / Esta pesquisa teve como objetivo principal avaliar a qualidade do conteúdo da informação sobre hipercolesterolemia recuperada pelos mecanismos de busca gerais da Web, nos sites brasileiros, com base nos critérios de qualidade descritos na literatura especializada em Saúde. Focalizou os critérios e os indicadores de qualidade para a informação em Saúde definida pelo Health Information Technology Institute (HITI), com apoio da Agency for Health Care Policy and Research (AHCPR). Analisou os estudos publicados nas principais fontes de informação impressas e eletrônicas sobre qualidade da informação na Web. Selecionou e identificou os principais critérios de qualidade recomendados por unidades de informação, editores científicos, profissionais da área de Saúde, organismos internacionais e, de órgãos reguladores brasileiros. Coletou os dados sobre as condições de apresentação das páginas brasileiras da Web, segundo os critérios e indicadores de qualidade da informação em Saúde do HITI. Comparou os critérios e indicadores de qualidade do HITI com os resultados obtidos sobre o tema hipercolesterolemia nos mecanismos de busca: AltaVista, Cadê, Google e Yahoo Brasil. Mapeou a documentação coletada na pesquisa documental comparando os critérios e indicadores de qualidade recomendados pela literatura especializada com os do HITI. Identificou como padrão básico de critérios e indicadores de qualidade, os de credibilidade, de conteúdo e de apresentação da página. Elaborou uma proposta com os critérios e indicadores de qualidade da informação em Saúde na Web e, recomenda a criação de um selo de qualidade para páginas brasileiras na Web que pode ser desenvolvido e aplicado pelo órgão responsável pelo programa Sociedade da Informação, com o apoio de órgãos reguladores nacionais na área de Saúde, tais como: Conselho Federal de Medicina, de Enfermagem, de Biomedicina, de Nutrição, de Psicologia, de Educação Física, de Fonoaudiologia, de Fisioterapia, de Medicina Veterinária e as respectivas Associações profissionais de cada área de Saúde. _________________________________________________________________________________ ABSTRACT / This research had as main objective to evaluate the quality of the content of the information on hypercholesterolaemia retrieved by the general Web search engines of the Web, in the Brazilian websites, based in the quality approaches described in the literature specialized in Health. The information quality criteria and indicators defined by the Health Information Technology Institute (HITI), with support of Agency of Health Care Policy and Research (AHCPR) was focused. The studies published in the main sources of printed and electronic information about information quality in the Web was analyzed. The main quality criteria recommended by information units, scientific editors, health professionals, international organisms and Brazilian institutions that act as regulators, was selected and examined. The data about the conditions of presentation of the Brazilian websites, were collected according to the information quality criteria of the HITI. These were compared with the results of the websites obtained about hypercholesterolaemia in the search engines: AltaVista, Cadê, Google and Yahoo Brazil. The documentation collected in the documental research was mapped in order to compare the quality criteria and indicators recommended by the specialized literature with the one of HITI. Were identified as basic pattern of quality criteria and indicators, the one of credibility, of content and the website presentation. A proposal with the criteria and indicators of health information quality on the Web were recommended, as well as the creation of a quality stamp for Brazilian websites that can be developed and applied, for the institution responsible for Information Society in he country, with the support of other national regulators institutions in the area of Health, such as: Federal Council of Medicine, of Nursing, of Biomedical, of Nutrition, of Psychology, of Physical education, of Phonoaudiology, of Physiotherapy, of Veterinary Medicine and the respective professional Associations of each area of Health.
139

Personalização de serviços de informação oferecidos na web : estudo do Portal de Periódicos da CAPES

Souza, Katyusha Madureira Loures de 30 July 2010 (has links)
Dissertação (mestrado)—Universidade de Brasília, Faculdade de Ciência da Informação, Programa de Pós-Graduação em Ciência da Informação, 2010. / Submitted by Rafael Barcelos Santos (rafabarcelosdf@hotmail.com) on 2011-06-16T17:41:27Z No. of bitstreams: 1 2010_KatyushaMadureiraLouresDeSouza.pdf: 3707603 bytes, checksum: 9bf60d07790f4f66fab1bdfa08423130 (MD5) / Approved for entry into archive by Guilherme Lourenço Machado(gui.admin@gmail.com) on 2011-06-17T14:35:30Z (GMT) No. of bitstreams: 1 2010_KatyushaMadureiraLouresDeSouza.pdf: 3707603 bytes, checksum: 9bf60d07790f4f66fab1bdfa08423130 (MD5) / Made available in DSpace on 2011-06-17T14:35:30Z (GMT). No. of bitstreams: 1 2010_KatyushaMadureiraLouresDeSouza.pdf: 3707603 bytes, checksum: 9bf60d07790f4f66fab1bdfa08423130 (MD5) / A pesquisa teve como objetivo verificar nas bibliotecas das instituições de ensino superior federais participantes do Programa de Apoio à Aquisição de Periódicos (PAAP) da Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) o impacto das possibilidades de personalização na prestação dos serviços de informação oferecidos no Portal de Periódicos da CAPES pelos mediadores e helpdesks aos usuários finais do Portal nestas instituições. Foi analisada a versão 2009 do Portal de Periódicos com relação à conceituação vista na revisão de literatura sobre portais, o perfil dos mediadores e helpdesks, dos serviços prestados por estes profissionais e o impacto da personalização dos serviços oferecidos no Portal pelos mediadores desses serviços que atuam nas bibliotecas pesquisadas. A base metodológica utilizada foi a triangulação de técnicas: análise documental, entrevista estruturada por telefone com as helpdesks e questionário online encaminhado aos diretores de biblioteca das 55 instituições federais e às 13 helpdesks do Portal. Os diretores identificaram os profissionais mediadores dos serviços oferecidos pelo Portal nas suas instituições para responderem ao questionário online, que ficou disponível para preenchimento durante 20 dias. A literatura revisada abordou a temática da gestão da informação e do conhecimento, marketing da informação, estudos de usuários, portais e personalização de serviços de informação via web. Verificou-se que nas bibliotecas pesquisadas, os profissionais que atuam na mediação dos serviços de informação oferecidos no Portal prestam esses serviços aos usuários da instituição em meio a outras atividades desempenhadas geralmente na seção de referência das bibliotecas. A personalização dos serviços de informação oferecidos na versão 2009 do Portal de Periódicos demanda maior compreensão dos conceitos adotados em relação à personalização. O impacto sentido pelos mediadores e helpdesks do Portal de Periódicos nas bibliotecas pesquisadas foi relativo à nova postura crítica dos usuários finais do Portal, no sentido do questionamento sobre o uso da ferramenta de metabusca e a possibilidade de obterem as informações no Portal de forma personalizada e a sua contribuição, de modo geral para as pesquisas que forem realizadas. _______________________________________________________________________________ ABSTRACT / This research aims to verify in the libraries of federal institutes of higher education that participate of Programa de Apoio à Aquisição de Periódicos (PAAP) of Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) the impact from possibilities of personalization in service delivery of information offer in Portal de Periódicos da CAPES by mediators and helpdesks to final users of the Portal in this institutions. The research analyses the 2009 version of Portal about the conceptualization proposed in the literature about portals and gateway, evaluates the profile of mediators and helpdesks, the services provided by these professionals and the impact caused by 2009 version of the Portal by providing this service. The methodological basis used was a triangulation of techniques: documental analysis, structured interview with the helpdesks by telephone and an electronic survey which the link was forwarded by e-mail to 55 library directors of the selected federal institutions and 13 helpdesks of the Portal studied. This survey was available to fill over 20 days. The literature review was about information and knowledge management, information marketing, users’ studies, information services, portals and personalization of web information services. It was verified that in libraries studied the professionals acting as mediators of information services offered by Portal 2009 version have to carry out another activities in reference services in their libraries. The new Portal requires to increase understanding by mediators and helpdesks on the new concepts adopted and new services available related with personalization. The impact felt by mediators and helpdesks of Portal de Periódicos was the new final users´ attitude, being more critical about how the data are collected by metasearch tool and asking about possibilities of to find information services personalized by using the Portal and its general contribution for the researches they will be done.
140

Indexação automática no Brasil no âmbito da Ciência da Informação (1973-2012)

Lapa, Remi Correia 21 March 2014 (has links)
Submitted by Daniella Sodre (daniella.sodre@ufpe.br) on 2015-04-10T17:17:21Z No. of bitstreams: 2 DISSERTAÇÃO Remi Correia Lapa.pdf: 2223402 bytes, checksum: dd88f3139833477d6424239358425d0a (MD5) license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) / Made available in DSpace on 2015-04-10T17:17:21Z (GMT). No. of bitstreams: 2 DISSERTAÇÃO Remi Correia Lapa.pdf: 2223402 bytes, checksum: dd88f3139833477d6424239358425d0a (MD5) license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Previous issue date: 2014-03-21 / CAPES / Apresenta um panorama no âmbito da Ciência da Informação no Brasil referente aos estudos sobre a Indexação Automática por meio do mapeamento e análise da produção acadêmica e científica nacional no período de 1973 a 2012. Como objetivos específicos, procura coletar um corpus de análise e caracterizar as pesquisas analisadas quanto aos aspectos metodológicos e de conteúdo; realizar estudos de análise bibliométrica no corpus levantado, observando as publicações por autoria, instituições publicadoras, ano, fonte de publicação e instituições acadêmicas; realizar análise de conteúdo observando as publicações pelas categorias: objetivos e aspectos metodológicos. A metodologia consiste em um estudo bibliográfico aprofundado de caráter qualitativo e quantitativo sobre a produção literária no Brasil a respeito da indexação automática de textos escritos no idioma português. O corpus de análise para a realização das análises bibliométricas e de conteúdo, é composto de documentos na língua portuguesa, tais como: livros, artigos de periódicos científicos, anais publicados em congressos e seminários, e literaturas cinzentas. Os resultados bibliométricos mostram: a autora Fujita como maior produtora no tema; a revista Ciência da Informação como a que mais publicou sobre a indexação automática; a maior parte da produção se concentra no século XXI; o periódico como a fonte de informação mais utilizada pelos autores como meio de divulgação; a Universidade de Brasília como a instituição acadêmica que mais produziu trabalhos. Os resultados mais representativos da análise de conteúdo mostram que: 35% dos trabalhos realizaram revisão bibliográfica, em relação aos sistemas/métodos/fórmulas a maioria dos trabalhos de indexação automática, 23%, realizou aplicação e proposição, a proposição corresponde a 20%, e 21% realizaram aplicação; os sistemas como o objeto de estudo mais avaliado, e a comparação com a indexação manual como o método de avaliação mais usado; o texto completo como a natureza do corpus mais pesquisado; o trabalho científico como a tipologia do corpus mais estudada; a indexação semi-automática como procedimento mais aplicado na validação dos termos, sendo ultrapassada nos estudos dos últimos dez anos pela indexação automática; o processo de atribuição como o meio mais adotado para identificar os termos; o texto não estruturado como a entrada de dados preferida nos sistemas; a linguagem natural como a natureza da linguagem, os termos compostos como a natureza dos termos mais pesquisados; a análise estatística como o método de pesquisa mais utilizado na seleção dos termos. Este estudo propõe ser base de trabalhos futuros na aplicação dos métodos analisados ou na construção de novos métodos de indexação automática.

Page generated in 0.2576 seconds