Spelling suggestions: "subject:"recuperação dda informação"" "subject:"recuperação daa informação""
141 |
Integração de correio eletronico em um sistema de gerenciamento de informações digitaisTakahashi, Emerson Yoshio 18 April 2002 (has links)
Orientador: Rogerio Drummond / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-02T03:41:47Z (GMT). No. of bitstreams: 1
Takahashi_EmersonYoshio_M.pdf: 2761395 bytes, checksum: 5aeab20a1b3c8786b6ccf9d43b7fb7e2 (MD5)
Previous issue date: 2002 / Resumo: O sistema de correio eletrônico é uma das ferramentas mais utilizadas para troca de informações e seu uso vem se expandindo a taxas excepcionais. Segundo projeções da International Data Corporationl, no ano de 2005, o número de mensagens enviadas mundialmente num dia típico atingirá 35 bilhões. Um dos maiores problemas enfrentados atualmente por usuários de computadores em intranets é o gerenciamento do grande volume de dados gerado pelo correio eletrônico. As ferramentas de correio eletrônico existente geralmente são proprietárias, restritas a uma plataforma de hardware ou soflware e não são apropriadas para a tarefa de gerenciar as informações contidas nas mensagens. Este trabalho apresenta uma extensão a um sistema de gerenciamento de informações digitais, com o objetivo de resolver esse tipo de restrição através do controle sobre o acesso e a distribuição de mensagens de correio eletrônico / Abstract: The electronic mailing system is one of the most successful tools for information exchange. According to International Data Corporation, the number of emails sent in an average day is expected to hit 35 billion worldwide by 2005. Managing the amount of data generated by electronic mail is one of the biggest problems users face today. Most of electronic mail tools currently available are proprietary, hardware and software dependent and inadequate to manage ail information in messages. This work presents an extension to an electronic information management system that aims to solve that problem controlling the electronic mail messages access and sharing / Mestrado / Mestre em Ciência da Computação
|
142 |
Visualização de similaridades em bases de dados de música / Visualization of similarities in song data setsOno, Jorge Henrique Piazentin 30 June 2015 (has links)
Coleções de músicas estão amplamente disponíveis na internet e, graças ao crescimento na capacidade de armazenamento e velocidade de transmissão de dados, usuários podem ter acesso a uma quantidade quase ilimitada de composições. Isso levou a uma maior necessidade de organizar, recuperar e processar dados musicais de modo automático. Visualização de informação é uma área de pesquisa que possibilita a análise visual de grandes conjuntos de dados e, por isso, é uma ferramenta muito valiosa para a exploração de bibliotecas musicais. Nesta dissertação, metodologias para a construção de duas técnicas de visualização de bases de dados de música são propostas. A primeira, Grafo de Similaridades, permite a exploração da base de dados em termos de similaridades hierárquicas. A segunda, RadViz Concêntrico, representa os dados em termos de tarefas de classificação e permite que o usuário altere a visualização de acordo com seus interesses. Ambas as técnicas são capazes de revelar estruturas de interesse no conjunto de dados, facilitando o seu entendimento e exploração. / Music collections are widely available on the internet and, leveraged by the increasing storage and bandwidth capability, users can currently access a multitude of songs. This leads to a growing demand towards automated methods for organizing, retrieving and processing music data. Information visualization is a research area that allows the analysis of large data sets, thus, it is a valuable tool for the exploration of music libraries. In this thesis, methodologies for the development of two music visualization techniques are proposed. The first, Similarity Graph, enables the exploration of data sets in terms of hierarchical similarities. The second, Concentric RadViz, represents the data in terms of classification tasks and enables the user to alter the visualization according to his interests. Both techniques are able to reveal interesting structures in the data, favoring its understanding and exploration.
|
143 |
Análise da relevância semântica na seleção de atributos para a mineração de dadosAdriana da Silva Jacinto 13 November 2015 (has links)
A cada dia, mais dados podem ser armazenados e, portanto, analisados. Em cada conjunto de dados, a tendência é haver uma quantidade cada vez maior de atributos. A obtenção de modelos de mineração de dados, que revelem alguma informação importante, depende da seleção dos atributos mais relevantes, mas determinar a relevância de um atributo em certo contexto não é uma tarefa fácil. Por isso mesmo, apenas pela análise dos dados, em geral, os métodos de seleção de atributos falham em identificar atributos relevantes, incluem atributos irrelevantes e não reconhecem quando há atributos redundantes entre si. Por outro lado, quando se leva em conta o domínio de conhecimento de onde os dados foram coletados, a análise do significado de cada atributo pode indicar sua importância, contudo, isso pode não ser facilmente compreendido por alguém que não esteja familiarizado com o domínio considerado. De qualquer forma, na prática, a análise da semântica dos atributos é feita de forma manual, o que pode ocasionar enganos, custos e desperdício de tempo. Assim, partindo da hipótese de que a incorporação de semântica na atividade de seleção de atributos leva à escolha de atributos mais relevantes e à geração de modelos de mineração mais significativos, para a tarefa de classificação em mineração de dados, um modelo semântico estatístico que propicia a incorporação de semântica à seleção feita pelos métodos tradicionais foi definido. O modelo emprega ontologia, base linguística e recuperação de informação. Com base neste modelo e utilizando conjuntos de dados reais, procedeu-se a um estudo de caso, a partir do qual se pôde observar seleção de atributos mais relevantes.
|
144 |
Seleção de notícias online para inteligência competitiva: uso de ontologia de domínio do negócio para expansão semântica da busca na internet / Selection of online news for competitive intelligence: use of business domain ontology for internet search semantic query expansionDuranti, Cleber Marchetti 02 September 2013 (has links)
DURANTI, Cleber Marchetti. Seleção de notícias online para inteligência competitiva - Uso de ontologia de domínio do negócio para expansão semântica da busca na internet. São Paulo, 2013. Tese (Doutorado em Administração) - Departamento de Administração, Faculdade de Economia, Administração e Contabilidade da Universidade de São Paulo. A internet disponibiliza o acesso a notícias e informações em volume crescente a respeito do ambiente em que as empresas operam, e estas precisam se manter a par dos movimentos dos atores do seu mercado de atuação e dos temas pertinentes ao seu negócio para se manterem competitivas. O crescente volume de dados, porém, leva à sobrecarga de informações, quando o volume de informações disponíveis é maior que a capacidade de processamento dos usuários. Torna-se então necessário o desenvolvimento de métodos e ferramentas que ajudem a separar a informação potencialmente útil da informação irrelevante. Este trabalho apresenta o desenvolvimento de uma ferramenta que utiliza a modelagem da área de negócio na forma de uma ontologia como subsídio para formulação de melhores buscas na internet, através da expansão semântica interativa das palavras-chave utilizadas pelos usuários quando da busca num buscador comum da internet - ainda o método mais utilizado para coleta de informações da internet. Uma ontologia do domínio de negócio \"Outsourcing de TI\" e uma interface para uso dessa ontologia na expansão das buscas dentro deste domínio são desenvolvidos. O protótipo é testado por meio de simulações de buscas e testes por usuários da área de TI, com os quais é feito um levantamento de aceitação de tecnologia utilizando o modelo TAM-3 adaptado para a avaliação do protótipo. Os resultados do levantamento indicam uma boa aceitação da solução nos aspectos de utilidade, facilidade de uso e nas demais dimensões do modelo TAM3. / The internet provides access to news and information in increasing volume about the environment in which companies operate, and they need to keep up to date about the movements of the actors of their market and the topics relevant to their business in order to keep their competitiveness. The growing volume of data, however, leads to information overload, when the amount of information available is larger than the processing capacity of its users. It becomes necessary then to develop methods and tools that help separate potentially useful information from irrelevant information. This research presents the development of a tool that uses the modeling of the a business area in the form of an ontology as a support for the formulation of better internet searches through interactive semantic expansion of keywords used by users when searching in an usual internet search engine - still the most widely used method for collecting information from the internet. An ontology of the business domain \"IT outsourcing\" and an interface to use this ontology in the expansion of searches in this area are developed. The prototype is tested by simulations and test searches by IT users with whom a survey is done using the qualitative model TAM-3 adapted to evaluate the prototype. The survey results show good acceptance of the solution in the aspects of usefulness, easy of use and the other dimensions of the TAM3 model.
|
145 |
Métricas de análise de links e qualidade de conteúdo: um estudo de caso na Wikipédia / Link analysis metrics and content quality: a case of study in WikipediaHanada, Raíza Tamae Sarkis 26 February 2013 (has links)
Muitos links entre páginas na Web podem ser vistos como indicadores de qualidade e importância para as páginas que eles apontam. A partir desta ideia, vários estudos propuseram métricas baseadas na estrutura de links para inferir qualidade de conteúdo em páginas da web. Contudo, até onde sabemos, o único trabalho que examinou a correlação entre tais métricas e qualidade de conteúdo consistiu de um estudo limitado que deixou várias questões em aberto. Embora tais métricas sejam muito bem sucedidas na tarefa de ranquear páginas que foram fornecidas como respostas para consultas submetidas para máquinas de busca, não é possível determinar a contribuição específica de fatores como qualidade, popularidade e importância para os resultados. Esta dificuldade se deve em parte ao fato de que a informação sobre qualidade, popularidade e importância é difícil de obter para páginas da web em geral. Ao contrário de páginas da web, estas informações podem ser obtidas para artigos da Wikipédia, uma vez que qualidade e importância são avaliadas por especialistas humanos, enquanto a popularidade pode ser estimada com base nas visualizações dos artigos. Isso torna possível a verificação da relação existente entre estes fatores e métricas de análise de links, nosso objetivo neste trabalho. Para fazer isto, nós implementamos vários algoritmos de análise de links e comparamos os rankings obtidos com eles com os obtidos considerando a avaliação humana feita na Wikipédia com relação aos fatores qualidade, popularidade e importância. Nós observamos que métricas de análise de links são mais relacionadas com qualidade e popularidade que com importância e a correlação é moderada / Many links between Web pages can be viewed as indicative of the quality and importance of the pages pointed to. Accordingly, several studies have proposed metrics based on links to infer web page content quality. However, as far as we know, the only work that has examined the correlation between such metrics and content quality consisted of a limited study that left many open questions. In spite of these metrics having been shown successful in the task of ranking pages which were provided as answers to queries submitted to search machines, it is not possible to determine the specific contribution of factors such as quality, popularity, and importance to the results. This difficulty is partially due to the fact that such information is hard to obtain for Web pages in general. Unlike ordinary Web pages, the content quality of Wikipedia articles is evaluated by human experts, which makes it feasible to verify the relation between such link analysis metrics and the quality of Wikipedia articles, our goal in this work. To accomplish that, we implemented several link analysis algorithms and compared their resulting rankings with the ones created by human evaluators regarding factors such as quality, popularity and importance. We found that the metrics are more correlated to quality and popularity than to importance, and the correlation is moderate
|
146 |
Análise de atos normativos : o caso da Agência Nacional de Energia Elétrica – AneelMarins, Roberta Penha e Silva 16 February 2016 (has links)
Dissertação (mestrado)—Universidade de Brasília, Faculdade de Ciência da Informação, Programa de Pós-Graduação em Ciência da Informação, 2016. / Apresenta pesquisa sobre a análise dos atos normativos emanados pela Agência Nacional de Energia Elétrica – Aneel sob o ponto de vista do usuário da informação. O objetivo geral da pesquisa é comparar a estratégia de pesquisa que os servidores da Aneel utilizam no momento da busca de atos normativos por meio do sistema de busca da agência com os comportamentos de busca apresentados na literatura, a fim de elicitar convergências e demonstrar inconsistências na representação de conteúdo do ato normativo. A pesquisa teve como ponto de referência o trabalho realizado dentro do Centro de Documentação da Agência com o tratamento e representação de atos normativos e sua recuperação pelos servidores da agência e buscou insumos na literatura sobre análise documentária, informação jurídica, Sistemas de Recuperação de Informação e comportamento de busca do usuário de informação. Apresenta como método geral de pesquisa o Estudo de Caso descritivo e utilizou como como técnica de coleta de dados a observação e o protocolo verbal pensar alto. Os resultados demonstraram a dificuldade do usuário em recuperar os atos normativos e a constante comparação entre o sistema de busca utilizado na Aneel, o Sophia, com o buscador Google, que influencia o comportamento de busca dos usuários ao realizar as suas buscas no catálogo da biblioteca. / It presents research on the analysis of normative acts issued by the National Electric Energy Agency - NEEA from the point of view of user information. The overall objective of the research is to compare the search strategy that Aneel servers use at the time of search normative acts through the agency's search engine with search behavior in the literature in order to elicit convergences and demonstrate inconsistencies in the normative act content representation. The survey was to benchmark the work done within the Agency's Documentation Centre with treatment and representation of normative acts and their recovery by the agency's servers and sought inputs in literature on documentary analysis, legal information, Information Retrieval Systems and user search behavior information. Presents as a general method of research the study of descriptive case and used as data collection technique observation and verbal protocol thinking aloud. The results showed the user's difficulty in recovering the normative acts and the constant comparison between the search system used in Aneel, Sophia, with the Google search engine, which influences users' search behavior to make their search in the library catalog.
|
147 |
Lexicalização de ontologias : o relacionamento entre conteúdo e significado no contexto da recuperação da informaçãoSchiessl, Marcelo 16 April 2015 (has links)
Tese (doutorado)—Universidade de Brasília, Faculdade de Ciência da Informação, Programa de Pós-Graduação em Ciência da Informação, 2015. / Investiga as tecnologias da Web Semântica e as técnicas de Processamento de Linguagem Natural para a elaboração semiautomática de uma base léxico-ontológica, em Português, circunscrita ao domínio de risco financeiro que, incorporada ao modelo de recuperação da informação, visa melhorar a precisão. Identifica teorias, ferramentas e técnicas que propiciam a automatização de procedimentos que extraem elementos ontológicos e léxicos de bases estruturadas e não estruturadas. Esses elementos combinados na forma de base de dados apoiam a geração de índice léxico-semântico que fornece insumos para a proposição de modelo de recuperação da informação semântica. A metodologia adotada se apresenta em: levantamento de fundamentos teóricos e metodológicos, ferramentas e bases de dados ontológicas e textuais; construção de ontologia e base léxico-ontológica com foco no risco financeiro; elaboração de modelo de recuperação da informação semântica; avaliação do modelo realizada num corpus de informação relacionada ao risco financeiro que foi indexado nos moldes tradicionais e contemplando a informação semântica para, então, medir a precisão nas duas situações. Os resultados alcançados demonstram a utilização da metodologia, no domínio de risco financeiro em Português, para a elaboração da ontologia OntoRisco, da base léxico-semântica RiscoLex e da proposta de modelo de recuperação da informação semântica que mostrou resultados superiores aos modelos de recuperação da informação tradicionais, nos testes realizados. Conclui que os resultados satisfatórios mostram a aplicabilidade da proposta metodológica para o domínio em questão e aponta para a possibilidade de expandir a outros domínios com as devidas adaptações dos recursos utilizados. O estudo contribui para a área de representação e organização da informação e do conhecimento na medida em que fornece metodologia, aporte teórico e insumos para que profissionais continuem promovendo o desenvolvimento da Ciência da Informação. / This research investigates Semantic Web technologies, and Natural Language Processing techniques in order to semi automatically develop a lexicon-ontological database in Portuguese. This base is intended to improve the precision measurement in the financial risk domain by coupling it into an information retrieval model. It identi This research investigates Semantic Web technologies, and Natural Language Processing techniques in order to semi automatically develop a lexicon-ontological database in Portuguese. This base is intended to improve the precision measurement in the financial risk domain by coupling it into an information retrieval model. It identifies theories, tools and techniques that allow the automation of procedures that extract ontological and lexical elements from structured and non-structured databases. When these lexical and ontological elements are together in a database format, they give support to the generation of lexico-semantic index that can help the creation of semantic information retrieval models. The methodology used is as follows: surveys of methodological and theoretical fundamentals, tools, as well as ontological and textual databases; creation of an ontology and a lexicon-ontology base in the financial risk domain; elaboration of semantic information retrieval model; evaluation of the model using an information corpus related to financial risks – it was indexed by using traditional techniques, i.e. keywords, and also using semantic information; and then the precision of both situations was finally measured. The results achieved demonstrate the methodology used in the financial risk domain to elaborate the ontology, OntoRisco, using the lexico-semantic database, RiscoLex, and the semantic informational retrieval model proposed in this work. In the tests executed, the results were better than those presented by using traditional information retrieval models. It concludes that the results were quite satisfying since they show the applicability of the methodological proposal to the financial risk domain. In addition, it points the possibility of extending the proposal to other domains with only some adaptations.es theories, tools and techniques that allow the automation of procedures that extract ontological and lexical elements from structured and non-structured databases. When these lexical and ontological elements are together in a database format, they give support to the generation of lexico-semantic index that can help the creation of semantic information retrieval models. The methodology used is as follows: surveys of methodological and theoretical fundamentals, tools, as well as ontological and textual databases; creation of an ontology and a lexicon-ontology base in the financial risk domain; elaboration of semantic information retrieval model; evaluation of the model using an information corpus related to financial risks – it was indexed by using traditional techniques, i.e. keywords, and also using semantic information; and then the precision of both situations was finally measured. The results achieved demonstrate the methodology used in the financial risk domain to elaborate the ontology, OntoRisco, using the lexico-semantic database, RiscoLex, and the semantic informational retrieval model proposed in this work. In the tests executed, the results were better than those presented by using traditional information retrieval models. It concludes that the results were quite satisfying since they show the applicability of the methodological proposal to the financial risk domain. In addition, it points the possibility of extending the proposal to other domains with only some adaptations.
|
148 |
Automatic text summarization using pathfinder network scalingPatil, Kaustubh Raosaheb January 2007 (has links)
Contém uma errata / Tese de Mestrado. Inteligência Artificial e Sistemas Inteligentes. Faculdade de Engenharia. Universidade do Porto, Faculdade de Economia. Universidade do Porto. 2007
|
149 |
A representação temática nos sistemas de informação : um estudo comparativo entre biblioteca e supermercadoBezerra, Fabíola Maria Pereira January 2006 (has links)
Tese de mestrado. Gestão da Informação. 2006. Faculdade de Engenharia. Universidade do Porto, Departamento de Ciências e Técnicas do Património da Faculdade de Letras. Universidade do Porto
|
150 |
O uso de metodologias baseadas em fuzzy sets e rough sets na recuperação de informaçãoCorreia, Artur Jorge da Silva January 2004 (has links)
Dissertação apresentada par obtenção parcial do grau de Mestre em Gestão da Informação, na Faculdade de Engenharia da Universidade do Porto, sob a orientação dos Professores Doutores Maria Cristina de Carvalho Alves Ribeiro e Manuel António Cerqueira da Costa Matos
|
Page generated in 0.1063 seconds