• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 346
  • 27
  • 24
  • 24
  • 24
  • 24
  • 24
  • 21
  • 20
  • 5
  • 3
  • 2
  • 1
  • 1
  • Tagged with
  • 361
  • 361
  • 359
  • 81
  • 77
  • 71
  • 71
  • 64
  • 59
  • 58
  • 57
  • 51
  • 49
  • 35
  • 35
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Análise de atos normativos : o caso da Agência Nacional de Energia Elétrica – Aneel

Marins, Roberta Penha e Silva 16 February 2016 (has links)
Dissertação (mestrado)—Universidade de Brasília, Faculdade de Ciência da Informação, Programa de Pós-Graduação em Ciência da Informação, 2016. / Apresenta pesquisa sobre a análise dos atos normativos emanados pela Agência Nacional de Energia Elétrica – Aneel sob o ponto de vista do usuário da informação. O objetivo geral da pesquisa é comparar a estratégia de pesquisa que os servidores da Aneel utilizam no momento da busca de atos normativos por meio do sistema de busca da agência com os comportamentos de busca apresentados na literatura, a fim de elicitar convergências e demonstrar inconsistências na representação de conteúdo do ato normativo. A pesquisa teve como ponto de referência o trabalho realizado dentro do Centro de Documentação da Agência com o tratamento e representação de atos normativos e sua recuperação pelos servidores da agência e buscou insumos na literatura sobre análise documentária, informação jurídica, Sistemas de Recuperação de Informação e comportamento de busca do usuário de informação. Apresenta como método geral de pesquisa o Estudo de Caso descritivo e utilizou como como técnica de coleta de dados a observação e o protocolo verbal pensar alto. Os resultados demonstraram a dificuldade do usuário em recuperar os atos normativos e a constante comparação entre o sistema de busca utilizado na Aneel, o Sophia, com o buscador Google, que influencia o comportamento de busca dos usuários ao realizar as suas buscas no catálogo da biblioteca. / It presents research on the analysis of normative acts issued by the National Electric Energy Agency - NEEA from the point of view of user information. The overall objective of the research is to compare the search strategy that Aneel servers use at the time of search normative acts through the agency's search engine with search behavior in the literature in order to elicit convergences and demonstrate inconsistencies in the normative act content representation. The survey was to benchmark the work done within the Agency's Documentation Centre with treatment and representation of normative acts and their recovery by the agency's servers and sought inputs in literature on documentary analysis, legal information, Information Retrieval Systems and user search behavior information. Presents as a general method of research the study of descriptive case and used as data collection technique observation and verbal protocol thinking aloud. The results showed the user's difficulty in recovering the normative acts and the constant comparison between the search system used in Aneel, Sophia, with the Google search engine, which influences users' search behavior to make their search in the library catalog.
42

Recursos do processamento da língua natural aplicados na recuperação semântica de documentos de caso de uso

Silva Júnior, Custódio Gastão da January 2012 (has links)
Made available in DSpace on 2013-08-07T18:42:54Z (GMT). No. of bitstreams: 1 000442334-Texto+Completo-0.pdf: 1018335 bytes, checksum: c77dd540cf5f9308c80ab3c9f7da5374 (MD5) Previous issue date: 2012 / The Requirements Engineering basically deals with how to discover, analyze, register and verify the functions and restrictions that software must consider. In this process the designer not only concentrates in understanding the necessities, goals and certainties of the interested users but also in changing them into software devices. This process is known as development cycle and it is carried out until the software covers all the requirements of the involved users. This study describes how the resources of the natural language processing were used in the construction for a solution of semantics recovery of use case document and it also presents the reached findings. For the construction of the solution, it is specified a method that organizes the preparation and recovery works in two phases. The first describes the form how the corpus must be prepared and how the terms used in the preparation phase can be used in the definition of the keys concepts of the domain. The second phase explains how the document recovery is carried out and shows how the described relationships in the ontology are used to improve the results of the recovery. The presented findings reveal the described method in this study is efficient, since it presented a covering of 100% in both tests. Related of measure of precision, that presented an inferior result of 50%, it was compensated by the ranking algorithm that sorted the documents of similar form of the manual classification done by the users. / A engenharia de requisitos trata fundamentalmente de como descobrir, analisar, documentar e verificar as funções e restrições que um software deve contemplar. Neste processo o projetista se concentra em entender as necessidades, metas e convicções dos interessados e em como transformá-las em artefatos de software. Isso é conhecido como ciclo de desenvolvimento e é realizado até que o software atenda todos os requisitos dos interessados. Este trabalho descreve como os recursos do processamento da língua natural foram utilizados na construção de uma solução para recuperação semântica de documentos de caso de uso e apresenta os resultados alcançados. Para a construção da solução, foi especificado um método que organiza os trabalhos de preparação e recuperação em duas fases. A primeira descreve a forma como o corpus deve ser preparado e como os termos utilizados na preparação podem ser utilizados na definição das palavras-chave do domínio. A segunda fase explica como a recuperação de documentos é realizada, e mostra como os relacionamentos descritos na ontologia são utilizados para melhorar os resultados da recuperação. Os resultados apresentados mostram que o método descrito neste trabalho é promissor, visto que ele apresentou cobertura de 100% em ambos os testes. Quanto a medida de precisão, que apresentou resultado inferior a 50%, o resultado foi compensado pelo algoritmo de ranking que ordenou os documentos de forma similar a classificação manual feita pelos usuários.
43

Expansão de consultas com realimentação e pseudo realimentação de relevantes em um sistema que utiliza o modelo TR+ para indexar e recuperar documentos

Borges, Thyago Bohrer January 2009 (has links)
Made available in DSpace on 2013-08-07T18:43:05Z (GMT). No. of bitstreams: 1 000416994-Texto+Completo-0.pdf: 2345425 bytes, checksum: 75ba39cb209e96c61f3f88810380759c (MD5) Previous issue date: 2009 / This work presents and debates the results of applying query expansion techniques such as Pseudo Relevance Feedback (PRF) and Relevance Feedback (RF) in an Information Retrieval System (IRS) that uses the information retrieval model TR+. TR+ makes use of terms and Binary Lexical Relationships (BLR) that appear in texts and queries in order to index and retrieve textual documents in Portuguese. The application of the query expansion techniques PRR and RR aims to improve the results provided by the users' queries therefore the documents retrieved are able to fulfill their needs. PRR and RR differ with respect to the users' role: while relevance feedback makes use of the user judgment for defining which documents retrieved by the original query will provide the information for QE, PRF seeks to automate such decision processo The experimental results using PRF and RF did not outperform the baseline results (Gonzalez, 2005). When comparing both techniques, we have noticed PRF was outperformed by RF only once. In the context of this dissertation, we can conclude that the use of BLRs is a more productive option when compared to the use of terms for QE. / Este trabalho apresenta e discute os resultados obtidos com a aplicação das técnicas de expansão de consulta denominadas Pseudo Realimentação de Relevantes (PRR) e Realimentação de Relevantes (RR) em um Sistema de Recuperação de Informação (SRI) que utiliza o modelo de recuperação de informação denominado TR+. TR+ é um modelo de recuperação de informação que emprega, além de termos, Relações Lexicais Binárias (RLB) presentes nos textos e nas consultas, para indexar e recuperar documentos textuais em língua portuguesa. A aplicação das técnicas de expansão de consultas PRR e RR têm como objetivo melhorar os resultados obtidos pelo usuário que realiza uma consulta. As duas técnicas se diferenciam quanto à participação do usuário: enquanto a RR utiliza o julgamento do usuário na definição de quais documentos recuperados pela consulta original fornecerão as informações utilizadas na expansão da consulta, a PRR busca eliminar a participação do usuário durante este processo. Os resultados obtidos pelos experimentos, tanto utilizando PRR quanto RR, não superaram os resultados utilizados como baseline (Gonzalez, 2005). Ao compararmos entre si os resultados dos experimentos com as técnicas PRR e RR, os experimentos com PRR foram superados pela RR somente em uma rodada. No contexto dessa dissertação podemos concluir que a utilização de RLBs ao invés de usar somente termos, é uma opção mais producente.
44

Princípios para a construção de banco de dados de imagens médicas

Marchaukoski, Jeroniza Nunes 27 October 2010 (has links)
No description available.
45

Um modelo para gerenciamento de transações com controle de cache em um repositório chave-valor

Oliveira, Wendel Muniz de January 2017 (has links)
Orientadora : Profª. Drª. Carmem Satie Hara / Dissertação (mestrado) - Universidade Federal do Paraná, Setor de Ciências Exatas, Programa de Pós-Graduação em Informática. Defesa: Curitiba, 14/09/2017 / Inclui referências : p. 48-50 / Resumo: As estratégias mais comuns para alocação de dados em sistemas distribuídos são as tabelas de dispersão distribuídas (DHT) e os sistemas de diretórios distribuídos. As DHTs garantem escalabilidade, porém não dão às aplicações usuárias controle sobre a localidade dos dados. Por outro lado, os diretórios distribuídos mantêm o mapeamento entre os itens alocados e os servidores que compõem o sistema, o que garante flexibilidade de alocação, mas com escalabilidade limitada. Em um Sistema Gerenciador de Banco de Dados (SGBD), o controle sobre a localidade pode garantir a proximidade dos dados que são frequentemente acessados de forma conjunta nas consultas, com o intuito de reduzir acessos remotos que aumentam o tempo de execução. O ALOCS é um sistema desenvolvido sobre diretórios distribuídos que tem por finalidade ser utilizado como backend de armazenamento de um SGBD. Ele adota o conceito de buckets, compostos por um conjunto de pares chave-valor, como unidade de comunicação de dados entre servidores. Dessa forma, a aplicação usuária pode alocar em um mesmo bucket pares que são frequentemente utilizados em conjunto. Para minimizar ainda mais a quantidade de comunicação, o ALOCS mantém buckets previamente acessados em cache. A utilização de cache pode gerar problemas para a consistência dos dados quando vários servidores mantêm em cache buckets com dados atualizados. O objetivo desta dissertação é desenvolver uma solução para manter a consistência entre os dados atualizados em cache e o sistema de armazenamento distribuído. A solução é baseada no modelo de concorrência multiversão, com transações que garantem o isolamento por snapshot. Ele foi escolhido por sua abordagem otimista e por não bloquear transações somente de leitura. O sistema foi implementado e os experimentos mostram o impacto da alocação de dados sobre o desempenho do sistema, bem como o overhead do protocolo de controle de concorrência sobre o tempo de recuperação e escrita de dados. Os resultados demonstraram a importância do controle sobre a localidade dos dados. O uso do cache foi determinante para reduzir o tempo de execução das consultas. Palavras-chave: controle de concorrência, controle de localidade, cache. / Abstract: The most common strategies for data allocating in distributed systems are Distributed Hash Tables (DHT) and Distributed Directory Systems. DHTs guarantee scalability but do not allow control over data location to user applications. On the other hand, distributed directories store the location of data items, that is, a mapping between the stored data and servers that compose the system. This strategy guarantees flexibility of allocation but limits its scalability. In a Database Management Systems (DBMS), control over data locality can ensure the proximity of data that are frequently accessed together in queries in order to reduce the number of remote accesses that increase their execution time. ALOCS is a system developed on distributed directories to be used as a storage backend for DBMSs. It adopts the concept of buckets, composed by a set of key-value pairs, as the communication unit between servers. In this way, the user application can allocate pairs that are often used together in the same bucket. To further minimize the amount of communication, ALOCS maintains previously accessed buckets in cache. Caching can cause problems for data consistency when multiple servers cache buckets with updated data. The main objective of this dissertation is to develop a solution to maintain the consistency of the updated data in the cache and the storage system. The solution is based on a multiversion concurrency control with snapshot isolation. It has been chosen for its optimistic approach and non-blocking read-only transactions. The system was implemented and our experiments show the impact of data allocation on the system performance as well as the overhead of the concurrency control protocol on the data recovery and writing time. The results show the importance of allocation control on reducing the execution time of queries. Moreover, they show that caching is crucial to reduce the query execution time. Keywords: concurrency control, locality control, cache.
46

Proposta de uma ferramenta inteligente para gerenciamento da informação em grandes projetos de engenharia /

Gómez, Luis Alberto January 2000 (has links)
Tese (Doutorado) - Universidade Federal de Santa Catarina, Centro Tecnológico. / Made available in DSpace on 2012-10-17T18:56:41Z (GMT). No. of bitstreams: 0Bitstream added on 2014-09-25T19:31:47Z : No. of bitstreams: 1 151949.pdf: 3297160 bytes, checksum: 83f63510f0a8508e0f5711aa573ee9f5 (MD5) / Este trabalho analisa os aspectos ergonômicos e cognitivos do trabalho com informação. Através de definições de conceitos de informação e ergonômicos visa propor um sistema de informação adequado ao manuseio de informação em grandes projetos de engenharia. O sistema deve minimizar o stress dos engenheiros (fornecendo informação de qualidade, num tempo razoável para uma tomada de decisão mais eficiente e menos traumática) e otimizar o sistema de arquivamento e distribuição de documentos. O sistema de informação proposto está baseado num processo de data warehousing de metadatas de documentos (incluindo as suas imagens) com suporte à Internet.
47

Um sistema de relatórios gerenciais de apoio à decisão no ambiente do jogo de empresas GI-EPS

Gastaldi, Andréa January 2000 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. / Made available in DSpace on 2012-10-17T22:25:12Z (GMT). No. of bitstreams: 0Bitstream added on 2014-09-25T18:34:02Z : No. of bitstreams: 1 174266.pdf: 3439424 bytes, checksum: 6d31f8047f348bca7677848be282330a (MD5) / O objetivo deste trabalho foi desenvolver um sistema de relatórios gerenciais impressos que auxilie o processo de gestão das empresas. Inicialmente, foi realizada a revisão bibliográfica sobre jogos de empresa e o sistema empresa. Em seguida, desenvolveu-se o modelo de informações proposto para o GI-EPS. Este modelo é constituído por quatro relatórios gerenciais ( Metas e Políticas, Estratégico, Produção e Finanças ) que interagem entre si. Por fim, estes relatórios foram implementados no simulador do GI-EPS para que sejam utilizados pelo animador nas simulações em que forem necessários, por exemplo: nas aplicações em cursos de especialização e de stricto sensu fora da sede. Como resultado este autor buscou estruturar uma rotina eficaz, para a tomada de decisão no jogo de empresas GI-EPS.
48

Sistema de informação para suporte à gerência de falhas

Schönberger, Hans Manfred January 2000 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. / Made available in DSpace on 2012-10-17T22:28:04Z (GMT). No. of bitstreams: 0Bitstream added on 2014-09-25T16:11:34Z : No. of bitstreams: 1 176570.pdf: 9080603 bytes, checksum: 5cbc715f4a82b3d979920c6fa6cd4f83 (MD5) / Este trabalho consiste no desenvolvimento de um sistema de informação para suporte á gerência de falhas com o objetivo de padronizar os relatórios de alarmes emitidos pelas centrais telefônicas, atendendo ao padrão da recomendação [X.733] do ITU-T. Foi utilizado a tecnologia AXE-10 da Ericsson para o desenvolvimento deste trabalho. São apresentados os conceitos da TMN, os conceitos de supervisão de alarmes e a descrição da central AXE-10. Na descrição da central são apresentados os seus subsistemas, o formato dos alarmes emitidos pela central e as informações contidas nos alarmes.
49

Marketing em bibliotecas universitarias: evolução, transferencia de principios e estudo da aplicação no sistema integrado de bibliotecas da Universidade de São Paulo

Silveira, Amelia January 1989 (has links)
Tese (doutorado) - Universidade de São Paulo. Escola de Comunicação / Made available in DSpace on 2012-10-16T02:35:32Z (GMT). No. of bitstreams: 0
50

Sistema de gerenciamento de informações em laboratorio de calibração prestador de serviços: um modelo informatizado

Beckert, Sueli Fischer January 1997 (has links)
Dissertação (Mestrado) - Universidade Federal de Santa Catarina, Centro Tecnologico, Programa de Pós-Graduação em Engenharia de Produção, Florianópolis, 1997 / Made available in DSpace on 2012-10-17T00:30:34Z (GMT). No. of bitstreams: 1 108855.pdf: 5720658 bytes, checksum: 3282657422e5ca2227ebec3a659c2238 (MD5) / A competitividade tem exigido em todos os mercados o aumento da qualidade nos produtos e serviços oferecidos. Este fato também tem afetado os laboratórios de calibração, que estão sendo pressionados pelas empresas a oferecerem seus serviços com resultados de medição válidos, mas com preços e prazos minimizados. Diante desta realidade, este trabalho propõe um modelo de gerenciamento das informações geradas no laboratório, com o auxllio da informática, cujos os registros estão organizados para atender os critérios estabelecidos no documento ISO/IEC Guia 25, documento este elaborado especificamente para laboratórios de calibração (e de ensaio) que necessitam comprovar sua competência a organismos de credenciamento. Este modelo objetiva substituir controles manuais que aumentam significativamente os custos finais da calibração, diminuindo assim os tempos em atividades burocráticas necessárias. Referenciado no modelo apresentado, o Centro de Mecânica de Precisão de Joinville -CMPJ, está desenvolvendo um software de gerenciamento das informações para ser aplicado no seu laboratório de metrologia. Os módulos desenvolvidos estão listados no final deste trabalho.

Page generated in 0.1096 seconds