• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 444
  • 10
  • 10
  • 10
  • 10
  • 8
  • 6
  • 6
  • 6
  • 6
  • 6
  • 4
  • 3
  • 1
  • 1
  • Tagged with
  • 462
  • 430
  • 235
  • 188
  • 144
  • 124
  • 117
  • 79
  • 77
  • 61
  • 60
  • 52
  • 52
  • 51
  • 47
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
201

Projeto de um servidor de vídeo sob demanda paralelo e distribuído.

Lara, Carla Rodrigues Figueiredo 30 May 2003 (has links)
Made available in DSpace on 2016-06-02T19:05:14Z (GMT). No. of bitstreams: 1 DissCRFL.pdf: 648230 bytes, checksum: a343ed1fae316081651385f830f464fb (MD5) Previous issue date: 2003-05-30 / Financiadora de Estudos e Projetos / This work presents an architecture for the development of a Video on Demand (Vod) Server using a Parallel Distributed File System. In the development of this work several aspects related to the project of VoD Servers are considered, including: optimized storing and retrieval of videos using appropriate striping unit and request sizes, and the monitoring of disk and network operation for the performance evaluation of the proposed system. The characteristics of the MPEG standard used for video compression are also studied and considered in the video transfers. We also discuss aspects related to the implementation of prefetching mechanisms in the VoD Server. The concept of cluster computing is also considered for efficient data distribution aiming at appropriate response time for satisfying the Quality of Service (QoS) require by the VoD users. / Este trabalho apresenta uma arquitetura para o desenvolvimento de um Servidor de Vídeo Sob Demanda (VoD) utilizando um Sistema de Arquivos Paralelos Distribuídos. No desenvolvimento deste trabalho vários tópicos relacionados à construção de servidores de VoD são considerados, entre eles: armazenamento e recuperação otimizados dos vídeos através da determinação de tamanhos apropriados para a unidade de distribuição e requisições de leitura e a coleta de informações dos discos e da rede para avaliação de desempenho do sistema proposto. As características do padrão utilizado para compressão dos vídeos, o MPEG, são estudadas e consideradas. Também são apresentadas discussões de como devem ser implementados mecanismos de prefetching em servidores de VoD. O conceito de paralelismo em aglomerados de computadores é explorado para que a distribuição eficiente dos dados forneça um tempo de resposta adequado e condizente com as exigências de QoS impostas pelos usuários da aplicação de VoD.
202

Projeto do subsistema de comunicação e distribuição e da camada de serviços da arquitetura OpenReality para suporte à criação de aplicações de visualização distribuída

Baptista, Bruno do Amaral Dias 26 February 2004 (has links)
Made available in DSpace on 2016-06-02T19:05:35Z (GMT). No. of bitstreams: 1 2592.pdf: 1999742 bytes, checksum: 8e5aad7d487acff1acad9e2f0dff4dd9 (MD5) Previous issue date: 2004-02-26 / Financiadora de Estudos e Projetos / This work presents the information distribution model adopted within OpenReality architecture (OR), and the related issues of its structures integration. Distributed Visualization Applications can be created using OR framework, which permits redefinitions, specializations and customizations. During distributed visualization application development, it s possible to choose the communication protocol to be used and its parameters. The consistency and interactivity concepts and their behavior for each information distribution model are also discussed. Among the main used structures is JAMP Platform (Java Architecture for Media Processing), which was upgraded to support OR requirements. JNDS application domain framework and JAMP2C development tool were added to JAMP development package. In a general way, the contribution of this project is to offer a new method for creating distributed visualization applications. Besides, this work improves the maturity of JAMP Platform, which now has a new framework and a new development tool available. / Este trabalho apresenta o modelo de distribuição de informação adotado na arquitetura OpenReality (OR), bem como as questões envolvidas na integração das estruturas nela adotadas. Aplicações de Visualização Distribuída podem ser criadas a partir do uso do framework OR, que aceita redefinições, especializações e personalizações. Durante o desenvolvimento de uma aplicação de visualização distribuída, é possível a escolha do protocolo de comunicação a ser utilizado, bem como suas parametrizações. Os conceitos de consistência e de interatividade e seus comportamentos diante de cada modelo de distribuição de informação também são discutidos. Entre as principais estruturas utilizadas, encontra-se a Plataforma JAMP, que sofreu significativas expansões para suportar os requisitos impostos pela arquitetura OR. O framework de domínio de aplicação JNDS e a ferramenta de auxílio ao desenvolvimento JAMP2C foram adicionados ao pacote que compõe a JAMP. De maneira geral, a contribuição do projeto do Subsistema de Comunicação e Distribuição e da Camada de Serviços da arquitetura OR é a disponibilização de um novo mecanismo para a criação de aplicações de visualização distribuída. Além disso, este trabalho avança mais um passo no processo de amadurecimento da Plataforma JAMP, que passa a contar com mais um framework e uma ferramenta para auxílio no desenvolvimento de suas aplicações.
203

SIAF : um sistema de informação, a ser integrado num ambiente de computação ubíqua, para gerenciamento de atividade física

Portocarrero, Jesús Martín Talavera 26 June 2010 (has links)
Made available in DSpace on 2016-06-02T19:05:44Z (GMT). No. of bitstreams: 1 3139.pdf: 4590141 bytes, checksum: a1916e57f73f3894700aa727d7de0be1 (MD5) Previous issue date: 2010-06-26 / Universidade Federal de Sao Carlos / The World Health Organization (WHO) recommends performing regular physical activities as a way to combat the population inactivity. In São Carlos-SP municipality such activities are promoted by the health units and generate a large amount of data that needs processing. The aim of this work are to develop and evaluate an information system for managing physical activity data of the population enrolled to the São Carlos-SP health units, allowing for the generation of health and performance indicators, which will support the planning of public policies for the promotion of physical activity. Qualitative researches and field observations were conducted in order to capture the system requirements, and quantitative researches were done for its evaluation. This system was developed in Java using the Netbeans IDE 6.7.1. tool, and has interfaces that allow the management of the health units, physical activity groups, physical activity sessions, participants, and the caregivers responsible for these groups. For evaluating the system interfaces and usability, SAM questionnaires were applied to caregivers, with the following results: 84.44% for Satisfaction, 78.89% for Motivation, and 92.22% for Control Sense. For evaluating other system characteristics, a QUIS based questionnaire was applied to these same caregivers, with the following results in a 1-5 scale: 4.0 for Ease of Use, and 4.6 for Utility. This system has proved to be useful and easy to use, and its main contribution is to support the WHO recommendation for the practice of regular physical activity, since it provides the computational means for the effectiveness evaluation of physical activity groups of the São Carlos-SP health units. / A Organização Mundial de Saúde (OMS) recomenda a realização regular de atividades físicas como forma de combate ao sedentarismo na população. No município de São Carlos-SP tais atividades são promovidas pelas unidades de saúde e geram uma grande quantidade de dados que necessitam de processamento. Neste sentido, o objetivo deste trabalho foi desenvolver e avaliar um sistema de informação para o gerenciamento de dados de atividade física da população adstrita às unidades de saúde de São Carlos-SP, possibilitando a geração de indicadores de saúde e desempenho, os quais suportarão o planejamento de políticas públicas para a promoção de atividade física. Para tal, foram realizadas pesquisas qualitativas e observações em campo para capturar os requisitos do sistema e pesquisas quantitativas para a avaliação do mesmo. Esse sistema foi desenvolvido em Java com auxílio da ferramenta IDE Netbeans 6.7.1. e possui interfaces que permitem o gerenciamento das unidades de saúde, dos grupos de atividades física, das sessões de atividade física, dos participantes e dos profissionais de saúde responsáveis por esses grupos. Para avaliar as interfaces e a usabilidade desse sistema, foram aplicados questionários SAM em profissionais de saúde, obtendo-se os seguintes resultados: 84.44% de Satisfação, 78.89% de Motivação e 92.22% de Sentimento de Controle. Para avaliar outras características desse sistema foi aplicado, a esses mesmos profissionais, um questionário baseado no modelo QUIS, obtendo-se, numa escala de 1 a 5, os seguintes resultados: 4,0 para a Facilidade de Uso e 4,6 para a Utilidade. Esse sistema demonstrou ser útil e de fácil uso, sendo que a sua principal contribuição reside no apoio à recomendação da OMS quanto à prática regular de atividade física, na medida em que provê o suporte computacional para a avaliação da efetividade de grupos de atividade física das unidades de saúde de São Carlos-SP.
204

Paralelização da ferramenta de alinhamento de sequências MUSCLE para um ambiente distribuído

Marucci, Evandro Augusto [UNESP] 11 February 2009 (has links) (PDF)
Made available in DSpace on 2014-06-11T19:24:01Z (GMT). No. of bitstreams: 0 Previous issue date: 2009-02-11Bitstream added on 2014-06-13T19:51:06Z : No. of bitstreams: 1 marucci_ea_me_sjrp.pdf: 2105093 bytes, checksum: 5b417abdc99cd4c7f9807768af1ab956 (MD5) / Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP) / Devido a crescente quantidade de dados genômicos para comparação, a computação paralela está se tornando cada vez mais necessária para realizar uma das operaçoes mais importantes da bioinformática, o alinhamento múltiplo de sequências. Atualmente, muitas ferramentas computacionais são utilizadas para resolver alinhamentos e o uso da computação paralela está se tornando cada vez mais generalizado. Entretanto, embora diferentes algoritmos paralelos tenham sido desenvolvidos para suportar as pesquisas genômicas, muitos deles não consideram aspectos fundamentais da computação paralela. O MUSCLE [1] e uma ferramenta que realiza o alinhamento m ultiplo de sequências com um bom desempenho computacional e resultados biológicos signi cativamente precisos [2]. Embora os m etodos utilizados por ele apresentem diferentes versões paralelas propostas na literatura, apenas uma versão paralela do MUSCLE foi proposta [3]. Essa versão, entretanto, foi desenvolvida para sistemas de mem oria compartilhada. O desenvolvimento de uma versão paralela do MUSCLE para sistemas distribu dos e importante dado o grande uso desses sistemas em laboratórios de pesquisa genômica. Esta paralelização e o foco deste trabalho e ela foi realizada utilizando-se abordagens paralelas existentes e criando-se novas abordagens. Como resultado, diferentes estratégias paralelas foram propostas. Estas estratégias podem ser incorporadas a outras ferramentas de alinhamento que utilizam, em determinadas etapas, a mesma abordagem seq uencial. Em cada método paralelizado, considerou-se principalmente a e ciência, a escalabilidade e a capacidade de atender problemas reais da biologia. Os testes realizados mostram que, para cada etapa paralela, ao menos uma estratégia de nida atende bem todos esses crit erios. Al em deste trabalho realizar um paralelismo in edito, ao viabilizar a execução da ferramenta MUSCLE em... / Due to increasing amount of genetic data for comparison, parallel computing is becoming increasingly necessary to perform one of the most important operations in bioinformatics, the multiple sequence alignments. Nowadays, many software tools are used to solve sequence alignments and the use of parallel computing is becoming more and more widespread. However, although di erent parallel algorithms were developed to support genetic researches, many of them do not consider fundamental aspects of parallel computing. The MUSCLE [1] is a tool that performs multiple sequence alignments with good computational performance and biological results signi cantly precise [2]. Although the methods used by them have di erent parallel versions proposed in the literature, only one parallel version of the MUSCLE tool was proposed [3]. This version, however, was developed for shared memory systems. The development of a parallel MUSCLE tool for distributed systems is important given the wide use of such systems in laboratories of genomic researches. This parallelization is the aim of this work and it was done using existing parallel approaches and creating new approaches. Consequently, di erent parallel strategies have been proposed. These strategies can be incorporated into other alignment tools that use, in a given stage, the same sequential approach. In each parallel method, we considered mainly the e ciency, scalability and ability to meet real biological problems. The tests show that, for each parallel step, at least one de ned strategy meets all these criteria. In addition to the new MUSCLE parallelization, enabling it execute in a distributed systems, the results show that the de ned strategies have a better performance than the existing strategies.
205

Monotonicidade de zeros de polinômios ortogonais clássicos /

Bender, Cristiane. January 2013 (has links)
Orientador: Fernando Rodrigo Rafaeli / Banca: Vanessa Avansini Botta Pirani / Banca: Vanessa Gonçalves Paschoa Ferraz / Resumo: Este trabalho apresenta um estudo sobre a monotonicidade de zeros de polinômios ortogonais clássicos de variável contínua e de variável discreta em relação aos seus parâmetros. São também apresentados limitantes para os zeros de alguns destes polinômios / Abstract: This work presents a study about the monotonicity of zeros of classical orthogonal polynomials of continuous and discrete variable with respect to its parameters. It is also given bounds for the zeros of some of these polynomials / Mestre
206

Um algoritmo de diagnóstico distribuído para redes particionáveis de topologia arbitrária

Weber, Andrea 2010 October 1914 (has links)
Este trabalho apresenta um novo algoritmo de diagnóstico distribuído em nível de sistema, Distributed Network Reachability (DNR). O algoritmo permite que cada nodo de uma rede particionável de topologia arbitrária determine quais porções da rede estão alcançáveis e inalcançáveis. DNR é o primeiro algoritmo de diagnóstico distribuído que permite a ocorrência de eventos dinâmicos de falha e recuperação de nodos e enlaces, inclusive com partições e healings da rede. O estado diagnosticado de um nodo é ou sem-falha ou inatingível; o estado diagnosticado de um enlace é ou sem-falha ou não-respondendo ou inatingível. O algoritmo consiste de três fases: teste, disseminação e cálculo de alcançabilidade. Durante a fase de testes cada enlace é testado por um de seus nodos adjacentes em intervalos de teste alternados. Após a detecção de um novo evento, o testador inicia a fase de disseminação, na qual a nova informação de diagnóstico é transmitida para os nodos alcançáveis. A cada vez que um novo evento é detectado ou informado, a terceira fase é executada, na qual um algoritmo de conectividade em grafos é empregado para calcular a alcançabilidade da rede. O algoritmo DNR utiliza o número mínimo de testes por enlace por rodada de testes e tem a menor latência possível de diagnóstico, assegurada pela disseminação paralela de eventos. A correção do algoritmo é provada formalmente. Uma prova de correção no arcabouço bounded correctness também foi elaborada, incluindo latência delimitada de diagnóstico, latência delimitada de inicialização e acuidade. Um simulador do algoritmo foi implementado. Experimentos foram executados em diversas topologias incluindo grafos aleatórios (k-vertex connected e Power-Law) bem como grafos regulares (meshes e hipercubos). Extensivos resultados de simulação de eventos dinâmicos de falha e recuperação em nodos e enlaces são apresentados. / This thesis introduces the new Distributed Network Reachability (DNR) algorithm, a distributed system-level diagnosis algorithm that allows every node of a partitionable general topology network to determine which portions of the network are reachable and unreachable. DNR is the first distributed diagnosis algorithm that works in the presence of network partitions and healings caused by dynamic fault and repair events. A node is diagnosed as either working or unreachable and a link is diagnosed either as working or unresponsive or unreachable. The algorithm is formally specified and consists of three phases: test, dissemination, and reachability computation. During the testing phase each link is tested by one of the adjacent nodes at alternating testing intervals. Upon the detection of a new event, the tester starts the dissemination phase, in which the new diagnostic information is received by every reachable node in the network. New events can occur before the dissemination completes. After a new event is detected or informed, a working node runs the third phase, in which a graph connectivity algorithm is employed to compute the network reachability. The algorithm employs the optimal number of tests per link per testing interval and the best possible diagnosis latency, assured by the parallel dissemination of event information. The correctness of the algorithm is proved, including the bounded diagnostic latency, bounded start-up and accuracy. Experimental results obtained from simulation are presented. Simulated topologies include random graphs (k-vertex connected and Power-Law) as well as regular graphs (meshes and hypercubes). Extensive simulation results of dynamic fault and repair events on nodes and links are presented.
207

Um algoritmo de diagnóstico distribuído para redes particionáveis de topologia arbitrária

Weber, Andrea 2010 October 1914 (has links)
Este trabalho apresenta um novo algoritmo de diagnóstico distribuído em nível de sistema, Distributed Network Reachability (DNR). O algoritmo permite que cada nodo de uma rede particionável de topologia arbitrária determine quais porções da rede estão alcançáveis e inalcançáveis. DNR é o primeiro algoritmo de diagnóstico distribuído que permite a ocorrência de eventos dinâmicos de falha e recuperação de nodos e enlaces, inclusive com partições e healings da rede. O estado diagnosticado de um nodo é ou sem-falha ou inatingível; o estado diagnosticado de um enlace é ou sem-falha ou não-respondendo ou inatingível. O algoritmo consiste de três fases: teste, disseminação e cálculo de alcançabilidade. Durante a fase de testes cada enlace é testado por um de seus nodos adjacentes em intervalos de teste alternados. Após a detecção de um novo evento, o testador inicia a fase de disseminação, na qual a nova informação de diagnóstico é transmitida para os nodos alcançáveis. A cada vez que um novo evento é detectado ou informado, a terceira fase é executada, na qual um algoritmo de conectividade em grafos é empregado para calcular a alcançabilidade da rede. O algoritmo DNR utiliza o número mínimo de testes por enlace por rodada de testes e tem a menor latência possível de diagnóstico, assegurada pela disseminação paralela de eventos. A correção do algoritmo é provada formalmente. Uma prova de correção no arcabouço bounded correctness também foi elaborada, incluindo latência delimitada de diagnóstico, latência delimitada de inicialização e acuidade. Um simulador do algoritmo foi implementado. Experimentos foram executados em diversas topologias incluindo grafos aleatórios (k-vertex connected e Power-Law) bem como grafos regulares (meshes e hipercubos). Extensivos resultados de simulação de eventos dinâmicos de falha e recuperação em nodos e enlaces são apresentados. / This thesis introduces the new Distributed Network Reachability (DNR) algorithm, a distributed system-level diagnosis algorithm that allows every node of a partitionable general topology network to determine which portions of the network are reachable and unreachable. DNR is the first distributed diagnosis algorithm that works in the presence of network partitions and healings caused by dynamic fault and repair events. A node is diagnosed as either working or unreachable and a link is diagnosed either as working or unresponsive or unreachable. The algorithm is formally specified and consists of three phases: test, dissemination, and reachability computation. During the testing phase each link is tested by one of the adjacent nodes at alternating testing intervals. Upon the detection of a new event, the tester starts the dissemination phase, in which the new diagnostic information is received by every reachable node in the network. New events can occur before the dissemination completes. After a new event is detected or informed, a working node runs the third phase, in which a graph connectivity algorithm is employed to compute the network reachability. The algorithm employs the optimal number of tests per link per testing interval and the best possible diagnosis latency, assured by the parallel dissemination of event information. The correctness of the algorithm is proved, including the bounded diagnostic latency, bounded start-up and accuracy. Experimental results obtained from simulation are presented. Simulated topologies include random graphs (k-vertex connected and Power-Law) as well as regular graphs (meshes and hypercubes). Extensive simulation results of dynamic fault and repair events on nodes and links are presented.
208

Avaliação de redes de próxima geração para serviços IPTV com base em IMS e WIMAX : um estudo de caso / Evaluation of next generation networks to IPTV services based on IMS and WiMAX : a case study

Carozza, Marcos Paulo 27 September 2011 (has links)
Dissertação (mestrado)—Universidade de Brasília, Faculdade de Tecnologia, Departamento de Engenharia Elétrica, 2011. / Submitted by Alaíde Gonçalves dos Santos (alaide@unb.br) on 2012-03-20T14:26:28Z No. of bitstreams: 1 2011_MarcosPauloCarozza.pdf: 8293754 bytes, checksum: a99fbb97d22c21b43bbd8653ecfe7942 (MD5) / Approved for entry into archive by Guimaraes Jacqueline(jacqueline.guimaraes@bce.unb.br) on 2012-03-21T10:43:01Z (GMT) No. of bitstreams: 1 2011_MarcosPauloCarozza.pdf: 8293754 bytes, checksum: a99fbb97d22c21b43bbd8653ecfe7942 (MD5) / Made available in DSpace on 2012-03-21T10:43:01Z (GMT). No. of bitstreams: 1 2011_MarcosPauloCarozza.pdf: 8293754 bytes, checksum: a99fbb97d22c21b43bbd8653ecfe7942 (MD5) / O IPTV (Internet Protocol Television) é uma tecnologia que vem sendo desenvolvida nos últimos anos e está ganhando reconhecimento no cenário mundial como uma alternativa viável à oferta de conteúdos audiovisuais pelas prestadoras de serviços de telecomunicações. A arquitetura IMS (IP Multimedia Subsystem) é uma estrutura desenvolvida para a distribuição de serviços multimídias baseados no protocolo IP e o elemento chave para a convergência fixo-móvel das redes de próxima geração. Além disso, o WiMAX (Worldwide Interoperability for Microwave Access) é uma das principais tecnologias de redes sem fios que fornecem acesso em banda larga, tanto para terminais fixos como para terminais móveis, em uma ampla área geográfica. Esta dissertação busca avaliar as possibilidades e limitações relativas à prestação de serviços IPTV baseados na integração da arquitetura IMS com a rede de acesso sem fio em banda larga WiMAX. Para esse fim, é considerada uma arquitetura de integração e utilizada a ferramenta de simulação OPNET® Modeler, permitindo avaliar aspectos de qualidade de serviço (QoS, Quality of Service) como atraso, perda de pacotes, jitter e vazão (throughput). Os resultados obtidos em nossas simulações são comparados com a Recomendação ITU-T Y.1541, da União Internacional de Telecomunicações, que trata das métricas objetivas de rede para os serviços baseados no protocolo IP. Desta forma, o trabalho procura contribuir com a análise de fatores que motivarão a adoção, ou não, das redes de acesso WiMAX para a prestação de serviços IPTV baseados em arquiteturas IMS. ______________________________________________________________________________ ABSTRACT / IPTV (Internet Protocol Television) is a technology that has been developed over the last years and is gaining recognition worldwide as a viable alternative to offer audiovisual contents by telecommunications operators. IMS (IP Multimedia Subsystem) architecture is a framework developed to deliver IP-based multimedia services and the key to fixed-mobile convergence of next generation networks. Moreover, WiMAX (Worldwide Interoperability for Microwave Access) is one of the main wireless access networks technologies that provide broadband access to both fixed and mobile terminals in a wide geographic area. This work aims to evaluate possibilities and limitations related to IPTV services based on the integration between IMS architecture and WiMAX wireless broadband access network. To this end, an integration architecture is considered and the OPNET® Modeler simulation tool is used, allowing to evaluate aspects of quality of service (QoS) such as delay, packet loss, jitter and throughput. The results obtained in our simulations are compared with the Recommendation ITU-T Y.1541 of International Telecommunication Union, which addresses the network performance objectives for IP-based services. Thus, the work aims to contribute to the analysis of factors that will motivate or not the adoption of WiMAX access network technology to support IPTV services based on IMS architectures.
209

Projeto e desenvolvimento de uma ferramenta de baixa intrusão para administração e gerência de aglomerados de computadores / Project and developing of tools with low intrusion for administration and manage of agglomerate\'s computers

Leonardo Marcus Ribeiro da Silva 22 February 2006 (has links)
Este trabalho apresenta uma ferramenta denominada FAGAC que se destina à administração e gerência de aglomerados de computadores, através de uma interface Web. A ferramenta tem a característica de ser pouco intrusiva no ambiente, ou seja, consumir poucos recursos computacionais a fim de não causar atrasos na execução dos serviços e processos do sistema. Inclui também funcionalidades que geram informações para o cliente ou administrador do sistema, a respeito do estado de ocupação de memória e de CPU, monitoramento do estado da carga de cada computador, tráfego gerado na rede, espaços em disco, informações de hardware e configurações do sistema. A validação da ferramenta foi feita por meio de experimentos comparativos das cinco principais funcionalidades comuns entre o FAGAC e o Ganglia, mostrando melhores resultados nas cinco funcionalidades, e que FAGAC é menos intrusivo que o Ganglia. / This research presents a tool named FAGAC for cluster management and administration of agglomerated of computers, through a web interface. This tool has the characteristic of being little intrusive in the environment, what means that it should consume a little computational resource in order to not delay the services and processes in execution at the system. The tool has functions to inform the customer or system administrator about the status of memory and CPU occupation, monitorating the load of each computer, the traffic generated in the net, disk space, hardware informations and configurations of the system. It was validated by comparing the results of the experiments from the main similar functions between FAGAC and Ganglia, showing best results for five functions tested, and that FAGAC is less intrusive than Ganglia.
210

Arquitetura e implementação de um sistema distribuído e recuperação de informação / Architecture and implementation of a distributed information retrieval system

Luiz Daniel Creao Augusto 09 June 2010 (has links)
A busca por documentos relevantes ao usuário é um problema que se torna mais custoso conforme as bases de conhecimento crescem em seu ritmo acelerado. Este problema passou a resolvido por sistemas distribuídos, devido a sua escalabilidade e tolerância a falhas. O desenvolvimento de sistemas voltados a estas enormes bases de conhecimento -- e a maior de todas, a Internet -- é uma indústria que movimenta bilhões de dólares por ano no mundo inteiro e criou gigantes. Neste trabalho, são apresentadas e discutidas estruturas de dados e arquiteturas distribuídas que tratem o problema de indexar e buscar grandes coleções de documentos em sistemas distribuídos, alcançando grande desempenho e escalabilidade. Serão também discutidos alguns dos grandes sistemas de busca da atualidade, como o Google e o Apache Solr, além do planejamento de uma grande aplicação com protótipo em desenvolvimento. Um projeto próprio de sistema de busca distribuído foi implementado, baseado no Lucene, com idéias coletadas noutros trabalhos e outras novas. Em nossos experimentos, o sistema distribuído desenvolvido neste trabalho superou o Apache Solr com um vazão 37,4\\% superior e mostrou números muito superiores a soluções não-distribuídas em hardware de custo muito superior ao nosso cluster. / The search for relevant documents for the final user is a problem that becomes more expensive as the databases grown faster. The solution was brought by distributed systems, because of its scalability and fail tolerance. The development of systems focused on enormous databases -- including the World Wide Web -- is an industry that involves billions of dollars in the world and had created giants. In this work, will be presented and discussed data structures and distributed architectures related to the indexes and searching in great document collections in distributed systems, reaching high performance and scalability. We will also discuss some of the biggest search engines, such as Google e Apache Solr, and the planning of an application with a developing prototype. At last, a new project of a distributed searching system will be presented and implemented, based on Lucene, with ideas from other works and new ideas of our own. On our tests, the system developed in this work had throughput 37.4\\% higher than Apache Solr and revealed higher performance than non-distributed solutions in a hardware more expensive than our cluster.

Page generated in 0.0664 seconds