Spelling suggestions: "subject:"cistemas distribuídos"" "subject:"cistemas distribuídose""
121 |
Escalonamento de tarefas em sistemas distribuídos baseado no conceito de propriedade distribuídaFalavinha Junior, José Nelson [UNESP] 25 May 2009 (has links) (PDF)
Made available in DSpace on 2014-06-11T19:30:50Z (GMT). No. of bitstreams: 0
Previous issue date: 2009-05-25Bitstream added on 2014-06-13T21:01:23Z : No. of bitstreams: 1
falavinhajunior_jn_dr_ilha.pdf: 3487083 bytes, checksum: 5eeeb56b23091b46b46acaafba4babe4 (MD5) / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) / Em sistemas distribuídos de larga escala; onde os recursos compartilhados são de propriedade de entidades distintas; existe a necessidade de refletir o fator propriedade dos recursos no processo de escalonamento de tarefas e alocação de recursos. Um sistema de gerenciamento de recursos apropriado deve garantir que os proprietários de recursos tenham acesso aos seus recursos ou ao menos a uma parcela de recursos que seja equivalente a eles. Diferentes políticas podem ser estabelecidas para que o sistema garanta esse direito aos proprietários de recursos; e nessa tese defende-se uma política de escalonamento e alocação de reucrsos chamada Owner-Share Enforcement Policy (OSEP) ou Política de Garantia da Porção do Proprietário; que tem por objetivo garantir o direito de acesso aos recursos através de um sistema de escalonamento baseado em preempção de tarefas e realocação de recursos. Avalia-se a política através da análise de testes e resultados envolvendo métricas de desempenho que descrevem fatores como violação da política; perdada capacidade de processamento; custo da política e satisfação do usuário. Os testes ainda envolveram a análise de desempenho da política em ambientes com a possibilidade de chekcpointing de tarefas; minimizando assim o desperdício de processamento. Fez-se ainda comparações com a política de compartilhamento justo Fair-Share; que permitiram estabelecer as vantagens e desvantagens de cada política e ainda identificar futuros problemas. Por fim; conclui-se a tese identificando as contribuições oferecidas por este trabalho e os trabalhos futuros que podem ser desenvolvidos. / In large distributed systems, where shared resources are owned by distinct entities, there is a need to reflect resource ownership in resource allocation. An appropriate resource management system should guarantee that owners of resources have access to their resources or at least to a share of resources proportional to the share of resources they provide. Different policies can be established for guaranteeing the access to resources, and in this thesis we introduce a policy for scheduling and resource allocation named Owner Share Enforcement Policy (OSEP). This policy is based on the concept of distributed ownership and itguarantees the owner's right of accessing their share of resources in a distributed system with a preemptive share space. We evaluate this policy through tests and results analysis involving performance metrics that describe policy violation, loss of capacity, policy cost and user satisfaction. The tests were also conducted in environments withand without job checkpointing, and comparisons with the Fair-Share scheduling policy were made in order to capture the trade-offs of each policy. Finally, we conclude the thesis describing the contributions achieved with this work and pointing directions for future work.
|
122 |
Modelo de mineração de dados em bases de dados acadêmicas / Data mining model in academics databasesSilva, Renan Monteiro da 12 April 2016 (has links)
Dissertação (mestrado)—Universidade de Brasília, Faculdade de Tecnologia, Departamento de Engenharia Elétrica, 2016. / Submitted by Fernanda Percia França (fernandafranca@bce.unb.br) on 2016-05-17T16:17:57Z
No. of bitstreams: 1
2016_RenanMonteirodaSilva.pdf: 2565220 bytes, checksum: 9d4ad5ce9de42a46b61bb7148d21919d (MD5) / Approved for entry into archive by Marília Freitas(marilia@bce.unb.br) on 2016-05-26T16:25:53Z (GMT) No. of bitstreams: 1
2016_RenanMonteirodaSilva.pdf: 2565220 bytes, checksum: 9d4ad5ce9de42a46b61bb7148d21919d (MD5) / Made available in DSpace on 2016-05-26T16:25:53Z (GMT). No. of bitstreams: 1
2016_RenanMonteirodaSilva.pdf: 2565220 bytes, checksum: 9d4ad5ce9de42a46b61bb7148d21919d (MD5) / No campo das comunidades de pesquisa existe uma série de bases de dados que proveem informações interessantes sobre publicações resultantes da pesquisa, incluindo títulos de artigos, autores, palavras-chave, citações, índices, veículos de publicação (revistas, livros, conferências e os tipos de eventos mais importantes) e assim por diante. Exemplos de tais bases de dados são Google Scholar, CiteSeerX, DBLP, Microsoft Academic, Thomson Reuters Web of Science, entre outros. No entanto, essas bases de dados globais ainda carecem de serviços que possam ser usados na procura por comunidades ou agrupamentos. Uma comunidade pode ser definida como um grupo de entidades, nesse caso autores e/ou universidades, que compartilham atributos ou relacionamentos semelhantes. Neste trabalho é proposto um modelo de mineração e análise das informações contidas nessas bases de dados acadêmicas. A análise dessas informações apresentadas nos resultados visa à descoberta das universidades, autores e assuntos mais significativos dentro do contexto dos dados minerados. Para isso foi feito um estudo de caso utilizando as informações contidas nas bases de dados do CiteSeerX e do DBLP como ponto de partida para a criação de um modelo genérico com o objetivo de ser aplicável a qualquer base de dados acadêmica. No estudo de caso é feita uma extensa mineração nas bases de dados do CiteSeerX e do DBLP, a partir dessa etapa é feita a migração e tratamento dos dados originais obtidos para o modelo genérico proposto neste trabalho. Com o modelo preenchido são aplicados os algoritmos e instruções para geração dos resultados que são subdivididos em três diferentes categorias: clusters, rankings e comunidades de relacionamento. A partir dos resultados são investigadas as tendências atuais na colaboração entre autores e institutos educacionais usando as bases de dados do CiteSeerX e do DBLP. Com a obtenção das informações disponíveis foram construídos várias comunidades e agrupamentos usando as técnicas de clusterização existentes. _______________________________________________________________________________________________ ABSTRACT / In the field of the research community, several databases such as Google Scholar, CiteSeerX, DBP, Microsoft Academic, Thomson Reuter´s Web of Science among others provide interesting information about authors, citations, indexes, most relevant venues types and so on. However, those global databases have limitations, especially in finding communities or clusters. A community can be defined as a group of entities, in this case authors and/or universities that share similar properties or relations. In this work, it is proposed a model of data mining and analysis of the obtained information in these academics databases. The analysis of the presented information in the results aims the discovery of the universities, authors and subjects most significant inside the context of the mined data. Thus a study case was realized using the CiteSeerX database as the start point for creating a generic model in order to be applied in any academic database. In the study case an extensive data mining was performed in the CiteSeerX database, as well as the migration and treatment of the original data obtained for the generic model proposed in this work. With the model data filled the proposed algorithms and the code instructions were applied for the generation of the results which are subdivided in three different categories: clusters, rankings and relationship communities. From the results, the work is validated by showing the current trends in the collaboration between authors and educational institutes, using the CiteSeerX dataset. By mining the available information, several communities and clusters are revealed using the proposed techniques.
|
123 |
Detectores Adaptativos de Defeitos para Sistemas de Controle de Tempo Real CríticosSá, Alírio Santos de 06 October 2006 (has links)
Submitted by Marcio Filho (marcio.kleber@ufba.br) on 2017-06-02T12:24:57Z
No. of bitstreams: 1
DetectoresAdaptativosDeDefeitosParaSTR(AlirioSa).pdf: 1532506 bytes, checksum: 040ebb35bfda9bdc5d573b2568d4649d (MD5) / Approved for entry into archive by Vanessa Reis (vanessa.jamile@ufba.br) on 2017-06-08T11:01:47Z (GMT) No. of bitstreams: 1
DetectoresAdaptativosDeDefeitosParaSTR(AlirioSa).pdf: 1532506 bytes, checksum: 040ebb35bfda9bdc5d573b2568d4649d (MD5) / Made available in DSpace on 2017-06-08T11:01:47Z (GMT). No. of bitstreams: 1
DetectoresAdaptativosDeDefeitosParaSTR(AlirioSa).pdf: 1532506 bytes, checksum: 040ebb35bfda9bdc5d573b2568d4649d (MD5) / Aplicações de controle de processos são exemplos típicos de sistemas de tempo real, uma vez que necessitam operar de forma correta atendendo aos prazos ditados pela dinâmica da planta que está sendo controlada. A indústria moderna de controle e automação de processos tem tirado proveito do avanço das redes e arquiteturas de computadores para promover soluções distribuídas que permitam uma maior integração entre as plantas e que sejam mais flexíveis, interoperáveis e produtivas. Além disso, tais soluções devem permitir a automação de plantas cada vez mais complexas, com menores custos operacionais.
O projeto dessas aplicações de tempo real sobre rede, ou distribuídas, deve levar em consideração questões pertinentes ao algoritmo de controle, ao atendimento dos requisitos temporais e a comunicação sobre rede. Algumas aplicações de controle sobre
rede, ditas de miss˜ão crítica, necessitam de mecanismos que garantam o funcionamento
contínuo mesmo na presença de falhas. Mecanismos de tolerância a falhas s˜ao fundamentais para incrementar a confiabilidade de sistemas críticos. Todavia, a implementação desses mecanismos pode tornar o projeto ainda mais complexo e comprometer o desempenho do sistema de controle. Detectores de defeitos s˜ao blocos básicos na construção de mecanismos de tolerância a falhas: seja para ativar mecanismos de recuperação, seja para permitir a reconfiguração do sistema após a ocorrência de uma falha. Dotar esses detectores da capacidade de adaptação é importante para permitir um serviço de detecção de defeitos mais rápido e confiável. O casamento do grau de adaptabilidade dos detectores com a qualidade do desempenho das aplicações críticas de controle é crucial para garantir o atendimento dos requisitos funcionais e temporais de tais aplicações. Nesse contexto, esta dissertação traz uma proposta de detecção de defeitos adaptável baseada em redes neurais e contrapõe tal proposta com as principais abordagens de detecção adaptativa existentes na literatura. De outro lado, a dissertação avalia o impacto da abordagem proposta sobre o desempenho do sistema de controle, indicando os limites que devem ser respeitados pelo detector de defeitos de modo a n˜ão comprometer a estabilidade do controle em questão.
|
124 |
Mecanismos Autonômicos de Tolerância a Falhas para Sistemas DistribuídosSá, Alirio Santos de 25 January 2013 (has links)
Submitted by Santos Davilene (davilenes@ufba.br) on 2013-01-25T11:50:19Z
No. of bitstreams: 1
TESE-Alirio Santos de Sa.pdf: 3211848 bytes, checksum: b6e3a37952f120676b30e1f11490fa90 (MD5) / Made available in DSpace on 2013-01-25T11:50:19Z (GMT). No. of bitstreams: 1
TESE-Alirio Santos de Sa.pdf: 3211848 bytes, checksum: b6e3a37952f120676b30e1f11490fa90 (MD5) / As facilidades de processamento e comunicação oriundas das novas tecnologias têm promovido o surgimento de uma nova classe de ambientes distribuídos. Estes ambientes são caracterizados pela dinamicidade em suas composições, no provisionamento de seus recursos e nas características e requisitos de suas aplicações. Isto traz novos desafios à confiabilidade, a qual é um atributo essencial à grande maioria dos sistemas distribuídos modernos. Um destes desafios está na incapacidade, dos mecanismos tradicionais de tolerância a falhas, de atender aos requisitos de desempenho, ao mesmo tempo em que suportam a confiabilidade. Isto porque o projeto destes mecanismos requer um conhecimento prévio das características dos ambientes e de suas aplicações, para que possam oferecer configurações adequadas ao atendimento dos requisitos especificados -- isto representa um problema, uma vez que, nos ambientes distribuídos modernos, estas informações mudam dinamicamente. Neste contexto, nem mesmo os mecanismos adaptativos de tolerância falhas obtêm sucesso, pois realizam a sua configuração dinamicamente, mas confiam em comportamentos e requisitos definidos em tempo de projeto. Para enfrentar este desafio, esta Tese introduz os mecanismos autonômicos de tolerância a falhas, baseados em teoria de controle e capazes de se auto-configurar face às mudanças dinâmicas nas características do ambiente ou nos requisitos de suas aplicações. Com o intuito de demonstrar a viabilidade destes mecanismos, foram implementados e avaliados, como estudo de caso, detectores autonômicos de defeitos e protocolos autonômicos de comunicação em grupo, dois mecanismos básicos à construção de muitos sistemas distribuídos confiáveis. Estes mecanismos autonômicos de detecção e de comunicação em grupo são os primeiros da literatura a suportar a auto-configuração em tempo de execução, baseada em requisitos de qualidade de serviço definidos pelos usuários. Tais mecanismos foram avaliados, usando simulações, em condições de carga variadas e falhas. Mesmo sem trabalhos relacionados, para uma comparação direta de desempenho, os mecanismos autonômicos propostos foram comparados com mecanismos tradicionais de tolerância a falhas existentes na literatura. Estes mecanismos tradicionais usaram diferentes configurações definidas por parâmetros manualmente fixados. Os experimentos realizados demonstram que os mecanismos autonômicos propostos possuem, na maioria dos casos, desempenho superior que as diferentes configurações dos mecanismos tradicionais considerados, principalmente quando variações nas características da carga, mudanças nos requisitos ou reconfigurações dinâmicas no ambiente são considerados. / Salvador
|
125 |
Provisão de computação voluntária e intensiva de dados para suporte de aplicações científicasGutierrez, Felipe Oliveira 17 February 2014 (has links)
Submitted by Santos Davilene (davilenes@ufba.br) on 2016-05-25T12:39:19Z
No. of bitstreams: 1
FelipeOliveiraGutierrez-Dissertacao.pdf: 2956268 bytes, checksum: f8c8c623dba24c46d9d9ec40663d86dc (MD5) / Made available in DSpace on 2016-05-25T12:39:19Z (GMT). No. of bitstreams: 1
FelipeOliveiraGutierrez-Dissertacao.pdf: 2956268 bytes, checksum: f8c8c623dba24c46d9d9ec40663d86dc (MD5) / O projeto mc2 (Minha Cloud Científica), no qual se insere a presente
proposta, objetiva prover uma plataforma de suporte `a execução de aplicações
cient´ıficas em recursos computacionais de diferentes paradigmas: agregados,
redes par-a-par, redes voluntárias e sistemas de larga escala. Neste escopo,
este trabalho aborda a inclusão de recursos de computação voluntária e de
processamento intensivo de dados na plataforma mc2, juntamente com a análise
de métricas de desempenho para alguns estudos de casos. Nestas análises foram
obtidos resultados satisfatórios para os dois módulos do mc2 citados. Através
deles foi possível avaliar a facilidade que os cientistas de diversas áreas podem
obter usufruindo da plataforma e o ganho em desempenho quando necessitam
de grandes volumes de processamento.
|
126 |
Proposição de um modelo e sistema de gerenciamento de dados distribuídos para internet das coisas – GDDIoTCruz Huacarpuma, Ruben 27 July 2017 (has links)
Tese (doutorado)—Universidade de Brasília, Faculdade de Tecnologia, Departamento de Engenharia Elétrica, 2017. / Submitted by Raquel Almeida (raquel.df13@gmail.com) on 2017-11-30T18:11:49Z
No. of bitstreams: 1
2017_RubenCruzHuacarpuma.pdf: 2899560 bytes, checksum: 365f64d81ab752f9b8e0d9d37bc5e549 (MD5) / Approved for entry into archive by Raquel Viana (raquelviana@bce.unb.br) on 2018-02-05T18:39:00Z (GMT) No. of bitstreams: 1
2017_RubenCruzHuacarpuma.pdf: 2899560 bytes, checksum: 365f64d81ab752f9b8e0d9d37bc5e549 (MD5) / Made available in DSpace on 2018-02-05T18:39:00Z (GMT). No. of bitstreams: 1
2017_RubenCruzHuacarpuma.pdf: 2899560 bytes, checksum: 365f64d81ab752f9b8e0d9d37bc5e549 (MD5)
Previous issue date: 2018-01-05 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES). / O desenvolvimento da Internet das Coisas (IoT) levou a um aumento do número e da variedade de dispositivos conectados à Internet. Dispositivos tais como sensores tornaram-se uma parte regular do nosso ambiente, instalados em carros e edifícios, bem como telefones inteligentes e outros dispositivos que coletam continuamente dados sobre nossas vidas, mesmo sem a nossa intervenção. Com tais objetos conectados, uma gama de aplicações tem sido desenvolvida e implantada, incluindo aquelas que lidam com grandes volumes de dados. Nesta tese, apresenta-se uma proposta e implementação de um modelo para o gerenciamento de dados em um ambiente de IoT. Este modelo contribui com a especificação das funcionalidades e a concepção de técnicas para coletar, filtrar, armazenar e visualizar os dados de forma eficiente. Uma característica importante deste trabalho é capacidade de integrar diferentes middlewares IoT. A implementação deste trabalho foi avaliada através de diferentes estudos de casos sobre cenário de sistemas inteligentes: Sistema de Casas Inteligentes, Sistema de Transporte Inteligente e a comparação do GDDIoT com middleware IoT. / The development of the Internet of Things (IoT) has led to a considerable increase in the number and variety of devices connected to the Internet. Smart objects such as sensors have become a regular part of our environment, installed in cars and buildings, as well as smart phones and other devices that continuously collect data about our lives even without our intervention. With such connected smart objects, a broad range of applications has been developed and deployed, including those dealing with massive volumes of data. In this thesis, it is proposed a data management approach and implementation for an IoT environment, thus contributing with the specification of functionalities and the conception of techniques for collecting, filtering, storing and visualization data conveniently and efficiently. An important characteristics of this work is to enable multiple and distinct middleware IoT to work together in a non-intrusive manner. The corresponding implementation of this work was evaluated through different case studies regarding a smart system scenarios: Smart Home System, Smart Transportation System and comparison between GDDIoT and an IoT middleware.
|
127 |
Tolerância a falhas para sistemas legados : um estudo de caso no exército brasileiroSantos Junior, Fausto Andrade dos 24 August 2015 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Ciência da Computação, 2015. / Submitted by Tania Milca Carvalho Malheiros (tania@bce.unb.br) on 2016-02-15T14:14:06Z
No. of bitstreams: 1
2015_FaustoAndradedosSantosJúnior.pdf: 6574380 bytes, checksum: 41fcc46e8c9d7d7e08850d8ac1c9ae82 (MD5) / Approved for entry into archive by Raquel Viana(raquelviana@bce.unb.br) on 2016-02-15T17:12:22Z (GMT) No. of bitstreams: 1
2015_FaustoAndradedosSantosJúnior.pdf: 6574380 bytes, checksum: 41fcc46e8c9d7d7e08850d8ac1c9ae82 (MD5) / Made available in DSpace on 2016-02-15T17:12:22Z (GMT). No. of bitstreams: 1
2015_FaustoAndradedosSantosJúnior.pdf: 6574380 bytes, checksum: 41fcc46e8c9d7d7e08850d8ac1c9ae82 (MD5) / Soluções modernas de arquitetura de sistemas indicam, muitas vezes, a computação distribuída como meio de satisfazer características desejáveis de desempenho. Uma classe de arquitetura distribuída em especial é o MOM ou Middleware Orientado à Mensagem. Esta arquitetura é capaz de conceder um mecanismo de comunicação assíncrona, em que é possível implementar fatores como escalabilidade e tolerância à falhas, de maneira transparente. O Exército Brasileiro conta com diversos sistemas que proporcionam fatores similares aos proporcionados pela arquitetura MOM, embora boa parte dos sistemas legados não admita esta abordagem. O Departamento-Geral do Pessoal - DGP, responsável pelos processos que envolvem recursos humanos no Exército, utiliza sistemas legados ao prover vários serviços. Alguns destes sistemas participam de processos sensíveis, como é o caso observado do processo de concessão de benefícios do sistema previdenciário, em que o sistema Papiro cataloga e concentra a documentação comprobatória de direitos. Seu objetivo é prover o acesso aos documentos cadastrados para consulta e averiguação de direitos pelos beneficiários, e que deve ocorrer na região onde reside a pessoa interessada. A arquitetura do sistema Papiro utiliza dados do negócio armazenados diretamente em arquivos, e não possui mecanismos para oferecer escalabilidade e tolerância a falhas nativamente. Seu uso é limitado em função da disponibilidade do sistema no território nacional, tendo em vista que seus usuários o acessam a partir das organizações militares presentes nas regiões centrais e fronteiras do país. Esta pesquisa tem por objetivo compor uma proposta de infraestrutura de armazenamento para sistemas legados do DGP, que proporcione a tolerância à falhas e a escalabilidade, sem que para isso deva-se ajustar as aplicações legadas hospedadas. A arquitetura elaborada baseia-se no StackSync, um MOM capaz de sincronizar espaços de armazenamento em ambientes heterogêneos. Os serviços necessários para a construção da arquitetura são detalhados, de acordo com sua participação no ambiente. O estudo foi realizado utilizando dados extraídos do sistema Papiro. Com os resultados obtidos, foi possível avaliar a aplicação da infraestura e o custo de hardware necessário para sua implementação pelo Exército Brasileiro. ______________________________________________________________________________________________ ABSTRACT / Modern solutions of systems architecture indicates, often, the distributed computing as a mean to meet desired performance characteristics. An distributed architecture class in particular is MOM or Message Oriented Middleware. This architecture is able to provide a mechanism for asynchronous communication, in which it is possible to implement such factors as scalability and fault tolerance in a transparent manner. The Brazilian Army has several systems that provide similar factors to those provided by MOM architecture, although much of the legacy systems will not admit this approach. The Departamento-Geral do Pessoal - DGP, responsible for processes that involve human resources in the Army, uses legacy systems to provide various services. Some of these systems participate in sensitive cases, such as observed from the concession of benefits concerning the social security system process, in which the Papiro system catalogs and concentrates supporting documentation. Its goal is to provide access to registered documents for inquiry and investigation about recipient rights, and that should occur in the region where the person concerned resides. The Papiro system’s architecture uses business data stored directly in files, and does not have mechanisms to provide scalability and fault tolerance natively. Its use is limited depending on system availability in the country, given that their users access from military organizations present in the central regions and the country’s borders. This research aims to compose a storage infrastructure proposal to the DGP legacy systems, which provides the fault tolerance and scalability, without adjusting the hosted legacy applications. The developed architecture is based on StackSync, a MOM capable of storage synchronization between heterogeneous environments. The services needed for the construction of the architecture are detailed, according to their participation in the environment. The study was carried out using data extracted from Papiro system. With the results obtained, it was possible to evaluate the infrastructure’s implementation and the cost of hardware needed to deliver this solution to the Brazilian Army.
|
128 |
Desenvolvimento e avaliação de um ambiente de computação em cloud para aplicações científicas / Development and evaluation of a Cloud computing environment for scientific applicationsGiacomo Victor Mc Evoy Valenzano 10 December 2010 (has links)
Neste trabalho é apresentado um ambiente de Cloud ou Nuvem, para a disponibilização e execução de aplicações distribuídas. A computação em Cloud pode ser definida como um modelo de aprovisionamento de recursos computacionais, virtualizados e sob demanda, oferecidos como um serviço.
A computação em Cloud é descrita neste trabalho como um tipo de computação distribuída, a qual é comparada com a computação em Grade. São descritas caraterísticas próprias de um ambiente de Cloud, com uma proposta para a classificação e arquitetura geral desses ambientes.
Adicionalmente, é proposta a implementação de um ambiente específico de Cloud, orientado a aplicações científicas. São descritos o funcionamento e arquitetura propostos para a implementação, indicando as considerações realizadas para a escolha e configuração dos componentes.
O ambiente proposto é avaliado utilizando uma aplicação distribuída como estudo de caso e a disponibilização da aplicação no ambiente virtualizado avaliada
em detalhe. Por fim, são realizados experimentos para avaliar o impacto do ambiente no desempenho da capacidade de processamento e comunicação, e discutidos
trabalhos futuros. / This work presents a proposal for a Cloud computing environment, for the deployment and execution of distributed applications. Cloud Computing may be
defined as a provisioning model of on-demand, virtualized computing resources as a service.
Here, I make a description of Cloud Computing as a type of distributed computing, comparing it with Grid Computing. Some intrinsic characteristics of
Cloud environments are presented, along with proposals for their classification and general architecture.
Additionally, I propose an implementation of a specific Cloud environment, oriented to scientific applications. I describe the proposed architecture and beha-
vior of the implementation, indicating the considerations made while choosing and configuring its components.
This work presents the evaluation of the proposed Cloud using a distributed application as a case study. The deployment in the virtualized environment is
studied in detail. Finally, I present results of experiments conducted in order to evaluate the environment impact on the performance of processing and communication, and I discuss future work.
|
129 |
Projeto de um servidor de vídeo sob demanda paralelo e distribuído.Lara, Carla Rodrigues Figueiredo 30 May 2003 (has links)
Made available in DSpace on 2016-06-02T19:05:14Z (GMT). No. of bitstreams: 1
DissCRFL.pdf: 648230 bytes, checksum: a343ed1fae316081651385f830f464fb (MD5)
Previous issue date: 2003-05-30 / Financiadora de Estudos e Projetos / This work presents an architecture for the development of a Video on Demand (Vod) Server using a Parallel Distributed File System. In the development of this work several aspects related to the project of VoD Servers are considered, including: optimized storing and retrieval of videos using appropriate striping unit and request sizes, and the monitoring of disk and network operation for the performance evaluation of the proposed system. The characteristics of the MPEG standard used for video compression are also studied and considered in the video transfers. We also discuss aspects related to the implementation of prefetching mechanisms in the VoD Server. The concept of cluster computing is also considered for efficient data distribution aiming at appropriate response time for satisfying the Quality of Service (QoS) require by the VoD users. / Este trabalho apresenta uma arquitetura para o desenvolvimento de um Servidor de Vídeo Sob Demanda (VoD) utilizando um Sistema de Arquivos Paralelos Distribuídos. No desenvolvimento deste trabalho vários tópicos relacionados à construção de servidores de VoD são considerados, entre eles: armazenamento e recuperação otimizados dos vídeos através da determinação de tamanhos apropriados para a unidade de distribuição e requisições de leitura e a coleta de informações dos discos e da rede para avaliação de desempenho do sistema proposto. As características do padrão
utilizado para compressão dos vídeos, o MPEG, são estudadas e consideradas. Também são apresentadas discussões de como devem ser implementados mecanismos de prefetching em servidores de VoD. O conceito de paralelismo em aglomerados de computadores é explorado para que a distribuição eficiente dos dados forneça um tempo
de resposta adequado e condizente com as exigências de QoS impostas pelos usuários da aplicação de VoD.
|
130 |
Projeto do subsistema de comunicação e distribuição e da camada de serviços da arquitetura OpenReality para suporte à criação de aplicações de visualização distribuídaBaptista, Bruno do Amaral Dias 26 February 2004 (has links)
Made available in DSpace on 2016-06-02T19:05:35Z (GMT). No. of bitstreams: 1
2592.pdf: 1999742 bytes, checksum: 8e5aad7d487acff1acad9e2f0dff4dd9 (MD5)
Previous issue date: 2004-02-26 / Financiadora de Estudos e Projetos / This work presents the information distribution model adopted within OpenReality architecture (OR), and the related issues of its structures integration. Distributed Visualization Applications can be created using OR framework, which permits redefinitions, specializations and customizations. During distributed visualization application development, it s possible to choose the communication protocol to be used and its parameters. The consistency and interactivity concepts and their behavior for each information distribution model are also discussed. Among the main used structures is JAMP Platform (Java Architecture for Media Processing), which was upgraded to support OR requirements. JNDS application domain framework and JAMP2C development tool were added to JAMP development package. In a general way, the contribution of this project is to offer a new method for creating distributed visualization applications. Besides, this work improves the maturity of JAMP Platform, which now has a new framework and a new development tool available. / Este trabalho apresenta o modelo de distribuição de informação adotado na arquitetura OpenReality (OR), bem como as questões envolvidas na integração das estruturas nela adotadas. Aplicações de Visualização Distribuída podem ser criadas a partir do uso do framework OR, que aceita redefinições, especializações e personalizações. Durante o desenvolvimento de uma aplicação de visualização distribuída, é possível a escolha do protocolo de comunicação a ser utilizado, bem como suas parametrizações. Os conceitos de consistência e de interatividade e seus comportamentos diante de cada modelo de distribuição de informação também são discutidos. Entre as principais estruturas utilizadas, encontra-se a Plataforma JAMP, que sofreu significativas expansões para suportar os requisitos impostos pela arquitetura OR. O framework de domínio de aplicação JNDS e a ferramenta de auxílio ao desenvolvimento JAMP2C foram adicionados ao pacote que compõe a JAMP. De maneira geral, a contribuição do projeto do Subsistema de Comunicação e Distribuição e da Camada de Serviços da arquitetura OR é a disponibilização de um novo mecanismo para a criação de aplicações de visualização distribuída. Além disso, este trabalho avança mais um passo no processo de amadurecimento da Plataforma JAMP, que passa a contar com mais um framework e uma ferramenta para auxílio no desenvolvimento de suas aplicações.
|
Page generated in 0.0915 seconds