Spelling suggestions: "subject:"computação em devem"" "subject:"computação em vivem""
321 |
Um orquestrador flexível de recursos de rede e computação para o aprimoramento de qualidade de serviço (QoS) em aplicações multimídia baseadas em funções virtualizadas de rede (NFV)Moreira, Rodrigo 31 July 2017 (has links)
Pessoas e organizações ao redor do globo utilizam aplicações multimídia para interação e comunicação. Existe notável crescimento de tráfego característico dessas aplicações, uma vez que há convergência de voz e dados para um modelo único de transporte. As redes de computadores, por suportar tais aplicações cadenciam desafios e oportunidades de negócios que os operadores têm aproveitado. Por outro lado, os usuários experimentam serviços com qualidades cada vez mais refinados, mesmo assim, existem aspectos que devem ser tratados para elevar a qualidade de experiência percebida pelos usuários ao consumir serviços ofertados sobre a internet. Métricas de QoS usualmente são baseadas nos usuários ou na rede, por isso, conceitos como NFV e SDN permitem aprimorar e expandir a perspectiva de oferta de uma camada de abstração para desenvolvimento de soluções flexíveis, que visam lidar com aplicações multimídia ofertadas em nuvem. Não obstante, a construção dessas soluções deve ser calcada em aspectos intrínsecos ao conceito de Internet do Futuro que preconiza soluções virtualizadas, flexíveis, convergentes, escaláveis, orientadas a contexto, seguras e melhor gerenciadas.
Este trabalho propõe uma abordagem para mitigar a distância das aplicações com os recursos de rede e computação. Usualmente as aplicações desconhecem características de hardware sobre o qual elas operam; quanto a rede, mesmo com esforços em vários níveis da pilha de protocolos, desconhece especificidades das aplicações em execução. Há também dificuldade de gerenciamento global de recursos, integração de políticas e acordos de serviço entre operadores. O trabalho visa adicionar uma camada de gerenciamento para elevar os níveis de QoS para aplicações multimídia baseadas em NFV. Para realizar isso, é proposto uma entidade que atua no plano de dados e controle, capaz de orquestrar recursos de rede e de computação simultaneamente para aprimorar QoS em aplicações multimídia. A incorporação dessa entidade conquista melhoramento de QoS por meio da oferta de resiliência na comunicação fim-a-fim de entidades consumidoras dessas aplicações, provê um balanceamento de carga adequado a fim de não comprometer parâmetros de QoS como tempo de resposta, provê escalabilidade sob demanda, promove o conceito de inspeção de pacotes para segmentação de políticas de rede orientada à aplicação, finalmente realiza a separação de plano de dados e controle. A construção e experimentação da solução permitiu diminuir tempos de resposta nas aplicações multimídia; a solução reagiu adequadamente frente a cargas de trabalho heterogêneas no sentido de prover confiabilidade para garantia de QoS; também, o conceito de inspeção de pacotes foi capaz de atuar para diminuir a distância que as aplicações possuem da rede e o hardware sobre o qual elas operam. / People and organizations around the globe use multimedia applications for interaction and communication. There is notable traffic growth characteristic of these applications since there is a convergence of voice and data for a single transport model. Computer networks, because they support such applications, meet the challenges and business opportunities that operators have taken advantage of. On the other hand, users use services with increasingly refined qualities, nevertheless, there are aspects that must be addressed to raise the quality of experience for users when consuming services offered over the internet. QoS metrics are usually user-based or network-based, hence concepts such as NFV and SDN allow to improve and expand the perspective of offering an abstraction layer for the development of flexible solutions that deal with multimedia applications offered in the cloud. Nevertheless, the construction of these solutions must be based on intrinsic aspects to the Future Internet concept that advocates virtualized solutions, flexible, convergent, scalable, context-aware, secure and better managed.
This dissertation proposes an approach to mitigate the distance of the applications with the resources of compute and network. Usually, the applications are unaware of the hardware characteristics on which they operate, as for the network, even with several efforts at various levels of the protocol stack, the specificities of running applications are unknown. There is also challenges of managing global resources, integrating policies and service agreements between operators. This work aims to add a management layer to raise the levels of QoS for multimedia applications based on NFV. To accomplish this, an entity that acts on the data and control plane is proposed, capable of orchestrating network and computing resources simultaneously to enhance QoS in multimedia applications. The incorporation of this entity achieves QoS improvement through resiliency in the end-to-end communication of the consumer entity of these applications, provides adequate load balancing in order to avoid compromising QoS parameters such as response time, provides on-demand scalability, improves the concept of package inspection for the segmentation of application-oriented network policies, and finally performs the separation of data and control plane. The construction and experimentation of the solution allowed to reduce response times in the multimedia applications. The solution reacted adequately to heterogeneous workloads in order to provide reliability for QoS guarantee. Furthermore, the concept of packet inspection was able to act to decrease the distance that the applications have from the network and the hardware on which they operate. / Dissertação (Mestrado)
|
322 |
Adoção de computação em nuvem : estudo de casos múltiplosSobragi, Cyro Gudolle January 2012 (has links)
A computação em nuvem é considerada um paradigma computacional da atualidade. Sua adoção vem crescendo nos últimos anos, contudo ainda é incipiente nas organizações brasileiras. Por ser uma tecnologia inovadora, a computação em nuvem vem recebendo maior atenção da academia nos últimos anos, contudo a abordagem do assunto na literatura de Sistemas de Informação ainda é considerada baixa, apesar de crescente. A presente dissertação tem o objetivo de analisar os fatores de adoção da tecnologia, estabelecendo uma relação entre elementos de teorias de base e fatores de adoção. Foram identificados na literatura elementos teóricos e fatores relacionados à computação em nuvem, sendo realizadas associações entre tais fatores e elementos. Os elementos teóricos identificados na revisão da literatura são oriundos da teoria dos custos de transação, teoria da dependência de recursos e teoria de difusão da inovação. A pesquisa realizada é de caráter exploratório, por meio de estudos de casos múltiplos, realizados em três empresas que já adotaram computação em nuvem. O estudo utilizou como fontes de evidências entrevistas semiestruturadas, documentos e consulta a sites corporativos das organizações pesquisadas. Para análise das entrevistas foi utilizada a técnica de análise de conteúdo, com o auxílio do software MAXQDA10. Os resultados do estudo apresentaram como fatores de adoção de computação em nuvem: confiabilidade, escalabilidade, economia, privacidade e segurança. A pesquisa também contribui para o preenchimento da lacuna na literatura de Sistemas de Informação, oferecendo subsídios para estudos quantitativos que confirmem os fatores levantados. / Cloud computing is considered a new computational paradigm for many researchers and practitioners. The adoption of this technology has been arisen in the last few years by the organizations, nevertheless it is still emerging in Brazil. As considered an innovative technology, cloud computing adoption has been gathering more attention in the academy. However, this subject in the Information Systems literature still has little attention, although increasing. This dissertation intends to analyze the adoption factors of cloud computing and establish associations between technology adoption factors and theory elements. Initially were identified in the literature of economic and organizational theories some elements related to the Diffusion of Innovations Theory, Transaction Cost Economics and Resource Dependency Theory. Then, the technology adoption factors were related directly to the cloud computing features. Consequently the theory elements were associated with the technology adoption factors. This research was exploratory, through multiple case studies in three companies that already adopted cloud computing. The data collection was made by interviews and documents analysis. To analyze the seven interviews this research used the content analysis method, using the software MAXQDA10. Thereafter, was conducted an association between the theory elements and the technology adoption factors. As main results, were confirmed as adoption factors in cloud computing: reliability, scalability, security, privacy and economy. This study also contributes for fill in a lack in the literature, as well as offer information for future quantitative researches about the technology adoption factors.
|
323 |
Adoção de computação em nuvem : estudo de casos múltiplosSobragi, Cyro Gudolle January 2012 (has links)
A computação em nuvem é considerada um paradigma computacional da atualidade. Sua adoção vem crescendo nos últimos anos, contudo ainda é incipiente nas organizações brasileiras. Por ser uma tecnologia inovadora, a computação em nuvem vem recebendo maior atenção da academia nos últimos anos, contudo a abordagem do assunto na literatura de Sistemas de Informação ainda é considerada baixa, apesar de crescente. A presente dissertação tem o objetivo de analisar os fatores de adoção da tecnologia, estabelecendo uma relação entre elementos de teorias de base e fatores de adoção. Foram identificados na literatura elementos teóricos e fatores relacionados à computação em nuvem, sendo realizadas associações entre tais fatores e elementos. Os elementos teóricos identificados na revisão da literatura são oriundos da teoria dos custos de transação, teoria da dependência de recursos e teoria de difusão da inovação. A pesquisa realizada é de caráter exploratório, por meio de estudos de casos múltiplos, realizados em três empresas que já adotaram computação em nuvem. O estudo utilizou como fontes de evidências entrevistas semiestruturadas, documentos e consulta a sites corporativos das organizações pesquisadas. Para análise das entrevistas foi utilizada a técnica de análise de conteúdo, com o auxílio do software MAXQDA10. Os resultados do estudo apresentaram como fatores de adoção de computação em nuvem: confiabilidade, escalabilidade, economia, privacidade e segurança. A pesquisa também contribui para o preenchimento da lacuna na literatura de Sistemas de Informação, oferecendo subsídios para estudos quantitativos que confirmem os fatores levantados. / Cloud computing is considered a new computational paradigm for many researchers and practitioners. The adoption of this technology has been arisen in the last few years by the organizations, nevertheless it is still emerging in Brazil. As considered an innovative technology, cloud computing adoption has been gathering more attention in the academy. However, this subject in the Information Systems literature still has little attention, although increasing. This dissertation intends to analyze the adoption factors of cloud computing and establish associations between technology adoption factors and theory elements. Initially were identified in the literature of economic and organizational theories some elements related to the Diffusion of Innovations Theory, Transaction Cost Economics and Resource Dependency Theory. Then, the technology adoption factors were related directly to the cloud computing features. Consequently the theory elements were associated with the technology adoption factors. This research was exploratory, through multiple case studies in three companies that already adopted cloud computing. The data collection was made by interviews and documents analysis. To analyze the seven interviews this research used the content analysis method, using the software MAXQDA10. Thereafter, was conducted an association between the theory elements and the technology adoption factors. As main results, were confirmed as adoption factors in cloud computing: reliability, scalability, security, privacy and economy. This study also contributes for fill in a lack in the literature, as well as offer information for future quantitative researches about the technology adoption factors.
|
324 |
Towards Improvements in resource management for content delivert networksRODRIGUES, Moisés Bezerra Estrela 03 March 2016 (has links)
Submitted by Fabio Sobreira Campos da Costa (fabio.sobreira@ufpe.br) on 2017-03-02T14:56:30Z
No. of bitstreams: 2
license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5)
moises.rodrigues-phd.thesis-final-v3.pdf: 4286662 bytes, checksum: 9e67a238c996afd5b50b91cf3c59c86a (MD5) / Made available in DSpace on 2017-03-02T14:56:30Z (GMT). No. of bitstreams: 2
license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5)
moises.rodrigues-phd.thesis-final-v3.pdf: 4286662 bytes, checksum: 9e67a238c996afd5b50b91cf3c59c86a (MD5)
Previous issue date: 2016-10-03 / During the last decades, the world web went from a way to connect a handful of nodes to the
means with which people cooperate in search of knowledge, social interaction, and entertainment.
Furthermore, our homes and workstations are not the only places where we are connected, the
mobile broadband market is present and changing the way we interact with the web. According
to Cisco, global network traffic will be three times higher in 2018 than it was in 2013. Real-time
entertainment has been and will remain an important part of this growth. However, the internet
was not designed to handle such demand and, therefore, there is a need for new technologies to
overcome those challenges.
Content Delivery Networks (CDN) prove to be an alternative to overcome those challenges. The
basic concept is to distribute replica servers scattered geographically, keeping content close to
end users. Following CDN’s popularity an increasing number of CDNs, most of them extremely
localized, began to be deployed. Furthermore, Cloud Computing emerged, making software and
hardware accessible as resources through well-defined interfaces. Using Cloud services, such as
distributed IaaS, one could deploy complex CDNs. Despite being the best technology to scale
content distribution, there are some scenarios where CDNs may perform poorly, such as flash
crowd events. Therefore, we need to study content delivery techniques to efficiently accompany
the ever increasing need for content contemplating new possibilities, such as growing the number
of smaller localized CDNs and Cloud Computing.
Examining given issues this work presents strategies towards improvements in Content Delivery
Networks (CDN). We do so by proposing and evaluating algorithms, models and a prototype
demonstrating possible uses of such new technologies to improve CDN’s resource management.
We present P2PCDNSim, a comprehensive CDN simulator designed to assist researchers in
the process of planning and evaluating new strategies. Furthermore, we propose a new dynamic
Replica Placement Algorithm (RPA), based on the count of data flows through network
nodes, that maintains similar Quality of Experience (QoE) while decreasing cross traffic during
flash crowd events. Also, we propose a solution to improve the mobile backhaul’s replica
placement flexibility based on SDN. Our experimental results show that the delay introduced by
the developed module is less than 5ms for 99% of the packets, which is negligible in today’s
LTE networks, and the slight negative impact on streaming rate selection is easily outweighed by
the increased flexibility / Durante a última década, a rede mundial de computadores evoluiu de um meio de conexão para
um pequeno grupo de nós para o meio de pelo qual pessoas obtém conhecimento, interação
social e entretenimento. Além disso, nossas casas e estações de trabalho não são nossos únicos
pontos de acesso à rede. De acordo com a Cisco, o tráfego global da rede em 2018 será três
vezes maior do que era em 2013. Entretenimento em tempo real tem sido e continuará sendo
uma parte importante nesse crescimento. No entanto, a rede não foi projetada para lidar com
essa demanda, portanto, existe a necessidade de novas tecnologias para superar tais desafios.
Content Delivery Networks (CDN) se mostram como uma boa alternativa para superar esses
desafios. Seu conceito básico é distribuir servidores de réplica geograficamente, mantendo assim
o conteúdo próximo aos usuários. Seguindo sua popularidade, um número crescente de CDNs,
em sua maioria locais, começaram a ser implementadas. Além disso, computação em nuvem
surgiu, tornando software e hardware recursos acessíveis através de interfaces bem definidas. Os
serviços na nuvem, tais como Infrastructure as a Service (IaaS) distribuídos, tornam possível a
implementação de CDNs complexas. Apesar de ser a melhor tecnologia para entrega de conteúdo
em termos de escalabilidade, existem cenários que ainda desafiam as CDNs, como eventos de
flash crowd. Portanto, precisamos estudar estratégias de entrega de conteúdo para acompanhar de
maneira eficiente o constante crescimento na necessidade por conteúdo, aproveitando também as
novas possibilidade como, o crescimento de CDNs localizadas e popularização da computação
em nuvem.
Examinando os problemas levantados, essa tese apresenta estratégias no sentido de melhorar Content
Delivery Networks (CDN). Fazemos isso propondo e avaliando algoritmos, modelos e um
protótipo demonstrando possíveis usos de tais tecnologias para melhorar o gerenciamento de
recursos das CDNs. Apresentamos o P2PCDNSim, um simulador de CDNs planejado para
auxiliar pesquisadores no processo de planejamento e avaliação de novas estratégias. Além disso,
propomos uma nova estratégia de posicionamento de réplicas dinâmica, baseada na contagem
de fluxos de dados passando pelos nós, que mantém uma Quality of Experience (QoE) similar
enquanto diminui tráfego entre Autonomous System (AS). Ademais, propomos uma solução
baseada em Software Defined Networks (SDN) que aumenta a flexibilidade de posicionamento
de servidores réplica dentro do backhaul móvel. Nossos resultados experimentais mostram que o
atraso introduzido pelo nosso módulo é menor que 5ms em 99% dos pacotes transmitidos, atraso
mínimo nas redes Long-Term Evolution (LTE) atuais.
|
325 |
Cloud computing: repercussões jurisprudenciais na proteção da privacidade e da segurança da informaçãoOliveira, Amanda Queiroz de 31 July 2017 (has links)
Submitted by Hernani Medola (hernani.medola@mackenzie.br) on 2017-08-28T17:50:26Z
No. of bitstreams: 2
Amanda Queiroz de Oliveira.pdf: 777417 bytes, checksum: cd0df24195218dc701b28c680dc4bcb2 (MD5)
license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Approved for entry into archive by Paola Damato (repositorio@mackenzie.br) on 2017-09-19T14:43:24Z (GMT) No. of bitstreams: 2
Amanda Queiroz de Oliveira.pdf: 777417 bytes, checksum: cd0df24195218dc701b28c680dc4bcb2 (MD5)
license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Made available in DSpace on 2017-09-19T14:43:24Z (GMT). No. of bitstreams: 2
Amanda Queiroz de Oliveira.pdf: 777417 bytes, checksum: cd0df24195218dc701b28c680dc4bcb2 (MD5)
license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5)
Previous issue date: 2017-07-31 / The present Work It was intended to study the phenomenon of Cloud Computing from the perspective of privacy and information security, with the premise that the Privacy law is a mechanism to protect human dignity and thus needs mechanisms to enable their security, such as Information Security. Initially, it was an analysis on the definition of Cloud Computing, highlighting its evolution of distributed computing, its attributes, delivery models, key services, benefits and potential drawbacks. Subsequently, we sought to analyze their relationship with the Right to Privacy from the perspective of constitutional theory and the general theory of liability, focusing on their rankings in contract or tort liability, as well as in objective or subjective. Finally, we established the relationship with Information Security, addressing the principles for the governance and use of Internet in Brazil, the goals of information security and the set of actions must be taken to prevent problems or disasters. In this perspective, it appears that Cloud Computing represents a revolution in computing paradigms, but several precautions must be taken to ensure that data stored in the cloud are really safe / Pretendeu-se, por meio do presente trabalho, estudar o fenômeno da Computação em Nuvem sob a perspectiva da privacidade e da Segurança da Informação, tendo por premissa que o Direito à Privacidade é um mecanismo de proteção da dignidade humana e, portanto, precisa de mecanismos para viabilizar sua garantia, como a Segurança da Informação. Inicialmente, foi realizada uma análise sobre a definição de Computação em Nuvem, ressaltando sua evolução da computação distribuída, seus atributos, modelos de entrega, principais serviços, vantagens e potenciais desvantagens. Posteriormente, buscou-se a análise da sua relação com o Direito à Privacidade, sob a perspectiva da teoria constitucional e da teoria geral da responsabilidade civil, com enfoque nas suas classificações em responsabilidade contratual ou extracontratual, bem como, em objetiva ou subjetiva. Por fim, foi estabelecida a sua relação com a Segurança da Informação, abordando os princípios para a governança e uso da Internet no Brasil, os objetivos da Segurança da Informação e o conjunto de ações que devem ser adotadas para a prevenção de problemas ou desastres. Nesta perspectiva, conclui-se que a Computação em Nuvem representa uma revolução nos paradigmas computacionais, mas vários cuidados devem ser tomados para garantir que os dados armazenados na nuvem estejam realmente seguros
|
326 |
Projeto e avaliação de um broker como agente de intermediação e QoS em uma nuvem computacional híbrida / Design and evaluation of a broker as QoS and intermediation agent in hybrid cloud computingMario Henrique de Souza Pardo 16 June 2016 (has links)
A presente tese de doutorado propõe uma arquitetura de cloud broker para ambientes de computação em nuvem híbrida. Um cloud broker tem o objetivo de executar a mediação entre clientes e provedores, recebendo requisições dos clientes e encaminhando-as ao serviço do provedor que melhor se adaptar aos requisitos de qualidade de serviço (QoS) solicitados. A arquitetura de broker de serviços com QoS proposta denomina-se QBroker, características de implementação de seu modo de operação bem como sua interação com os recursos virtuais de um ambiente de nuvem são apresentadas. O modelo de nuvem considerado foi o de nuvem híbrida com uma caracterização de arquitetura orientada a serviços (SOA) na qual serviços remotos são disponibilizados aos clientes. A política de escalonamento de tarefas desenvolvida para o QBroker foi a de intermediação de serviços, considerando tratativas de QoS, diferenciação das instâncias de serviços (SOA) e alocação dinâmica de serviços. Além disso, toda a caracterização do modo de operação do QBroker foi baseada no conceito de intermediação do modelo de referência de nuvem do NIST. O componente QBroker foi introduzido numa arquitetura de computação em nuvem BEQoS (Bursty Energy and Quality of Service), desenvolvida no Laboratório de Sistemas Distribuídos e Programação Concorrente do ICMC-USP de São Carlos. Avaliações de desempenho para a implementação da arquitetura QBroker foram conduzidas por meio de programas de simulação com uso da API do simulador CloudSim e da arquitetura CloudSim-BEQoS. Três cenários experimentais foram avaliados e, segundo a análise de resultados efetuada, foi possível validar que as características arquiteturais implementadas no QBroker resultaram em significativo impacto nas variáveis de resposta consideradas. Assim, foi possível comprovar que o uso do QBroker como mecanismo de mediação em ambientes de nuvem híbrida com SOA promoveu ganhos em desempenho para o sistema de nuvem e permitiu melhoria na qualidade dos serviços oferecidos. / This doctoral thesis proposes a cloud broker architecture for hybrid cloud computing environments. A cloud broker aims to perform mediation between clients and providers, receiving customer requests and forwarding them to the service provider that best suits the requested QoS requirements. The broker architecture services with QoS proposal is called QBroker. Implementation features of its mode of operation as well as its interaction with the virtual resources from a cloud environment are presented. The cloud deployment model was considered a hybrid cloud with a characterization of service-oriented architecture (SOA) in which remote services are available to customers. The task scheduling policy developed for QBroker was the intermediation of services, considering negotiations of QoS, differentiation of services instances and dynamic allocation of services. Moreover, the entire characterization of QBroker operation mode is based on the intermediation concept of the NIST cloud reference model. The QBroker component was introduced into a cloud computing architecture BEQoS (Bursty, Energy and Quality of Service), developed in the Laboratory of Distributed Systems and Concurrent Programming at ICMC-USP. Performance evaluations analysis the of results of QBroker architecture were conducted through simulation programs using the CloudSim simulator API and CloudSim-BEQoS architecture. Three experimental scenarios were evaluated and, according to analysis of the results, it was possible to validate that the architectural features implemented in QBroker resulted in significant impact on response variables considered. Thus, it was possible to prove that the use of QBroker as mediation mechanism in hybrid cloud environments with SOA promoted performance gains for the cloud system and allowed improvement in the quality of services offered.
|
327 |
Protocolo de difusão síncrona totalmente ordenada para aglomerados de alto desempenho / Synchronous total order broadcast protocol for high performance clustersCason, Daniel, 1987- 22 August 2018 (has links)
Orientador: Luiz Eduardo Buzato / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-22T08:23:33Z (GMT). No. of bitstreams: 1
Cason_Daniel_M.pdf: 1133475 bytes, checksum: 2c269ea2aec943999c502cd1944b09ae (MD5)
Previous issue date: 2013 / Resumo: Protocolos de Difusão Totalmente Ordenada (DTO) constituem o núcleo de diversas soluções que dão suporte ao desenvolvimento de aplicações distribuídas tolerantes a falhas. O longo período no qual este problema vem sendo objeto de pesquisa e a quantidade de algoritmos que foram para ele propostos atestam, não só a sua importância, mas também a dificuldade de se obter soluções eficientes para DTO. Este trabalho apresenta um novo algoritmo de DTO, que explora a sincronia e a confiabilidade inerentes ao ambiente dos aglomerados ou clusters de alto desempenho para construir uma solução bastante simples de Difusão Totalmente Ordenada, cujo desempenho experimental mostrou-se comparável ao obtido por soluções de DTO projetadas para modelos assíncronos de computação. O protocolo proposto destina-se ao modelo assíncrono temporizado de computação, aumentado com um mecanismo simples, baseado na difusão de pulsos, para sincronizá-la a execução dos processos. A hipótese que sustenta este mecanismo de sincronização é que os aglomerados modernos, dado que se controle a carga a eles aplicada, podem executar por períodos razoavelmente longos sem que ocorram falhas de processos e apresentando um comportamento bastante similar ao de sistemas síncronos. Dada esta hipótese, os processos que realizam Difusão Totalmente Ordenada tornam-se capazes de construir visões globais da computação distribuída, e a construção de visões globais, por sua vez, torna trivial a resolução de Difusão Totalmente Ordenada. O protocolo proposto tolera uma quantidade ilimitada de falhas de desempenho, que previnem o progresso da solução de DTO, mas que não levam à violação de suas propriedades de segurança, que são asseguradas na presença de assincronia e de falhas de processos. O protocolo foi implementado em Java e o seu desempenho foi avaliado em um aglomerado com máquinas interconectadas via Ethernet. A comparação dos resultados obtidos com os resultados de desempenho publicados para as principais soluções de DTO existentes nos permite afirmar que nossa solução representa um interessante compromisso entre desempenho experimental e simplicidade de projeto e implementação de soluções de Difusão Totalmente Ordenada. Além dos resultados de desempenho, esta pesquisa também revela que ainda há espaço para a exploração prática da interação entre sincronia e assincronia na engenharia de protocolos distribuídos / Abstract: Total order broadcast algorithms are at the core of several toolkits for the construction of fault-tolerant applications. The importance and the difficulty of finding efficient total order broadcast (TOB) algorithms is attested by the long period that such algorithms have been the object of intense research and by the large number of algorithms already proposed. This work presents a new algorithm for total order broadcast that takes advantage of the inherent reliability and timeliness of high performance clusters in its design. Experimental results show that the performance of this very simple TOB is on a par with the performance of TOBs designed for asynchronous computing models. The proposed protocol has been designed for the timed asynchronous computing model, enhanced with a simple pulse-based mechanism that is used to synchronize the processes' execution. The assumption behind the pulse-based synchronization is that modern clusters, given some workload conditioning, can maintain reasonably long failure-free execution periods in which they behave very much as synchronous system. This assumption allows the processes that engage in total order broadcasts to build a global view of their joint computation and this global view, in its turn, allows them to solve total order broadcast in a straightforward way. The protocol tolerates an unbounded number of timing failures, that can prevent its progress but have no impact on its safety, it is also safe in the in the presence of asynchrony, and processes failures. The protocol has been implemented in Java and tested on an Ethernet-based cluster. A comparison of the results obtained in the experiments with results published for other well-known TOBs allow us to conclude that our solution represents an interesting trade-o_ between performance and simplicity of design and implementation for total order broadcasts protocols. Beyond performance, this research seems to indicate that there is still room for the practical exploration of the interplay between synchronicity and asynchronicity in the engineering of distributed protocols / Mestrado / Ciência da Computação / Mestre em Ciência da Computação
|
328 |
Seleção adaptativa e interativa de serviços móveis em ambientes convergentes heterogêneos. / Adaptive and interactive mobile service selection in convergent and heterogeneous environments.Dutra, Rogério Garcia 19 January 2012 (has links)
A crescente mobilidade de pessoas e recursos materiais exige um esforço constante na exploração das capacidades oferecidas pelas diferentes tecnologias disponíveis, que convergem para o fornecimento de informações e serviços em qualquer lugar com movimento, a qualquer tempo, e por meio de qualquer dispositivo, objetivos da rede mundial de cooperação e comunicação, conhecida como Internet. Em resposta a essa crescente demanda, a atual Internet está evoluindo do modelo de compartilhamento de informações para o modelo de contribuição e em um futuro próximo, para o modelo de colaboração entre provedores e consumidores, denominada de Internet do Futuro. Embora a atual Internet seja extraordinariamente bem sucedida, como um meio ubíquo de comunicação, sua atual arquitetura impõe limites para o provisionamento de serviços em ambientes heterogêneos e convergentes, demandando novas soluções que superem os desafios tecnológicos necessários ao estabelecimento da Internet do Futuro. Estas novas soluções basear-se-ão nos princípios da computação orientada a serviços, formando os componentes de um novo arcabouço de serviços para a Internet do Futuro, denominada de Internet de Serviços. Na Internet de Serviços, redes de comunicação móveis, convergentes e heterogêneas serão criadas sob demanda, disponibilizando um elevado número de serviços, funcionalmente similares, porém distintos sob o ponto de vista não funcional, dificultando a seleção dos serviços que melhor atendem o nível qualidade de serviço acordado entre provedores e consumidores. Este trabalho propõe uma nova solução para o problema de seleção de serviços, combinando algoritmos, usualmente empregados para prospecção de dados, para selecionar serviços de forma dinâmica e interativa, com base em atributos não funcionais, visando suprir as necessidades de mobilidade e colaboração em ambientes convergentes e heterogêneos, como a Internet de Serviços. Desta forma, este trabalho contribui para o projeto de pesquisa da Internet de Serviços, um dos pilares fundamentais para a elaboração da nova arquitetura orientada a serviços, que servirá de arcabouço à construção da Internet do Futuro, possibilitando inúmeras aplicações como Serviços Baseados em Localização e Computação em Nuvem. / The increasing mobility of people and resources demands additional efforts in exploring new capacities, offered by different technologies, which allows the supply of information and services in any place, any time and through any device, objective of the worldwide collaboration and communication web, known as Internet. Face to this increasing demand, current Internet is evolving from sharing to contribution model and in the near future, to collaboration model between providers and consumers. Although the current Internet has been extraordinarily successful, as a ubiquitous and universal means for communication, its architecture imposes limits for services deployment in heterogeneous and convergent environments, demanding new solutions to overcome the technological issues for Internet of Future achievement. These new solutions will be based on service oriented computing principles, providing the components of the new service framework for Internet of Future, called Internet of Services. In Internet of Services, convergent and heterogeneous mobile communication networks will be created on demand, providing a huge numbers of services, similar from functional point of view, but very different from the nonfunctional point of view, creating challenges for service selection which fits the service level agreement between providers and consumers. This work proposes a new solution for service selection process, combining algorithms commonly used for data mining, to perform dynamic and interactive service selection, fulfilling the mobility and collaborative requirements in a convergent and heterogeneous environment, such as Internet of Services. Therefore, this work contributes to Internet of Services research project, one of fundamental pillars to build the service oriented architecture, which will be used as framework for Internet of Future building, allowing many applications such as Location Based Services and Cloud Computing.
|
329 |
Seleção adaptativa e interativa de serviços móveis em ambientes convergentes heterogêneos. / Adaptive and interactive mobile service selection in convergent and heterogeneous environments.Rogério Garcia Dutra 19 January 2012 (has links)
A crescente mobilidade de pessoas e recursos materiais exige um esforço constante na exploração das capacidades oferecidas pelas diferentes tecnologias disponíveis, que convergem para o fornecimento de informações e serviços em qualquer lugar com movimento, a qualquer tempo, e por meio de qualquer dispositivo, objetivos da rede mundial de cooperação e comunicação, conhecida como Internet. Em resposta a essa crescente demanda, a atual Internet está evoluindo do modelo de compartilhamento de informações para o modelo de contribuição e em um futuro próximo, para o modelo de colaboração entre provedores e consumidores, denominada de Internet do Futuro. Embora a atual Internet seja extraordinariamente bem sucedida, como um meio ubíquo de comunicação, sua atual arquitetura impõe limites para o provisionamento de serviços em ambientes heterogêneos e convergentes, demandando novas soluções que superem os desafios tecnológicos necessários ao estabelecimento da Internet do Futuro. Estas novas soluções basear-se-ão nos princípios da computação orientada a serviços, formando os componentes de um novo arcabouço de serviços para a Internet do Futuro, denominada de Internet de Serviços. Na Internet de Serviços, redes de comunicação móveis, convergentes e heterogêneas serão criadas sob demanda, disponibilizando um elevado número de serviços, funcionalmente similares, porém distintos sob o ponto de vista não funcional, dificultando a seleção dos serviços que melhor atendem o nível qualidade de serviço acordado entre provedores e consumidores. Este trabalho propõe uma nova solução para o problema de seleção de serviços, combinando algoritmos, usualmente empregados para prospecção de dados, para selecionar serviços de forma dinâmica e interativa, com base em atributos não funcionais, visando suprir as necessidades de mobilidade e colaboração em ambientes convergentes e heterogêneos, como a Internet de Serviços. Desta forma, este trabalho contribui para o projeto de pesquisa da Internet de Serviços, um dos pilares fundamentais para a elaboração da nova arquitetura orientada a serviços, que servirá de arcabouço à construção da Internet do Futuro, possibilitando inúmeras aplicações como Serviços Baseados em Localização e Computação em Nuvem. / The increasing mobility of people and resources demands additional efforts in exploring new capacities, offered by different technologies, which allows the supply of information and services in any place, any time and through any device, objective of the worldwide collaboration and communication web, known as Internet. Face to this increasing demand, current Internet is evolving from sharing to contribution model and in the near future, to collaboration model between providers and consumers. Although the current Internet has been extraordinarily successful, as a ubiquitous and universal means for communication, its architecture imposes limits for services deployment in heterogeneous and convergent environments, demanding new solutions to overcome the technological issues for Internet of Future achievement. These new solutions will be based on service oriented computing principles, providing the components of the new service framework for Internet of Future, called Internet of Services. In Internet of Services, convergent and heterogeneous mobile communication networks will be created on demand, providing a huge numbers of services, similar from functional point of view, but very different from the nonfunctional point of view, creating challenges for service selection which fits the service level agreement between providers and consumers. This work proposes a new solution for service selection process, combining algorithms commonly used for data mining, to perform dynamic and interactive service selection, fulfilling the mobility and collaborative requirements in a convergent and heterogeneous environment, such as Internet of Services. Therefore, this work contributes to Internet of Services research project, one of fundamental pillars to build the service oriented architecture, which will be used as framework for Internet of Future building, allowing many applications such as Location Based Services and Cloud Computing.
|
330 |
Proposta de protocolo de telemonitoramento sob demanda de sinais biomédicos usando internet das coisas, computação móvel e armazenamento em nuvem / Protocol proposal for on-demand remote monitoring of biomedical signals using internet of things, mobile computing and cloud storageMachado, Francisco Muller 28 April 2016 (has links)
Este trabalho apresenta a proposta de um protocolo de comunicação de dados integrando tecnologias de internet das coisas, computação móvel e armazenamento em nuvem, aplicado ao telemonitoramento sob demanda de sinais fisiológicos. O objetivo do trabalho foi adquirir, transmitir, armazenar, receber e permitir a visualização sob demanda, mantendo a integridade da representação do sinal biomédico para a análise médica, sem alterar a mobilidade do paciente em monitoramento. O trabalho utiliza um canal de ECG, para adquirir o sinal de eletrocardiografia do paciente, que é conectado via Bluetooth com um dispositivo de computação móvel. O dispositivo de computação móvel, com acesso a internet sem fio, envia o sinal fisiológico através do protocolo proposto para uma base segura de armazenamento de informações em nuvem, podendo ser acessada sob demanda por um especialista para realizar a avaliação médica. O telemonitoramento sob demanda permite ao especialista: visualizar e analisar dados recentes, como se fosse um monitoramento remoto em tempo real do paciente; e visualizar e analisar dados anteriores que estão armazenados na nuvem, semelhante à análise de um exame realizado previamente. O protocolo proposto possui características de segurança da informação, mantendo a integridade da representação no tempo do sinal fisiológico, ainda que dados sejam corrompidos. O trabalho envolveu o uso de tecnologias recentes aplicadas às necessidades de registros de sinais fisiológicos. Estas tecnologias estão em evolução, os padrões não estão consolidados, ocorrendo alterações à medida que novas necessidades vão sendo apresentadas, assim como novas soluções venham a ser desenvolvidas. Como dispositivo de computação móvel foi utilizado neste trabalho um tablet, podendo ser utilizado um smartphone. O protocolo para este trabalho foi utilizado com o sinal de um canal de eletrocardiografia, podendo ser modificado para atender outras necessidades, incluindo outros sinais fisiológicos. Neste trabalho foi utilizado como sinal fisiológico o sinal de um simulador de ECG. / This work shows a proposal for a data communication protocol integrating internet of things technologies, mobile computing and cloud storage, applied to on-demand remote monitoring physiological signals. The aim of this work was to acquire, transmit, store, receive and allow the on-demand visualization, keeping the integrity of the biomedical signals representation for medical analysis, without changing the mobility of the patient being monitored. The work uses an ECG channel to acquire the patient’s electrocardiography signal, which is linked via Bluetooth to a mobile computing device. The mobile computing device, with wireless internet access, sends the physiological signal through the proposed protocol to a safe base of cloud information storage, which can be accessed on demand by a specialist to do the medical evaluation. On-demand remote monitoring allows the specialist to visualize and analyze recent data, as if it were real time remote monitoring of the patient, and visualize and analyze previous data that are stored in the cloud, similar to an analysis of a previously made exam. The proposed protocol has information security features, keeping the integrity of the time representation of the physiological signal, even if the data are corrupted. The work involved the use of new technologies applied to the necessity of physiological signals record. These technologies are evolving. The patterns are not consolidated, and changes are made as new necessities are presented and new solutions developed. For this work, it was used a tablet as a computing mobile device. However, a smartphone could also be used. The protocol was used with an electrocardiography channel signal, which can be modified to attend other necessities, including other physiological signals. As a physiological signal, for this work, it was used an ECG simulator signal.
|
Page generated in 0.1079 seconds