Spelling suggestions: "subject:"redes : computador""
111 |
AAERO : ambiente de aprendizado para o ensino de redes de computadores orientado a problemasDutra, Renato Luís de Souza January 2002 (has links)
Atualmente, a sociedade tem experimentado uma grande transformação devido à crescente incorporação da tecnologia em seu cotidiano. Estas mudanças demonstram o grande avanço tecnológico experimentado nas últimas décadas, principalmente na área de Redes e Telecomunicações. Este contexto tem gerado uma crescente procura por profissionais desta área, com um perfil que privilegie, além do conhecimento técnico, outras habilidades consideradas importantes, como o pensamento crítico, o auto-aprendizado e a habilidade para trabalhar em equipe, habilidades estas que não são normalmente focadas nos cursos atuais. Estas habilidades são estimuladas nas abordagens centradas nos alunos, com destaque ao Problem-Based Learning (PBL), uma abordagem na qual o aluno é exposto a problemas, sem nenhum conhecimento prévio, e que, para resolvê-los, precisa pesquisar e analisar novas informações, visando sua aplicação na solução dos mesmos. Apesar da grande utilização do PBL em diversas instituições no mundo, existem poucas ferramentas de software que dão apoio para sua total aplicação. Por outro lado, mesmo sendo bem estruturado, o PBL não sugere indicações de como assimilar melhor novas experiências, de como buscar o conhecimento em experiências anteriores e como desenvolver problemas atuais e interessantes com características reais. Estas dificuldades podem ser minimizadas com a utilização do CBR (Case-Based Reasoning). Entre as aplicações CBR desenvolvidas especificamente na área de Redes de Computadores, pode-se destacar o sistema DUMBO, um sistema CBR, desenvolvido na UFRGS, especificamente para o diagnóstico de problemas em Redes de Computadores. A integração com o DUMBO permite à abordagem PBL ser aplicada com maior eficiência, utilizando sua biblioteca de casos como ferramenta de pesquisa e para a sugestão de novos problemas a partir de casos reais e atuais. Com base nestas afirmações, este trabalho apresenta a proposta e o desenvolvimento de um protótipo de ambiente de aprendizado para o ensino de Redes de Computadores, utilizando a abordagem PBL em conjunto com a abordagem CBR através do sistema DUMBO.
|
112 |
Leveraging relations among objects to improve the performance of information-centric networks / Utilizando relações entre objetos para melhorar o desempenho de redes orientadas a conteúdoAntunes, Rodolfo Stoffel January 2016 (has links)
Redes Orientadas a Conteúdo (Information-Centric Networks, ICN) são um novo paradigma de comunicação criado para aproximar as infraestruturas de rede às necessidades de sistemas de distribuição de conteúdo. ICN utiliza mecanismos de roteamento e cache projetados para atender requisições por objetos de dados unicamente identificados e desassociados de um localizador fixo. Até o momento, pesquisas sobre ICN focaram principalmente na avaliação de aspectos arquiteturais, tais como o desempenho de diferentes esquemas de roteamento e cache. Entretanto, o método aplicado para distribuir dados utilizando o conceito de objetos também pode impactar a comunicação em uma ICN. Esta tese explora um modelo que permite a distribuição de um conteúdo através de múltiplos objetos de dados. Emprega-se o conceito de relações, definidas como elos entre dois objetos indicando que os dados de um complementam de alguma forma os dados do outro. Tal modelo baseado em relações permite que clientes identifiquem e recuperem os objetos necessários para a reconstrução do conteúdo. Ele é agnóstico ao formato de dados das aplicações, suporta diferentes estruturas de relações e é retrocompatível com especificações atuais de arquiteturas ICN. Também discute-se os principais aspectos de projeto relativos à implementação do modelo na arquitetura NDN. Para avaliar o impacto de relações no desempenho da rede e aplicações, foi realizada uma série de experimentos com dois estudos de caso baseados em cenários relevantes da Internet atual, sendo eles: conteúdo multimídia e páginasWeb. O estudo de caso sobre conteúdo multimídia explora um cenário favorável, no qual relações apresentam uma sobrecarga negligível em contraste ao grande volume de dados dos conteúdos. Os resultados deste estudo de caso mostram que, em comparação com a implementação padrão do NDN, o uso de relações pode reduzir os tempos de download em 34% e o tráfego de rede em 43%. Por sua vez, o estudo de caso sobre páginasWeb explora um cenário no qual relações geram um impacto não negligível na rede e aplicações. A análise deste cenário mostra que, mesmo com a sobrecarga adicional gerada pelas relações, o mecanismo pode reduzir, em média, o tempo de download dos clientes em 28% e o tráfego de rede em 34%. / Information-Centric Networking (ICN) is a communication paradigm created to align the network infrastructures to the needs of content distribution systems. ICN employs routing and caching mechanisms tailored to fulfill requests for uniquely identified data objects not associated to a fixed locator. So far, research about ICN focused primarily on evaluating architectural aspects, such as the performance of di erent routing and caching schemes. However, the method applied to distribute data using the concept of objects can also impact communications in an ICN. In this thesis, we explore a model that enables the distribution of contents as multiple data objects. We employ the concept of relations, defined as links between two objects indicating that the data from one complements in some way the data from the other. Our model based on relations enables clients to identify and retrieve the data pieces required to reconstruct a content. It is application agnostic, supports di erent relation structures, and is backward-compatible with current ICN specifications. We also discuss the main design aspects related to the implementation of the model in the Named Data Networking (NDN) architecture. To evaluate how relations impact network and application performance, we perform a series of experiments with two case studies based on relevant scenarios from the current Internet, namely: multimedia content and Web pages. The multimedia case study explores a favorable scenario in which relations present a negligible overhead in contrast to the high volume of content data. Results from this case study show that, compared to the standard NDN implementation, relations can reduce download times by 34% and network tra c by 43%. In turn, the Web pages case study explores a scenario in which relations generate a non-negligible impact on the network and applications. The analysis of this scenario shows that, even with the additional overhead incurred by relations, the mechanism can reduce on average 28% client download time, and 34%, global network tra c.
|
113 |
SDEFIX : gerenciando fluxos elefantes em pontos de troca de tráfego baseados em redes defenidas por software / SDEFIX : manage elephant flows in SDN-Based IXP networksKnob, Luis Augusto Dias January 2016 (has links)
Os Pontos de Troca de Tráfego participam de maneira substancial e crítica no ecossistema da Internet, possibilitando conexões entre múltiplos Sistemas Autônomos (ASes, do inglês Autonomous Systems). O gerenciamento das redes de PTT possui como objetivos primários, o gerenciamento dos chamados fluxos elefante (do inglês, elephant flows). Fluxos elefante tendem a existir em número reduzido, porém correspondem à maioria do tráfego em uma infraestrutura de rede. O gerenciamento dos fluxos elefante envolve uma adequada identificação e quando necessário, um redirecionamento destes fluxos para caminhos mais apropriados, de forma a minimizar os possíveis impactos sobre os outros fluxos ativos na rede. Além disso, o gerenciamento de fluxos elefante tornou-se um importante objeto de discussão em PTTs baseados em redes SDN, principalmente porque estas redes dispõem de controladores que possuem uma visão consistente da rede subjacente, o que permite uma gerência destes fluxos de forma refinada. Nesta dissertação, será proposto, desenvolvido e avaliado um sistema de identificação dos fluxos elefante e seus respectivos caminhos de rede, em conjunto com um sistema de recomendação, que possui o objetivo de sugerir configurações alternativas para os fluxos elefante identificados anteriormente nas redes de PTTs baseadas em SDN. Neste sistema, o operador do PTT pode definir templates que em última instância definem como os caminhos dos fluxos elefante serão modificados para atender objetivos específicos. Por fim, será demonstrado que o sistema proposto pode auxiliar o operador do PTT a identificar, gerenciar e mitigar o impacto dos fluxos elefante da rede do PTT. / Internet Exchange Points (IXPs) play a key role in the current Internet architecture enabling cost-effective connections among multiple autonomous systems (ASes). Management of IXP networks is primarily concerned with the management of the so-called elephant flows. Such flows represent a small portion of the total flows of a IXP network but usually have high impact on the overall traffic. Managing elephant flows involves adequate identification and eventually rerouting of such flows to more appropriate locations to minimize the possible negative impact on the other (mice) flows active in the network. Elephant flow management becomes more important in SDN-based IXPs that require controllers to have a consistent view of the underlying network to allow fine-grained adjustment. In this master thesis, we propose, develop, and evaluate an identification system to identify elephant flows and their respectively paths, as well as a recommendation system to suggest alternative configurations to previously identified elephant flows in an SDN-based IXP network. In this solution, the IXP operator can define templates that ultimately define how elephant flows can be reconfigured to achieve a specific objective. We demonstrate that our system can help IXP operators to identify, handle and mitigate the impact of elephant flows in the IXP network.
|
114 |
Achieving predictable, guaranted and work-conserving performance in datacenter networks / Atingindo desempenho previsivel, garantido e com conservação de trabalhos em redes datacenterMarcon, Daniel Stefani January 2017 (has links)
A interferência de desempenho é um desafio bem conhecido em redes de datacenter (DCNs), permanecendo um tema constante de discussão na literatura. Diversos estudos concluíram que a largura de banda disponível para o envio e recebimento de dados entre máquinas virtuais (VMs) pode variar por um fator superior a cinco, resultando em desempenho baixo e imprevisível para as aplicações. Trabalhos na literatura têm proposto técnicas que resultam em subutilização de recursos, introduzem sobrecarga de gerenciamento ou consideram somente recursos de rede. Nesta tese, são apresentadas três propostas para lidar com a interferência de desempenho em DCNs: IoNCloud, Predictor e Packer. O IoNCloud está baseado na observação que diferentes aplicações não possuem pico de damanda de banda ao mesmo tempo. Portanto, ele busca prover desempenho previsível e garantido enquanto minimiza a subutilização dos recursos de rede. Isso é alcançado por meio (a) do agrupamento de aplicações (de acordo com os seus requisitos temporais de banda) em redes virtuais (VNs); e (b) da alocação dessas VNs no substrato físico. Apesar de alcançar os seus objetivos, ele não provê conservação de trabalho entre VNs, o que limita a utilização de recursos ociosos. Nesse contexto, o Predictor, uma evolução do IoNCloud, programa dinamicamente a rede em DCNs baseadas em redes definidas por software (SDN) e utiliza dois novos algoritmos para prover garantias de desempenho de rede com conservação de trabalho. Além disso, ele foi projetado para ser escalável, considerando o número de regras em tabelas de fluxo e o tempo de instalação das regras para um novo fluxo em DCNs com milhões de fluxos ativos. Apesar dos benefícios, o IoNCloud e o Predictor consideram apenas os recursos de rede no processo de alocação de aplicações na infraestrutura física. Isso leva à fragmentação de outros tipos de recursos e, consequentemente, resulta em um menor número de aplicações sendo alocadas. O Packer, em contraste, busca prover desempenho de rede previsível e garantido e minimizar a fragmentação de diferentes tipos de recursos. Estendendo a observação feita ao IoNCloud, a observação-chave é que as aplicações têm demandas complementares ao longo do tempo para múltiplos recursos. Desse modo, o Packer utiliza (i) uma nova abstração para especificar os requisitos temporais das aplicações, denominada TI-MRA (Time- Interleaved Multi-Resource Abstraction); e (ii) uma nova estratégia de alocação de recursos. As avaliações realizadas mostram os benefícios e as sobrecargas do IoNCloud, do Predictor e do Packer. Em particular, os três esquemas proveem desempenho de rede previsível e garantido; o Predictor reduz o número de regras OpenFlow em switches e o tempo de instalação dessas regras para novos fluxos; e o Packer minimiza a fragmentação de múltiplos tipos de recursos. / Performance interference has been a well-known problem in datacenter networks (DCNs) and one that remains a constant topic of discussion in the literature. Several measurement studies concluded that throughput achieved by virtual machines (VMs) in current datacenters can vary by a factor of five or more, leading to poor and unpredictable overall application performance. Recent efforts have proposed techniques that present some shortcomings, such as underutilization of resources, significant management overhead or negligence of non-network resources. In this thesis, we introduce three proposals that address performance interference in DCNs: IoNCloud, Predictor and Packer. IoNCloud leverages the key observation that temporal bandwidth demands of cloud applications do not peak at exactly the same time. Therefore, it seeks to provide predictable and guaranteed performance while minimizing network underutilization by (a) grouping applications in virtual networks (VNs) according to their temporal network usage and need of isolation; and (b) allocating these VNs on the cloud substrate. Despite achieving its objective, IoNCloud does not provide work-conserving sharing among VNs, which limits utilization of idle resources. Predictor, an evolution over IoNCloud, dynamically programs the network in Software-Defined Networking (SDN)-based DCNs and uses two novel algorithms to provide network guarantees with work-conserving sharing. Furthermore, Predictor is designed with scalability in mind, taking into consideration the number of entries required in flow tables and flow setup time in DCNs with high turnover and millions of active flows. IoNCloud and Predictor neglect resources other than the network at allocation time. This leads to fragmentation of non-network resources and, consequently, results in less applications being allocated in the infrastructure. Packer, in contrast, aims at providing predictable and guaranteed network performance while minimizing overall multi-resource fragmentation. Extending the observation presented for IoNCloud, the key insight for Packer is that applications have complementary demands across time for multiple resources. To enable multi-resource allocation, we devise (i) a new abstraction for specifying temporal application requirements (called Time-Interleaved Multi-Resource Abstraction – TI-MRA); and (ii) a new allocation strategy. We evaluated IoNCloud, Predictor and Packer, showing their benefits and overheads. In particular, all of them provide predictable and guaranteed network performance; Predictor reduces flow table size in switches and flow setup time; and Packer minimizes multi-resource fragmentation.
|
115 |
Efficient online embedding of secure virtual nteworks / Mapeamento eficiente e on-line de redes virtuais segurasBays, Leonardo Richter January 2013 (has links)
A virtualização de redes tem se tornado cada vez mais proeminente nos últimos anos. Tal técnica permite a criação de infraestruturas de rede que se adaptam a necessidades específicas de aplicações de rede distintas, além de dar suporte à instanciação de ambientes favoráveis para o desenvolvimento e avaliação de novas arquiteturas e protocolos. Apesar de esforços recentes (motivados principalmente pela busca de mecanismos para avaliar propostas relacionadas à Internet do Futuro) terem contribuído substancialmente para a materialização desse conceito, nenhum preocupou-se em conciliar alocação eficiente de recursos e satisfação de requisitos de segurança (e.g., confidencialidade). É importante ressaltar que, no contexto de redes virtuais, a proteção de infraestruturas de rede compartilhadas constitui condição fundamental para seu uso em larga escala. É de grande importância que o impacto negativo causado pelo aprovisionamento de segurança seja considerado no processo de mapeamento de redes virtuais, de forma a permitir o uso integral dos recursos físicos sem subestimar requisitos de capacidade. Portanto, nesta dissertação, são propostos um modelo ótimo e um al- goritmo heurístico para realizar o mapeamento de redes virtuais em substratos físicos que têm por objetivo otimizar a utilização de recursos físicos garantindo a satisfação de requisitos de segurança. Ambas as abordagens possuem uma modelagem precisa de custos adicionais associados a mecanismos de segurança usados para proteger re- des virtuais, e são capazes de atender requisições de redes virtuais de forma online. Além disso, são apresentados os resultados de um extensivo processo de avaliação realizado, incluindo uma comparação detalhada entre o modelo ótimo e o algoritmo heurístico. Os experimentos revelam que o modelo baseado em Programação Linear Inteira é capaz de alocar redes virtuais de forma ótima em substratos físicos com até cem roteadores, enquanto que o algoritmo heurístico é capaz de adaptar-se a infraestruturas maiores, provendo mapeamentos sub-ótimos em um curto espaço de tempo. / Network virtualization has become increasingly prominent in recent years. It enables the creation of network infrastructures that are specifically tailored to the needs of distinct network applications and supports the instantiation of favorable en- vironments for the development and evaluation of new architectures and protocols. Although recent efforts (motivated mainly by the search for mechanisms to eval- uate Future Internet proposals) have contributed substantially to materialize this concept, none of them has attempted to combine efficient resource mapping with ful- fillment of security requirements (e.g., confidentiality). It is important to note that, in the context of virtual networks, the protection of shared network infrastructures constitutes a fundamental condition to enable its use in large scale. Considering the negative impact of security provisions in the virtual network embedding process is of paramount importance in order to fully utilize physical re- sources without underestimating capacity requirements. Therefore, in this thesis we propose both an optimal model and a heuristic algorithm for embedding virtual networks on physical substrates that aim to optimize physical resource usage while meeting security requirements. Both approaches feature precise modeling of over- head costs of security mechanisms used to protect virtual networks, and are able to handle virtual network requests in an online manner. In addition, we present the results of an extensive evaluation we carried out, including a detailed comparison of both the optimal model and the heuristic algorithm. Our experiments show that the Integer Linear Programming (ILP) model is capable of optimally embedding virtual networks on physical infrastructures with up to a hundred routers, while the heuristic algorithm is capable of scaling to larger infrastructures, providing timely, sub-optimal mappings.
|
116 |
Análise de desempenho da camada de segurança de aplicações DPWS / Performance analysis of security layer of DPWS applicationMarcelo, Alisson January 2013 (has links)
A disseminação dos dispositivos embarcados por diferentes domínios de aplicação torna necessário que a interação entre eles dispense ao máximo a intervenção humana. Diversos protocolos e tecnologias foram criados para a atingir este objetivo. Uma destas tecnologias é o Device Profile for Web Services (DPWS), que tem tido relativa aceitação tanto em ambientes industriais quanto residenciais. A expressividade e flexibilidade do DPWS tem permitido integrar dispositivos com recursos reduzidos diretamente com os sistema de gerenciamento das organizações. Com a diversidade dos dispositivos disponíveis e o crescimento das aplicações de redes sem fio, torna-se importante que os dados possam ser protegidos para manter a sua integridade e sigilo. Em aplicações como controle de processos, aquisição de dados estratégicos, medição de consumo de energia, entre outras, os prejuízos causados por interferências indevidas justificam a aplicação de estratégias de proteção dos dados, mesmo com o custo que elas podem gerar. Neste trabalho, são estudados os impactos da união da flexibilidade e expressividade do DPWS com a criptografia e compressão, fornecendo subsídios para que seja avaliado o custo de cada combinação destas soluções para definir quais níveis de proteção e otimização são mais adequados a cada cenário em que o DPWS possa ser aplicado. Ao fim do estudo realizado, demonstra-se o custo da criptografia na proteção dos dados, avaliando-se diferentes suítes de cifragem nas quais os algoritmos RC4 e o AES se mostram como opções viáveis em ambientes embarcados apesar do custo inerente ao processo de criptografia. Outro ponto importante é a comprovação estatística de que a compressão dos dados propicia um ganho de desempenho com redução de banda ocupada capaz de compensar o custo computacional da sua aplicação. Estas análises comprovam que o uso do tráfego seguro não pode ser aplicado a todos os casos devido às suas exigências de recursos. Em certas aplicações é possível achar um ponto intermediário onde se garanta apenas a autenticidade dos dados, deixando a criptografia completa para os casos mais críticos. Por fim, a conclusão à qual se chega é que o DPWS pode ser um substituto para as opções atuais de gerenciamento, sobre as quais tem como principal vantagem a capacidade de crescer em representatividade e complexidade de acordo com os recursos computacionais disponíveis. / The growth of use of embedded devices in several application domains makes necessary the reduction of human interaction for the devices control and has motivated the development of new technologies to achieve this goal. The Device Profile for Web Services (DPWS) is one of such technologies. It has been adopted on both industrial and home applications due to its flexibility, scalability and interoperability that allows the direct integration between deeply embedded devices and enterprise management systems. The remote device management requires a high level of data protection that could guarantee the integrity and confidentiality needed by industrial applications. In applications such as process control, strategic data acquisition, power consumption measurement, the possible harm caused by undue interference justify the use of data protection strategies despite the increasing of cost added by security technologies. This paper presents the results of a statistically proven study on the security layer applications of DPWS embedded devices using compressed data. The main objective of this work is to provide the background required to DPWS secure devices design, estimating the impact of many combinations of compression and security algorithms such as gzip, RC4 and AES. It proves that these technologies fit in embedded devices applications when data security is a strong requirement. Additionally, it is shown that performance degradation caused by data compression is compensated by the reduction of the amount of data to be encrypted. Best results were obtained when the compressed data fit in one Ethernet packet. Finally, is concluded that DPWS can replace the current alternatives to process management, having the advantages of scalability direct connection between deeply embedded devices and enterprise management systems.
|
117 |
SDEFIX : gerenciando fluxos elefantes em pontos de troca de tráfego baseados em redes defenidas por software / SDEFIX : manage elephant flows in SDN-Based IXP networksKnob, Luis Augusto Dias January 2016 (has links)
Os Pontos de Troca de Tráfego participam de maneira substancial e crítica no ecossistema da Internet, possibilitando conexões entre múltiplos Sistemas Autônomos (ASes, do inglês Autonomous Systems). O gerenciamento das redes de PTT possui como objetivos primários, o gerenciamento dos chamados fluxos elefante (do inglês, elephant flows). Fluxos elefante tendem a existir em número reduzido, porém correspondem à maioria do tráfego em uma infraestrutura de rede. O gerenciamento dos fluxos elefante envolve uma adequada identificação e quando necessário, um redirecionamento destes fluxos para caminhos mais apropriados, de forma a minimizar os possíveis impactos sobre os outros fluxos ativos na rede. Além disso, o gerenciamento de fluxos elefante tornou-se um importante objeto de discussão em PTTs baseados em redes SDN, principalmente porque estas redes dispõem de controladores que possuem uma visão consistente da rede subjacente, o que permite uma gerência destes fluxos de forma refinada. Nesta dissertação, será proposto, desenvolvido e avaliado um sistema de identificação dos fluxos elefante e seus respectivos caminhos de rede, em conjunto com um sistema de recomendação, que possui o objetivo de sugerir configurações alternativas para os fluxos elefante identificados anteriormente nas redes de PTTs baseadas em SDN. Neste sistema, o operador do PTT pode definir templates que em última instância definem como os caminhos dos fluxos elefante serão modificados para atender objetivos específicos. Por fim, será demonstrado que o sistema proposto pode auxiliar o operador do PTT a identificar, gerenciar e mitigar o impacto dos fluxos elefante da rede do PTT. / Internet Exchange Points (IXPs) play a key role in the current Internet architecture enabling cost-effective connections among multiple autonomous systems (ASes). Management of IXP networks is primarily concerned with the management of the so-called elephant flows. Such flows represent a small portion of the total flows of a IXP network but usually have high impact on the overall traffic. Managing elephant flows involves adequate identification and eventually rerouting of such flows to more appropriate locations to minimize the possible negative impact on the other (mice) flows active in the network. Elephant flow management becomes more important in SDN-based IXPs that require controllers to have a consistent view of the underlying network to allow fine-grained adjustment. In this master thesis, we propose, develop, and evaluate an identification system to identify elephant flows and their respectively paths, as well as a recommendation system to suggest alternative configurations to previously identified elephant flows in an SDN-based IXP network. In this solution, the IXP operator can define templates that ultimately define how elephant flows can be reconfigured to achieve a specific objective. We demonstrate that our system can help IXP operators to identify, handle and mitigate the impact of elephant flows in the IXP network.
|
118 |
Performance management of IT service processes using a mashup-based approach / Gerenciamento de Desempenho e modelagem quantitativa de processos de gerência de TI usando MashupsSantos, Carlos Raniery Paula dos January 2013 (has links)
Modernas provedoras de serviços de TI estão sob constante pressão para aumentar sua competitividade. Meios de reduzir os custos e aumentar o desempenho (i.e., produtividade e qualidade) dos serviços oferecidos são temas centrais na indústria de TI. Contudo, apesar de todos os esforços feitos até hoje, modelar e otimizar processos de TI que envolvem operadores humanos continua sendo uma tarefa complexa. O humano pode ser influenciado por inúmeros fatores e executar o processo de uma forma diferente a cada vez, portanto, introduzindo uma significativa variabilidade no resultado final do processo. Apesar de todas as pesquisas feitas até hoje terem introduzido melhorias significativas no gerenciamento de serviços, ainda restam muitos desafios (e.g., mudanças rápidas, limites orçamentários, falta de conhecimento, complexidade dos sistemas, atuais e futuros requisitos dos usuários e finalmente aumento nas expectativas dos usuários) que não foram completamente resolvidos pelos esforços atuais. Dentre todas as tecnologias disponíveis atualmente, uma em especial, conhecida como Web 2.0, ainda não foi investigada pela indústria e pela acadêmia no contexto da gerência de serviços de TI. Dentre todas as tecnologias e aplicações que definem aWeb 2.0, uma é de especial interesse nesta tese: os mashups. Mashups sao aplicacoes Web criadas a partir da composicao de recursos disponiveis online (e.g., mapas interativos, Web services, paginas HTML). Facilidade de uso, extensibilidade e desenvolvimento específico de contexto são exemplos de características apresentadas pelos mashups que os candidatam como uma solução viável para aprimorar o gerenciamento de serviços de TI. Desta forma, o objetivo desta tese é investigar a aplicabilidade de mashups como uma solução efetiva para melhorar o desempenho (i.e., em termos de produtividade e confiabilidade) de atividades de gerência de serviços de TI que envolvem operadores humanos. Em particular, esta tese tem como objetivo definir soluções de gerenciamento necessárias para melhorar e avaliar o desempenho de processos de TI. Especificamente, esta tese foca nos passos do processo que podem ser medidos através de observação ou intrumentação e que podem ser aprimorados através de projeto e automação. As soluções de gerenciamento introduzidas são investigadas através de um estudo de caso real, relacionado ao processo de Cumprimento de Requisição. O foco deste estudo de caso é nos operadores humanos com a responsabilidade de receber as requisições dos clientes e encaminhá-las paras administradores de sistema responsáveis por resolver as requisições. Neste contexto, os mashups são investigados como uma solução efetiva para lidar com ineficiências e erros introduzidos pelos operadores humanos enquanto executam suas atividades diárias relacionadas à gerência de serviços de TI. Foi realizada uma extensa investigação das tarefas realizadas por um grupo de especialistas em um centro global de suporte e entrega de serviços de TI. Os resultados demonstram a viabilidade da tecnologia de mashups como solução para aprimorar a gerência de serviços de TI. / Modern IT service provider organizations are under a continuous pressure to increase their competitiveness. Ways to reduce costs while improving performance – in terms of productivity and quality – of services are a key focus area for companies in the IT industry. However, despite all the solutions that have been proposed, modelling and optimizing human-centered processes remains a burdensome task. The human operator may be influenced by multiple factors and execute the process in a different way each time, thus introducing a significant variability in the final process outcome. Although the research proposed so far have introduced improvements on service management, there are several challenges (e.g., rapid change, budgetary constraints, skill shortages, system complexity, current and future user requirements, and growing user expectations) that are not completely covered by the current efforts. Among the new technologies available today, a set of novel ones, referred to as Web 2.0, has not yet been investigated by both industry and academia in the ITSM context. In the myriad of technologies and applications that define the Web 2.0, one is of special interest in this thesis: the mashups. Mashups are Web applications created through the composition of preexisting Web resources (e.g., interactive maps, Web services, traditional HTML pages, or even Flash presentations). Easiness of use, extensibility, and context specific development are examples of characteristics presented by mashups that candidate them to be a viable technology for improving IT Service Management. Therefore, the goal of this thesis is to investigate the feasibility of mashups as an effective approach to improve performance (i.e., in terms of productivity and reliability) of human-centered ITSM activities. In particular, this thesis aims to define management solutions required to deliver and demonstrate improvements in performance of humancentered ITSM processes. Specifically, the focus is on individual steps in the process that can be assessed through instrumentation or observation, and can be improved through design and automation. The analysis of exogenous events are not addressed, such as answering telephone calls or other interruptions. The introduced management solutions are examined through a real case study, related to the Request Fulfillment process. The focus of this case study is on dispatch, an activity centered on human operators called dispatchers, with knowledge of standard fulfillment procedures. In this context, mashups are analyzed as an effective approach to cope with inefficiencies and errors introduced by human operators while performing their daily activities in the context of ITSM. An extensive analysis of tasks performed by a group of Subject Matter Experts (SMEs) in a global IT Service Support and Delivery organization was performed. The results demonstrate the viability of the mashups technology as a means for improving IT Service Management.
|
119 |
Uma ferramenta peer-to-peer para gerenciamento cooperativo de redes / A Peer-to-Peer Tool for Cooperative Network ManagementVilanova, Felipe Jung January 2006 (has links)
Com o crescimento em número e diversidade dos componentes das redes de computadores, surge a necessidade de buscar uma maneira consistente de realizar seu gerenciamento para, com isso, manter toda sua estrutura funcionando de forma suave e atendendo às necessidades de seus usuários e às expectativas de seus administradores. Em aspectos gerais, as abordagens centralizadas têm se mostrado inadequadas para o gerenciamento de redes de computadores com um grande número de nós ou com grande diversidade de dispositivos. A necessidade de distribuição da gerência torna-se, assim, evidente, onde vários operadores administram cooperativamente a rede, cada um sendo responsável por um segmento da mesma, mas que precisam poder inspecionar os demais segmentos para poder resolver problemas distintos. Por isso a necessidade de um sistema de suporte ao gerenciamento cooperativo, que forneça suporte à interação dos administradores, independente de tempo e da localização dos participantes. É esse sistema que determinará como os administradores vão se comunicar, distribuir responsabilidades, compartilhar informações, e utilizar as ferramentas disponíveis. Nesse contexto, esta dissertação de mestrando apresenta a proposta de um ambiente de gerenciamento distribuído e cooperativo, baseado na tecnologia P2P. Esse ambiente oferece quatro serviços: compartilhamento de arquivos de configuração de dispositivos, compartilhamento de registros de dispositivos, configuração de dispositivos e solicitação de reserva de banda. A partir da proposta do ambiente foi implementada em Java, utilizando a plataforma de desenvolvimento JXTA, uma aplicação para a realização de testes, com o objetivo de confirmar a possibilidade de utilização da aplicação para realizar o gerenciamento de redes. Os parâmetros observados nas avaliações de desempenho foram o tráfego gerado e o tempo de resposta. Os resultados dos testes comprovaram a possibilidade da utilização de sistemas P2P para facilitar o gerenciamento cooperativo de redes e foram bastante satisfatórios com relação aos parâmetros avaliados. / With the increasing number and diversity of components of the computer networks, comes the necessity to find a consistent way to manage modern networks. This is required in order to keep all network infrastructures working in a proper and smooth way, while taking care of to the network users’ necessities and filling the network administrators’ expectations. In general aspects, the centralized management approaches are inadequate for the management of networks with a great number of nodes or great diversity of devices. The necessity of a distributed management thus becomes evident. In such distributed management, a group of administrators manages a single network in a cooperative fashion, each administrator being responsible for a segment of the managed network but at the same time being able to inspect other remote segments in order to solve non-overlapping problems. That is the motivation for having management systems with proper cooperative management support that allows interactions among administrators independent of time and location. Such a system will determine how administrators will communicate to delegate responsibilities, share information, and use the available tools. In this context, this dissertation presents the proposal of a distributed and cooperative management environment based on P2P technology. This environment offers four services: sharing of device configuration files, sharing of registered devices, configuration of devices, and bandwidth reservation. Based on the proposed environment, a Java application, using the JXTA development platform, has been implemented. This application allowed us to test and confirm the possibility of using P2P technologies for network management. In addition, the performance of the implemented solution has been measured considering the generated management traffic and response time. The results from the evaluation tests had proven the possibility of the use of P2P systems to facilitate the cooperative network management and had been sufficiently satisfactory in relation to the evaluated parameters.
|
120 |
TCP HolyWoodNúñez Mori, Oscar January 2005 (has links)
Apresentamos um novo Protocolo de Controle de Transporte fim-a-fim, implementado somente do lado do transmissor, chamado TCP HolyWood ou, abreviadamente, TCP-HW. Em um ambiente de rede cabeada simulada, TCP HolyWood supera em vazão media três dos mais importantes protocolos TCPs já elaborados. Estamos falando de TCP Reno, TCP Westwood, e TCP Vegas; e em variação de retardo media ao TCP Reno bem como ao TCP Vegas. Alem disso, de acordo com o índice de Jain, nossa proposta e tão imparcial quanto o padrão, TCP Reno. / We introduce a new end-to-end, sender side Transport Control Protocol called TCP HolyWood or in short TCP-HW. In a simulated wired environment, TCP HolyWood outperforms in average throughput, three of the more important TCP protocols ever made, we are talking about TCP Reno, TCP Westwood, and TCP Vegas; and in average jitter to TCP Reno and TCP Vegas too. In addition, according to Jain’s index, our proposal is as fair as TCP Reno, the Standard.
|
Page generated in 0.0652 seconds