• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 424
  • 68
  • 48
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • Tagged with
  • 545
  • 250
  • 243
  • 220
  • 127
  • 88
  • 76
  • 66
  • 57
  • 57
  • 55
  • 51
  • 40
  • 38
  • 37
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
371

Um serviço de self-healing baseado em P2P para manutenção de redes de computadores / A P2P based self-healing service for coputer networks maintenance

Duarte, Pedro Arthur Pinheiro Rosa January 2015 (has links)
Observou-se nos últimos anos um grande aumetno na complexidade das redes. Surgiram também novos desa os para gerenciamento dessas redes. A dimensão atual e as tendências de crescimento das infraestruturas tem inviabilizado as técnicas de gerencimento de redes atuais, baseadas na intervenção humana. Por exemplo, a heterogeneidade dos elementos gerenciados obrigam que administradores e gerentes lidem com especi cidades de implanta ção que vão além dos objetivos gerenciais. Considerando as áreas funcionais da gerência de redes, a gerência de falhas apresenta impactos operacionais interessantes. Estima-se que 33% dos custos operacionais estão relacionados com a prevenção e recuperação de falhas e que aproximadamente 44% desse custo visa à resolução de problemas causados por erros humanos. Dentre as abordagens de gerência de falhas, o Self-Healing objetiva minimizar as interações humanas nas rotinas de gerenciamento de falhas, diminuindo dessa forma erros e demandas operacionais. Algumas propostas sugerem que o Self-Healing seja planejado no momento do projeto das aplicações. Tais propostas são inviáveis de aplicação em sistemas legados. Otras pesquisas sugerem à análise e instrumentação das aplicações em tempo de execução. Embora aplicáveis a sistemas legados, análise e instrumentação em tempo de execução estão fortemente acopladas as tecnologias e detalhes de implementação das aplicações. Por esse motivo, é difícil aplicar tais propostas, por exemplo, em um ambiente de rede que abrange muitas entidades gerenciadas implantadas através de diferentes tecnologias. Porém, parece plausível oferecer aos adminitradores e gerentes facilidades através das quais eles possam expressar seus conhecimentos sobre anoamlias e falhas de aplicações, bem como mecanismos através dos quais esses conhecimentos possam ser utilizado no gerenciamento de sistemas. Essa dissertação de mestrado tem como objetivo apresentar e avaliar uma solução comum que introduza nas redes capacidades de self-healing. A solu- ção apresentada utiliza-se de workplans para capturar o conhecimento dos administradores em como diagnosticar e recuperar anomalias e falhas em redes. Além disso, o projeto e implementação de um framework padrão para detecção e noti cação de falhas é discutido no âmbito de um sistema de gerenciamento baseado em P2P. Por último, uma avaliação experimental clari ca a viabilidade do ponto de vista operacional. / In recent years, a huge raise in networks' complexity was witnessed. Along the raise in complexity, many management challenges also arose. For instance, managed entities' heterogeneity demands administrators and managers to deal with cumbersome implementation and deployment speci cities. Moreover, infrastructures' current size and growth-trends show that it is becoming infeasible to rely on human-in-the-loop management techniques. Inside the problem domain of network management, Fault Management is appealing because of its impact in operational costs. Researches estimate that more than 33% of operational costs are related to preventing and recovering faults, where about 40% of this investment is directed to solve human-caused operational errors. Hence, addressing human interaction is mostly unarguably a need. Among di erent approaches, Self-Healing, a property of Autonomic Network Management's proposal, targets to avoid humans' interactions and decisions on Fault Management loops, thereupon unburden administrators and managers from performing Fault Management-related tasks. Some researches on Self-Healing enabling approaches suppose that Fault Management capabilities should be planned in design-time. These approaches are impossible to apply on legacy systems. Other researches suggest runtime analysis and instrumentation of applications' bytecode. Albeit applicable to some legacy systems, these last proposals are tightly-coupled to implementation's issues of underlaying technologies. For this reason, it is hard to apply such proposals end-toend, for example, in a scenario encompassing many managed entities implemented through di erent technologies. However, it is possible to o er to administrators and managers facilities to express they knowledge about networks' anomalies and faults, and facilities to leverage this knowledge. This master dissertation has as objective to present and evaluate a solution to imbue network management systems with self-healing capabilities. The solution relies on workplans as a mean to gather administrators and managers' knowledge on how to diagnose and heal networks' anomalies and faults. Besides that, the design and implementation of a standard framework for fault detection and noti cation customization is discussed while considering a P2P-Based Network Management System as its foundations. At last, an experimental evaluation renders clear the proposal's feasibility from the operational point of view.
372

An effective approach for network management based on situation management and mashups

Rendon, Oscar Mauricio Caicedo January 2015 (has links)
The Situation Management discipline is intended to address situations happening or that might happen in dynamic systems. In this way, this discipline supports the provisioning of solutions that enable analyzing, correlating, and coordinating interactions among people, information, technologies, and actions targeted to overcome situations. Over recent years, the Situation Management has been employed in diverse domains ranging from disaster response to public health. Notwithstanding, up to now, it has not been used to deal with unexpected, dynamic, and heterogeneous situations that network administrators face in their daily work; in this thesis, these situations are referred to as network management situations. The mashup technology also allows creating solutions, named mashups, aimed to cope with situations. Mashups are composite Web applications built up by end-users through the combination of Web resources available along the Internet. These composite Web applications have been useful to manage situations in several domains ranging from telecommunication services to water floods. In particular, in the network management domain, the mashup technology has been used to accomplish specific tasks, such as botnet detection and the visualization of traffic of the border gateway protocol. In the network management domain, large research efforts have been made to automate and facilitate the management tasks. However, so far, none of these efforts has carried out network management by means of the Situation Management and the mashup technology. Thus, the goal of this thesis is to investigate the feasibility on using the Situation Management and mashups as an effective (in terms of complexity, consuming of time, traffic, and time of response) approach for network management. To achieve the raised goal, this thesis introduces an approach formed by mashments (special mashups devised for coping with network management situations), the Mashment Ecosystem, the process to develop and launch mashments, the Mashment System Architecture, and the Mashment Maker. An extensive analysis of the approach was conducted on networks based on the Software-Defined Networking paradigm and virtual nodes. The results of analysis have provided directions and evidences that corroborate the feasibility of using the Situation Management and mashups as an effective approach for network management.
373

Uma abordagem escalável para controle de acesso muitos para muitos em redes centradas de informação

Silva, Rafael Hansen da January 2016 (has links)
Um dos principais desafios em Redes Centradas em Informação (ICN) é como prover controle de acesso à publicação e recuperação de conteúdos. Apesar das potencialidades, as soluções existentes, geralmente, consideram um único usuário agindo como publicador. Ao lidar com múltiplos publicadores, elas podem levar a uma explosão combinatória de chaves criptográficas. As soluções projetadas visando a múltiplos publicadores, por sua vez, dependem de arquiteturas de redes específicas e/ou de mudanças nessas para operar. Nesta dissertação é proposta uma solução, apoiada em criptografia baseada em atributos, para controle de acesso a conteúdos. Nessa solução, o modelo de segurança é voltado a grupos de compartilhamento seguro, nos quais todos os usuários membros podem publicar e consumir conteúdos. Diferente de trabalhos anteriores, a solução proposta mantém o número de chaves proporcional ao de membros nos grupos e pode ser empregada em qualquer arquitetura ICN de forma gradual. A proposta é avaliada quanto ao custo de operação, à quantidade de chaves necessárias e à eficiência na disseminação de conteúdos. Em comparação às soluções existentes, ela oferece maior flexibilidade no controle de acesso, sem aumentar a complexidade do gerenciamento de chaves e sem causar sobrecustos significativos à rede. / One of the main challenges in Information-Centric Networking (ICN) is providing access control to content publication and retrieval. In spite of the potentialities, existing solutions often consider a single user acting as publisher. When dealing with multiple publishers, they may lead to a combinatorial explosion of cryptographic keys. Those solutions that focus on multiple publishers, on the other hand, rely on specific network architectures and/or changes to operate. In this dissertation, it is proposed a solution, supported by attribute-based encryption, for content access control. In this solution, the security model is focused on secure content distribution groups, in which any member user can publish to and retrieve from. Unlike previous work, the proposed solution keeps the number of cryptographic keys proportional to the number of group members, and may even be adopted gradually in any ICN architecture. The proposed solution is evaluated with respect to the overhead it imposes, number of required keys, and efficiency in the content dissemination. In contrast to existing solutions, it offers higher access control flexibility, without increasing key management process complexity and without causing significant network overhead.
374

A new cross-layer adaptive architecture to guarantee quality of service in WiMAX networks / Uma nova arquitetura adaptativa entre camadas para garantir qualidade de serviço em redes WiMAX

Both, Cristiano Bonato January 2011 (has links)
Redes sem fio devem prover qualidade de serviço para aplicações de voz, video e dados. Um padrão definido para oferecer qualidade de serviço nessas redes é o documento IEEE 802.16. Com o objetivo de melhorar a qualidade de transmissão, este padrão utiliza dois principais mecanismos físicos: (i) Orthogonal Frequency Division Multiple Access como interface física e (ii) a possibilidade de ajustar a robustez da transmissão em relação as imperfeições físicas que podem comprometer a transmissão. Além disso, o padrão define um conjunto de componentes na estação base, tal como alocadores, escalonadores e controles de admissões que devem ser modelados para prover uma arquitetura que garanta qualidade de serviço. Entretanto, o padrão não define nem os algoritmos de cada componente, nem a integração entre estes componentes. Investigações objetivando prover qualidade de serviço tem sido propostas no contexto de redes IEEE 802.16. A literatura sobre redes IEEE 802.16 móveis mostra que as atuais pesquisas estão focadas em soluções específicas para cada componente, ou em soluções com integrações parciais. O foco destas soluções é prover a melhor alternativa para problemas individuais para um componente particular. Entretanto, em todos os estudos realizadas nesta tese, não encontrou-se nenhuma pesquisa endereçando propostas sobre a qualidade de serviço global considerando a diversidade dos requisitos de tráfegos das aplicações e as condições de propagação do canal de rádio frequência. Neste contexto, essa tese propõe uma nova arquitetura para garantir qualidade de serviço em uma estão base que deve ser modelada usando uma infraestrutura entre camada para adaptar-se aos requisitos dinâmicos do tráfego, bem como as condições do canal de rádio frequência. O objetivo é integrar os componentes definidos pelo padrão com os mecanismos físicos. Outro objetivo é analisar a arquitetura proposta, através de uma metodologia de avaliação que é baseada segundo a especificação do sistema de avaliação do fórum Worldwide Interoperability for Microwave Access. Assim, a análise da nova arquitetura adaptativa entre camadas é realizada e os resultados mostram a eficiência na alocação dos dados, bem como o mínimo atraso e jitter gerado nas aplicações de tempo real. / Wireless networks must provide quality of service to voice, video and data applications. A standard defined to offer quality of service in these networks is the IEEE 802.16 document. In order to improve the quality of transmission, this standard uses two main physical mechanisms: (i) Orthogonal Frequency Division Multiple Access as physical interface and (ii) the possibility of adjusting the transmission robustness to face the physical impairments that may compromise the transmission. Moreover, the standard defines a set of components in the base station, such as allocators, schedulers, and connection admission controllers that must be modeled to provide an architecture that guarantees quality of service. However, the standard does not define either the algorithm running inside each one of the components nor the integration among them. Investigations aiming to provide quality of service have been proposed in the context of IEEE 802.16 networks. The literature on mobile IEEE 802.16 networks shows that the current research is focused on specific solutions for each component or in solutions with partial integration. The focus of those solutions is to provide the best alternative for individual problems of a particular component. However, to the best of our knowledge, no research addressing the overall quality of service architecture considering both the diversity of applications traffic requirements and the propagation conditions of the radio frequency channel has been proposed so far. In this context, this thesis proposes a new architecture to guarantee quality of service in the base station that must be modeled using a cross-layer infrastructure able to adapt to the dynamics of traffic requirements as well as to the radio frequency channel conditions. The aim is to integrate the components defined by the standard with the physical mechanisms. Another objective is to evaluate the proposed architecture, through an evaluation methodology that is defined following the specification of the system evaluation of the Worldwide Interoperability for Microwave Access forum. Therefore, the analysis on the new cross-layer adaptive architecture is performed and the results show efficient data allocation as well as a minimal delay and jitter for real-time applications.
375

Decentralized detection of violations f service level agreements using peer-to-peer technology

Nobre, Jéferson Campos January 2016 (has links)
Critical networked services established between service provider and customers are expected to operate respecting Service Level Agreements (SLAs). An interesting possibility to monitor such SLAs is using active measurement mechanisms. However, these mechanisms are expensive in terms of network devices resource consumption and also increase the network load because of the injected traffic. In addition, if the number of SLA violations in a given time is higher than the number of available measurement sessions (common place in large and complex network infrastructures), certainly some violations will be missed. The current best practice, the observation of just a subset of network destinations driven by human administrators expertise, is error prone, does not scale well, and is ineffective on dynamic network conditions. This practice can lead to SLA violations being missed, which invariably affect the performance of several applications. In the present thesis, we advocated the use of Peer-to-Peer (P2P) technology to improve the detection of SLA violations. Such use is described using principles to control active measurement mechanisms. These principles are accomplished through strategies to activate measurement sessions. In this context, the major contributions of this thesis are: i) An approach to improve the detection of SLA violations through the steering of the activation of active measurement sessions using local and remote past service level measurement results and resource utilization constraints; ii) The concept of destination rank as an approach to autonomically prioritize destinations for the activation of active measurement sessions using destination scores; iii) The concept of correlated peers to enable the autonomic provisioning of a P2P measurement overlay for the exchange of relevant active measurement results; iv) The concept of virtual measurement sessions to enable the sharing of measurement results among correlated peers in order to save network devices resources and to improve SLA monitoring coverage; v) The definition of decentralized strategies to steer the activation of active measurement sessions using P2P principles. The method used on the investigation started with the execution of literature reviews on the networkwide control of measurement mechanisms and the employment of P2P technology on network management. After that, the proposed principles to control active measurement mechanisms and the strategies to activate measurement sessions were described. Finally, experiments were performed to evaluate the performance as well as to highlight properties of such principles and strategies. The findings showed properties which improve the detection of SLA violations in terms of the number of detected violations and the adaptivity to network dynamics. We expect that such findings can lead to better SLA monitoring tools and methods.
376

Atlantic : a framework for anomaly traffic detection, classification, and mitigation in SDN / Atlantic : um framework para detecção, classificação e mitigação de tráfego anômalo em SDN

Silva, Anderson Santos da January 2015 (has links)
Software-Defined Networking (SDN) objetiva aliviar as limitações impostas por redes IP tradicionais dissociando tarefas de rede executadas em cada dispositivo em planos específicos. Esta abordagem oferece vários benefícios, tais como a possibilidade de uso de protocolos de comunicação padrão, funções de rede centralizadas, e elementos de rede mais específicos e modulares, tais como controladores de rede. Apesar destes benefícios, ainda há uma falta de apoio adequado para a realização de tarefas relacionadas à classificação de tráfego, pois (i) as características de fluxo nativas disponíveis no protocolo OpenFlow, tais como contadores de bytes e pacotes, não oferecem informação suficiente para distinguir de forma precisa fluxos específicos; (ii) existe uma falta de suporte para determinar qual é o conjunto ótimo de características de fluxo para caracterizar um dado perfil de tráfego; (iii) existe uma necessidade de estratégias flexíveis para compor diferentes mecanismos relacionados à detecção, classificação e mitigação de anomalias de rede usando abstrações de software; (iv) existe uma necessidade de monitoramento de tráfego em tempo real usando técnicas leves e de baixo custo; (v) não existe um framework capaz de gerenciar detecção, classificação e mitigação de anomalias de uma forma coordenada considerando todas as demandas acima. Adicionalmente, é sabido que mecanismos de detecção e classificação de anomalias de tráfego precisam ser flexíveis e fáceis de administrar, a fim de detectar o crescente espectro de anomalias. Detecção e classificação são tarefas difíceis por causa de várias razões, incluindo a necessidade de obter uma visão precisa e abrangente da rede, a capacidade de detectar a ocorrência de novos tipos de ataque, e a necessidade de lidar com erros de classificação. Nesta dissertação, argumentamos que SDN oferece ambientes propícios para a concepção e implementação de esquemas mais robustos e extensíveis para detecção e classificação de anomalias. Diferentemente de outras abordagens na literatura relacionada, que abordam individualmente detecção ou classificação ou mitigação de anomalias, apresentamos um framework para o gerenciamento e orquestração dessas tarefas em conjunto. O framework proposto é denominado ATLANTIC e combina o uso de técnicas com baixo custo computacional para monitorar tráfego e técnicas mais computacionalmente intensivas, porém precisas, para classificar os fluxos de tráfego. Como resultado, ATLANTIC é um framework flexível capaz de categorizar anomalias de tráfego utilizando informações coletadas da rede para lidar com cada perfil de tráfego de um modo específico, como por exemplo, bloqueando fluxos maliciosos. / Software-Defined Networking (SDN) aims to alleviate the limitations imposed by traditional IP networks by decoupling network tasks performed on each device in particular planes. This approach offers several benefits, such as standard communication protocols, centralized network functions, and specific network elements, such as controller devices. Despite these benefits, there is still a lack of adequate support for performing tasks related to traffic classification, because (i) the native flow features available in OpenFlow, such as packet and byte counts, do not convey sufficient information to accurately distinguish between some types of flows; (ii) there is a lack of support to determine what is the optimal set of flow features to characterize different types of traffic profiles; (iii) there is a need for a flexible way of composing different mechanisms to detect, classify and mitigate network anomalies using software abstractions; (iv) there is a need of online traffic monitoring using lightweight/low-cost techniques; (v) there is no framework capable of managing anomaly detection, classification and mitigation in a coordinated manner and considering all these demands. Additionally, it is well-known that anomaly traffic detection and classification mechanisms need to be flexible and easy to manage in order to detect the ever growing spectrum of anomalies. Detection and classification are difficult tasks because of several reasons, including the need to obtain an accurate and comprehensive view of the network, the ability to detect the occurrence of new attack types, and the need to deal with misclassification. In this dissertation, we argue that Software-Defined Networking (SDN) form propitious environments for the design and implementation of more robust and extensible anomaly classification schemes. Different from other approaches from the literature, which individually tackle either anomaly detection or classification or mitigation, we present a management framework to perform these tasks jointly. Our proposed framework is called ATLANTIC and it combines the use of lightweight techniques for traffic monitoring and heavyweight, but accurate, techniques to classify traffic flows. As a result, ATLANTIC is a flexible framework capable of categorizing traffic anomalies and using the information collected to handle each traffic profile in a specific manner, e.g., blocking malicious flows.
377

A reuse-based approach to promote the adoption of info vis tecniques for network and service management tasks / Uma abordagem baseda em reuso para promover a adoção de técnicas de visualização de informações no contexto de gerenciamento de redes de serviços

Guimarães, Vinícius Tavares January 2016 (has links)
Ao longo dos anos, diferentes ferramentas vem sendo utilizadas pelos administradores de rede para realizar as tarefas de gerenciamento (por exemplo, protocolos de gerência e soluções de monitoramento de rede). Dentre tais ferramentas, a presente tese foca em Visualização de Informações (ou simplesmente InfoVis). Essencialmente, entende-se que o objetivo final dessas ferramentas de gestão é diminuir a complexidade e, consequentemente, otimizar o trabalho diário dos administradores. Assim, eles podem melhorar sua produtividade, o que incide diretamente na redução de custos. Com base nesse pressuposto, esta tese tem como objetivo investigar como promover a adoção de técnicas InfoVis pelos administradores de rede, com foco em melhorar produtividade e diminuir custos. A percepção chave é que, na maioria dos casos, os administradores de rede não são habilitados no domínio InfoVis. Desse modo, a escolha por adotar técnica InfoVis requer a imersão em campo desconhecido, podendo gerar, assim, um risco elevado nos indicadores de produtividade e custos. Em essência, essa tese argumenta que o emprego de técnicas InfoVis pelos administradores pode ser muito trabalhosa, despendendo um montante muito significativo de tempo, o que leva a diminuir produtividade e, consequentemente, eleva os custos de gerenciamento. Focando essa questão, é apresentada uma proposta para promover adoção de técnicas InfoVis, pelo encorajamento do reuso. Argumenta-se que os conceitos e princípios de reuso propostos e padronizados pelo campo da engenharia de software podem ser adaptados e empregados, uma vez que a construção de visualizações (ou seja, o projeto e desenvolvimento) é, primariamente, uma tarefa de desenvolvimento de software. Assim, a avaliação da proposta apresentada nesta tese utiliza o método Common Software Measurement International Consortium (COSMIC) Functional Size Measurement (FSM), o qual permite estimar o dimensionamento de software através de pontos por função. A partir deste método, torna-se então possível a estimativa de esforço e, consequentemente, produtividade e custos. Os resultados mostram a viabilidade e eficácia da abordagem proposta (em termos de produtividade e custos), bem como os benefícios indiretos que o reuso sistemático pode fornecer quando da adoção de visualizações para auxílio nas tarefas de gerenciamento de redes. / Throughout the years, several tools have being used by network administrators to accomplish the management tasks (e.g., management protocols and network monitoring solutions). Among such tools, this thesis focuses on Information Visualization one (a.k.a InfoVis). Mainly, it is understood that the ultimate goal of these management tools is to decrease the complexity and, consequently, optimize the everyday work of administrators. Thus, they can increase their productivity, which leads to the cost reduction. Based on this assumption, this thesis aims at investigating how to promote the adoption of InfoVis techniques by network administrators, focusing on enhancing productivity and lowering costs. The key insight is that, in most cases, network administrators are unskilled on InfoVis. Therefore, the choice to adopt visualizations can require an immersion into the unknown that can be too risky regarding productivity and cost. In essence, this thesis argues that the employment of InfoVis techniques by administrators can be very laborious by spending a significant amount of effort that decreases their productivity and, consequently, increases the management costs. To overcome this issue, an approach to promote the adoption of InfoVis techniques by encouraging their reuse is introduced. It is argued that the concepts and principles of software reuse proposed and standardized in the software engineering field can be adapted and employed once the building up of visualizations (i.e., the design and development) can be defined primarily as a software development task. So, the evaluation of the proposal introduced in this thesis employs the Common Software Measurement International Consortium (COSMIC) Functional Size Measurement (FSM) method that measures software sizing through Function Points (FP). From this method, it was possible estimating effort and, consequently, productivity and costs. Results show the feasibility and effectiveness of the proposed approach (in terms of productivity and cost) as well as some indirect benefits that the systematic reuse can provide in the adoption of InfoVis techniques to assist in the management tasks.
378

Definição de um gerenciador para o modelo de dados temporal TF-ORM / Definition of a manager for a TF-ORM temporal data model

Hubler, Patricia Nogueira January 2000 (has links)
Há alguns anos, a necessidade de armazenar a história das informações e o período no qual as mesmas são válidas ou não no mundo real, está crescendo. As próprias leis vigentes no país fazem com que isto seja uma necessidade quando, por exemplo, criam uma tabela de tempo de validade para o armazenamento de documentos fiscais ou de recursos humanos. Neste âmbito destaca-se a importância do estudo de modelos de dados temporais que gerenciem este tipo de informação. Tais modelos definem a forma como as informações são organizadas, mantidas e recuperadas. A implementação destes modelos, entretanto, é realizada sobre bancos de dados (BD) convencionais, uma vez que ainda não existe um BD totalmente temporal. O mapeamento de um modelo temporal sobre um convencional não impede que sejam satisfeitas todas as necessidades de representação temporal, desde que seja realizado de forma coerente. As diferentes informações temporais que podem ser utilizadas para a representação de tempo são o tempo de transação e o tempo de validade. Quando se deseja uma representação completa da realidade, utilizam-se bancos de dados bitemporais, através dos quais é possível recuperar todas as informações passadas, presentes e futuras. Este trabalho apresenta o mapeamento de um modelo de dados bitemporal (modelo TF-ORM) para um SGBD convencional (Oracle). Este mapeamento compreende, além das informações temporais, todas as características do modelo, dentre as quais: classes e papéis, mensagens, regras, propriedades dinâmicas e estáticas. É apresentada, ainda, a definição de um gerenciador temporal, o qual busca automatizar o que é implementado. Complementando o estudo realizado, são apresentadas sugestões de operações a serem realizadas pelos desenvolvedores de aplicações temporais quando da manutenção das informações. As operações de inserção, atualização e remoção em uma base temporal são analisadas, independente do tipo de BD temporal implementado. Um estudo de caso é apresentado para validar todas as definições realizadas. / The need for storing the information’s history and the period in which they are still valid in the real world has been growing in the last few years. The very existing laws in the country make it necessary when, for instance, a validity temporal table is created for storing business or human resources documents. Therefore, the study of temporal data models which manage this kind of information has become very important. Such models define the way in which the information is organized, kept and recovered. The implementation of these models, though, is carried out over conventional data bases (DB), once there is no a totally temporal DB. The mapping of a temporal model over a conventional one allows all of its requirements to be met, as long as it is made coherently. The different temporal information that can be used for time representation are the transaction time and the validity time. Whenever a complete representation of the reality is wanted, bitemporal databases are used. These bases make it possible to recover all the past information as well as present and future information. This work presents the mapping of a temporal data model (TF-ORM model) for a conventional DBMS (Oracle). Besides the temporal information, this mapping comprehends all the model’s characteristics, such as: classes and roles, messages, rules, dynamic and static properties. It is also presented a definition of a temporal manager which aims at automating what is implemented. In addition to this study, suggestions of operations to be carried out by the developers of temporal applications for the maintenance of the information are presented. The operations of inserting, updating and removing on temporal base are analyzed, apart from the kind of DB implemented. A case study is presented in order to validate all the definitions made.
379

Network programming as a service : an innovation friendly business model / Programabilidade de redes como serviço : um modelo de negócios propício à inovação

Jesus, Wanderson Paim de January 2014 (has links)
As redes de computadores têm evoluído para acomodar uma grande variedade de serviços, tais como streaming de vídeos de alta qualidade e entrega de conteúdo sensível a atrasos. Estes serviços têm aumentado a demanda por recursos não originalmente considerados na Internet. Com a promessa de atender novas demandas de rede rapidamente, pesquisadores propuseram Redes Programáveis, nas quais o comportamento dos dispositivos de rede pode ser alterado utilizando aplicativos. Entretanto, tal comportamento pode não ser um consenso entre usuários da rede. O surgimento de Redes Virtualizadas superou tal questão, ao permitir a coexistência de múltiplas redes virtuais sobre a mesma infraestrutura física. A fim de se obter redes virtuais isoladas com comportamento programável, foram propostas as Redes Virtuais Programáveis (RVP). Diante dessa nova realidade, os administradores de rede não estão mais olhando unicamente para dispositivos de rede. Eles estão olhando para um sistema composto de dispositivos e aplicativos de rede que definem o comportamento individual de cada rede virtual. Isso requer não apenas novas ferramentas e abordagens de gerenciamento, além disso, exige a revisão de conceitos tradicionais sobre redes. Implementações de RVP são encontradas principalmente em testbeds e ambientes de Computação em Nuvem. Testbeds são muito propícios à inovação, mas possuem fortes limitações no que diz respeito a migração de soluções experimentais para produção. Por outro lado, computação em nuvem é um ótimo ambiente de produção, mas possui restrições de flexibilidade e inovação, uma vez que as soluções de rede adotadas geralmente são proprietárias. Portanto, nesta dissertação introduz-se um novo modelo de negócio que permite a criação de soluções inovadoras em ambientes de produção, a Programabilidade de Redes como um Serviço (NPaaS). Diferente do modelo de negócio de redes tradicionais, onde os usuários finais são apenas consumidores dos serviços de rede já disponíveis, em NPaaS os usuários finais também são capazes de desenvolver e implantar novas soluções de rede. Para apoiar NPaaS, propõe-se uma plataforma de gerenciamento de rede virtual programável, chamada ProViNet. Essa plataforma fornece a arquitetura de software e estratégias necessárias para permitir a implantação e gestão NPaaS. Uma avaliação qualitativa do modelo de negócio NPaaS foi realizada, o resultado foi contrastado com alguns dos modelos de negócio praticados atualmente. Assim, enfatizando a singularidade do NPaaS. Enquanto isso, uma avaliação experimental foi realizada para demonstrar a viabilidade da plataforma ProViNet. Os resultados mostraram que NPaaS representa uma alternativa promissora para ambientes de rede virtual com acesso público, como as nuvens públicas. Além disso, uma avaliação quantitativa do protótipo da plataforma demonstrou a viabilidade técnica e provou que aplicativos de rede desenvolvidos usando BPMN são capazes de executar com desempenho aceitáveis. / Computer networks have evolved to accommodate a wide variety of services, such as streaming of high quality videos and delay-sensitive content delivery. These services have increased the demand for features not originally considered in the Internet. Aiming to address novel network demands quickly, some researchers proposed Programmable Networks, in which network devices behavior can be changed using applications. Notwithstanding, such behavior might not be a consensus between computer network stakeholders. The emergence of Virtualized Networks overcame this issue by allowing the coexistence of multiple virtual networks on the same physical infrastructure. Finally, the convergence of programmability and virtualization techniques are explored within a third concept, the Programmable Virtual Networks (PVN). Faced with this new reality, network administrators are no longer just looking at network devices. They are looking at a system made of virtual devices and applications that define each virtual network behavior. This requires not just new tools and management approaches, over and above that, requires new thinking. PVN deployments are found mostly in shared experimental facilities (also known as testbeds) and Cloud Computing environments. Testbeds are very innovation friendly, but with strong limitations in regards to taking experimental solutions to production. On the other hand, Cloud computing is a great production environment, but presents flexibility and innovation restrictions once network solutions adopted are usually proprietary. Therefore, in this dissertation it is introduced Network Programming as a Service (NPaaS), a new business model that aims to facilitate the conduct of innovative solutions for production environments. Different from traditional network business models, where end-users are just consumers of network services already available, in NPaaS, end-users are also able to develop and deploy novel network solutions. To support NPaaS, Programmable Virtual Network management platform is proposed. Such platform, named ProViNet, provides all architectural and technical features necessary to enable NPaaS deployment and management. A qualitative evaluation of the NPaaS business model was performed, and the result was contrasted with some of the current models, thus, emphasizing the singularity of NPaaS. In the meanwhile, an experimental evaluation was conducted to demonstrate the feasibility of ProViNet platform. Results have shown that NPaaS represent a promising alternative for virtual network environments with public access such as public clouds. Moreover, a quantitative evaluation of the platform prototype demonstrated the technical feasibility and proved that network applications developed using BPMN are able to run with acceptable performance rates.
380

Survivor : estratégias de posicionamento de controladores orientadas à sobrevivência em redes definidas por software / Survivor : enhanced controller placement strategies for improving sdn survivability

Müller, Lucas Fernando January 2014 (has links)
O paradigma SDN simplifica o gerenciamento da rede ao concentrar todas as tarefas de controle em uma única entidade, o controlador. Nesse modo de operação, os dispositivos de encaminhamento só funcionam de forma completa enquanto conectados a um controlador. Neste contexto, a literatura recente identificou questões fundamentais, como o isolamento de dispositivos em função de disrupções na rede e a sobrecarga de um controlador, e propôs estratégias de posicionamento do controlador para enfrentá-las. Contudo, as propostas atuais têm limitações cruciais: (i) a conectividade dispositivo-controlador é modelada usando um único caminho, ainda que na prática possam ocorrer múltiplas conexões concorrentes; (ii) alterações no comportamento da chegada de novos fluxos são manipulados sob demanda, assumindo que a rede em si pode sustentar altas taxas de requisição; e (iii) mecanismos de recuperação de falhas requerem informações pré-definidas, que, por sua vez, não são otimizadas. Esta dissertação apresenta Survivor, uma nova abordagem de posicionamento do controlador para redes WAN que visa enfrentar esses desafios. A abordagem trata três aspectos de forma explícita durante o projeto da rede: a conectividade, a capacidade e a recuperação. Além disso, tais aspectos são planejados para dois estados distintos da rede: pré e pós-disrupção. Em outras palavras, a rede é configurada da melhor forma tanto para operação normal, quanto para operação após eventos de disrupção. Para este fim, a abordagem é dividida em duas etapas. A primeira define o posicionamento de instâncias do controlador, enquanto a segunda especifica uma lista de controladores de backup para cada dispositivo na rede. Ademais, são desenvolvidas duas estratégias com base na abordagem Survivor. A primeira, implementada em Programação Linear Inteira, garante uma solução ótima a um custo computacional alto. A segunda, implementada através de heurísticas, fornece soluções sub-ótimas a um custo computacional muito mais baixo. Comparações com o estado-da-arte mostram que a abordagem Survivor provê ganhos significativos na sobrevivência (identificado na probabilidade mais baixa de perda de conectividade) e no estado convergente da rede através de mecanismos de recuperação mais inteligentes. / The SDN paradigm simplifies network management by focusing all control tasks into a single entity, the controller. In this way, forwarding devices can only operate correctly while connected to a logically centralized controller. Within this context, recent literature identified fundamental issues, such as device isolation due to disruptions in the network and controller overload, and proposed controller placement strategies to tackle them. However, current proposals have crucial limitations: (i) device-controller connectivity is modeled using single paths, yet in practice multiple concurrent connections may occur; (ii) peaks in the arrival of new flows are only handled on-demand, assuming that the network itself can sustain high request rates; and (iii) failover mechanisms require predefined information which, in turn, has been overlooked. This dissertation presents Survivor, a novel controller placement approach for WAN networks that addresses these challenges. The approach explicitly considers the following three aspects in the network design process: connectivity, capacity and recovery. Moreover, these aspects are planned for two distinct states of the network: pre and postdisruption. In other words, the network is configured optimally for both normal operation and for operation after disruption events. To this end, the approach is divided into two steps. The first defines the positioning of the controller instances, and the second specifies a list of backup controllers for each device on the network. Moreover, two strategies based on Survivor are developed. The first strategy, implemented with Integer Linear Programming, guarantees an optimal solution with a high computational cost. The second strategy, implemented using heuristics, provides sub-optimal solutions with a much lower computational cost. Comparisons to the state-of-the-art show that the Survivor approach provides significant increases in network survivability (identified with the lowest probability of connectivity loss) and converged network state through smarter recovery mechanisms.

Page generated in 0.0191 seconds