• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 2072
  • 111
  • 100
  • 100
  • 99
  • 97
  • 51
  • 9
  • 3
  • 1
  • Tagged with
  • 2144
  • 2144
  • 682
  • 528
  • 528
  • 482
  • 433
  • 353
  • 342
  • 253
  • 248
  • 242
  • 241
  • 191
  • 180
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
121

Uma abordagem baseada em ontologias e raciocínio baseado em casos para apoiar o desenvolvimento distribuído de software

ROCHA, Rodrigo Gusmão de Carvalho 20 February 2015 (has links)
Submitted by Isaac Francisco de Souza Dias (isaac.souzadias@ufpe.br) on 2016-01-27T16:49:26Z No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) TeseRodrigo-VersaoCORRETA.pdf: 3944929 bytes, checksum: dc865365ba68c88ed986c5498d77b3f8 (MD5) / Made available in DSpace on 2016-01-27T16:49:26Z (GMT). No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) TeseRodrigo-VersaoCORRETA.pdf: 3944929 bytes, checksum: dc865365ba68c88ed986c5498d77b3f8 (MD5) Previous issue date: 2015-02-20 / Como reflexo da globalização, empresas de software começaram a distribuir seus processos de desenvolvimento em lugares diferentes, criando o Desenvolvimento Distribuído de Software (DDS). A distribuição de equipes no desenvolvimento de software trouxe uma série de novos desafios, tais como, comunicação e compartilhamento de informação. Um outro problema é que pela falta de conhecimento dessas organizações, estas resolvem seus problemas de forma independente e de diversas maneiras diferentes, cada uma com suas práticas, algumas mais e outras menos eficientes, onde as melhores práticas são pouco difundidas na comunidade DDS. A utilização de conceitos e técnicas da Inteligência Artificial é bastante utilizado para aperfeiçoar o funcionamento de alguns sistemas e processos. Neste caso, este trabalho expõe três conceitos fundamentais: 1) o uso de Ontologias que permite a formalização do conhecimento de um domínio. Em ambientes distribuídos, a utilização de Ontologias traz alguns benefícios como compreensão uniforme das informações entre as equipes e facilidade de comunicação. Adicionalmente, conceitos como 2) Raciocínio Baseado em Casos (RBC) e 3) Processamento de Linguagem Natural (PLN) também podem ser utilizados para se tentar fazer um melhor uso de experiências já vivenciadas com intuito de mitigar possíveis problemas. Desta maneira, o objetivo desta pesquisa é propor um mecanismo baseado em ontologias que possa extrair e recomendar informações relevantes para apoiar decisões em projetos de software com times distribuídos sendo de fato uma solução viável na resolução de problemas nesse contexto. Para levantamento do estado da arte dessa pesquisa, foi realizado um mapeamento sistemático, que identificou 51 estudos primários. Estes apresentam técnicas, modelos e ferramentas que utilizam ontologias para auxiliar equipes distribuídas, bem como ontologias propostas nesse contexto. Dessa forma, os resultados principais deste trabalho são: 1) uma ontologia específica para times distribuídos de software, 2) sua ferramenta de manipulação e acesso à informação e 3) o sistema de RBC utilizando PLN. Assim, através dos resultados constatados nos testes realizados, é possível afirmar que houve uma taxa de sucesso de 91,67% na recomendação das soluções para possíveis problemas. Essa abordagem auxilia os times distribuídos recomendando técnicas ou melhores práticas para evitar ou solucionar os desafios encontrados. / As an effect of globalization, software companies began to distribute the development process along different places, which led to the rise of Distributed Software Development (DSD). The multisite nature of DSD brings with it many new challenges, such as communication issues and sharing information efficiently. The fact that these companies have a tendency to face these challenges in an individual and isolated fashion poses another important problem, this way, good practices are thus not widespread in the DSD community. In other contexts, concepts and techniques from Artificial Intelligence are heavily used for improving how some systems and processes work. This work makes use of three of these concepts: Ontologies, Case-based Reasoning (CBR) and Natural Language Processing (NLP). Ontologies allow the formalization of a domain's knowledge, which applied to distributed development environments will bring benefits like a uniform comprehension of the information shared by the teams and ease of communication. CBR and NLP also have an important role in the attempt of making better use of past experiences, with the purpose of mitigating potential problems. An approach based on Ontologies and Case-Based Reasoning is proposed: an access tool to the ontology and a CBR tool that utilizes PLN, whose purpose is to support the entire software development process for distributed teams by recommending techniques or best practices for avoiding or solving potential challenges that may be faced. The state-of-the-art survey for this research consisted in a systematic mapping that retrieved 51 primary researches. These researches present techniques, models and tools that use ontologies for supporting distributed teams, as well as the proposed ontologies for this context. Thus, the main results of this work are: 1) a specific ontology for distributed teams of software, 2) its manipulation tool and access to information and 3) the RBC system using PLN. Thus, by the results observed in the tests, it is clear that there was a 91.67% success rate on the recommendation of solutions to possible problems. This approach helps teams distributed recommending techniques or best practices to avoid or solve the challenges encountered.
122

Access control in IaaS multi-cloud heterogeneous environments

SETTE, Ioram Schechtman 11 August 2016 (has links)
Submitted by Alice Araujo (alice.caraujo@ufpe.br) on 2017-11-30T16:45:19Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) Ioram_Sette_PhD_Thesis.pdf: 10382850 bytes, checksum: a2a362f0971460d5758e3cf1ff71db96 (MD5) / Made available in DSpace on 2017-11-30T16:45:19Z (GMT). No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) Ioram_Sette_PhD_Thesis.pdf: 10382850 bytes, checksum: a2a362f0971460d5758e3cf1ff71db96 (MD5) Previous issue date: 2016-08-11 / CNPQ / Multiple Cloud Service Providers (CSPs) coexist nowadays offering their services competitively. To avoid vendor lock-in, users hire many services from an outsourced heterogeneous multi-cloud environment. This way, data and system security usually depend on isolated mechanism existing in each provider. Access Control (AC) mechanisms are responsible for the authentication, identification and authorisation of users to resources. In the case of a multi-cloud environment, users often need to authenticate multiple times and also to define security policies for each CSP, which can possibly result in inconsistencies. The objective of this thesis is to provide a homogeneous access experience for users of heterogeneous multi-cloud services. Identity federations allow the Single Sign-On (SSO), i.e. users are identified and authenticated once by Identity Providers (IdPs) and gain access to trusted federated services. Nevertheless, authorisation federations or AC federations are not usual. Each cloud service uses to have its own AC mechanism, with their own policy definition languages. This work defines a solution that provides homogeneous authentication and authorisation to multiple heterogeneous Infrastructure as a Service (IaaS) platforms. This is possible through Identity Federations and Authorisation Policy Federations (APFs). In this solution, security policies are centrally stored in a “Disjunctive Normal Form (DNF)” and are semantically defined in terms of an Ontology. Therefore, cloud tenants can create APFs and bind their different accounts to them. Thus, global authorisation rules, defined and managed by the APF, can be enforced on all federated member accounts, providing a homogeneous access experience. A system prototype, composed of a central Policy Administration Point (PAP), called Federated Authorisation Policy Management Service (FAPManS), policy adaptors (translators) and a policy synchronization mechanism, was implemented for OpenStack and Amazon Web Services (AWS) cloud platforms. An ontology was also created based on their access control technologies. The “Level of Semantic Equivalence (LSE)” was defined as a metric that gives the percentage of policy rules that could be translated to the ontology terms. In the validation of this solution, authorization policies based on examples publicly provided by OpenStack and AWS were converted to ontology-based global rules and vice-versa with LSE above 80%. / Múltiplos provedores de computação em nuvem convivem hoje ofertando seus serviços de forma competitiva. Para evitar dependência (o chamado vendor lock-in), usuários utilizam muitos serviços em ambiente terceirizado e heterogêneo multi-nuvens. Desta forma, a segurança de dados e sistemas depende normalmente de mecanismos existentes isoladamente em cada um dos provedores. Mecanismos de controle de acesso são responsáveis pela autenticação, identificação e autorização dos usuários aos recursos. No caso de ambiente multi-nuvens, usuários geralmente precisam se autenticar diversas vezes e definir políticas de segurança para cada um dos serviços, que possivelmente podem apresentar inconsistências. O objetivo desta tese é proporcionar aos usuários de sistemas heterogêneos multi-nuvens uma experiência de acesso homogênea a estes serviços. Federações de identidade proporcionam o Single Sign-On (SSO), ou seja, os usuários são identificados e autenticados por provedores de identidade (IdPs) uma única vez e, através de protocolos como OpenID Connect, SAML ou ABFAB, recebem acesso a serviços federados com os quais possuem relação de confiança. No entanto, federações de autorização ou de políticas de controle de acesso não são comuns. Cada serviço de nuvem costuma ter seu próprio mecanismo de controle de acesso, com linguagens próprias de definição de políticas. Este trabalho define uma solução que provê autenticação e autorização homogêneas a usuários de múltiplos serviços de computação em nuvem heterogêneos no modelo de Infraestrutura como Serviço (IaaS). Isso é possível através de federações de identidade e de políticas de autorização. Nesta solução, políticas de segurança são armazenadas de forma centralizada no padrão “DNF” com semântica definida em uma Ontologia. Portanto, clientes de nuvens podem criar “Federações de Políticas de Autorização (APFs)” e associar suas contas em cada provedor a estas federações. Desta forma, regras de autorização globais, definidas e gerenciadas pela APF, passam a valer em todas as contas que fazem parte da federação, garantindo uma experiência homogênea de acesso. Um protótipo do sistema, composto de um Ponto de Administração de Políticas (PAP) centralizado e mecanismos de tradução e sincronismo de políticas, foi implementado para nuvens OpenStack e Amazon Web Services (AWS). Uma ontologia também foi definida baseada no controle de acesso destas tecnologias. A métrica “nível de equivalência semântica (LSE)” foi definida para calcular o percentual de regras de uma política que pode ser traduzido para termos de uma ontologia. Na validação da solução, políticas de autorização baseadas em exemplos fornecidos por OpenStack e AWS foram convertidos para regras globais, baseadas na ontologia, e vice-versa, com nível de equivalência semântica superior a 80%.
123

Um verificador de modelos em K para um subconjunto da linguagem Circus

SANTOS, Fabio Soares dos 15 September 2016 (has links)
Submitted by Alice Araujo (alice.caraujo@ufpe.br) on 2017-11-30T19:32:07Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) dissertacao-mestrado.pdf: 1137883 bytes, checksum: 9a8f7f4770dbbe3447440be8dc484c65 (MD5) / Made available in DSpace on 2017-11-30T19:32:07Z (GMT). No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) dissertacao-mestrado.pdf: 1137883 bytes, checksum: 9a8f7f4770dbbe3447440be8dc484c65 (MD5) Previous issue date: 2016-09-15 / FACEPE / Testes constituem uma parcela significativa da energia despendida em projetos voltados ao desenvolvimento de software. Estima-se que entre 30% a 50% do custo total do projeto é destinado a testes. Esta necessidade de verificar a regularidade de sistemas é bastante antiga e nos últimos anos a busca por novas técnicas e ferramentas que mitiguem o esforço gasto nestas verificações vem se acentuando. Neste contexto, uma técnica que se destaca é a de verificação de modelos (Model checking) que consiste em explorar exaustivamente todos os estados alcançáveis de um determinado sistema no intuito de descrever cenários que indiquem possíveis comportamentos, embasando tal verificação em matemática precisa e inequívoca. Esta técnica tem despertado o interesse de muitas indústrias devido ao sucesso obtido pelo apoio das ferramentas de verificação de modelos (model checkers) em vários projetos de alta complexidade. Estes verificadores são ferramentas que exploram um sistema de transições rotuladas (LTS), construído a partir de algumas especificações (um modelo M), para determinar se uma dada fórmula (f) em lógica temporal, ou propriedade, é válida; ou simplesmente, M |ù f. O presente trabalho apresenta uma forma sistemática de construir um verificador de modelos LTL para um subconjunto da linguagem Circus totalmente baseado na semântica operacional desta linguagem. Mas em vez de codificar diretamente o verificador de modelos em alguma linguagem de programação, é usado o framework K por se tratar de um framework semântico executável à base de reescrita em que as linguagens de programação, sistemas de tipos e ferramentas de análise formais podem ser definidos usando configurações, computações e regras. Além disso, a ferramenta resultante deste trabalho é demostrada com alguns estudos de caso no intuito de comparar seu desempenho bem como aspectos qualitativos com outros verificadores de modelos. / Tests constitute a significant portion of the energy expended in projects aimed at software development. It is estimated that between 30% and 50% of the total project cost is spent in testing. This need to verify the correctness of systems is quite old and in recent years the search for new techniques and tools to mitigate the effort spent on these checks has been increasing. In this context, a technique that stands out is Model Checking. This technique consists in exhaustively exploring all reachable states of a given system in order to check whether a given property, usually given in terms of some temporal logics, is valid. Several industries are interested in this technique due to the success achieved by the support of model checking tools (Model checkers) in various projects of high complexity. This paper presents a systematic way to build a LTL model checker for a subset the Circus language using its operational semantics. But instead of directly encoding the semantics using a programming language, we use the K framework because it is an executable semantic framework based on rewrite rules. Moreover, the resulting tool is exercised with few case studies in order to compare their performance as well as qualitative aspects with other model checkers.
124

Motion compensated permutation-based video encryption

SILVA, Caio César Sabino 25 August 2015 (has links)
Submitted by Rafael Santana (rafael.silvasantana@ufpe.br) on 2018-02-21T17:49:09Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) dissertacao-caio-cesar.pdf: 1833894 bytes, checksum: 738a1e0a2b6bcf2f5c13dca42eaee10c (MD5) / Made available in DSpace on 2018-02-21T17:49:09Z (GMT). No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) dissertacao-caio-cesar.pdf: 1833894 bytes, checksum: 738a1e0a2b6bcf2f5c13dca42eaee10c (MD5) Previous issue date: 2015-08-25 / In the context of multimedia applications security, digital video encryption techniques have been developed to assure the confidentiality of information contained in such media type. Compression and encryption used to be considered as opposite in terms of exploring the data’s entropy, however in the last decades there was an increase of data volume operated by video encryption applications which demanded improvements on data compressibility in video encryption. In this sense, many techniques have been developed as entropy coding providing both encryption and compression simultaneously. An existing cryptographic scheme, introduced by Socek et al., is based on permutation transformations and applies encryption prior to the compression stage. The encryption applied by this technique may not be as safe as a conventional encryption technique, but its security is still considered acceptable for most video applications. It can improve the original data’s spatial correlation in case the consecutive frames are similar, making it possibly even more compressible than the original video. However the original cryptographic scheme was designed to explore only the spatial correlation inside every frame, but codecs can also explore non-trivial temporal correlation. Also the improvements on the data’s spatial correlation coming from the permutation transformations are highly based on the natural temporal correlation in the video. Hence its performance is extremely associated to the amount of motion in the video. The work developed in this dissertation aims to extend this cryptographic scheme, including motion compensation concepts to the permutation based transformations used in the video encryption technique to improve its performance and make it more resilient to high motion videos. / No contexto de segurança de aplicações multimídia, técnicas de encriptação de vídeo têm sido desenvolvidas com o intuito de assegurar a confidencialidade das informações contidas em tal tipo de mídia. Compressão e encriptação costumavam ser consideradas áreas opostas em termos de exploração de entropia de dados, entretanto nas últimas décadas houve um aumento significante no volume de dados operado por aplicações de encriptação de vídeo, o que exigiu melhoras na compressão de vídeos encriptados. Neste sentido, diversas técnicas têm sido desenvolvidas como codificação de entropia provendo encriptação e compressão simultaneamente. Um esquema criptográfico existente, introduzido por Socek et al., é baseado em transformações de permutação e aplica encriptação anteriormente à fase de compressão. A encriptação aplicada por essa técnica pode ser considerada não tão segura quanto um esquema criptográfico convencional, mas ainda aceitável pela maioria das aplicações de vídeo. A mesma é capaz de melhorar a correlação espacial do vídeo original, caso os quadros consecutivos sejam suficientemente similares, tornando-o possivelmente mais compressível que o vídeo original. Entretanto, o esquema criptográfico original foi designado para explorar apenas correlação espacial de cada quadro, e codificadores podem explorar também correlação temporal não trivial. Além disso, as melhoras na correção espacial advindas das transformações de permutação são altamente baseadas na correlação temporal natural do vídeo. Portanto, a performance do esquema é extremamente associada à quantidade de movimento no vídeo. O trabalho desenvolvido nesta dissertação tem como objetivo estender esse esquema criptográfico, incluindo conceitos de compensação de movimento nas transformações baseadas em permutação usadas na encriptação de vídeo para melhorar sua performance, tornando o esquema mais resiliente a vídeos com muito movimento.
125

Cost management of service composition

MEDEIROS, Robson Wagner Albuquerque de 07 March 2017 (has links)
Submitted by Pedro Barros (pedro.silvabarros@ufpe.br) on 2018-06-25T21:17:28Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) TESE Robson Wagner Albuquerque de Medeiros.pdf: 7700135 bytes, checksum: 95fd086484ed6a7d7c683141fa9f4f13 (MD5) / Made available in DSpace on 2018-06-25T21:17:28Z (GMT). No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) TESE Robson Wagner Albuquerque de Medeiros.pdf: 7700135 bytes, checksum: 95fd086484ed6a7d7c683141fa9f4f13 (MD5) Previous issue date: 2017-03-07 / Service-Oriented Architecture (SOA) is a software design style based on the notion of Service-Oriented Computing (SOC) that facilitates the interoperability among computer systems of possibly different businesses. Cost is one of the most challenging factors influencing SOA adoption in organisations and a significant factor in SOA project success. Nevertheless, many institutions across the world have adopted SOA to interconnect their computing infrastructures (Business-to-Business) and offer interfaces to their customers (Business-to-Customer). For these companies, SOA can address their needs to access the market more quickly, respond to changes in a business environment, improve business processes, improve customers’ services and even reduce costs. In SOA, service composition has emerged as an important strategy to enable collaboration of applications provided by different companies (Business-to-Business). With the increasing number of Web services having similar functionality but different pricing schemes, choosing the most appropriate set of services with the lowest cost has been a challenge in service compositions. Several techniques to compute and analyse the cost of service compositions already exist. However, there is still no approach to developing cost management systems able to assist in the planning, definition, scheduling, execution, monitoring and adaptation of compositions taking into account all classes of cost behaviour and all type of cost drivers. Thus, the principal objective of this thesis is to present a framework to manage cost throughout the service composition life-cycle in an integrated way taking into account cost properties of services and service compositions. Therefore, we provide a metamodel to specify complex cost behaviours. Also, we propose algorithms to compute service costs and select the best services that meet the cost requirements of the service composition according to the cost behaviour of each service. Moreover, we propose an architecture for developing engines able to manage the cost throughout the service composition life-cycle. Finally, we implemented a prototype based on the proposed architecture and executed experiments that show the effectiveness and efficiency of our approach to managing the cost of service composition. / A Arquitetura Orientada a Serviços (do inglêsSOA) é um estilo de projeto de software baseado na Computação Orientada a Serviço (do inglêsSOC) que facilita a interoperabilidade entre os sistemas de computadores de empresas possivelmente diferentes. Custo é um dos fatores mais desafiadores que influenciam a adoção de SOA nas organizações e um fator significativo no sucesso do projeto SOA. No entanto, muitas organizações em todo o mundo adotaram SOA para interconectar suas infra-estruturas de computação (Business-to-Business) e oferecer interfaces para seus clientes (Business-to-Customer). Para essas empresas, SOA pode atender às suas necessidades de acesso ao mercado mais rapidamente, responder às mudanças em um ambiente de negócio, melhorar os processos de negócios, melhorar os serviços dos clientes e até mesmo reduzir os custos. Em SOA, a composição de serviço emergiu como uma estratégia importante para permitir a colaboração de aplicações fornecidas por diferentes empresas (Business-toBusiness). Com o crescente número de serviços Web com funcionalidades semelhantes, mas com modelos de precificação diferentes, a escolha do conjunto de serviços com o menor custo tem sido um desafio nas composições de serviços. Na literatura existem técnicas para calcular e analisar o custo de composições de serviços. No entanto, ainda não há uma abordagem para desenvolver sistemas de gerenciamento de custos capazes de auxiliar no planejamento, definição, escalonamento, execução, monitoramento e adaptação de composições levando em conta todas as classes de comportamento de custo e os diferentes tipo de fatores de custo adotados pelos provedores de serviços. O objetivo principal desta tese é apresentar um framework para gerenciar composições de serviços ao longo de todas as fases do seu ciclo de vida de uma forma integrada levando em consideração comportamentos complexos de custo de serviços. Sendo assim, fornecemos um metamodelo para especificar comportamentos complexos de custo. Além disso, propomos algoritmos para calcular os custos e selecionar os melhores serviços que atendam aos requisitos de custo da composição de acordo com o modelo de comportamento de custo de cada serviço. Além disso, propomos uma arquitetura para o desenvolvimento de engines de execução capazes de gerenciar o custo ao longo do ciclo de vida da composição. Finalmente, desenvolvemos um protótipo baseado na arquitetura proposta e executamos experimentos que mostram a eficácia e a eficiência de nossa abordagem para gerenciar custo de composições de serviço.
126

Planejamento de transcodificação de vídeo em nuvem elástica

FÉ, Iúre de Sousa 03 February 2017 (has links)
Submitted by Pedro Barros (pedro.silvabarros@ufpe.br) on 2018-07-05T19:27:58Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) Dissertacao_biblioteca(1).pdf: 2698407 bytes, checksum: 1d5db1d66cfd64538808eda69e583d2b (MD5) / Rejected by Alice Araujo (alice.caraujo@ufpe.br), reason: Refazer. Teste da PROCIT. on 2018-07-12T21:50:43Z (GMT) / Submitted by Pedro Barros (pedro.silvabarros@ufpe.br) on 2018-07-12T21:55:58Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Iúre de Sousa Fé.pdf: 2698407 bytes, checksum: 1d5db1d66cfd64538808eda69e583d2b (MD5) / Approved for entry into archive by Alice Araujo (alice.caraujo@ufpe.br) on 2018-07-17T20:32:50Z (GMT) No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Iúre de Sousa Fé.pdf: 2698407 bytes, checksum: 1d5db1d66cfd64538808eda69e583d2b (MD5) / Made available in DSpace on 2018-07-17T20:32:50Z (GMT). No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Iúre de Sousa Fé.pdf: 2698407 bytes, checksum: 1d5db1d66cfd64538808eda69e583d2b (MD5) Previous issue date: 2017-02-03 / O tráfego de vídeo ocupa a maior parte do volume de dados que são transmitidos pela Internet, principalmente devido à capacidade de usuários comuns gravarem e compartilharem seus próprios conteúdos. Entretanto, há uma grande heterogeneidade de dispositivos, softwares e rede para visualização dessas mídias, requerendo que esses vídeos sejam transcodificados para formatos compatíveis com a maioria dos visualizadores de vídeo. Transcodificar vídeos é uma atividade computacionalmente cara e com demanda altamente variável, portanto, pode beneficiar-se da capacidade distribuída e elástica da computação em nuvem. No entanto, identificar uma configuração dos mecanismos automáticos de elasticidade (auto-scaling), que cumpra os requisitos mínimos de desempenho requeridos pelo SLA ao menor custo possível não é uma tarefa simples, requer ajustar diversos parâmetros, como o momento de criar e retirar VMs, o tipo de VM que será adicionada, levando em conta o tempo de transcodificação e instanciação de cada tipo. Além disso, em infraestruturas públicas, os contratos firmados com o provedor de nuvem podem apresentar custos diferentes para um mesmo tipo de VM alugada, onde a opção apropriada é relacionada com o auto-scaling e carga de trabalho esperada. Já em infraestruturas de nuvem privadas, a complexidade de configuração trará também aspectos do dimensionamento dinâmico adequado da infraestrutura física para reduzir o consumo elétrico enquanto cumpre o SLA. Com objetivo de auxiliar na escolha desses parâmetros, esta dissertação propõe modelos em Redes de Petri Estocástica para computar a vazão, o tempo médio de resposta, o custo em nuvens públicas e o consumo elétrico em nuvens privadas. Essas métricas são avaliadas a partir da entrada dos parâmetros de configuração e taxa de requisições esperada para o sistema. Os modelos estocásticos propostos também foram integrados com o algoritmo de otimização GRASP, com objetivo de encontrar as configurações que devem ser adotadas na nuvem para cumprir o SLA e minimizar o custo de manter o sistema. Os estudos de caso demonstram que a combinação dos modelos com mecanismos de otimização é útil para orientar os administradores nas escolhas dos valores dos parâmetros de configuração para implantar e ajustar sistemas, respeitando os requisitos de desempenho e minimizando o custo. A aplicação dessa abordagem também permitiu identificar o comportamento do custo de um sistema em relação ao SLA, em um dos estudos de caso apresentados, a redução de 30 para 15 segundos no tempo de resposta mínimo representou um aumento de 299% no custo, já uma redução de 45 para 30 segundos apenas um aumento de 6%. Este comportamento é especialmente útil na negociação de novos SLAs. / Video traffic occupies most of the volume of transmitted data over the Internet, mainly because of the ability of users to record and share their content. However, there is a high heterogeneity of devices, software, and network for viewing these media, requiring these videos to be transcoded to formats compatible with most video viewers. Transcoding videos is a computationally expensive and highly variable demand activity so that it can benefit from the distributed and elastic ability of cloud computing. Although, identifying a configuration of the automatic elastic mechanisms (auto-scaling), which meets the minimum performance requirements required by the SLA at the lowest possible cost is not a simple task. It needs adjusting several parameters, such as the time to create and remove VMs, the type of VM that will be added, taking into account the transcoding and instantiation time of each type. Besides, in public infrastructures, contracts with the cloud provider may incur different costs for the same type of hired VM, where the appropriate option is related to auto-scaling and expected workload. In private cloud infrastructures, configuration complexity will also bring aspects of the proper dynamic dimensioning of the physical infrastructure to reduce electrical consumption while complying with the SLA. To assist in the choice of these parameters, this dissertation proposes Stochastic Petri Nets models to compute the throughput, the mean response time, and the cost in public clouds and electrical consumption in private clouds. These metrics are evaluated from the input of configuration parameters and requisition rate expected for the system. The proposed stochastic models were also integrated with the GRASP optimization algorithm, in order to find the configurations that should be adopted in the cloud to comply with the SLA and minimize the cost of owning the system. Case studies demonstrate that the combination of models with optimization mechanisms is useful to guide administrators in choosing the values of configuration parameters to deploy and tune systems while respecting performance requirements and minimizing cost. The application of this approach also allowed to identify the behavior of the cost of a system in relation to the SLA, in one of the presented case studies, the reduction of 30 to 15 seconds in the minimum response time represented a 299% increase in cost, while a reduction of 45 to 30 seconds only an increase of 6%. This behavior is especially useful when negotiating new SLAs.
127

Planejamento de infraestruturas de mobile cloud computing baseado em modelos estocásticos

ARAUJO, Jean Carlos Teixeira de 09 March 2017 (has links)
Submitted by Pedro Barros (pedro.silvabarros@ufpe.br) on 2018-07-25T20:25:39Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) TESE Jean Carlos Teixeira de Araújo.pdf: 4792279 bytes, checksum: 0b4e08b802f03c64d5709a4e978e8af7 (MD5) / Approved for entry into archive by Alice Araujo (alice.caraujo@ufpe.br) on 2018-07-26T21:25:04Z (GMT) No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) TESE Jean Carlos Teixeira de Araújo.pdf: 4792279 bytes, checksum: 0b4e08b802f03c64d5709a4e978e8af7 (MD5) / Made available in DSpace on 2018-07-26T21:25:04Z (GMT). No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) TESE Jean Carlos Teixeira de Araújo.pdf: 4792279 bytes, checksum: 0b4e08b802f03c64d5709a4e978e8af7 (MD5) Previous issue date: 2017-03-09 / CAPES / A academia e a indústria têm demonstrado que os recursos limitados dos dispositivos móveis podem ser complementados por recursos virtualizados em uma infraestrutura de computação em nuvem, surgindo assim um novo paradigma chamado mobile cloud computing (MCC). Embora esta solução expanda substancialmente a capacidade de tais dispositivos, também impõe uma dependência em tempo integral de conexão de Internet sem fio. Além disso, problemas como o esgotamento da carga da bateria, falhas de dispositivos móveis, instabilidade das redes sem fio, bugs de aplicativos e interrupções no serviço da nuvem podem representar obstáculos na expansão da mobile cloud computing, uma vez que tais problemas podem resultar no mal fornecimento do serviço da MCC. Modelos estocásticos hierárquicos são adequados para descrever de forma concisa o funcionamento de uma infraestrutura de MCC, lidando com o grande número de componentes que constituem esse tipo de sistema. Sendo um paradigma tão recente, poucos esforços foram feitos para identificar os impactos destes tipos de falhas sobre o funcionamento do sistema. Desta forma, esta tese provê modelos estocásticos para o planejamento de infraestruturas de mobile cloud computing. Esta abordagem foca especialmente no impacto de alguns fatores sobre a disponibilidade e confiabilidade do sistema, tais como: arquiteturas distintas de mobile cloud computing; características de protocolos de comunicação; componentes críticos dos dispositivos móveis, como a bateria; e o comportamento dos softwares envolvidos. A avaliação adotada é baseada em modelos heterogêneos hierárquicos e se concentra em métricas como a disponibilidade em estado estacionário, confiabilidade, downtime, probabilidade de conectividade, tempo médio de vida da bateria, e os custos de implantação e provisionamento da infraestrutura de nuvem. Os experimentos realizados fornecem subsídios aos parâmetros de entrada dos modelos aqui propostos. Além disso, ferramentas de software foram desenvolvidas para auxiliar na condução de tais experimentos. Os modelos propostos permitem realizar comparações entre diferentes formas de implantação de mobile cloud computing, assim como planejar ajustes na infraestrutura de hardware e software com o intuito de garantir níveis de serviço satisfatórios. / Academy and industry have been showing that the limited resources of mobile devices might be supplemented by virtualized resources in a cloud infrastructure, emerging a new paradigm called mobile cloud computing (MCC). While this solution substantially expands the abilities of such gadgets, it also enforces a full-time dependency on wireless Internet connection. Furthermore, issues such as battery charge depletion, mobile device faults, wireless network instability, application bugs, and outages in the cloud service may represent obstacles in expansion of the mobile cloud computing, since such issues may result in poor provision of the MCC service. Hierarchical stochastic models are suitable for a concise description of the operation of an MCC infrastructure, dealing with the large number of components that constitute this type of system. Being such a recent paradigm, few efforts were conduced to identify the impact of those types of faults on the system operation. In this way, this thesis provides stochastic models to planning of mobile cloud computing infrastructures. This approach focus specially on the impact of some factors on system availability and reliability, such as: different architectures of mobile cloud computing; characteristics of communication protocols; critical components of mobile devices, such as the battery; and the behavior of the software involved. Our evaluation is based on hierarchical heterogeneous models and focuses on measures such as steady-state availability, reliability, downtime, connectivity probability, average battery lifetime, and costs of implementation and provisioning of the cloud infrastructure. We performed experiments to provide subsidies to the input parameters of the proposed models here. In addition, software tools have been developed to aid in the conduct of such experiments. The proposed models allow comparisons between different forms of mobile cloud computing deployment, as well as planning adjustments to the hardware and software infrastructure to ensure satisfactory service levels.
128

Uma ferramenta computacional para regulação social do discente

CARVALHO, Rosângela Saraiva 14 March 2017 (has links)
Submitted by Pedro Barros (pedro.silvabarros@ufpe.br) on 2018-07-25T20:19:59Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) TESE Rosângela Saraiva Carvalho.pdf: 6008629 bytes, checksum: 1ab21a966ffc3edb4987e7ef978ad392 (MD5) / Approved for entry into archive by Alice Araujo (alice.caraujo@ufpe.br) on 2018-07-26T21:29:17Z (GMT) No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) TESE Rosângela Saraiva Carvalho.pdf: 6008629 bytes, checksum: 1ab21a966ffc3edb4987e7ef978ad392 (MD5) / Made available in DSpace on 2018-07-26T21:29:17Z (GMT). No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) TESE Rosângela Saraiva Carvalho.pdf: 6008629 bytes, checksum: 1ab21a966ffc3edb4987e7ef978ad392 (MD5) Previous issue date: 2017-03-14 / Nota-se certa preocupação em encontrar soluções que apoiem a aprendizagem mediante os desafios da introdução das novas tecnologias no contexto escolar. Tais pesquisas buscam definir e combinar novos padrões de ensino, tecnologias móveis e ferramentas de software de modo a contribuir para a aprendizagem. Considerando o exposto, a revisão da literatura acerca do acompanhamento individual do discente indica que apesar da existência de diversas ferramentas de avaliação e de acompanhamento do discente, observa-se uma lacuna quanto à comunicação docente-discente no que tange à regulação social e ao acompanhamento individual. Note-se que a regulação social geralmente é usada para explicar o fenômeno da participação em atividades de aprendizagem, sua dinâmica e natureza relacional. Assim, o problema tratado nesta pesquisa refere-se à dificuldade de o docente realizar de forma efetiva o acompanhamento individual do discente em etapa posterior à apresentação do objeto epistêmico, bem como o impacto desse acompanhamento sobre o fenômeno da aprendizagem. Desta forma, o objetivo geral desta tese é verificar se o fenômeno da regulação social em ferramenta computacional apoiado por uma abordagem de acompanhamento Individual do discente torna efetivo o processo de acompanhamento individual e de interação entre o docente e o discente. Para tanto, a abordagem de acompanhamento individual do discente foi elaborada a partir da revisão da literatura e implementada na ferramenta Cadmo. Assim, o método de pesquisa adotado para avaliar a aceitação da referida abordagem, bem como da ferramenta implementada, é um estudo de caso, cujos procedimentos seguiram o processo da Grounded Theory. Foram realizados 2 estudos de caso que incluiram as modalidades de ensino presencial e a distância no ensino superior. A análise dos resultados obtidos foi realizada por meio de uma abordagem qualitativa, fundamentada na Teoria da Atividade e na Grounded Theory. Os resultados indicam que a ferramenta computacional Cadmo foi bem aceita pelos docentes e discentes participantes, podendo estimular a regulação social entre o docente e o discente, reduzindo a dificuldade de acompanhamento do discente. / It is perceibed there is some concern to find solutions to support learning facing the challenges of introducing new technologies in the school context. These studies seek to define and combine new teaching standards, mobile technologies and software tools to contribute to learning (MILRAD; WONG; SHARPLES; HWANG; LOOI and OGATA, 2013). Considering the above, the review of the literature on individual student monitoring indicates that despite the existence of various assessment tools and student's monitoring, there is a gap on the communication between teacher-student, with regard to social regulation and the individual monitoring. One should note that social regulation is often used to explain the phenomenon of participation in learning activities, its dynamics and relational nature (MICHINOV; BRUNOT; LEBOHEC; JUHEL and DELAVAL, 2010). Thus, the problem addressed in this research refers to the difficulty of teachers in performing effectively the individual monitoring of students, at a later stage from the presentation of an epistemic object as well as the impact of monitoring the learning phenomenon. Thus, the main goal of this thesis is to check whether and how the phenomenon of social regulation in computational tool supported by an individual monitoring student approach can contribute to the process of individual monitoring and interaction between teacher and student. Therefore, the approach to individual monitoring of students was drawn from the literature review and implemented in Cadmo tool. Thus, the research method adopted to evaluate the acceptance of this approach as well as the implemented tool is a case study, whose procedures followed the process of Grounded Theory. Two studies were carried out, including the modalities of face-to-face and distance education in high education. The analysis of the results was performed using a qualitative approach, based on both Activity Theory and Grounded Theory. The results indicate that Cadmo computational tool for monitoring individual was well accepted by teachers and students participating in the experiment, and can stimulate social regulation between teachers and students, reducing the difficulty of monitoring the student.
129

Análise de sensibilidade aplicada à identificação de pontos que requerem melhoria na disponibilidade em infraestrura de Cloud

MELO, Rosangela Maria de 08 March 2017 (has links)
Submitted by Pedro Barros (pedro.silvabarros@ufpe.br) on 2018-07-25T19:54:10Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) TESE Rosangela Maria de Melo.pdf: 1948795 bytes, checksum: cc0a3eec0b5971404b3994e89c0b7354 (MD5) / Approved for entry into archive by Alice Araujo (alice.caraujo@ufpe.br) on 2018-07-26T21:53:02Z (GMT) No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) TESE Rosangela Maria de Melo.pdf: 1948795 bytes, checksum: cc0a3eec0b5971404b3994e89c0b7354 (MD5) / Made available in DSpace on 2018-07-26T21:53:02Z (GMT). No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) TESE Rosangela Maria de Melo.pdf: 1948795 bytes, checksum: cc0a3eec0b5971404b3994e89c0b7354 (MD5) Previous issue date: 2017-03-08 / Durante vários anos, os sistemas de computação em nuvem vem gerando um debate e interesse dentro das corporações de TI. Estes ambientes de computação em nuvem fornecem sistemas de armazenamento e processamento que são adaptáveis, eficientes e simples, permitindo assim modificações na infraestrutura de forma rápida, de acordo com a variação da carga de trabalho. Organizações de qualquer tamanho e tipo estão migrando para nuvem suportando soluções baseadas na Web. Devido às vantagens do modelo de pay-per-use e fatores de escalabilidade, serviços como o de Streaming de Vídeo e o MBaaS OpenMobester, dependem fortemente dessas infraestruturas de nuvem para oferecer uma grande variedade de conteúdos de multimídia e armazenamento de dados dos dispositivos móveis. Recentes eventos de falha em serviços de Streaming de Vídeo, demonstraram a importância fundamental da manutenção da alta disponibilidade em infraestruturas de computação em nuvem. Um dos métodos utilizados para identificar as tendências de ocorrências de falhas em sistemas computacionais, ocorre por meio da aplicação de estratégias de análise de sensibilidade. Cada estratégia de análise de sensibilidade pode obter um ranking diferenciado, desse modo sugerimos a utilização para avaliação dos sistemas computacionais, de mais de uma estratégia, com o objetivo de obtermos alta confiabilidade desses sistemas. Esta tese propõe uma metodologia aplicada no domínio dos sistemas computacionais, em particular na computação em nuvem, combinando a proposição e adaptação de estratégias de análise de sensibilidade com métodos já existentes, realizando uma comparação entre elas, com o propósito de estabelecer um índice de sensibilidade a partir da atribuição de pesos, para as posições que os parâmetros ocupam em cada estratégia. Pretende-se obter um ranking coerente e com a minimização das discrepâncias entre as estratégias, visando identificar os principais pontos que requerem melhoria na disponibilidade desses ambientes. A metodologia baseia-se na utilização de estratégias de análise de sensibilidade, conjuntamente com a modelagem hierárquica, e com os modelos para representação de mecanismos de redundância visando atuar na performance do sistema. A metodologia foi testada ao longo de estudos de casos distintos, no serviço de Streaming de Vídeo e no serviço MBaaS OpenMobester, desde o nível de infraestrutura básica até a infraestrustrura com redundância. Os estudos de casos mostram que a abordagem proposta é útil para guiar os provedores de serviço de nuvem no processo de tomada de decisões, especialmente para ajustes eventuais e melhorias arquiteturais no serviço. / For several years, cloud computing systems have been generating debate and interest within IT corporations. These cloud computing environments provide storage and processing systems that are adaptable, efficient and simple, thus allowing for rapid infrastructure modifications to be made, according to constantly changing workloads. Organizations of any size and type are migrating to the cloud supporting solutions based on Web. Due to the benefits of the pay-per-use model and scalability factors, services such as Video Streaming and MBaaS OpenMobester rely heavily on these cloud infrastructures to deliver a wide variety of multimedia content and Data storage of mobile devices. Recent failure events in video streaming services have demonstrated the critical importance of maintaining high availability in cloud computing infrastructures. One of the methods used to identify the trends of occurrences of failures in computational systems, occurs through the application of strategies of sensitivity analysis. Each strategy of sensitivity analysis can obtain a differentiated ranking, thus it is suggested that we use to evaluate the computational systems, more than one strategy, with the objective of obtaining high reliability of these systems. This thesis proposes a methodology applied in the field of computational systems, in particular in cloud computing, combining the proposition and adaptation of strategies of sensitivity analysis with existing methods, making a comparison between them, with the purpose of establishing a Index of sensitivity from the attribution of weights, the positions that the parameters occupy in each strategies. The aim is to achieve a coherent ranking and to minimize the discrepancies between the strategies, aiming to identify the main points that require improvement in the availability of these environments. The methodology is based on the use of sensitivity analysis strategies, together with the hierarchical modeling, and with the models to represent redundancy mechanisms aiming to perform in the performance of the system. The methodology has been tested over different case studies in the video streaming service and the MBaaS OpenMobester service, from the basic infrastructure to the redundant infrastructures. The case studies show that the proposed approach is useful for guiding cloud service providers in the decision-making process, especially for eventual adjustments and architectural improvements in the service.
130

Modelagem analítica baseada em experimentação de sistemas de inspeção profunda de pacotes

COSTA, Diego Pereira Martins da 28 June 2017 (has links)
Submitted by Pedro Barros (pedro.silvabarros@ufpe.br) on 2018-08-13T22:17:18Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Diego Pereira Martins da Costa.pdf: 3822732 bytes, checksum: 5eec7118275783f70f67ce7a7ea075de (MD5) / Approved for entry into archive by Alice Araujo (alice.caraujo@ufpe.br) on 2018-08-16T17:30:50Z (GMT) No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Diego Pereira Martins da Costa.pdf: 3822732 bytes, checksum: 5eec7118275783f70f67ce7a7ea075de (MD5) / Made available in DSpace on 2018-08-16T17:30:50Z (GMT). No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Diego Pereira Martins da Costa.pdf: 3822732 bytes, checksum: 5eec7118275783f70f67ce7a7ea075de (MD5) Previous issue date: 2017-06-28 / Inicialmente as pesquisas relacionadas a Internet eram focadas em melhoramentos na velocidade de transmissão de dados, capacidade e cobertura geográfica. Atualmente medição, modelagem e análise em redes de computadores, particularmente classificação de tráfego, tornaram-se pontos cruciais para manutenção do funcionamento da rede, principalmente devido ao constante crescimento das redes de computadores, com relação ao tamanho físico, a complexidade topológica e a diversidade de serviços. Sistemas de Inspeção Profunda de Pacotes (do inglês, Deep Packet Inspection – DPI) vem se tornando um importante artifício para análise de tráfego de rede, uma vez que a classificação de aplicações baseando-se nas portas perdeu a confiabilidade, especialmente devido ao tunelamento de protocolos bem como ao uso indevido de portas padrões. Por exemplo, softwares P2P ou Proxy podem utilizar-se de portas não bloqueadas para burlar regras de firewalls. Assim, o conceito de Inspeção Profunda de Pacotes pode ser definido como uma análise minuciosa do conteúdo do pacote, no qual se verifica o payload (carga útil) com o intuito de buscar padrões conhecidos que identifiquem a aplicação que o gerou. Desta forma, o pacote pode ser tratado de acordo com as políticas de firewall que regem aquela rede de computadores. O objetivo desta dissertação foi identificar os “gargalos” no sistema nDPI através da verificação das etapas que compõem o funcionamento de um sistema de inspeção profunda de pacotes, mensurar cada uma dessas etapas e modelar o sistema através da teoria das filas, bem como utilizando o software Arena, realizar a simulação e validação do modelo apresentado. Esta pesquisa optou por analisar o sistema nDPI, por ser open-source e ter um ótimo desempenho dentre os demais sistemas classificadores de tráfego. Dessa forma foi possível identificar gargalos que possam existir nesses sistemas, facilitando o desenvolvimento dessas ferramentas. Tal tarefa é necessária tendo em vista que, com a crescente demanda por links de grandes velocidades, sistemas que possam classificar corretamente o tráfego em redes de altas velocidades são fundamentais ao bom funcionamento das redes de computadores. Observou-se que a modularização de um sistema de inspeção profunda de pacotes é essencial para a correta análise deste. A análise realizada demonstra que a teoria das filas é um bom método analítico para modelagem de um sistema de inspeção profunda de pacotes, uma vez que as características dos módulos deste sistema são semelhantes as características de uma rede de filas de espera, possuindo processo de chegada, processamento e saída. Os resultados demonstram que o processo de classificação do payload é a etapa que demanda maior tempo dentre as etapas existentes no sistema. No entanto os testes apresentam que em links de até 1 Gbps praticamente não houve a formação de filas de espera no sistema analisado. / Initially, the research about the Internet focused on improvements in data transmission speed, capacity, and geographic coverage. Currently measurement, modeling and analysis in computer networks, particularly traffic classification, have become crucial factors for maintenance of network operation. Mainly due to the constant growth of computer networks, especially with respect to the physical size, the topological complexity and the diversity of services. Deep Packet Inspection (DPI) has become an important artifice for analyzing network traffic. Since the port-based classification of applications has lost its reliability, especially due to protocol tunneling as well as improper use of standard ports. For example, P2P or Proxy software can use unlocked ports to circumvent firewalls rules. The concept of Deep Packet Inspection can be defined as an thorough analysis of the contents of the packet, in which the payload is search for known patterns in order to identify the application that generated it. In this way, the packet can be handled in accordance with the firewall policies that govern that computer network. The objective of this dissertation was to identify the “bottlenecks” in the nDPI system by verifying the steps that make up the operation of DPI system, to measure each one of these stages and to model the system through of the queuing theory. As well, using the Arena software perform the simulation and validation of the presented model. This research opted to analyze the nDPI system, because it is open-source and performs optimally among other traffic classifier systems. This way it will be possible to identify bottlenecks that may exist in these systems, facilitating the development of these tools. Such a task is necessary because, with the increasing demand for high-speed links, systems that can correctly classify traffic in high-speed networks are fundamental to the proper functioning of computer networks. It was observed that the modularization of a DPI system is essential for its correct analysis. The analysis performed demonstrates that queuing theory is a good analytical method for modeling a deep packet inspection system, since the characteristics of the modules of this system are similar to the characteristics of a network queue, possessing arrival, processing and exit. The results show that the payload classification process is the stage that demands the most time among the steps in the system. However the tests show that in links of up to 1 Gbps there was practically no queuing in the analyzed system.

Page generated in 0.0611 seconds