• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 54
  • 9
  • Tagged with
  • 63
  • 63
  • 45
  • 18
  • 18
  • 18
  • 15
  • 15
  • 12
  • 9
  • 9
  • 9
  • 9
  • 9
  • 9
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Quantificação da complexidade de processos de TI interdomínios / Quantifying the completity of inter-domain IT processes

Santos, Jose Rafael Xavier dos January 2012 (has links)
Serviços distribuídos exigem esforços cooperativos entre provedores de serviços distintos, com comunicação e troca de informações. Isto, entretanto, aumenta a complexidade associada aos processos de TI, e a entrega de serviços competitivos e com custos predizíveis depende do conhecimento e do controle desta complexidade. No presente trabalho, é proposta uma metodologia capaz de endereçar este cenário, no qual provedores de serviços distintos trabalham em conjunto, trocam informações, entretanto, por vezes omitem informações confidenciais entre si. Para isto, aplica um conjunto de métricas, quantifica a complexidade dos processos, define como os provedores trocarão entre si informações de seus procedimentos internos e como estas informações serão ajustadas para garantir a todos o mesmo resultado apesar de informações confidenciais serem, porventura, omitidas. A avaliação – cíclica – começa com o processo sendo projetado por todos os provedores, chamados de domínios de autoridade. Após finalizados os processos locais de cada um, estes são enviados a todos os domínios integrantes do processo, seguida da aplicação de ajustes de complexidade, o que garante que cada um terá uma visão completa e de complexidade coerente do processo. A aplicação das métricas é efetuada pela ferramenta complexity analyzer, que analisa gramaticalmente processos representados em XML até alcançar valores aceitáveis de complexidade. Um protótipo da ferramenta foi implementado e utilizado para avaliar um processo de TI mapeado de um caso real, validando a metodologia proposta. / Distributed services requires cooperative efforts among partner service providers, like communication and information exchange. This, however, increases the complexity associated to IT processes, and the delivery of services with predictable and competitive costs also depends on the knowledge and control of process complexity along service provider federations. Our proposed methodology is capable to address this scenario, that different service providers work together, exchanging information, however, sometimes hidding confidential information from one another. To reach these goals its applied a set of complexity metrics that quantifies the process complexity. It is also defined how all service providers will exchange and adjust process informations aiming to give to each one the same results even when confidential informations are ommited. The cyclic evaluation starts with the process design by each autonomous provider, called authority domain. When all parts of the processes are done, they are sent to all domains, followed by complexity adjustments, what guarantees that each domain will have a complete and trustable version of the entire process. The complexity analyzer is the tool used to collect the metrics. This tool analyzes grammaticaly XML represented processes until reached an aceptable complexity value. To validate the proposed methodology, a prototype of the complexity analyzer was developed and applied against a real case IT process.
32

Metodologia para detecção de incoerências entre regras em filtros de pacotes / Methodology for incoherencies identification among packet filters rules

Favero, Andre Luis January 2007 (has links)
Embora firewall seja um assunto bastante discutido na área de segurança da informação, existem lacunas em termos de verificação de firewalls. Verificações de firewalls têm o intuito de garantir a correta implementação dos mecanismos de filtragem e podem ser realizadas em diferentes níveis: sintaxe das regras; conformidade com a política; e relacionamento entre as regras. Os aspectos referentes a erros de sintaxe das regras são geralmente tratados pela ferramenta de filtragem em uso. O segundo nível, no entanto, depende da existência de uma política formal e documentada, algo não encontrado na maioria das organizações, e de uma metodologia eficaz que, através da entrada da política de segurança e do conjunto de regras de firewall implementado, possa comparálas e apontar as discrepâncias lógicas entre a especificação (política) e a implementação (regras). O último, verificação dos relacionamentos entre regras, não requer qualquer documentação, uma vez que somente o conjunto de regras do firewall é necessário para a identificação de incoerências entre elas.Baseado nessas considerações, este trabalho objetivou o estudo e a definição de uma metodologia para a análise de relacionamentos entre regras, apontando erros e possíveis falhas de configuração. Três metodologias já existentes foram estudadas, analisadas e utilizadas como base inicial para uma nova metodologia que atingisse os requisitos descritos neste trabalho. Para garantir a efetividade da nova metodologia, uma ferramenta protótipo foi implementada e aplicada a três estudos de caso. / Although firewalls are a well discussed issue in the information security field, there are gaps in terms of firewall verification. Firewall verification is aimed at enforce the correct filtering mecanisms implementation and can be executed in three distinct levels: rules syntax, policy compliance and rules relationship. The aspects related to rule syntax errors are usually addressed by the filtering tool in use. However, the second level depends on the existance of a formalized and documented policy, something not usual in most organizations, and on an efficient metodology that, receiving the security policy and the firewall rules set as inputs, could compare them and point logical discrepancies between the specification (policy) and the implementation (rules set). The last level, rules relationship verification, doesn't require any previous documentation, indeed only the firewall rule set is required to conduct a process of rules incoherencies identification. Based on those considerations, this work aimed at studying and defining a methodology for analysis of rules relationships, pointing errors and possible misconfigurations. Three already existent methodologies were studied, analyzed and used as a initial foundation to a new methodology that achieve the requirements described in this work. To assure the effectivity of the new methodology, a prototype tool were implemented and applied to three case studies.
33

Dois pesos, duas medidas : gerenciamento de identidades orientado a desafios adaptativos para contenção de Sybils. / TwoWeights and two measures: using adaptive puzzles in identity management for sybil contention

Mauch, Gustavo Huff January 2010 (has links)
O ataque Sybil consiste na criação indiscriminada de identidades forjadas por um usuário malicioso (atacante). Uma abordagem promissora para mitigar esse ataque consiste em conceder novas identidades mediante a resolução de desafios computacionais. Apesar de suas potencialidades, as soluções baseadas em tal abordagem não distinguem solicitações de usuários corretos das de atacantes, fazendo com que ambos paguem o mesmo preço por identidade solicitada. Por conta disso, essas soluções podem não ser efetivas quando os recursos computacionais dos atacantes são muito superiores aos que os usuários legítimos dispõem. Assumindo desafios de uma determinada dificuldade, atacantes com hardware de maior capacidade conseguiriam resolver um conjunto muito superior de desafios e, com isso, obter um número elevado de identidades. Aumentar uniformemente a dificuldade dos desafios poderia, no outro extremo, tornar proibitivo o ingresso de pares a rede. Para lidar com esse problema, nesta dissertação propi5e-se o use de desafios adaptativos como limitante a disseminação de Sybils. Estima-se um grau de confiança da fonte de onde partem as solicitações de identidade em relação as demais. Quanto maior a frequência de solicitação de identidades, menor o grau de confiança e, consequentemente, maior a complexidade do desafio a ser resolvido pelo(s) usuário(s) associado(s) Aquela fonte. Resultados obtidos por meio de experimentação mostram a capacidade da solução de atribuir desafios mais complexos a potenciais atacantes, penalizando minimamente usuários legítimos. / The Sybil attack consists on the indiscriminate creation of counterfeit identities by a malicious user (attacker). An effective approach to tackle such attack consists of establishing computational puzzles to be solved prior to granting new identities. Despite its potentialities, solutions based on such approach do not distinguish between identity requests from correct users and attackers, and thus require both to afford the same cost per identity requested. Therefore, those approaches may not be effective when the attacker's computational resources are superior than those used by correct users. Assuming any choice of puzzle hardness, attackers that have access to high-performance computing resources will be able to solve puzzles several order of magnitude faster than legitimate users and thus obtain a large amount of identities. On the other way, raising the cost to solve the puzzles could restrict legitimate users too much. To tackle this problem, in this paper we propose the use of adaptive computational puzzles to limit the spread of Sybils. We estimate a trust score of the source of identity requests in regard to the behavior of others. The higher the frequency a source requests identities, the lower its trust score and, consequently, the higher the complexity of the puzzle to be solved by the user(s) associated to that source. Results achieved by means of an experimental evaluation evidence our solution's ability to establish more complex puzzles to potential attackers, while minimally penalizing legitimate users.
34

Uso de sensibilidade à situação em redes oportunistas para intensificar a comunicação de dados em aplicações de sensoriamento urbano / Use of situation awareness in opportunistic networks to improve data communication of social sensing applications

Rolim, Carlos Oberdan January 2016 (has links)
Cidades Inteligentes são sistemas urbanos que usam as Tecnologias da Informação e Comunicação (TICs) para tornar a infraestrutura e os serviços públicos de uma cidade mais interativos, acessíveis e eficientes aos seus habitantes. Com isso, surge a necessidade de proporcionar novos tipos de serviços que busquem auxiliar na organização da cidade, no bem-estar das pessoas e auxiliem a melhorar a governança da cidade. Nesse contexto, o Sensoriamento Urbano é um paradigma emergente, situado no escopo de Cidades Inteligentes, que combina a ubiquidade de smartphones e de diferentes tipos de sensores para coletar dados que retratam diferentes aspectos da cidade. Um aspecto importante nesse processo de sensoriamento é a transmissão dos dados coletados para serem processados por um sistema centralizado remoto. Isso demanda uma ampla e constante cobertura de infraestrutura de rede de comunicação, fato que nem sempre é possível. As Redes Oportunistas surgem como uma alternativa complementar e inovadora para situações como essa, onde as aplicações precisam transmitir dados porém a infraestrutura de rede é intermitente ou mesmo inexistente. Entretanto, com o uso de Redes Oportunistas, as aplicações além de herdarem os seus benefícios também herdam os desafios existentes na área relacionados à tomada de decisão de encaminhamento das mensagens. Dessa forma, a presente tese busca responder ao questionamento de como intensificar a disseminação de conteúdo e o encaminhamento de mensagens em aplicações de Sensoriamento Urbano que fazem uso de Redes Oportunistas como paradigma complementar de comunicação. Para isso é proposto o Situs, um componente de software baseado em Redes Oportunistas que utiliza Sensibilidade à Situação com vistas à proatividade nas tomadas de decisões de roteamento para com isso intensificar a entrega de mensagens. Ele emprega Lógica Fuzzy para a compreensão da situação e uma rede neural chamada Echo State Network (ESN) para efetuar a projeção de situações. Os resultados experimentais demonstraram que a sua performance supera algumas das principais iniciativas existentes na literatura. Por fim, pode-se concluir que ele é capaz de preencher as lacunas do estado da arte apresentadas durante o desenvolvimento da tese sendo capaz de proporcionar um comportamento proativo com o uso de Sensibilidade à Situação. / Smart cities are urban systems that uses Information and Communication Technologies (ICTs) to make infrastructure and public services in a more interactive, accessible and efficient city to its inhabitants. With this comes the need to provide new types of services that seeks to assist in the organization of the city, the well-being of people and assist to improve the governance of the city. In this context, urban sensing is an emerging paradigm, sited in the Smart Cities scope, combining the ubiquity of smartphones with the capability of measuring o sensors to collect data that depict different aspects of the city. This ecosystem consists of different types of mobile and fixed devices orchestrated by a computational architecture that encompass the full sensing process. An important aspect of this process is the transmission of data collected for processing by a remote central system. This requires a broad and constant coverage of communication network infrastructure, a fact that is not always possible. The Opportunistic Networks emerge as an innovative and complementary alternative for situations like this where the applications needs to transmit data but the network infrastructure is intermittent or unavailable. However, using Opportunistic Networks, applications as well as inherit its benefits also inherit the existing challenges in the area related to decision-making of messages forwarding. Thus, this thesis seeks to answer the question of how to improve the dissemination of content and message routing of urban sensing applications that makes use of Opportunistic networks as complementary communication paradigm. Therefore, it proposes Situs, a software component based on Opportunistic Networks that uses Situation Awareness towards a proactivity in making routing decisions. For such task, it applies fuzzy logic for situation comprehension and a king of neural network called Echo State Network (ESN) for situation projection. The results of the experiments showed that their performance outperforms some existent initiatives in literature. Finally, we argue it fullfills the gaps of state of art presented in this thesis and could provide a proactive behaviour with usage of situation awareness.
35

Quantificação da complexidade de processos de TI interdomínios / Quantifying the completity of inter-domain IT processes

Santos, Jose Rafael Xavier dos January 2012 (has links)
Serviços distribuídos exigem esforços cooperativos entre provedores de serviços distintos, com comunicação e troca de informações. Isto, entretanto, aumenta a complexidade associada aos processos de TI, e a entrega de serviços competitivos e com custos predizíveis depende do conhecimento e do controle desta complexidade. No presente trabalho, é proposta uma metodologia capaz de endereçar este cenário, no qual provedores de serviços distintos trabalham em conjunto, trocam informações, entretanto, por vezes omitem informações confidenciais entre si. Para isto, aplica um conjunto de métricas, quantifica a complexidade dos processos, define como os provedores trocarão entre si informações de seus procedimentos internos e como estas informações serão ajustadas para garantir a todos o mesmo resultado apesar de informações confidenciais serem, porventura, omitidas. A avaliação – cíclica – começa com o processo sendo projetado por todos os provedores, chamados de domínios de autoridade. Após finalizados os processos locais de cada um, estes são enviados a todos os domínios integrantes do processo, seguida da aplicação de ajustes de complexidade, o que garante que cada um terá uma visão completa e de complexidade coerente do processo. A aplicação das métricas é efetuada pela ferramenta complexity analyzer, que analisa gramaticalmente processos representados em XML até alcançar valores aceitáveis de complexidade. Um protótipo da ferramenta foi implementado e utilizado para avaliar um processo de TI mapeado de um caso real, validando a metodologia proposta. / Distributed services requires cooperative efforts among partner service providers, like communication and information exchange. This, however, increases the complexity associated to IT processes, and the delivery of services with predictable and competitive costs also depends on the knowledge and control of process complexity along service provider federations. Our proposed methodology is capable to address this scenario, that different service providers work together, exchanging information, however, sometimes hidding confidential information from one another. To reach these goals its applied a set of complexity metrics that quantifies the process complexity. It is also defined how all service providers will exchange and adjust process informations aiming to give to each one the same results even when confidential informations are ommited. The cyclic evaluation starts with the process design by each autonomous provider, called authority domain. When all parts of the processes are done, they are sent to all domains, followed by complexity adjustments, what guarantees that each domain will have a complete and trustable version of the entire process. The complexity analyzer is the tool used to collect the metrics. This tool analyzes grammaticaly XML represented processes until reached an aceptable complexity value. To validate the proposed methodology, a prototype of the complexity analyzer was developed and applied against a real case IT process.
36

Projeto, verificação funcional e síntese de módulos funcionais para um comutador Gigabit Ethernet / Design, functional verification and synthesis of functional modules for a gigabit ethernet switch

Seclen, Jorge Lucio Tonfat January 2011 (has links)
Este trabalho apresenta o projeto, a verificação funcional e a síntese dos módulos funcionais de um comutador Gigabit Ethernet. As funções destes módulos encontramse definidas nos padrões IEEE 802.1D, IEEE 802.1Q, IEEE 802.3 e nos seguintes RFCs (Request for Comments): RFC 2697, RFC 2698 e RFC 4115. Estes módulos formam o núcleo funcional do comutador e implementam as principais funções dele. Neste trabalho quatro módulos são desenvolvidos e validados. Estes módulos foram projetados para serem inseridos na plataforma NetFPGA, formando o chamado “User Data Path”. Esta plataforma foi desenvolvida pela universidade de Stanford para permitir a prototipagem rápida de hardware para redes. O primeiro módulo chamado de “Árbitro de entrada” decide qual das portas de entrada do comutador ele vai atender, para que os quadros que ingressam por essa porta sejam processados. Este módulo utiliza um algoritmo Deficit Round Robin (DRR). Este algoritmo corrige um problema encontrado no módulo original desenvolvido na plataforma NetFPGA. O segundo módulo é o “Pesquisador da porta de saída”. O bloco principal deste módulo é o motor de classificação. A função principal do motor de classificação e aprendizagem de endereços MAC é encaminhar os quadros à suas respectivas portas de saída. Para cumprir esta tarefa, ele armazena o endereço MAC de origem dos quadros em uma memória SRAM e é associado a uma das portas de entrada. Este motor de classificação utiliza um mecanismo de hashing que foi provado que é eficaz em termos de desempenho e custo de implementação. São apresentadas duas propostas para implementar o motor de classificação. Os resultados da segunda proposta permite pesquisar efetivamente 62,5 milhões de quadros por segundo, que é suficiente para trabalhar a uma taxa wire-speed em um comutador Gigabit de 42 portas. O maior desafio foi conseguir a taxa de wire-speed durante o processo de “aprendizagem” usando uma memória SRAM externa. O terceiro módulo é o marcador de quadros. Este módulo faz parte do mecanismo de qualidade de serviço (QoS). Com este módulo é possível definir uma taxa máxima de transferência para cada uma das portas do comutador. O quarto módulo (Output Queues) implementa as filas de saída do comutador. Este módulo faz parte de plataforma NetFPGA, mas alguns erros foram encontrados e corrigidos durante o processo de verificação. Os blocos foram projetados utilizando Verilog HDL e visando as suas implementações em ASIC, baseado em uma tecnologia de 180 nanômetros da TSMC com a metodologia Semi-Custom baseada em standard cells. Para a verificação funcional foi utilizada a linguagem SystemVerilog. Uma abordagem de estímulos aleatórios restritos é utilizada em um ambiente de testbench com capacidade de verificação automática. Os resultados da verificação funcional indicam que foi atingido um alto porcentual de cobertura de código e funcional. Estes indicadores avaliam a qualidade e a confiabilidade da verificação funcional. Os resultados da implementação em ASIC amostram que os quatro módulos desenvolvidos atingem a freqüência de operação (125 MHz) definida para o funcionamento completo do comutador. Os resultados de área e potência mostram que o módulo das Filas de saída possui a maior área e consumo de potência. Este módulo representa o 92% da área (115 K portas lógicas equivalentes) e o 70% da potência (542 mW) do “User Data Path”. / This work presents the design, functional verification and synthesis of the functional modules of a Gigabit Ethernet switch. The functions of these modules are defined in the IEEE 802.1D, IEEE 802.1Q, IEEE 802.3 standards and the following RFCs (Request for Comments): RFC 2697, RFC 2698 and RFC 4115. These modules are part of the functional core of the switch and implement the principal functions of it. In this work four modules are developed and validated. These modules were designed to be inserted in the NetFPGA platform, as part of the “User Data Path”. This platform was developed at Stanford University to enable the fast prototype of networking hardware. The first module called “input arbiter” decides which input port to serve next. This module uses an algorithm Deficit Round Robin (DRR). This algorithm corrects a problem found in the original module developed in the NetFPGA platform. The second module is the classification engine. The main function of the MAC address classification engine is to forward Ethernet frames to their corresponding output ports. To accomplish this task, it stores the source MAC address from frames in a SRAM memory and associates it to one of the input ports. This classification engine uses a hashing scheme that has been proven to be effective in terms of performance and implementation cost. It can search effectively 62.5 million frames per second, which is enough to work at wire-speed rate in a 42-port Gigabit switch. The main challenge was to achieve wire-speed rate during the “learning” process using external SRAM memory. The third module is the frame marker. This module is part of the quality of service mechanism (QoS). With this module is possible to define a maximum transmission rate for each port of the switch. The fourth module (Output Queues) implements the output queues of the switch. This module is part of the NetFPGA platform, but some errors were found and corrected during the verification process. These module were designed using Verilog HDL, targeting the NetFPGA prototype board and an ASIC based on a 180 nm process from TSMC with the Semi-custom methodology based on standard cells. For the functional verification stage is used the SystemVerilog language. A constrained-random stimulus approach is used in a layered-testbench environment with self-checking capability. The results from the functional verification indicate that it was reached a high percentage of functional and code coverage. These indicators evaluate the quality and reliability of the functional verification. The results from the ASIC implementation show that the four modules developed achieve the operation frequency (125 MHz) defined for the overall switch operation. The area and power results demonstrate that the Output Queues module has the largest area and power consumption. This module represents the 92% of area (115 K equivalent logic gates) and the 70% of power (542 mW) from the User Data Path.
37

Dois pesos, duas medidas : gerenciamento de identidades orientado a desafios adaptativos para contenção de Sybils. / TwoWeights and two measures: using adaptive puzzles in identity management for sybil contention

Mauch, Gustavo Huff January 2010 (has links)
O ataque Sybil consiste na criação indiscriminada de identidades forjadas por um usuário malicioso (atacante). Uma abordagem promissora para mitigar esse ataque consiste em conceder novas identidades mediante a resolução de desafios computacionais. Apesar de suas potencialidades, as soluções baseadas em tal abordagem não distinguem solicitações de usuários corretos das de atacantes, fazendo com que ambos paguem o mesmo preço por identidade solicitada. Por conta disso, essas soluções podem não ser efetivas quando os recursos computacionais dos atacantes são muito superiores aos que os usuários legítimos dispõem. Assumindo desafios de uma determinada dificuldade, atacantes com hardware de maior capacidade conseguiriam resolver um conjunto muito superior de desafios e, com isso, obter um número elevado de identidades. Aumentar uniformemente a dificuldade dos desafios poderia, no outro extremo, tornar proibitivo o ingresso de pares a rede. Para lidar com esse problema, nesta dissertação propi5e-se o use de desafios adaptativos como limitante a disseminação de Sybils. Estima-se um grau de confiança da fonte de onde partem as solicitações de identidade em relação as demais. Quanto maior a frequência de solicitação de identidades, menor o grau de confiança e, consequentemente, maior a complexidade do desafio a ser resolvido pelo(s) usuário(s) associado(s) Aquela fonte. Resultados obtidos por meio de experimentação mostram a capacidade da solução de atribuir desafios mais complexos a potenciais atacantes, penalizando minimamente usuários legítimos. / The Sybil attack consists on the indiscriminate creation of counterfeit identities by a malicious user (attacker). An effective approach to tackle such attack consists of establishing computational puzzles to be solved prior to granting new identities. Despite its potentialities, solutions based on such approach do not distinguish between identity requests from correct users and attackers, and thus require both to afford the same cost per identity requested. Therefore, those approaches may not be effective when the attacker's computational resources are superior than those used by correct users. Assuming any choice of puzzle hardness, attackers that have access to high-performance computing resources will be able to solve puzzles several order of magnitude faster than legitimate users and thus obtain a large amount of identities. On the other way, raising the cost to solve the puzzles could restrict legitimate users too much. To tackle this problem, in this paper we propose the use of adaptive computational puzzles to limit the spread of Sybils. We estimate a trust score of the source of identity requests in regard to the behavior of others. The higher the frequency a source requests identities, the lower its trust score and, consequently, the higher the complexity of the puzzle to be solved by the user(s) associated to that source. Results achieved by means of an experimental evaluation evidence our solution's ability to establish more complex puzzles to potential attackers, while minimally penalizing legitimate users.
38

Metodologia para detecção de incoerências entre regras em filtros de pacotes / Methodology for incoherencies identification among packet filters rules

Favero, Andre Luis January 2007 (has links)
Embora firewall seja um assunto bastante discutido na área de segurança da informação, existem lacunas em termos de verificação de firewalls. Verificações de firewalls têm o intuito de garantir a correta implementação dos mecanismos de filtragem e podem ser realizadas em diferentes níveis: sintaxe das regras; conformidade com a política; e relacionamento entre as regras. Os aspectos referentes a erros de sintaxe das regras são geralmente tratados pela ferramenta de filtragem em uso. O segundo nível, no entanto, depende da existência de uma política formal e documentada, algo não encontrado na maioria das organizações, e de uma metodologia eficaz que, através da entrada da política de segurança e do conjunto de regras de firewall implementado, possa comparálas e apontar as discrepâncias lógicas entre a especificação (política) e a implementação (regras). O último, verificação dos relacionamentos entre regras, não requer qualquer documentação, uma vez que somente o conjunto de regras do firewall é necessário para a identificação de incoerências entre elas.Baseado nessas considerações, este trabalho objetivou o estudo e a definição de uma metodologia para a análise de relacionamentos entre regras, apontando erros e possíveis falhas de configuração. Três metodologias já existentes foram estudadas, analisadas e utilizadas como base inicial para uma nova metodologia que atingisse os requisitos descritos neste trabalho. Para garantir a efetividade da nova metodologia, uma ferramenta protótipo foi implementada e aplicada a três estudos de caso. / Although firewalls are a well discussed issue in the information security field, there are gaps in terms of firewall verification. Firewall verification is aimed at enforce the correct filtering mecanisms implementation and can be executed in three distinct levels: rules syntax, policy compliance and rules relationship. The aspects related to rule syntax errors are usually addressed by the filtering tool in use. However, the second level depends on the existance of a formalized and documented policy, something not usual in most organizations, and on an efficient metodology that, receiving the security policy and the firewall rules set as inputs, could compare them and point logical discrepancies between the specification (policy) and the implementation (rules set). The last level, rules relationship verification, doesn't require any previous documentation, indeed only the firewall rule set is required to conduct a process of rules incoherencies identification. Based on those considerations, this work aimed at studying and defining a methodology for analysis of rules relationships, pointing errors and possible misconfigurations. Three already existent methodologies were studied, analyzed and used as a initial foundation to a new methodology that achieve the requirements described in this work. To assure the effectivity of the new methodology, a prototype tool were implemented and applied to three case studies.
39

Quantificação da complexidade de processos de TI interdomínios / Quantifying the completity of inter-domain IT processes

Santos, Jose Rafael Xavier dos January 2012 (has links)
Serviços distribuídos exigem esforços cooperativos entre provedores de serviços distintos, com comunicação e troca de informações. Isto, entretanto, aumenta a complexidade associada aos processos de TI, e a entrega de serviços competitivos e com custos predizíveis depende do conhecimento e do controle desta complexidade. No presente trabalho, é proposta uma metodologia capaz de endereçar este cenário, no qual provedores de serviços distintos trabalham em conjunto, trocam informações, entretanto, por vezes omitem informações confidenciais entre si. Para isto, aplica um conjunto de métricas, quantifica a complexidade dos processos, define como os provedores trocarão entre si informações de seus procedimentos internos e como estas informações serão ajustadas para garantir a todos o mesmo resultado apesar de informações confidenciais serem, porventura, omitidas. A avaliação – cíclica – começa com o processo sendo projetado por todos os provedores, chamados de domínios de autoridade. Após finalizados os processos locais de cada um, estes são enviados a todos os domínios integrantes do processo, seguida da aplicação de ajustes de complexidade, o que garante que cada um terá uma visão completa e de complexidade coerente do processo. A aplicação das métricas é efetuada pela ferramenta complexity analyzer, que analisa gramaticalmente processos representados em XML até alcançar valores aceitáveis de complexidade. Um protótipo da ferramenta foi implementado e utilizado para avaliar um processo de TI mapeado de um caso real, validando a metodologia proposta. / Distributed services requires cooperative efforts among partner service providers, like communication and information exchange. This, however, increases the complexity associated to IT processes, and the delivery of services with predictable and competitive costs also depends on the knowledge and control of process complexity along service provider federations. Our proposed methodology is capable to address this scenario, that different service providers work together, exchanging information, however, sometimes hidding confidential information from one another. To reach these goals its applied a set of complexity metrics that quantifies the process complexity. It is also defined how all service providers will exchange and adjust process informations aiming to give to each one the same results even when confidential informations are ommited. The cyclic evaluation starts with the process design by each autonomous provider, called authority domain. When all parts of the processes are done, they are sent to all domains, followed by complexity adjustments, what guarantees that each domain will have a complete and trustable version of the entire process. The complexity analyzer is the tool used to collect the metrics. This tool analyzes grammaticaly XML represented processes until reached an aceptable complexity value. To validate the proposed methodology, a prototype of the complexity analyzer was developed and applied against a real case IT process.
40

Funções de multiplexação E1 / E1 multiplexing functions

Kaiser, Gustavo Weymar January 1995 (has links)
Este trabalho tem como objetivo a especificação de um conjunto de módulos de circuito, capazes de executar as funções de multiplexação relativas Hierarquia Digital E1, do ITU-T. A fim de alcançar o objetivo proposto, são realizadas consultas as normas nacionais (Praticas Telebrás) e internacionais (ITU-T) e estudos bibliográficos acerca do projeto e implementação dos circuitos executores das funções de multiplexação E1. Após a fase inicial de especificação e projeto dos módulos de circuito, os mesmos foram submetidos a intensa rotina de simulações, a fim de validar as arquiteturas propostas. Os módulos de circuito projetados são apresentados e descritos. Os resultados das simulações desenvolvidas são mostrados e comentados. Os módulos poderão ser empregados na produção de um chip-set de circuitos integrados para implementação de equipamentos multiplexadores E1. / The aim of this work is the specification of a set of circuit modules, capable to perform the multiplexing functions related to the ITU-T's E1 Digital Hierarchy. In order to reach the proposed objective, the national (Telebris Practices) and international (ITU-7) standards are consulted, as well as bibliographical references for the design and implementation of E1 multiplexing functions performing circuits. After the initial step of specification and design of the circuit modules, they are submitted to an intensive simulation routine, in order to validate the proposed architectures. The designed circuit modules are presented and described. The simulation results are shown and discussed. These modules may be used in the production of an integrated circuits chip-set, for implementation of El multiplexing equipments.

Page generated in 0.0549 seconds