Spelling suggestions: "subject:"detecção dde anomalias"" "subject:"detecção dee anomalias""
11 |
Detecção adaptativa de anomalias em redes de computadores utilizando técnicas não supervisionadas /Galhardi, Vinícius Vassoler. January 2017 (has links)
Orientador: Adriano Mauro Cansian / Banca: Cesar Augusto Cavalheiro Marcondes / Banca: Leandro Alves Neves / Resumo: Ataques às redes de computadores têm sido cada vez mais constantes e possuem grande capacidade destrutiva. Os sistemas de detecção de intrusão possuem um importante papel na detecção destas ameaças. Dentre estes sistemas, a detecção de anomalias tem sido uma área amplamente explorada devido à possibilidade de detectar ataques até então desconhecidos. Devido à complexidade para a geração de modelos que sejam capazes de descrever o comportamento padrão de um ambiente, técnicas de aprendizagem automática vêm sendo amplamente exploradas. Este trabalho aborda a detecção de ataques a redes de computadores utilizando uma combinação de técnicas de agrupamento. Desse modo, espera-se obter um sistema adaptativo, capaz de encontrar anomalias presentes na rede sem a necessidade de uma etapa de treinamento com dados rotulados. Dado que a taxa de falsos negativos é um dos maiores problemas encontrados na utilização de algoritmos não supervisionados, pretende-se alcançar uma melhora neste quesito através do uso combinado de diferentes técnicas / Abstract: Attacks on computer networks have been constantly increased and have great destructive capacity. Intrusion detection systems have an important role in the detection of these threats. Among these systems, anomaly detection has been widely explored due to the possibility of detecting unknown attacks. These systems are usually built using machine learning techniques due to the complexity of generating models capable of describing the normal behavior of an environment. We aim to addresses the detection of anomalies on computer networks using a combination of clustering techniques. Thus, we expect to achieve an adaptive system, able to find anomalies present in the network without the need of a training step with labeled data. Given that false positive rate is one of the major problems faced when using unsupervised algorithms, we intend to achieve an improvement in this issue with the combined use of different techniques / Mestre
|
12 |
DETECÇÃO DE ATAQUES DE NEGAÇÃO DE SERVIÇO EM REDES DE COMPUTADORES ATRAVÉS DA TRANSFORMADA WAVELET 2D / A BIDIMENSIONAL WAVELET TRANSFORM BASED ALGORITHM FOR DOS ATTACK DETECTIONAzevedo, Renato Preigschadt de 08 March 2012 (has links)
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / The analysis of network traffic is a key area for the management of fault-tolerant systems,
since anomalies in network traffic can affect the availability and quality of service (QoS). Intrusion
detection systems in computer networks are used to analyze network traffic in order
to detect attacks and anomalies. The analysis based on anomalies allows attacks detection by
analyzing the behavior of the traffic network. This work proposes an intrusion detection tool
to quickly and effectively detect anomalies in computer networks generated by denial of service
(DoS). The detection algorithm is based on the two-dimensional wavelet transform (2D
Wavelet), a derived method of signal analysis. The wavelet transform is a mathematical tool
with low computational cost that explores the existing information present in the input samples
according to the different levels of the transformation. The proposed algorithm detects anomalies
directly based on the wavelet coefficients, considering threshold techniques. This operation
does not require the reconstruction of the original signal. Experiments were performed using
two databases: a synthetic (DARPA) and another one from data collected at the Federal
University of Santa Maria (UFSM), allowing analysis of the intrusion detection tool under different
scenarios. The wavelets considered for the tests were all from the orthonormal family of
Daubechies: Haar (Db1), Db2, Db4 and Db8 (with 1, 2, 4 and 8 null vanishing moments respectively).
For the DARPA database we obtained a detection rate up to 100% using the Daubechies
wavelet transform Db4, considering normalized wavelet coefficients. For the database collected
at UFSM the detection rate was 95%, again considering Db4 wavelet transform with normalized
wavelet coefficients. / A análise de tráfego de rede é uma área fundamental no gerenciamento de sistemas tolerantes
a falhas, pois anomalias no tráfego de rede podem afetar a disponibilidade e a qualidade do
serviço (QoS). Sistemas detectores de intrusão em redes de computadores são utilizados para
analisar o tráfego de rede com o objetivo de detectar ataques ou anomalias. A análise baseada
em anomalias permite detectar ataques através da análise do comportamento do tráfego de
rede. Este trabalho propõe uma ferramenta de detecção de intrusão rápida e eficaz para detectar
anomalias em redes de computadores geradas por ataques de negação de serviço (DoS).
O algoritmo de detecção é baseado na transformada Wavelet bidimensional (Wavelet 2D), um
método derivado da análise de sinais. A transformada wavelet é uma ferramenta matemática
de baixo custo computacional, que explora as informações presentes nas amostras de entrada
ao longo dos diversos níveis da transformação. O algoritmo proposto detecta anomalias diretamente
nos coeficientes wavelets através de técnicas de corte, não necessitando da reconstrução
do sinal original. Foram realizados experimentos utilizando duas bases de dados: uma sintética
(DARPA), e outra coletada na instituição de ensino (UFSM), permitindo a análise da ferramenta
de detecção de intrusão sob diferentes cenários. As famílias wavelets utilizadas nos testes foram
as wavelets ortonormais de Daubechies: Haar (Db1), Db2, Db4 e Db8 (com 1, 2, 4 e 8 momentos
nulos respectivamente). Para a base de dados DARPA obteve-se uma taxa de detecção de
ataques DoS de até 100% utilizando a wavelet de Daubechies Db4 com os coeficientes wavelets
normalizados, e de 95% para a base de dados da UFSM com a wavelet de Daubechies Db4 com
os coeficientes wavelets normalizados.
|
13 |
Um modelo para tarifação confiável em computação em nuvem. / A model for reliable billing in cloud computing.DANTAS, Ana Cristina Alves de Oliveira. 09 May 2018 (has links)
Submitted by Johnny Rodrigues (johnnyrodrigues@ufcg.edu.br) on 2018-05-09T19:09:21Z
No. of bitstreams: 1
ANA CRISTINA ALVES DE OLIVEIRA DANTAS - TESE PPGCC 2015..pdf: 7095339 bytes, checksum: 1129b2ebd21ae60871fd33c142249912 (MD5) / Made available in DSpace on 2018-05-09T19:09:21Z (GMT). No. of bitstreams: 1
ANA CRISTINA ALVES DE OLIVEIRA DANTAS - TESE PPGCC 2015..pdf: 7095339 bytes, checksum: 1129b2ebd21ae60871fd33c142249912 (MD5)
Previous issue date: 2015-11-30 / A computação em nuvem define uma infraestrutura virtual para prestação de serviços em
rede sob demanda. Os clientes contratam serviços em que a infraestrutura primária de hardware e software encontra-se em centros de dados remotos e não localmente e sobre seu próprio domínio. Há uma necessidade de ferramentas de monitoramento regulatório, que possam operar dentro da infraestrutura do provedor, ou fora dele, deixando os clientes a par do estado atual ou do histórico do desempenho dos serviços contratados. A computação em nuvem é fortemente dependente das redes computadores e o desempenho dos serviços em nuvem pode ser monitorado via métricas de rede. O conhecimento de métricas de desempenho sobre a execução dos serviços contribui para promover a relação de confiança entre cliente e provedor, bem como fornece subsídios para contestações em faturas, caso necessário. Um modelo detarifaçãoconfiável envolve a disponibilização de métricas de desempenho dos serviços contratados, de modo que o cliente possa aferir as tarifas cobradas. Clientes e provedores podem alternar papeis em diferentes níveis de prestação de serviços de computação em nuvem. Um cliente no nível de infraestrutura pode ser um provedor de dados, por exemplo. Um modelo de tarifação confiável fornece subsídios também ao provedor de serviços para melhorar a alocação de recursos, bem como indicadores para investimentos em infraestrutura que evitem perdas financeiras causadas pelo pagamento de multas por descumprimento de acordo de nível de serviço. O objeto desta tese de doutorado é desenvolver um modelo para tarifação confiável de serviços de computação em nuvem que envolva a detecção e notificação de anomalias de tráfego de rede em tempo real que auxilie na estimativa do custo causado por tais anomalias para o modelo de negócio e que contribua para um processo de alocação de recursos capaz de reduzir custos com penalidades financeiras. A validação do modelo foi realizada por meio de escalonamento de recursos baseado em custo. O modelo de tarifação confiável integrado ao mecanismo de escalonamento reduziu custos e perdas financeiras provenientes de violações de acordos de nível de serviço. / Cloud computing defines a virtual infrastructure to provide network services on demand.
Customers contract services where the primary infrastructure of hardware software is in
remote data centers and on the customer own domain. Sharing the same network, or the
same physical machine, amongvarious tenants entails some concerns related to information confidentiality, security, troubleshooting, separation of responsibilities for guaranteeing the quality of the technical goals across the different abstraction levels, and how the customer may monitor the use of services and eventual failures. Prior to cloud computing, allowed the service providers dominate the entire chain of information, providing information to enable them to manage the business globally to avoid financial losses and increase profits. With the use of cloud computing services, the customer possesses no control over levels virtualization services that are supporting the level you are operating. A client in infrastructure level can be a data provider, for instance. Thus, it is important to have appropriate tools to keep track of the performance of the contracted services. Cloud computing is heavily dependent on computer networks. In this sense, it is abusiness differential to provide network performance metrics either for the customers, which is an important non-functional requirement that is sometimes ignored by many cloud service providers. The disposal of real-time performance metrics contributes to promote trust relationship between customer and provider, and to aid the provider to better dimension resources to avoid finacial losses. The object of this doctoral thesis is to develop a model for reliable charging of cloud computing services cloud that accomplishes the network traffic anomaly detection and appropriate notification in real time, as well as enables the estimation of the cost caused by anomalies to business model.
|
14 |
Detecção de anomalias em aplicações Web utilizando filtros baseados em coeficiente de correlação parcial / Anomaly detection in web applications using filters based on partial correlation coefficientSilva, Otto Julio Ahlert Pinno da 31 October 2014 (has links)
Submitted by Erika Demachki (erikademachki@gmail.com) on 2015-03-09T12:10:52Z
No. of bitstreams: 2
Dissertação - Otto Julio Ahlert Pinno da Silva - 2014.pdf: 1770799 bytes, checksum: 02efab9704ef08dc041959d737152b0a (MD5)
license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5) / Approved for entry into archive by Erika Demachki (erikademachki@gmail.com) on 2015-03-09T12:11:12Z (GMT) No. of bitstreams: 2
Dissertação - Otto Julio Ahlert Pinno da Silva - 2014.pdf: 1770799 bytes, checksum: 02efab9704ef08dc041959d737152b0a (MD5)
license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5) / Made available in DSpace on 2015-03-09T12:11:12Z (GMT). No. of bitstreams: 2
Dissertação - Otto Julio Ahlert Pinno da Silva - 2014.pdf: 1770799 bytes, checksum: 02efab9704ef08dc041959d737152b0a (MD5)
license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5)
Previous issue date: 2014-10-31 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES / Finding faults or causes of performance problems in modernWeb computer systems is an
arduous task that involves many hours of system metrics monitoring and log analysis. In
order to aid administrators in this task, many anomaly detection mechanisms have been
proposed to analyze the behavior of the system by collecting a large volume of statistical
information showing the condition and performance of the computer system. One of the
approaches adopted by these mechanism is the monitoring through strong correlations
found in the system. In this approach, the collection of large amounts of data generate
drawbacks associated with communication, storage and specially with the processing
of information collected. Nevertheless, few mechanisms for detecting anomalies have a
strategy for the selection of statistical information to be collected, i.e., for the selection
of monitored metrics. This paper presents three metrics selection filters for mechanisms
of anomaly detection based on monitoring of correlations. These filters were based on
the concept of partial correlation technique which is capable of providing information
not observable by common correlations methods. The validation of these filters was
performed on a scenario of Web application, and, to simulate this environment, we use
the TPC-W, a Web transactions Benchmark of type E-commerce. The results from our
evaluation shows that one of our filters allowed the construction of a monitoring network
with 8% fewer metrics that state-of-the-art filters, and achieve fault coverage up to 10%
more efficient. / Encontrar falhas ou causas de problemas de desempenho em sistemas computacionais
Web atuais é uma tarefa árdua que envolve muitas horas de análise de logs e métricas
de sistemas. Para ajudar administradores nessa tarefa, diversos mecanismos de detecção
de anomalia foram propostos visando analisar o comportamento do sistema mediante
a coleta de um grande volume de informações estatísticas que demonstram o estado
e o desempenho do sistema computacional. Uma das abordagens adotadas por esses
mecanismo é o monitoramento por meio de correlações fortes identificadas no sistema.
Nessa abordagem, a coleta desse grande número de dados gera inconvenientes associados
à comunicação, armazenamento e, especialmente, com o processamento das informações
coletadas. Apesar disso, poucos mecanismos de detecção de anomalias possuem uma
estratégia para a seleção das informações estatísticas a serem coletadas, ou seja, para
a seleção das métricas monitoradas. Este trabalho apresenta três filtros de seleção de
métricas para mecanismos de detecção de anomalias baseados no monitoramento de
correlações. Esses filtros foram baseados no conceito de correlação parcial, técnica que
é capaz de fornecer informações não observáveis por métodos de correlações comuns. A
validação desses filtros foi realizada sobre um cenário de aplicação Web, sendo que, para
simular esse ambiente, nós utilizamos o TPC-W, um Benchmark de transações Web do
tipo E-commerce. Os resultados obtidos em nossa avaliação mostram que um de nossos
filtros permitiu a construção de uma rede de monitoramento com 8% menos métricas que
filtros estado-da-arte, além de alcançar uma cobertura de falhas até 10% mais eficiente.
|
15 |
Mineração de dados aplicados ao sistema integrado de administração financeira do governo federal - SIAFI : detecção de anomalias na emissão de notas de empenho / Data mining applied to the Sistema Integrado de Administração Financeira do Governo Federal SIAFI: auditing the application of federal fundsFerreira, Eduardo Chaves 18 June 2008 (has links)
Made available in DSpace on 2015-03-04T18:51:04Z (GMT). No. of bitstreams: 1
Resumo-Tese-EduardoChavesFerreira.pdf: 18235 bytes, checksum: e434cf2e49bcb76b9f366bc1c6efa575 (MD5)
Previous issue date: 2008-06-18 / In this work we propose a model to automatically detect irregularities in application of federal funds that may cause losses to the public treasury. The model uses data from the
Sistema Integrado de Administração Financeira do Governo Federal - SIAFI. This model was created to help the Brazilian Court of Audit (TCU) in auditing the application of federal
funds.
The model has two modules, one is an expert system that will have the rules take form the legislation and from the experience of experts from TCU. The other module is a data
mining module, that is composed by Behavior model and the detection part that uses Statistics techniques, Neural Networks and Fuzzy Logic to detect possible irregularities. / Esta tese tem por objetivo propor um modelo para a detecção automática de indícios de irregularidades na execução da despesa pública, baseado em dados extraídos do Sistema Integrado de Administração Financeira do Governo Federal - SIAFI. O modelo proposto foi desenvolvido para atuar como ferramenta auxiliar ao trabalho de fiscalização da Administração Pública executado pelo Tribunal de Contas da União.
As análises realizadas pelo modelo baseiam-se em dois procedimentos complementares: sistema especialista e mineração de dados. A primeira alternativa permite criar um repositório de regras de conhecimento, extraídas da legislação e da experiência de analistas do TCU. A mineração de dados busca de forma automática informações não triviais, que não possam ser facilmente explicitadas através das regras de conhecimento.
A principal contribuição do trabalho é a sistematização do procedimento de detecção, detalhando os componentes do modelo e a interação entre eles. Com o objetivo de validar o modelo proposto, é feita a implementação do componente de mineração de dados, caracterizado no trabalho por um modelo matemático de comportamento quanto à execução da despesa e por algoritmos que, utilizando o modelo de comportamento, permitem detectar indícios de irregularidades. O componente de mineração de dados foi implementado com o uso de técnicas estatísticas, redes neurais e lógica nebulosa.
|
16 |
Mineração de dados aplicados ao sistema integrado de administração financeira do governo federal - SIAFI : detecção de anomalias na emissão de notas de empenho / Data mining applied to the Sistema Integrado de Administração Financeira do Governo Federal SIAFI: auditing the application of federal fundsEduardo Chaves Ferreira 18 June 2008 (has links)
Esta tese tem por objetivo propor um modelo para a detecção automática de indícios de irregularidades na execução da despesa pública, baseado em dados extraídos do Sistema Integrado de Administração Financeira do Governo Federal - SIAFI. O modelo proposto foi desenvolvido para atuar como ferramenta auxiliar ao trabalho de fiscalização da Administração Pública executado pelo Tribunal de Contas da União.
As análises realizadas pelo modelo baseiam-se em dois procedimentos complementares: sistema especialista e mineração de dados. A primeira alternativa permite criar um repositório de regras de conhecimento, extraídas da legislação e da experiência de analistas do TCU. A mineração de dados busca de forma automática informações não triviais, que não possam ser facilmente explicitadas através das regras de conhecimento.
A principal contribuição do trabalho é a sistematização do procedimento de detecção, detalhando os componentes do modelo e a interação entre eles. Com o objetivo de validar o modelo proposto, é feita a implementação do componente de mineração de dados, caracterizado no trabalho por um modelo matemático de comportamento quanto à execução da despesa e por algoritmos que, utilizando o modelo de comportamento, permitem detectar indícios de irregularidades. O componente de mineração de dados foi implementado com o uso de técnicas estatísticas, redes neurais e lógica nebulosa. / In this work we propose a model to automatically detect irregularities in application of federal funds that may cause losses to the public treasury. The model uses data from the
Sistema Integrado de Administração Financeira do Governo Federal - SIAFI. This model was created to help the Brazilian Court of Audit (TCU) in auditing the application of federal
funds.
The model has two modules, one is an expert system that will have the rules take form the legislation and from the experience of experts from TCU. The other module is a data
mining module, that is composed by Behavior model and the detection part that uses Statistics techniques, Neural Networks and Fuzzy Logic to detect possible irregularities.
|
17 |
Abordagem semi-supervisionada para detecção de módulos de software defeituososOLIVEIRA, Paulo César de 31 August 2015 (has links)
Submitted by Fabio Sobreira Campos da Costa (fabio.sobreira@ufpe.br) on 2017-07-24T12:11:04Z
No. of bitstreams: 2
license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5)
Dissertação Mestrado Paulo César de Oliveira.pdf: 2358509 bytes, checksum: 36436ca63e0a8098c05718bbee92d36e (MD5) / Made available in DSpace on 2017-07-24T12:11:04Z (GMT). No. of bitstreams: 2
license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5)
Dissertação Mestrado Paulo César de Oliveira.pdf: 2358509 bytes, checksum: 36436ca63e0a8098c05718bbee92d36e (MD5)
Previous issue date: 2015-08-31 / Com a competitividade cada vez maior do mercado, aplicações de alto nível de
qualidade são exigidas para a automação de um serviço. Para garantir qualidade de
um software, testá-lo visando encontrar falhas antecipadamente é essencial no ciclo
de vida de desenvolvimento. O objetivo do teste de software é encontrar falhas que
poderão ser corrigidas e consequentemente, aumentar a qualidade do software em
desenvolvimento. À medida que o software cresce, uma quantidade maior de testes
é necessária para prevenir ou encontrar defeitos, visando o aumento da qualidade.
Porém, quanto mais testes são criados e executados, mais recursos humanos e de
infraestrutura são necessários. Além disso, o tempo para realizar as atividades de
teste geralmente não é suficiente, fazendo com que os defeitos possam escapar.
Cada vez mais as empresas buscam maneiras mais baratas e efetivas para detectar
defeitos em software. Muitos pesquisadores têm buscado nos últimos anos,
mecanismos para prever automaticamente defeitos em software. Técnicas de
aprendizagem de máquina vêm sendo alvo das pesquisas, como uma forma de
encontrar defeitos em módulos de software. Tem-se utilizado muitas abordagens
supervisionadas para este fim, porém, rotular módulos de software como defeituosos
ou não para fins de treinamento de um classificador é uma atividade muito custosa e
que pode inviabilizar a utilização de aprendizagem de máquina. Neste contexto, este
trabalho propõe analisar e comparar abordagens não supervisionadas e semisupervisionadas
para detectar módulos de software defeituosos. Para isto, foram
utilizados métodos não supervisionados (de detecção de anomalias) e também
métodos semi-supervisionados, tendo como base os classificadores AutoMLP e
Naive Bayes. Para avaliar e comparar tais métodos, foram utilizadas bases de dados
da NASA disponíveis no PROMISE Software Engineering Repository. / Because the increase of market competition then high level of quality applications
are required to provide automate services. In order to achieve software quality testing
is essential in the development lifecycle with the purpose of finding defect as earlier
as possible. The testing purpose is not only to find failures that can be fixed, but
improve software correctness and quality. Once software gets more complex, a
greater number of tests will be necessary to prevent or find defects. Therefore, the
more tests are designed and exercised, the more human and infrastructure
resources are needed. However, time to run the testing activities are not enough,
thus, as a result, it causes escape defects. Companies are constantly trying to find
cheaper and effective ways to software defect detection in earlier stages. In the past
years, many researchers are trying to finding mechanisms to automatically predict
these software defects. Machine learning techniques are being a research target, as
a way of finding software modules detection. Many supervised approaches are being
used with this purpose, but labeling software modules as defective or not defective to
be used in training phase is very expensive and it can make difficult machine learning
use. Considering that this work aims to analyze and compare unsupervised and
semi-supervised approaches to software module defect detection. To do so,
unsupervised methods (of anomaly detection) and semi-supervised methods using
AutoMLP and Naive Bayes algorithms were used. To evaluate and compare these
approaches, NASA datasets were used at PROMISE Software Engineering
Repository.
|
Page generated in 0.0864 seconds