Spelling suggestions: "subject:"computação forensic""
11 |
MADIK : uma abordagem multiagente para o exame pericial de sistemas computacionaisHoelz, Bruno Werneck Pinto 08 March 2009 (has links)
Dissertação (mestrado)-Universidade de Brasília, Departamento de Ciência da Computação, 2009. / Submitted by Albânia Cézar de Melo (albania@bce.unb.br) on 2011-11-07T12:36:39Z
No. of bitstreams: 1
2009_BrunoWerneckPintoHoelz.pdf: 4633536 bytes, checksum: 8867267a2ff22f5a79c1af6a9656c13f (MD5) / Approved for entry into archive by Elzi Bittencourt(elzi@bce.unb.br) on 2011-11-29T14:12:39Z (GMT) No. of bitstreams: 1
2009_BrunoWerneckPintoHoelz.pdf: 4633536 bytes, checksum: 8867267a2ff22f5a79c1af6a9656c13f (MD5) / Made available in DSpace on 2011-11-29T14:12:39Z (GMT). No. of bitstreams: 1
2009_BrunoWerneckPintoHoelz.pdf: 4633536 bytes, checksum: 8867267a2ff22f5a79c1af6a9656c13f (MD5) / O exame pericial de sistemas computacionais e evidências digitais é uma tarefa complexa
que exige habilidades altamente especializadas para identi car, coletar e analisar vestígios importantes para a investigação de um crime. Muitos são os desa os para a realização de um exame satisfatório, uma vez que os recursos humanos e materiais, bem como o tempo disponível, são na maioria das vezes muito limitados. Com isso, nem sempre é possível realizar um exame tão abrangente e completo quanto o desejado. Este trabalho propõe o desenvolvimento e a utilização de um Sistema Multiagente na realização de exames periciais de sistemas computacionais. O sistema proposto, denominado Multi-Agent
Digital Investigation toolKit (MADIK), apresenta uma arquitetura baseada na estrutura hierárquica das organizações, dividida em quatro níveis: estratégico, tático, operacional e especializado. Os agentes localizados em cada um desses níveis trabalham de forma distribuída e cooperativa para examinar as evidências digitais relacionadas a uma investigação. Suas descobertas e recomendações são registradas em uma estrutura compartilhada de blackboard, permitindo ao especialista humano avaliar e revisar os resultados obtidos. A estrutura do blackboard permite também que os agentes realizem a correlação de suas descobertas. Este trabalho apresenta a proposta do Sistema Multiagente (SMA), a implementa ção de um protótipo e os resultados obtidos ao longo de vários experimentos. Os resultados obtidos foram muito positivos, com bons níveis de abrangência da análise do conteúdo das evidências e de correlação de vestígios, e com a redução do tempo total necessário para realização dos exames periciais quando comparados a um examinador humano utilizando as ferramentas forenses atuais em um cenário de recursos materiais e tempo limitados. ______________________________________________________________________________ ABSTRACT / The forensic examination of computational systems is a complex task that demands highly
specialized skills to identify, collect, and analyze evidence of interest to the investigation of a crime. Many are the challenges on the way to a satisfactory examination, since the resources, both human and material, as well as the time available, are often limited. So it's not always possible to perform an examination as complete as desired. This work proposes the use of a Multi-Agent System in the performing of forensic examination of
computational systems. The proposed Multi-Agent System (MAS), named Multi-Agent
Digital Investigation toolKit (MADIK) presents an architecture based on the hierarchical structure of organizations, divided into four layers: strategic, tactical, operational and specialized. The agents in each one of these layers work in a distributed and cooperative manner to examine the digital evidence related to the investigation. Their ndings and recommendations are placed in a blackboard shared structure, that allows the human
specialist to evaluate and review the obtained results. The blackboard structure also allows other agents to correlate their ndings with others. This work presents the proposed system, a working prototype and the results obtained after a series of experiments. The obtained results where very positive, with good coverage levels in the digital evidence content analysis and correlation of ndings, as well as reduction in the time required to perform the forensic examination when compared to those obtained by a human examiner using the currently available forensic tools in a scenario of limited time and material resources.
|
12 |
Sumarização Automática de Cenas ForensesBorges, Erick Vagner Cabral de Lima 26 February 2015 (has links)
Submitted by Clebson Anjos (clebson.leandro54@gmail.com) on 2016-02-15T18:11:38Z
No. of bitstreams: 1
arquivototal.pdf: 2556099 bytes, checksum: 0e449542d04801fd627fb09b7061bdcc (MD5) / Made available in DSpace on 2016-02-15T18:11:38Z (GMT). No. of bitstreams: 1
arquivototal.pdf: 2556099 bytes, checksum: 0e449542d04801fd627fb09b7061bdcc (MD5)
Previous issue date: 2015-02-26 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES / The growing presence of video recording devices in several areas are providing an increase in use these images mainly to investigative purposes. This makes the use of methods and tools that perform the analysis and the automatic monitoring of environments are increasingly needed to provide technical support and knowledge to investigators, enabling obtain efficient and effective results. This work describe the development of computational vision methods that aim extract some features of scenes. At the end of this extraction, a summarization tool of forensic scenes through the developed methods is proposed. The methods proposed aim to detect and analyze motion in scenes, detect faces classifying them through the gender recognition, recognize people through facial recognition, perform the tracking of human faces and pattern recognition of predominant color in the clothing of individuals. At the end of this work, developed methods presented results comparable to the ones found in the literature and may contribute to the fast extraction of information needed for human analysis, to assist in the interpretation and argumentation of cases and documenting the results. / A presença crescente de dispositivos de gravação de vídeo nas mais diversas áreas vêm proporcionando um aumento no uso destas imagens principalmente para fins investigativos. Isto faz com que a utilização de métodos e ferramentas que realizem a análise e o monitoramento automático de ambientes seja cada vez mais necessária para dar suporte técnico e de conhecimento aos investigadores, possibilitando que os resultados alcançados sejam os mais eficientes e eficazes possíveis. Este trabalho descreve o desenvolvimento de métodos de visão computacional que têm como objetivo extrair aspectos relevantes de cenas – imagens individuais, ou quadros ou sequências de quadros de vídeo - e utilizar a informação obtida com o propósito de sumarização. Os métodos propostos visam a detectar e analisar movimentação, detectar faces classificando-as por gênero, efetuar reconhecimento de faces, realizar o rastreamento de faces humanas e reconhecer a cor predominante no vestuário de indivíduos. O sistema desenvolvido efetua a extração de informações relevantes, o que auxilia na redução do tempo necessário à inspeção por seres humanos, na interpretação e argumentação de casos e na documentação dos casos. Ao fim do trabalho, os métodos desenvolvidos apresentaram resultados compatíveis com os da literatura.
|
13 |
FORENSE COMPUTACIONAL EM AMBIENTE DE REDE BASEADO NA GERAÇÃO DE ALERTAS DE SISTEMAS DE DETECÇÃO DE INTRUSOS AUXILIADO PELA ENGENHARIA DIRIGIDA POR MODELOS / COMPUTATIONAL FORENSIC IN ENVIRONMENT OF NETWORK BASED ON GENERATING OF ALERTS OF INTRUDERS DETECTION SYSTEMS ASSISTED BY ENGINEERING DIRECTED BY MODELSDUARTE, Lianna Mara Castro 19 October 2012 (has links)
Made available in DSpace on 2016-08-17T14:53:23Z (GMT). No. of bitstreams: 1
Dissertacao Liana Mara.pdf: 7779999 bytes, checksum: eff54ba035aa6dab1569b8f121f7ee0a (MD5)
Previous issue date: 2012-10-19 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Even the great progress of techniques used by protection systems as firewalls,
intrusion detection systems and antivirus to detect and prevent attacks are not
enough to eliminate the cyber-attacks threat. Known attacks for decades still achieve
success, and well-known vulnerabilities continue to exist and reappear on the Internet
and corporate networks [1]. The intrusion detection technologies we have today
provide rich information about attacks. However, the main focus of intrusion detection
focuses on the fact that security has been compromised. The computer forensics,
on the other hand, attempts to understand and explain what happened to the security
environment and how a security violation can happen [2]. However, there is a
lack of investigative mechanisms to work synergistically with these sensors and identify
not only the attackers, but the malicious actions that were performed. The lack
of standardization in the process of computer and network forensics [3], as well as
the heterogeneity of tools and the fact that the log/alert files depend on developers,
causes a large variety in the formats of these security alerts. Moreover, the knowledge
used in the incidents investigation still restricted to security analysts in each case. This
work proposes, the development of a model based on computer forensics that can be
applied in a network environment to work with IDS NIDIA [4] and heterogeneous
IDSs associating information to alerts about procedures that can be performed to investigate
the incident using existing tools. The methodology used to develop this was
initially use literature to achieve the proposed objectives, derived from books, theses,
dissertations, research papers and hypermedia documents, followed by the gathering
of information for the development of the solution and analysis tools that could assist
in the implementation and modeling the prototype, that was assisted by Model Driven
Architecture. / Mesmo o grande progresso das técnicas utilizadas pelos sistemas de proteção
como firewalls, sistemas de detecção de invasão e antivírus para detecção e prevenção
de ataques, não são suficientes para eliminar a ameaça dos ciberataques. Mesmo
ataques que existem há décadas ainda alcançam sucesso, e as vulnerabilidades bem conhecidas
continuam a existir e reaparecer na Internet e redes corporativas [1]. As tecnologias
de detecção de intrusão atuais fornecem informações ricas sobre um ataque. No
entanto, o principal foco de detecção de intrusão centra-se no fato da segurança ter sido
comprometida. A computação forense, por outro lado, tenta entender e explicar o que
aconteceu com o ambiente de segurança e como uma violação de segurança pode acontecer
[2]. No entanto, existe uma carência de mecanismos investigativos que possam
trabalhar em sinergia com estes sensores e identificar não só os atacantes, mas as ações
maliciosas que foram executadas. A falta de padronização no processo de realização
da forense computacional e de rede [3], assim como a heterogeneidade das ferramentas
e o fato de que os tipos de arquivos de logs dependem dos desenvolvedores, faz com
que haja uma grande variedade nos formatos destes alertas de segurança. Além disto,
o conhecimento empregado na investigação dos incidentes fica restrito aos analistas de
segurança de cada caso. Esta dissertação propõe, de forma geral, o desenvolvimento de
um modelo baseado na forense computacional que possa ser aplicado em ambiente de
rede para trabalhar em conjunto com o IDS NIDIA [4] e IDSs heterogêneos associando
aos alertas informações sobre procedimentos que podem ser executados para a investigação
dos incidentes utilizando ferramentas existentes. A metodologia empregada
para o desenvolvimento deste trabalho utilizou inicialmente de pesquisa bibliográfica
para atingir os objetivos propostos, oriundas de livros, teses, dissertações, artigos científicos
e documentos hipermídia, seguida de levantamento das informações para a
elaboração da solução e uma análise de ferramentas que pudessem auxiliar no processo
de modelagem e implementação do protótipo que foi auxiliado pela Arquitetura
Dirigida por Modelos.
|
14 |
Métodos de visão computacional aplicáveis à ciência forense / Computer vision methods applicable to forensic scienceAndaló, Fernanda Alcântara, 1981- 11 September 2012 (has links)
Orientador: Siome Klein Goldenstein / Tese (doutorado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-22T01:13:30Z (GMT). No. of bitstreams: 1
Andalo_FernandaAlcantara_D.pdf: 40510814 bytes, checksum: d6c348c91f07e6085e27cec5408c1ab2 (MD5)
Previous issue date: 2012 / Resumo: A criminalidade, crescente em termos de volume e sofisticação, vem determinando a necessidade de conhecimento e aplicação de métodos científicos para sua prevenção e investigação. Isso faz com que essas tarefas mereçam significativa atenção de governos e pesquisadores. A investigação forense de um crime é um processo complexo, que tem seu início na cena do evento e continua no laboratório, suprindo o tribunal onde o julgamento _e realizado, de informações e argumentos necessários a materializar a ocorrência do delito e a identificação dos culpados. Os investigadores precisam de suporte técnico e de conhecimento para que os resultados alcançados sejam os mais eficientes e eficazes possíveis. Esta tese apresenta três métodos de visão computacional, que podem ser aplicados no processo de investigação forense: um para fotogrametria, que possibilita medir alturas de objetos em imagens; um framework para reconstrução tridimensional de impressões de calçados (pegadas tridimensionais) em cenas de crime; e um método para a reconstrução de imagens a partir de uma coleção de pequenos fragmentos. Obter medidas de objetos em imagens -fotogrametria - é um requisito consuetudinário em Ciência Forense. Em um sistema confiável, a altura estimada de uma pessoa pode ser usada como evidência corroborativa. No segundo método, utilizam-se técnicas de visão estéreas para a obtenção de um modelo tridimensional, reconstruído a partir de fotografias tiradas de impressões de calçados em cenas de crime. No terceiro método, a necessidade de reconstruir imagens fragmentadas é explorada. Imagens podem ser danificadas a _m de ocultar informações e cabe à Computação Forense explorar metodologias para a reconstrução automática de tais imagens, já que o processo manual é muito laborioso. As contribuições desta tese são: (a) novo e eficaz detector de pontos de fuga, em uma única imagem, que possui maior acurácia do que os presentes na literatura e que foi desenvolvido para facilitar medições de altura em uma única imagem bidimensional; (b) pipeline para reconstrução tridimensional de impressões de calçados, a partir de fotografias tiradas do vestígio em diferentes ângulos, e sua validação em comparação aos métodos utilizados na prática atualmente; (c) novo método determinístico de reconstrução automática de imagens, a partir de uma coleção de pequenos fragmentos retangulares, baseado em programação quadrática e que fornece resultados com maior acurácia do que os propostos na literatura / Abstract: Crimes in our society, increasing in volume and sophistication, have determined the need for knowledge and use of scientific methods to their prevention and investigations, deserving significant attention from governments and researchers. The forensic investigation of a crime is a complex process that starts at the scene of the event and continues on the laboratory, providing the court, where the trial is conducted, with information and arguments needed to confirm the occurrence of the offense and to identify suspects. Investigators need technical support and knowledge to achieve efficient and effective results. This thesis presents three Computer Vision methods that can be applied in forensic investigations: one for photogrammetry, which allows measurement of objects' heights in images; a framework to the recovery of footwear impressions from crime scenes; and a method for image reconstruction from a collection of small unordered fragments. The process of obtaining measurements in images - photogrammetry - is a customary requirement in Forensic Science. In a trusted system, the estimated height of a person can be used to corroborate or refute pieces of evidence. In the second method, multiview stereo techniques are used to obtain a three-dimensional model, reconstructed from photographs taken from footwear impressions at the crime scene. In the third method, the need for reconstructing shredded images is explored. Photographs can be shredded in order to hide information and it is up to the field of Computer Forensics to explore methodologies for the automatic reconstruction of such images, since their manual assembling is very laborious. The contributions of this thesis are: (a) new effective vanishing point detector that achieves better accuracy than the previous methods in the literature and that was designed to facilitate the process of making measurements in single 2D image; (b) a new methodology for the recovery of 3D footwear impression, from images taken from the evidence at different angles, and its validation in comparison to methods currently used in practice (c) new deterministic method, based on quadratic programming, to reconstruct images from a collection of small rectangular fragments, providing more accurate results than other proposed methods in the literature / Doutorado / Ciência da Computação / Doutor em Ciência da Computação
|
15 |
Taxonomia de técnicas furtivas e antiforenses utilizadas em ataques cibernéticosMelo, Sandro Pereira de 19 March 2018 (has links)
Submitted by Filipe dos Santos (fsantos@pucsp.br) on 2018-06-26T12:35:40Z
No. of bitstreams: 1
Sandro Pereira de Melo.pdf: 2533198 bytes, checksum: d31cf0cd607774a7541de96797446970 (MD5) / Made available in DSpace on 2018-06-26T12:35:40Z (GMT). No. of bitstreams: 1
Sandro Pereira de Melo.pdf: 2533198 bytes, checksum: d31cf0cd607774a7541de96797446970 (MD5)
Previous issue date: 2018-03-19 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES / According to the current academic literature, numerous taxonomic
proposals for the classification of cyber threats have been presented. The vast
majority of these proposals focus on classifying the types of threats taking into
account aspects related to their functionality, purpose and behavior. This thesis
differs from others because it presents a taxonomic proposal to classify the Stealth
Technique (SF) and Anti-forensics (AF) used by cyber threats to hide information,
erase or cover up evidence, eliminate the track of the executed actions, obfuscate
malicious codes, generate fake evidence, subvert security controls and perform
attacks against their own forensic tools. Following the premise that a taxonomy must
be cohesive, of simple maintenance, applicable, extensible and must encompass
general types of SF and AF, the taxonomic proposal for classifying SF and AF
techniques mentioned in this thesis takes into account factors related to the affected
layer of a computer system, the moment of a cyber-attack using the techniques, the
component of the operational system compromised, among others. This thesis also
provides the following contributions: a brief index of threat indicators and their
impact on organizations using data from different sources, prioritizing the CSIRT
reports; some brief historical information of current SF and AF characteristics; an
explanation of the forensic investigation process and the SF and AT techniques
related to the affected forensic stage; and finally, the implementation of the
taxonomic proposal to classify the SF and AF techniques / De acordo com a literatura acadêmica atual, inúmeras propostas
taxonômicas de classificação de ameaças cibernéticas foram apresentadas. Em sua
maioria, tais propostas taxonômicas têm o foco na classificação dos tipos de
ameaças considerando aspectos relacionados ao funcionamento, finalidade e
comportamento. Esta tese difere das demais por apresentar uma proposta de
taxonomia para a classificação de Técnicas Furtivas (TF) e Antiforense (AF) utilizadas
pelas ameaças cibernéticas para esconder informações, apagar ou ocultar
evidências, eliminar a trilha das ações executadas, ofuscar códigos maliciosos, gerar
falsas evidências, subverter controles de segurança e realizar ataques contra as
próprias ferramentas forenses, impedindo e/ou prejudicando o processo de
resposta a incidentes ou uma perícia forense. Seguindo a premissa de que uma
taxonomia deve ser coesa, de simples manutenção, aplicável, extensível e deve
englobar tipos gerais de TF e AF, a taxonomia proposta na classificação de técnicas
TF e AF citada nesta tese leva em consideração fatores relacionados à camada
afetada de um sistema computacional, o desdobramento de um ataque cibernético
com o uso das técnicas, o componente do sistema operacional comprometido,
entre outros. Outras contribuições provenientes desta tese incluem: uma breve
sumarização de indicadores de ameaças e seus impactos em organizações a partir
de dados tabulados de diferentes tipos de pesquisa, mas priorizando os relatórios
de CSIRT, não exclusivamente; um sucinto histórico de informações sobre
características de TF e AF correntes; uma explanação atrelada às fases do processo
de perícia forense e das técnicas TF e AF relacionadas com a etapa forense afetada;
e finalmente, a implementação da taxonomia proposta para classificar as TF e AF
|
16 |
Inteligência cibernética e uso de recursos semânticos na detecção de perfis falsos no contexto do Big Data / Cybernetic intelligence and use of semantic resources to detect fake profiles in the context of Big DataOliveira, José Antonio Maurilio Milagre de [UNESP] 29 April 2016 (has links)
Submitted by JOSÉ ANTONIO MAURILIO MILAGRE DE OLIVEIRA null (ja.milagre@gmail.com) on 2016-05-24T12:10:40Z
No. of bitstreams: 1
oliveira_jamm_me_mar.pdf: 2437838 bytes, checksum: eda292f5276e7bed32388a02a57f2187 (MD5) / Approved for entry into archive by Juliano Benedito Ferreira (julianoferreira@reitoria.unesp.br) on 2016-05-25T13:32:57Z (GMT) No. of bitstreams: 1
oliveira_jamm_me_mar.pdf: 2437838 bytes, checksum: eda292f5276e7bed32388a02a57f2187 (MD5) / Made available in DSpace on 2016-05-25T13:32:57Z (GMT). No. of bitstreams: 1
oliveira_jamm_me_mar.pdf: 2437838 bytes, checksum: eda292f5276e7bed32388a02a57f2187 (MD5)
Previous issue date: 2016-04-29 / O desenvolvimento da Internet transformou o mundo virtual em um repositório infindável de informações. Diariamente, na sociedade da informação, pessoas interagem, capturam e despejam dados nas mais diversas ferramentas de redes sociais e ambientes da Web. Estamos diante do Big Data, uma quantidade inacabável de dados com valor inestimável, porém de difícil tratamento. Não se tem dimensão da quantidade de informação capaz de ser extraída destes grandes repositórios de dados na Web. Um dos grandes desafios atuais na Internet do “Big Data” é lidar com falsidades e perfis falsos em ferramentas sociais, que causam alardes, comoções e danos financeiros significativos em todo o mundo. A inteligência cibernética e computação forense objetivam investigar eventos e constatar informações extraindo dados da rede. Por sua vez, a Ciência da Informação, preocupada com as questões envolvendo a recuperação, tratamento, interpretação e apresentação da informação, dispõe de elementos que quando aplicados neste contexto podem aprimorar processos de coleta e tratamento de grandes volumes de dados, na detecção de perfis falsos. Assim, por meio da presente pesquisa de revisão de literatura, documental e exploratória, buscou-se revisar os estudos internacionais envolvendo a detecção de perfis falsos em redes sociais, investigando técnicas e tecnologias aplicadas e principalmente, suas limitações. Igualmente, apresenta-se no presente trabalho contribuições de áreas da Ciência da Informação e critérios para a construção de ferramentas que se destinem à identificação de perfis falsos, por meio da apresentação de uma proposta de modelo conceitual. Identificou-se, na pesquisa, que a Ciência da Informação pode contribuir com a construção de aplicações e frameworks para que usuários possam identificar e discernir perfis reais de perfis questionáveis, diariamente despejados na Web. / The development of the Internet changed the virtual world in an endless repository of information. Every single day, in an information-society, people change, catch and turn out files in different tools of social network and Web surrounding. We are in front of “The Big Data”, an endless amount of data with invaluable, but hard treating. It doesn’t have some dimension of measure information to be able of extracting from these big Web data repositories. One of the most challenges nowadays on the Internet from the “Big Data” is to identify feelings, anticipating sceneries dealing with falsehood and false profiles social tools, which cause fanfare, upheavals and significant financial losses worldwide in front of our true scene. The cyber intelligence has by objective to look for events and finding information, subtracting dates from the Web. On the other hand, the Information Science, worried with the questions involving recovery, processing, interpretation and presentation of information that has important areas of study capable of being applied in this context hone the collection and treatment processes of large volumes of information (datas). Thus, through this research literature review, documentary and exploratory, the researcher aimed to review the International studies implicating the analysis of large volumes of data on social networking tools in falsehoods detection, investigating applied techniques and technologies and especially their limitations. Based on the identified concepts and areas of Information Science, also (equaly), it’s the scope of this research to show a suggestion of “framework” that is able to detect or indicate falsehoods, specifically, has the ability to detect profiles, false identities and misinformation, rumors, or unreliable information, processing large volumes of data on social networking tools. It was identified with this research, the Information Science can contribute to building skilled frameworks to provide criteria so that users can identify and discern actual content of questionable content, dumped daily on the Web.
|
17 |
Atribuição de fonte em imagens provenientes de câmeras digitais / Image source camera attributionCosta, Filipe de Oliveira, 1987- 07 June 2012 (has links)
Orientador: Anderson de Rezende Rocha / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-21T01:46:22Z (GMT). No. of bitstreams: 1
Costa_FilipedeOliveira_M.pdf: 4756629 bytes, checksum: db25cfc98fbdb67c2eee785a37969909 (MD5)
Previous issue date: 2012 / Resumo: Verificar a integridade e a autenticidade de imagens digitais é de fundamental importância quando estas podem ser apresentadas como evidência em uma corte de justiça. Uma maneira de se realizar esta verificação é identificar a câmera digital que capturou tais imagens. Neste trabalho, nós discutimos abordagens que permitem identificar se uma imagem sob investigação foi ou não capturada por uma determinada câmera digital. A pesquisa foi realizada segundo duas óticas: (1) verificação, em que o objetivo é verificar se uma determinada câmera, de fato, capturou uma dada imagem; e (2) reconhecimento, em que o foco é verificar se uma determinada imagem foi obtida por alguma câmera (se alguma) dentro de um conjunto limitado de câmeras e identificar, em caso afirmativo, o dispositivo específico que efetuou a captura. O estudo destas abordagens foi realizado considerando um cenário aberto (open-set), no qual nem sempre temos acesso a alguns dos dispositivos em questão. Neste trabalho, tratamos, também, do problema de correspondência entre dispositivos, em que o objetivo é verificar se um par de imagens foi gerado por uma mesma câmera. Isto pode ser útil para agrupar conjuntos de imagens de acordo com sua fonte quando não se possui qualquer informação sobre possíveis dispositivos de origem. As abordagens propostas apresentaram bons resultados, mostrando-se capazes de identificar o dispositivo específico utilizado na captura de uma imagem, e não somente sua marca / Abstract: Image's integrity and authenticity verification is paramount when it comes to a court of law. Just like we do in ballistics tests when we match a gun to its bullets, we can identify a given digital camera that acquired an image under investigation. In this work, we discussed approaches for identifying whether or not a given image under investigation was captured by a specific digital camera. We carried out the research under two vantage points: (1) verification, in which we are interested in verifying whether or not a given camera captured an image under investigation; and (2) recognition, in which we want to verify if an image was captured by a given camera (if any) from a pool of devices, and to point out such a camera. We performed this investigation considering an open set scenario, under which we can not rely on the assumption of full access to all of the investigated devices. We also tried to solve the device linking problem, where we aim at verifying if an image pair was generated by the same camera, without any information about the source of images. Our approaches reported good results, in terms of being capable of identifying the specific device that captured a given image including its model, brand, and even serial number / Mestrado / Ciência da Computação / Mestre em Ciência da Computação
|
18 |
A eficiência da descentralização na computação forense do Departamento de Polícia Técnica do Estado da BahiaPeixoto, Saulo Correa 20 April 2012 (has links)
Submitted by Saulo Correa Peixoto (saulopeixoto@hotmail.com) on 2012-04-27T19:07:35Z
No. of bitstreams: 1
DISSERTAÇÃO COMPLETA - SAULO 26-04-2012.pdf: 2276284 bytes, checksum: abb3608c7b05f31370d98593f219dcd0 (MD5) / Approved for entry into archive by ÁURA CORRÊA DA FONSECA CORRÊA DA FONSECA (aurea.fonseca@fgv.br) on 2012-05-11T19:55:06Z (GMT) No. of bitstreams: 1
DISSERTAÇÃO COMPLETA - SAULO 26-04-2012.pdf: 2276284 bytes, checksum: abb3608c7b05f31370d98593f219dcd0 (MD5) / Approved for entry into archive by Marcia Bacha (marcia.bacha@fgv.br) on 2012-05-16T20:08:27Z (GMT) No. of bitstreams: 1
DISSERTAÇÃO COMPLETA - SAULO 26-04-2012.pdf: 2276284 bytes, checksum: abb3608c7b05f31370d98593f219dcd0 (MD5) / Made available in DSpace on 2012-05-16T20:08:52Z (GMT). No. of bitstreams: 1
DISSERTAÇÃO COMPLETA - SAULO 26-04-2012.pdf: 2276284 bytes, checksum: abb3608c7b05f31370d98593f219dcd0 (MD5)
Previous issue date: 2012-04-20 / This study aimed to determine to what extent the process of decentralization adopted by the Department of Technical Police of Bahia (BA-DPT) was effective in meeting the Computing Forensic Expertise demands generated by Regional Coordination of Technical Police (CRPTs) in the state countryside. DPT-BA was restructured following the principles of administrative decentralization, following the progressive trend. It assumed with the decentralization the commitment to coordinate actions to empower units in the state, with the creation of minimal structures in all involved spheres, with ample capacity to articulate with each other and provide services aiming at a model of high performance public organization. Seeking to address the relationship between decentralization and efficiency in meeting the demand of expertise coming from the state of Bahia, the study, because of instrumental limitations, remained attached to the field of experts in Forensics Computer Science, which reflects and illustrates, in a significant way, the scenario occurred in other areas of expertise. Initially we identified the theoretical approaches on decentralization, showing the different dimensions of the concept, and then on the Forensics Computer Science. We carried out documentary research at the Institute of Criminology Afrânio Peixoto (Icap) and field research using semi-structured interviews with judges at the districts related to the research landscape, and with criminal experts of the Regional Coordination, of the CRPTs and from Icap Forensics Computer Science Coordination. Comparing the periods of service that include the concept of efficiency - defined by the law judges interviewed, criminal experts’ clients - and real terms - obtained through document research - data revealed a high degree of inefficiency, delays and defaults, and conflicting realities between capital and countryside. The analysis of interviews with criminal experts revealed a widespread dissatisfaction and demotivation, with almost absolute centralization of decision-making, demonstrating that the decentralization process served, paradoxically, as a tool enabling the centralization and its camouflage. / Este estudo teve como objetivo verificar até que ponto o processo de descentralização adotado pelo Departamento de Polícia Técnica da Bahia (DPT-BA) foi eficiente no atendimento às demandas de perícias de Computação Forense geradas pelas Coordenadorias Regionais de Polícia Técnica (CRPTs) do interior do Estado. O DPT-BA foi reestruturado obedecendo aos princípios da descentralização administrativa, seguindo a corrente progressista. Assumiu, com a descentralização, o compromisso de coordenar ações para dar autonomia às unidades do interior do Estado, com a criação de estruturas mínimas em todas as esferas envolvidas, com ampla capacidade de articulação entre si e com prestação de serviços voltados para um modelo de organização pública de alto desempenho. Ao abordar a relação existente entre a descentralização e a eficiência no atendimento à demanda de perícias oriundas do interior do estado da Bahia, o estudo, por limitações instrumentais, se manteve adstrito ao campo das perícias de Computação Forense, que reflete e ilustra, de forma expressiva, o cenário ocorrido nas demais áreas periciais. Inicialmente foram identificadas as abordagens teóricas sobre descentralização, evidenciando as distintas dimensões do conceito, e, em seguida, sobre a Computação Forense. Foram realizadas pesquisa documental no Instituto de Criminalística Afrânio Peixoto (Icap) e pesquisa de campo por meio de entrevistas semiestruturadas com juízes de direito lotados nas varas criminais de comarcas relacionadas ao cenário de pesquisa e com peritos criminais das Coordenações Regionais, das CRPTs e da Coordenação de Computação Forense do Icap. Correlacionando os prazos de atendimento que contemplam o conceito de eficiência definido pelos juízes de direito entrevistados, clientes finais do trabalho pericial e os prazos reais obtidos mediante a pesquisa documental os dados revelaram alto grau de ineficiência, morosidade e inadimplência, além de realidades discrepantes entre capital e interior. A análise das entrevistas realizadas com os peritos criminais revelou um cenário de insatisfação e desmotivação generalizadas, com a centralização quase absoluta do poder decisório, demonstrando que o processo de descentralização praticado serviu, paradoxalmente, como uma ferramenta de viabilização e camuflagem da centralização.
|
19 |
Projeto e desenvolvimento de técnicas forenses para identificação de imagens sintéticas / Design and development of forensic techniques for synthetic image identificationTokuda, Eric Keiji, 1984- 21 August 2018 (has links)
Orientadores: Hélio Pedrini, Anderson de Rezende Rocha / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-21T20:45:31Z (GMT). No. of bitstreams: 1
Tokuda_EricKeiji_M.pdf: 9271810 bytes, checksum: 933cc41bd2c4a5d4ace8239be240b632 (MD5)
Previous issue date: 2012 / Resumo: O grande investimento de companhias de desenvolvimento de software para animação 3D nos últimos anos tem levado a área de Computação Gráfica a patamares nunca antes atingidos. Frente a esta tecnologia, torna-se cada vez mais difícil a um usuário comum distinguir fotografias reais de imagens produzidas em computador. Mais do que nunca, a fotografia, como meio de informação segura, passa a ter sua idoneidade questionada. A identificação de imagens geradas por computador tornou-se uma tarefa imprescindível. Existem diversos métodos de classificação de imagens fotográficas e geradas por computador na literatura. Todos os trabalhos se concentram em identificar diferenças entre imagens fotográficas e imagens geradas por computador. Contudo, no atual estágio da Computação Gráfica, não há uma caracterização isolada que resolva o problema. Propomos uma análise comparativa entre diferentes formas de combinação de descritores para abordar este problema. Para tanto, criamos um ambiente de testes com diversidade de conteúdo e de qualidade; implementamos treze métodos representativos da literatura; criamos e implementamos quatro abordagens de fusão de dados; comparamos os resultados dos métodos isolados com o resultado dos mesmos métodos combinados. Realizamos a implementação e análise de um total de treze métodos. O conjunto de dados para validação foi composto por aproximadamente 5.000 fotografias e 5.000 imagens geradas por computador. Resultados isolados atingiram acurácias de até 93%. A combinação destes mesmos métodos atingiu uma precisão de 97% (uma redução de 57% no erro do melhor método de maneira isolada) / Abstract: The development of powerful and low-cost hardware devices allied with great advances on content editing and authoring tools have pushed the creation of computer generated images (CGI) to a degree of unrivaled realism. Differentiating a photorealistic computer generated image from a real photograph can be a difficult task to naked eyes. Digital forensics techniques can play a significant role in this task. Indeed, important research has been made by our community in this regard. The current approaches focus on single image features aiming at spotting out diferences between real and computer generated images. However, with the current technology advances, there is no universal image characterization technique that completely solves this problem. In our work, we present a complete study of several current CGI vs. Photograph approaches; create a big and heterogeneous dataset to be used as a training and validation database; implement representative methods of the literature; and devise automatic ways to combine the best approaches. We compare the implemented methods using the same validation environment. Approximately 5,000 photographs and 5,000 CGIs with large diversity of content and quality were collected. A total of 13 methods were implemented. Results show that this set of methods, in an integrated approach, can achieve up to 93% of accuracy. The same methods, when combined through the proposed fusion schemes, can achieve an accuracy rate of 97% (a reduction of 57% of the error over the best result alone) / Mestrado / Ciência da Computação / Mestre em Ciência da Computação
|
Page generated in 0.297 seconds