• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 6
  • 1
  • 1
  • Tagged with
  • 8
  • 8
  • 6
  • 6
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Perfil da cocaína comercializada como crack na região Metropolitana de São Paulo em período de vinte meses (2008-2009) / Profile marketed as crack cocaine in the metropolitan region of Sao Paulo in the period of twenty months (2008-2009).

Fukushima, André Rinaldi 14 December 2010 (has links)
A adição de diferentes substâncias (adulterantes e diluentes) no crack (freebase) é um fenômeno bem conhecido no mercado ilícito. Os adulterantes podem interagir com a cocaína e determinar novas e desconhecidas síndromes tóxicas influindo no estado clínico das intoxicações, especialmente em casos em que houve modificação das vias de administração. No Brasil a análise de adulterantes, contaminantes e/ou diluentes adicionados ao crack não constitui rotina nos laboratórios oficiais. Nesse contexto, o presente trabalho pretendeu a caracterização de um grupo de amostras de crack que fornecerá informações na investigação sobre o narcotráfico, no estudo da morbi-letalidade, bem como na toxicovigilância. O método utilizado neste trabalho foi realizado com a técnica de cromatografia gasosa acoplada a detector em ionização de chamas CG-DIC. Os resultados obtidos nas análises de amostras provenientes de apreensões realizadas na região metropolitana de São Paulo num período de 20 meses, no período de março de 2008 a novembro de 2009, mostraram que 9,16% das amostras continham lidocaína, benzocaína e cafeína como adulterantes e 14,57% continham outros adulterantes totalizando 23,73%. O percentual em teor médio de cocaína presentes nas amostras de crack foi de 71,3%. Adicionalmente foram avaliadas as propriedades organolépticas. O resultado das análises das amostras estudadas mostrou maior teor de cocaína em relação à cocaína comercializada na forma de sal (cloridrato ou sulfato) comercializado como \"droga de rua\" no Estado de São Paulo. Ainda, os interferentes e adulterantes encontrados nas amostras estudadas permitem a inferência do importante problema de saúde pública advindos do uso dessa droga. / The addition of different substances (contaminants and fillers) in the crack (freebase) is a well known phenomenon in the illicit market. The contaminants can interact with cocaine and identify new and unknown toxic syndromes influencing the clinical state of intoxication, especially in cases where there was a modification of the routes. In Brazil, the analysis of adulterants, contaminants and / or extenders added to the crack is not routine in official laboratories. In this context, this work aims to characterize a sample group of crack that provides information on an investigation into drug trafficking in the study of morbidity and mortality, as well as toxicological. The method used in this study utilized the technique of gas chromatography coupled with flame ionization detector GC-FID. The analysis results of samples from seizures made in the metropolitan region of Sao Paulo in a period of 20 months, from March 2008 to November 2009 showed that 9.16% of the samples contained lidocaine, benzocaine, and caffeine as adulterants and 14.57% contained other adulterants totaling 23.73%. The average content in percentage of cocaine present in the samples of crack was 71.3%. Additionally, we evaluated the organoleptic properties of the row samples. The results of analysis of the samples tested showed higher levels of cocaine in the cocaine sold in the form of salt (hydrochloride or sulfate) marketed as \"street drug\" in the State of São Paulo. Still, the interferences and adulterants found in the samples studied allow the inference of important public health problem arising from the use of this drug.
2

Perfil da cocaína comercializada como crack na região Metropolitana de São Paulo em período de vinte meses (2008-2009) / Profile marketed as crack cocaine in the metropolitan region of Sao Paulo in the period of twenty months (2008-2009).

André Rinaldi Fukushima 14 December 2010 (has links)
A adição de diferentes substâncias (adulterantes e diluentes) no crack (freebase) é um fenômeno bem conhecido no mercado ilícito. Os adulterantes podem interagir com a cocaína e determinar novas e desconhecidas síndromes tóxicas influindo no estado clínico das intoxicações, especialmente em casos em que houve modificação das vias de administração. No Brasil a análise de adulterantes, contaminantes e/ou diluentes adicionados ao crack não constitui rotina nos laboratórios oficiais. Nesse contexto, o presente trabalho pretendeu a caracterização de um grupo de amostras de crack que fornecerá informações na investigação sobre o narcotráfico, no estudo da morbi-letalidade, bem como na toxicovigilância. O método utilizado neste trabalho foi realizado com a técnica de cromatografia gasosa acoplada a detector em ionização de chamas CG-DIC. Os resultados obtidos nas análises de amostras provenientes de apreensões realizadas na região metropolitana de São Paulo num período de 20 meses, no período de março de 2008 a novembro de 2009, mostraram que 9,16% das amostras continham lidocaína, benzocaína e cafeína como adulterantes e 14,57% continham outros adulterantes totalizando 23,73%. O percentual em teor médio de cocaína presentes nas amostras de crack foi de 71,3%. Adicionalmente foram avaliadas as propriedades organolépticas. O resultado das análises das amostras estudadas mostrou maior teor de cocaína em relação à cocaína comercializada na forma de sal (cloridrato ou sulfato) comercializado como \"droga de rua\" no Estado de São Paulo. Ainda, os interferentes e adulterantes encontrados nas amostras estudadas permitem a inferência do importante problema de saúde pública advindos do uso dessa droga. / The addition of different substances (contaminants and fillers) in the crack (freebase) is a well known phenomenon in the illicit market. The contaminants can interact with cocaine and identify new and unknown toxic syndromes influencing the clinical state of intoxication, especially in cases where there was a modification of the routes. In Brazil, the analysis of adulterants, contaminants and / or extenders added to the crack is not routine in official laboratories. In this context, this work aims to characterize a sample group of crack that provides information on an investigation into drug trafficking in the study of morbidity and mortality, as well as toxicological. The method used in this study utilized the technique of gas chromatography coupled with flame ionization detector GC-FID. The analysis results of samples from seizures made in the metropolitan region of Sao Paulo in a period of 20 months, from March 2008 to November 2009 showed that 9.16% of the samples contained lidocaine, benzocaine, and caffeine as adulterants and 14.57% contained other adulterants totaling 23.73%. The average content in percentage of cocaine present in the samples of crack was 71.3%. Additionally, we evaluated the organoleptic properties of the row samples. The results of analysis of the samples tested showed higher levels of cocaine in the cocaine sold in the form of salt (hydrochloride or sulfate) marketed as \"street drug\" in the State of São Paulo. Still, the interferences and adulterants found in the samples studied allow the inference of important public health problem arising from the use of this drug.
3

Reconhecimento de adulterações em imagens digitais: uma abordagem passiva

Cunha , Lucas Marques da 22 June 2016 (has links)
Submitted by Fernando Souza (fernandoafsou@gmail.com) on 2017-08-16T13:37:17Z No. of bitstreams: 1 arquivototal.pdf: 3482689 bytes, checksum: 32f617e5ecce7581c6cf74bc8c431049 (MD5) / Made available in DSpace on 2017-08-16T13:37:17Z (GMT). No. of bitstreams: 1 arquivototal.pdf: 3482689 bytes, checksum: 32f617e5ecce7581c6cf74bc8c431049 (MD5) Previous issue date: 2016-06-22 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES / The creation and marketing of image editing software allowed ordinary people to perform any kind of manipulation in digital images. In a judicial context, where authenticity and data integrity are crucial, the development of techniques to ensure such attributes are needed. Forensic analysis of digital image aims to use computational scientific methods, such as analysis of a sensor device and JPEG (Joint Photographic Experts Group) artifacts, in order to recognize the presence or absence of such attributes. This paper presents a passive approach to Tampering Recognition in Digital Images with and without JPEG compression using two approaches. The first approach is based on analysis of the 4-pixel neighborhood that may be classified as interpolated or not. Based on such analysis, we obtain information about the standard CFA (Color Filter Array) pattern to investigate the authenticity and integrity of images with low or no compression according to misclassification of pixels. The second approach is based on inconsistency analysis of BAG (Block Grid Artifact) pattern in images with high compression created under tampering techniques like composition and cloning. The image's BAG is the distinction of JPEG blocks. Furthermore, segmentation techniques have been defined for precise location of the tampered area. The method selects one of the approaches according to the image compression ratio. The analysis is performed in agreement with the values of accuracy, sensitivity, specificity, and accuracy. The accuracy rates ranged from 85.1% to 95.4% and precision rates between 41.7% to 74.3%. Values from 32.3% to 82.2% were obtained for sensitivity rates and between 85.9% to 99.2% for specificity in an image database composed by 960 images interpolated by different algorithms and tampered by composition and cloning. The methods described in the literature have a limited scope related to the formats of the images tested and how they gauge their effectiveness. The approach proposed differs from these techniques presenting a most wide scope in the mentioned questions, covering images with and without compression, and assessing the efficiency from metrics able to prove the assumptions during the research. / A criação e comercialização de softwares de edição de imagens permitiram que pessoas leigas pudessem realizar qualquer tipo de manipulação em imagens digitais. Em um cenário judicial em que autenticidade e integridade dos dados são cruciais, há necessidade de técnicas que permitam promover tais atributos. A análise forense em imagens digitais busca por meio de métodos científicos computacionais, como a análise do sensor do dispositivo e artefatos JPEG (Joint Photographic Experts Group), reconhecer a presença ou ausência desses atributos. O presente trabalho apresenta uma Abordagem Passiva para o Reconhecimento de adulterações em imagens digitais com e sem compressão JPEG utilizando duas abordagens. A primeira abordagem baseia-se na técnica de análise da vizinhança-4 de um pixel que pode ser classificado como interpolado ou não interpolado. A partir dessa análise, obtêm-se as informações sobre o padrão CFA (Color Filter Array) de modo a investigar a autenticidade e integridade de imagens com baixa ou nenhuma compressão, de acordo com a classificação incorreta dos pixels. A segunda abordagem baseia-se na Análise da Inconsistência do BAG (Block Artifact Grid) de imagens com alta compressão gerado a partir de técnicas de adulteração, tais como composição e clonagem. O BAG da imagem trata-se da demarcação dos blocos JPEG. Além disso, foram definidas técnicas de segmentação para localização precisa da região adulterada. O método seleciona uma das abordagens, a partir do valor da taxa de compressão da imagem. A análise dos resultados é feita a partir dos valores de acurácia, sensibilidade, especificidade e precisão. As taxas de acurácia variaram de 85,1% a 95,4%, e com taxas de precisão entre 41,7% a 74,3%. Para as taxas de sensibilidade, obteve-se valores entre 32,3% a 82,2% e para especificidade valores entre 85,9% a 99,2%, para uma base de dados composta por 960 imagens interpoladas por algoritmos distintos e adulteradas por técnicas de composição e clonagem. Os métodos descritos na literatura apresentam um escopo limitado referente aos formatos das imagens que foram testadas e ao modo como aferem a eficiência de suas técnicas. A abordagem proposta distingue-se dessas técnicas apresentando um escopo com maior abrangência nos quesitos mencionados, englobando imagens com e sem compressão, além de aferir a eficiência a partir de métricas capazes de comprovar as hipóteses levantadas ao longo da pesquisa.
4

Illumination inconsistency sleuthing for exposing fauxtography and uncovering composition telltales in digital images / Investigando inconsistências de iluminação para detectar fotos fraudulentas e descobrir traços de composições em imagens digitais

Carvalho, Tiago José de, 1985- 25 August 2018 (has links)
Orientadores: Anderson de Rezende Rocha, Hélio Pedrini / Tese (doutorado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-25T12:33:40Z (GMT). No. of bitstreams: 1 Carvalho_TiagoJosede_D.pdf: 74759719 bytes, checksum: dc371f3262b700f91afa5e0269df1e05 (MD5) Previous issue date: 2014 / Resumo: Antes tomadas como naturalmente genuínas, fotografias não mais podem ser consideradas como sinônimo de verdade. Com os avanços nas técnicas de processamento de imagens e computação gráfica, manipular imagens tornou-se mais fácil do que nunca, permitindo que pessoas sejam capazes de criar novas realidades em minutos. Infelizmente, tais modificações, na maioria das vezes, têm como objetivo enganar os observadores, mudar opiniões ou ainda, afetar como as pessoas enxergam a realidade. Assim, torna-se imprescindível o desenvolvimento de técnicas de detecção de falsificações eficientes e eficazes. De todos os tipos de falsificações de imagens, composições são de especial interesse. Esse tipo de falsificação usa partes de duas ou mais imagens para construir uma nova realidade exibindo para o observador situações que nunca aconteceram. Entre todos os diferentes tipos de pistas investigadas para detecção de composições, as abordagens baseadas em inconsistências de iluminação são consideradas as mais promissoras uma vez que um ajuste perfeito de iluminação em uma imagem falsificada é extremamente difícil de ser alcançado. Neste contexto, esta tese, a qual é fundamentada na hipótese de que inconsistências de iluminação encontradas em uma imagem são fortes evidências de que a mesma é produto de uma composição, apresenta abordagens originais e eficazes para detecção de imagens falsificadas. O primeiro método apresentado explora o reflexo da luz nos olhos para estimar as posições da fonte de luz e do observador da cena. A segunda e a terceira abordagens apresentadas exploram um fenômeno, que ocorre com as cores, denominado metamerismo, o qual descreve o fato de que duas cores podem aparentar similaridade quando iluminadas por uma fonte de luz mas podem parecer totalmente diferentes quando iluminadas por outra fonte de luz. Por fim, nossa última abordagem baseia-se na interação com o usuário que deve inserir normais 3-D em objetos suspeitos da imagem de modo a permitir um cálculo mais preciso da posição 3-D da fonte de luz na imagem. Juntas, essas quatro abordagens trazem importantes contribuições para a comunidade forense e certamente serão uma poderosa ferramenta contra falsificações de imagens / Abstract: Once taken for granted as genuine, photographs are no longer considered as a piece of truth. With the advance of digital image processing and computer graphics techniques, it has been easier than ever to manipulate images and forge new realities within minutes. Unfortunately, most of the times, these modifications seek to deceive viewers, change opinions or even affect how people perceive reality. Therefore, it is paramount to devise and deploy efficient and effective detection techniques. From all types of image forgeries, composition images are specially interesting. This type of forgery uses parts of two or more images to construct a new reality from scenes that never happened. Among all different telltales investigated for detecting image compositions, image-illumination inconsistencies are considered the most promising since a perfect light matching in a forged image is still difficult to achieve. This thesis builds upon the hypothesis that image illumination inconsistencies are strong and powerful evidence of image composition and presents four original and effective approaches to detect image forgeries. The first method explores eye specular highlight telltales to estimate the light source and viewer positions in an image. The second and third approaches explore metamerism, when the colors of two objects may appear to match under one light source but appear completely different under another one. Finally, the last approach relies on user¿s interaction to specify 3-D normals of suspect objects in an image from which the 3-D light source position can be estimated. Together, these approaches bring to the forensic community important contributions which certainly will be a strong tool against image forgeries / Doutorado / Ciência da Computação / Doutor em Ciência da Computação
5

Identificação de manipulações de cópia-colagem em imagens digitais / Copy-move forgery identification in digital images

Silva, Ewerton Almeida, 1988- 07 December 2012 (has links)
Orientador: Anderson de Rezende Rocha / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-23T03:37:08Z (GMT). No. of bitstreams: 1 Silva_EwertonAlmeida_M.pdf: 20654769 bytes, checksum: cd66fa66dedc48d34c5feb0fa0311759 (MD5) Previous issue date: 2012 / Resumo: Neste trabalho, nós investigamos duas abordagens para detecção de manipulações de Cópia-colagem (Copy-move Forgery) em imagens digitais. A primeira abordagem é baseada no algoritmo PatchMatch Generalizado [4], cuja proposta é encontrar correspondências de patches (blocos de pixels de tamanho definido) em uma ou mais imagens. A nossa abordagem consiste na aplicação do PatchMatch Generalizado em uma dada imagem com o propósito de encontrar, para cada patch desta, um conjunto de patches similares com base nas distâncias de seus histogramas. Em seguida, nós verificamos as correspondências de cada patch para decidir se eles são segmentos de uma região duplicada. A segunda abordagem, que consiste em nossa principal contribuição, é baseada em um processo de Votação e Análise Multiescala da imagem. Dada uma imagem suspeita, extraímos pontos de interesse robustos a operações de escala e rotação, encontramos correspondências entre eles e os agrupamos em regiões com base em certas restrições geométricas, tais como a distância física e a inclinação da reta que os liga. Após a aplicação das restrições geométricas, criamos uma pirâmide multiescala que representará o espaço de escalas da imagem. Nós examinamos, em cada imagem, os grupos criados usando um descritor robusto a rotações, redimensionamentos e compressões. Este processo diminui o domínio de busca de regiões duplicadas e gera um mapa de detecção para cada escala. A decisão final é dada a partir de uma votação entre todos os mapas, na qual um segmento é considerado duplicado se este assim o é na maioria das escalas. Nós validamos ambos os métodos em uma base de imagens que construímos. A base _e composta por 108 clonagens originais e com elevado grau de realismo. Comparamos os métodos propostos com outros do estado da arte nessa mesma base de imagens / Abstract: In this work, we investigate two approaches toward Copy-move Forgery detection in digital images. The first approach relies on the Generalized PatchMatch algorithm [4], which aims at finding patch correspondences in one or more images. Our approach consists in applying the Generalized PatchMatch algorithm in a certain image in order to obtain, for each of its patches, a set of similar patches based on their histogram distances. Next, we check the correspondences of each patch to decide whether or not they are portions of a duplicated region. Our second approach is based on a Voting and Multiscale Analysis process of an image. Given a suspicious image, we extract its interest points robust to scale and rotation transformations and we find possible correspondences among them. Next, we group the correspondent points into regions considering some geometric constraints, such as physical distance and inclination of the line between points of interest. After that, we construct a multiscale pyramid to represent the image scale-space. In each image, we examine the created groups using a descriptor robust to rotation, scaling and compression. This process decreases the search space of duplicated regions and yields a detection map. The final decision depends on a voting among all the detected maps, in which a pixel is considered as part of a manipulation if it is marked as so in the majority of the pyramid scales. We validate both methods using a dataset we have built comprising 108 original and realistic clonings. We compare the proposed methods to others from the state-of-the-art using such cloning dataset / Mestrado / Ciência da Computação / Mestre em Ciência da Computação
6

Desenvolvimento de métodos espectroanalíticos aplicados à documentoscopia, bens culturais e alimentos

BORBA, Flávia de S. L. 31 January 2012 (has links)
Submitted by Etelvina Domingos (etelvina.domingos@ufpe.br) on 2015-03-10T19:22:39Z No. of bitstreams: 2 tese_gravar_cd.pdf: 9826544 bytes, checksum: b8530b3e8f82a5777705f01c37bdaf7c (MD5) license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) / Made available in DSpace on 2015-03-10T19:22:40Z (GMT). No. of bitstreams: 2 tese_gravar_cd.pdf: 9826544 bytes, checksum: b8530b3e8f82a5777705f01c37bdaf7c (MD5) license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Previous issue date: 2012 / CNPq / Esta tese é composta por três trabalhos. O primeiro trabalho trata do desenvolvimento de um método analítico não destrutivo para discriminar tintas de canetas azuis do tipo gel (3 marcas), esferográfica (5 marcas) e rollerball (2 marcas). Foram adquiridos espectros de infravermelho médio por reflectância total atenuada de círculos preenchidos com tinta em três tipos de papel A4, sendo duas marcas de papel branco (papel 1 e papel 2) e uma de papel reciclado (papel 3). O algoritmo Kennard-Stone foi utilizado para selecionar os espectros do papel 1 para compor os conjuntos de treinamento, validação e teste. Foram construídos dois modelos com a análise discriminante linear sendo um com as classes compostas pelo tipo e o outro pelas marcas das tintas. Um novo conjunto de teste composto pelos espectros obtidos no papel 2 e 3 foi utilizado para avaliar a influência do papel nas predições dos modelos. Foi obtido 100% de classificação correta em todos os conjuntos de teste, exceto na classificação por marca do papel 3, em que foi obtida 91,3% de classificação correta. Na segunda parte desta tese, a espectroscopia de emissão em plasma induzido por laser (LIBS) foi empregada para analisar sete tijolos antigos e dois fragmentos de pinturas rupestres pertencentes a dois sítios arqueológicos brasileiros, sendo um no estado do Piauí (Toca da Extrema II) e outro no estado do Rio Grande do Norte (Xique-xique). Um instrumento LIBS construído no laboratório (laser Nd:YAG, 1064 nm, 5,2 ns), contendo um policromador echelle, foi empregado para a aquisição dos espectros. Devido à complexidade dos espectros, a análise de componentes principais foi empregada para explorar o conjunto de dados. Os tijolos foram discriminados pelos seus teores de Ti, Zr, Sr e Fe. Estudos preliminares envolvendo uma pintura realizada sobre uma tela de madeira contendo diferentes camadas de material foram realizados para determinar a melhor energia do pulso de laser. Para cada fragmento de pintura, foram realizados 8 pulsos sucessivos em 16 locações diferentes, sendo 8 locações sobre a pintura e 8 sobre o substrato. Neste trabalho foi demonstrado que a utilização de técnicas multivariadas é indispensável devido à grande complexidade dos espectros obtidos durante estudo de profundidade de amostras arqueológicas. Finalmente, a terceira parte desta tese foi dedicada a avaliação do efeito de matriz na determinação da concentração de 20 elementos em suplemento alimentar, por espectrometria de emissão óptica com plasma indutivamente acoplado (ICP OES). Foram adquiridas em estabelecimentos comerciais, diferentes marcas de um suplemento alimentar inicialmente designado de “Ração Humana”, cuja composição é variada, mas pode conter cereais, farelos, fibras, farinhas, linhaça, gergelim, extrato de soja, levedo de cerveja, cacau em pó, gelatina em pó e guaraná em pó. Três procedimentos de decomposição foram avaliados: (1) decomposição assistida por microondas, (2) decomposição por combustão na mufla com aditivos e (3) decomposição por combustão na mufla sem aditivos. Os melhores resultados foram obtidos com a digestão por combustão na mufla sem aditivos. Com exceção do Mo, o nível de todos os elementos determinados de forma preliminar estão em concordância com os níveis reportados em produtos destinados à nutrição previamente descritos na literatura.
7

Projeto e desenvolvimento de técnicas forenses para identificação de imagens sintéticas / Design and development of forensic techniques for synthetic image identification

Tokuda, Eric Keiji, 1984- 21 August 2018 (has links)
Orientadores: Hélio Pedrini, Anderson de Rezende Rocha / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-21T20:45:31Z (GMT). No. of bitstreams: 1 Tokuda_EricKeiji_M.pdf: 9271810 bytes, checksum: 933cc41bd2c4a5d4ace8239be240b632 (MD5) Previous issue date: 2012 / Resumo: O grande investimento de companhias de desenvolvimento de software para animação 3D nos últimos anos tem levado a área de Computação Gráfica a patamares nunca antes atingidos. Frente a esta tecnologia, torna-se cada vez mais difícil a um usuário comum distinguir fotografias reais de imagens produzidas em computador. Mais do que nunca, a fotografia, como meio de informação segura, passa a ter sua idoneidade questionada. A identificação de imagens geradas por computador tornou-se uma tarefa imprescindível. Existem diversos métodos de classificação de imagens fotográficas e geradas por computador na literatura. Todos os trabalhos se concentram em identificar diferenças entre imagens fotográficas e imagens geradas por computador. Contudo, no atual estágio da Computação Gráfica, não há uma caracterização isolada que resolva o problema. Propomos uma análise comparativa entre diferentes formas de combinação de descritores para abordar este problema. Para tanto, criamos um ambiente de testes com diversidade de conteúdo e de qualidade; implementamos treze métodos representativos da literatura; criamos e implementamos quatro abordagens de fusão de dados; comparamos os resultados dos métodos isolados com o resultado dos mesmos métodos combinados. Realizamos a implementação e análise de um total de treze métodos. O conjunto de dados para validação foi composto por aproximadamente 5.000 fotografias e 5.000 imagens geradas por computador. Resultados isolados atingiram acurácias de até 93%. A combinação destes mesmos métodos atingiu uma precisão de 97% (uma redução de 57% no erro do melhor método de maneira isolada) / Abstract: The development of powerful and low-cost hardware devices allied with great advances on content editing and authoring tools have pushed the creation of computer generated images (CGI) to a degree of unrivaled realism. Differentiating a photorealistic computer generated image from a real photograph can be a difficult task to naked eyes. Digital forensics techniques can play a significant role in this task. Indeed, important research has been made by our community in this regard. The current approaches focus on single image features aiming at spotting out diferences between real and computer generated images. However, with the current technology advances, there is no universal image characterization technique that completely solves this problem. In our work, we present a complete study of several current CGI vs. Photograph approaches; create a big and heterogeneous dataset to be used as a training and validation database; implement representative methods of the literature; and devise automatic ways to combine the best approaches. We compare the implemented methods using the same validation environment. Approximately 5,000 photographs and 5,000 CGIs with large diversity of content and quality were collected. A total of 13 methods were implemented. Results show that this set of methods, in an integrated approach, can achieve up to 93% of accuracy. The same methods, when combined through the proposed fusion schemes, can achieve an accuracy rate of 97% (a reduction of 57% of the error over the best result alone) / Mestrado / Ciência da Computação / Mestre em Ciência da Computação
8

Classificadores e aprendizado em processamento de imagens e visão computacional / Classifiers and machine learning techniques for image processing and computer vision

Rocha, Anderson de Rezende, 1980- 03 March 2009 (has links)
Orientador: Siome Klein Goldenstein / Tese (doutorado) - Universidade Estadual de Campinas, Instituto da Computação / Made available in DSpace on 2018-08-12T17:37:15Z (GMT). No. of bitstreams: 1 Rocha_AndersondeRezende_D.pdf: 10303487 bytes, checksum: 243dccfe5255c828ce7ead27c27eb1cd (MD5) Previous issue date: 2009 / Resumo: Neste trabalho de doutorado, propomos a utilizaçãoo de classificadores e técnicas de aprendizado de maquina para extrair informações relevantes de um conjunto de dados (e.g., imagens) para solução de alguns problemas em Processamento de Imagens e Visão Computacional. Os problemas de nosso interesse são: categorização de imagens em duas ou mais classes, detecçãao de mensagens escondidas, distinção entre imagens digitalmente adulteradas e imagens naturais, autenticação, multi-classificação, entre outros. Inicialmente, apresentamos uma revisão comparativa e crítica do estado da arte em análise forense de imagens e detecção de mensagens escondidas em imagens. Nosso objetivo é mostrar as potencialidades das técnicas existentes e, mais importante, apontar suas limitações. Com esse estudo, mostramos que boa parte dos problemas nessa área apontam para dois pontos em comum: a seleção de características e as técnicas de aprendizado a serem utilizadas. Nesse estudo, também discutimos questões legais associadas a análise forense de imagens como, por exemplo, o uso de fotografias digitais por criminosos. Em seguida, introduzimos uma técnica para análise forense de imagens testada no contexto de detecção de mensagens escondidas e de classificação geral de imagens em categorias como indoors, outdoors, geradas em computador e obras de arte. Ao estudarmos esse problema de multi-classificação, surgem algumas questões: como resolver um problema multi-classe de modo a poder combinar, por exemplo, caracteríisticas de classificação de imagens baseadas em cor, textura, forma e silhueta, sem nos preocuparmos demasiadamente em como normalizar o vetor-comum de caracteristicas gerado? Como utilizar diversos classificadores diferentes, cada um, especializado e melhor configurado para um conjunto de caracteristicas ou classes em confusão? Nesse sentido, apresentamos, uma tecnica para fusão de classificadores e caracteristicas no cenário multi-classe através da combinação de classificadores binários. Nós validamos nossa abordagem numa aplicação real para classificação automática de frutas e legumes. Finalmente, nos deparamos com mais um problema interessante: como tornar a utilização de poderosos classificadores binarios no contexto multi-classe mais eficiente e eficaz? Assim, introduzimos uma tecnica para combinação de classificadores binarios (chamados classificadores base) para a resolução de problemas no contexto geral de multi-classificação. / Abstract: In this work, we propose the use of classifiers and machine learning techniques to extract useful information from data sets (e.g., images) to solve important problems in Image Processing and Computer Vision. We are particularly interested in: two and multi-class image categorization, hidden messages detection, discrimination among natural and forged images, authentication, and multiclassification. To start with, we present a comparative survey of the state-of-the-art in digital image forensics as well as hidden messages detection. Our objective is to show the importance of the existing solutions and discuss their limitations. In this study, we show that most of these techniques strive to solve two common problems in Machine Learning: the feature selection and the classification techniques to be used. Furthermore, we discuss the legal and ethical aspects of image forensics analysis, such as, the use of digital images by criminals. We introduce a technique for image forensics analysis in the context of hidden messages detection and image classification in categories such as indoors, outdoors, computer generated, and art works. From this multi-class classification, we found some important questions: how to solve a multi-class problem in order to combine, for instance, several different features such as color, texture, shape, and silhouette without worrying about the pre-processing and normalization of the combined feature vector? How to take advantage of different classifiers, each one custom tailored to a specific set of classes in confusion? To cope with most of these problems, we present a feature and classifier fusion technique based on combinations of binary classifiers. We validate our solution with a real application for automatic produce classification. Finally, we address another interesting problem: how to combine powerful binary classifiers in the multi-class scenario more effectively? How to boost their efficiency? In this context, we present a solution that boosts the efficiency and effectiveness of multi-class from binary techniques. / Doutorado / Engenharia de Computação / Doutor em Ciência da Computação

Page generated in 0.068 seconds