1 |
[en] A METHOD FOR REAL-TIME OBJECT DETECTION IN HD VIDEOS / [pt] UM MÉTODO PARA DETECÇÃO EM TEMPO REAL DE OBJETOS EM VÍDEOS DE ALTA DEFINIÇÃOGUSTAVO COSTA GOMES MOREIRA 29 April 2015 (has links)
[pt] A detecção e o subsequente rastreamento de objetos em sequencias de vídeo é um desafio no que tange o processamento de vídeos em tempo real. Nesta tese propomos um método de detecção em tempo real adequado para o processamento de vídeos de alta definição. Neste método utilizamos um procedimento de segmentação de quadros usando as imagens integrais de frente, o que permite o rápido descarte de várias partes da imagem a cada quadro, desta maneira atingindo uma alta taxa de quadros processados por segundo. Estendemos ainda o algoritmo proposto para que seja possível detectar múltiplos objetos em paralelo. Além disto, através da utilização de uma GPU e técnicas que podem ter seu desempenho aumentado por meio de paralelismo, como o operador prefix sum, conseguimos atingir um desempenho ainda melhor do algoritmo, tanto para a detecção do objeto, como na etapa de treinamento de novas classes de objetos. / [en] The detection and subsequent tracking of objects in video sequences is a challenge in terms of video processing in real time. In this thesis we propose an detection method suitable for processing high-definition video in real-time. In this method we use a segmentation procedure through integral image of the foreground, which allows a very quick disposal of various parts of the image in each frame, thus achieving a high rate of processed frames per second. Further we extend the proposed method to be able to detect multiple objects in parallel. Furthermore, by using a GPU and techniques that can have its performance enhanced through parallelism, as the operator prefix sum, we can achieve an even better performance of the algorithm, both for the detection of the object, as in the training stage of new classes of objects.
|
2 |
[pt] MAPEAMENTO DA DISTRIBUIÇÃO POPULACIONAL ATRAVÉS DA DETECÇÃO DE ÁREAS EDIFICADAS EM IMAGENS DE REGIÕES HETEROGÊNEAS DO GOOGLE EARTH USANDO DEEP LEARNING / [en] POPULATION DISTRIBUTION MAPPING THROUGH THE DETECTION OF BUILDING AREAS IN GOOGLE EARTH IMAGES OF HETEROGENEOUS REGIONS USING DEEP LEARNINGCASSIO FREITAS PEREIRA DE ALMEIDA 08 February 2018 (has links)
[pt] Informações precisas sobre a distribuição da população são reconhecidamente importantes. A fonte de informação mais completa sobre a população é o censo, cujos os dados são disponibilizados de forma
agregada em setores censitários. Esses setores são unidades operacionais de tamanho e formas irregulares, que dificulta a análise espacial dos dados associados. Assim, a mudança de setores censitários para um conjunto de células regulares com estimativas adequadas facilitaria a análise. Uma metodologia a ser utilizada para essa mudança poderia ser baseada na classificação de imagens de sensoriamento remoto para a identificação de domicílios, que é a base das pesquisas envolvendo a população. A detecção de áreas edificadas é uma tarefa complexa devido a grande variabilidade de características de construção e de imagens. Os métodos usuais são complexos e muito dependentes de especialistas. Os processos automáticos dependem de grandes bases de imagens para treinamento e são sensíveis à variação de qualidade de imagens e características das construções e de ambiente. Nesta tese propomos a utilização de um método automatizado para detecção de edificações em imagens Google Earth que mostrou bons
resultados utilizando um conjunto de imagens relativamente pequeno e com grande variabilidade, superando as limitações dos processos existentes. Este resultado foi obtido com uma aplicação prática. Foi construído um conjunto de imagens com anotação de áreas construídas para 12 regiões do Brasil. Estas imagens, além de diferentes na qualidade, apresentam grande variabilidade nas características das edificações e no ambiente geográfico. Uma prova de conceito será feita na utilização da classificação de área construída nos métodos dasimétrico para a estimação de população em gride. Ela mostrou um resultado promissor quando comparado com o método usual, possibilitando a melhoria da qualidade das estimativas. / [en] The importance of precise information about the population distribution is widely acknowledged. The census is considered the most reliable and complete source of this information, and its data are delivered
in an aggregated form in sectors. These sectors are operational units with irregular shapes, which hinder the spatial analysis of the data. Thus, the transformation of sectors onto a regular grid would facilitate such analysis. A methodology to achieve this transformation could be based on remote sensing image classification to identify building where the population lives. The building detection is considered a complex task since there is a great variability of building characteristics and on the images quality themselves. The majority of methods are complex and very specialist dependent. The automatic methods require a large annotated dataset for training and they are sensitive to the image quality, to the building characteristics, and to the environment. In this thesis, we propose an automatic method for building detection based on a deep learning architecture that uses a relative small dataset with a large variability. The proposed method shows good results when compared to the state of the art. An annotated dataset has been built that covers 12 cities distributed in different regions of Brazil. Such images not only have different qualities, but also shows a large variability on the building characteristics and geographic environments. A very important application of this method is the use of the building area classification in the dasimetric methods for the population estimation into grid. The concept proof in this application showed a promising result when compared to the usual method allowing the improvement of the quality of the estimates.
|
3 |
[en] GENERATION AND DETECTION OF OBJECTS IN DOCUMENTS BY DEEP LEARNING NEURAL NETWORK MODELS (DEEPDOCGEN) / [pt] GERAÇÃO E DETECÇÃO DE OBJETOS EM DOCUMENTOS POR MODELOS DE REDES NEURAIS DE APRENDIZAGEM PROFUNDA (DEEPDOCGEN)LOICK GEOFFREY HODONOU 06 February 2025 (has links)
[pt] A eficácia dos sistemas de conversação homem-máquina, como chatbots e
assistentes virtuais, está diretamente relacionada à quantidade e qualidade do
conhecimento disponível para eles. Na era digital, a diversidade e a qualidade
dos dados aumentaram significativamente, estando disponíveis em diversos
formatos. Entre esses, o PDF (Portable Document Format) se destaca como um
dos mais conhecidos e amplamente utilizados, adaptando-se a variados setores,
como empresarial, educacional e de pesquisa. Esses arquivos contêm uma
quantidade considerável de dados estruturados, como textos, títulos, listas,
tabelas, imagens, etc.
O conteúdo dos arquivos PDF pode ser extraído utilizando ferramentas
dedicadas, como o OCR (Reconhecimento Ótico de Caracteres), o PdfMiner,
Tabula e outras, que provaram ser adequadas para esta tarefa. No entanto,
estas ferramentas podem deparar-se com dificuldades quando lidam com
a apresentação complexa e variada dos documentos PDF. A exatidão da
extração pode ser comprometida pela diversidade de esquemas, formatos
não normalizados e elementos gráficos incorporados nos documentos, o que
frequentemente leva a um pós-processamento manual.
A visão computacional e, mais especificamente, a detecção de objetos, é
um ramo do aprendizado de máquina que visa localizar e classificar instâncias
em imagens utilizando modelos de detecção dedicados à tarefa, e está provando
ser uma abordagem viável para acelerar o trabalho realizado por algoritmos
como OCR, PdfMiner, Tabula, além de melhorar sua precisão.
Os modelos de detecção de objetos, por serem baseados em aprendizagem
profunda, exigem não apenas uma quantidade substancial de dados para
treinamento, mas, acima de tudo, anotações de alta qualidade pois elas têm um
impacto direto na obtenção de altos níveis de precisão e robustez. A diversidade
de layouts e elementos gráficos em documentos PDF acrescenta uma camada
adicional de complexidade, exigindo dados anotados de forma representativa
para que os modelos possam aprender a lidar com todas as variações possíveis.
Considerando o aspecto volumoso dos dados necessários para o treinamento dos modelos, percebemos rapidamente que o processo de anotação dos
dados se torna uma tarefa tediosa e demorada que requer intervenção humana
para identificar e etiquetar manualmente cada elemento relevante. Essa tarefa
não é apenas demorada, mas também sujeita a erros humanos, o que muitas
vezes exige verificações e correções adicionais.
A fim de encontrar um meio-termo entre a quantidade de dados, a
minimização do tempo de anotação e anotações de alta qualidade, neste
trabalho propusemos um pipeline que, a partir de um número limitado de
documentos PDF anotados com as categorias texto, título, lista, tabela e
imagem recebidas como entrada, é capaz de criar novas layouts de documentos
semelhantes com base no número desejado pelo usuário. Este pipeline vai mais
longe em preenchendo com o conteúdo as novas layouts criadas, a fim de
fornecer imagens de documentos sintéticos e suas respectivas anotações. Com
sua estrutura simples, intuitiva e escalável, este pipeline pode contribuir para
o active learning, permitindo assim aos modelos de detecção serem treinados
continuamente, os tornando mais eficazes e robustos diante de documentos
reais.
Em nossas experiências, ao avaliar e comparar três modelos de detecção,
observamos que o RT-DETR (Real-Time DEtection TRansformer) obteve os
melhores resultados, atingindo uma precisão média (mean Average Precision,
mAP) de 96,30 por cento, superando os resultados do Mask R-CNN (Region-based
Convolutional Neural Networks) e Mask DINO (Mask DETR with Improved
Denoising Anchor Boxes). A superioridade do RT-DETR indica seu potencial
para se tornar uma solução de referência na detecção de características em
documentos PDF. Esses resultados promissores abrem caminho para aplicações
mais eficientes e confiáveis no processamento automático de documentos. / [en] The effectiveness of human-machine conversation systems, such as chat-bots and virtual assistants, is directly related to the amount and quality of
knowledge available to them. In the digital age, the diversity and quality of
data have increased significantly, being available in various formats. Among
these, the PDF (Portable Document Format) stands out as one of the most
well-known and widely used, adapting to various sectors, such as business, education, and research. These files contain a considerable amount of structured
data, such as text, headings, lists, tables, images, etc.
The content of PDF files can be extracted using dedicated tools, such as
OCR (Optical Character Recognition), PdfMiner, Tabula and others, which
have proven to be suitable for this task. However, these tools may encounter
difficulties when dealing with the complex and varied presentation of PDF
documents. The accuracy of extraction can be compromised by the diversity
of layouts, non-standardized formats, and embedded graphic elements in the
documents, often leading to manual post-processing.
Computer vision, and more specifically, object detection, is a branch
of machine learning that aims to locate and classify instances in images
using models dedicated to the task. It is proving to be a viable approach
to accelerating the work performed by algorithms like OCR, PdfMiner, Tabula
and improving their accuracy.
Object detection models, being based on deep learning, require not only
a substantial amount of data for training but, above all, high-quality annotations, as they have a direct impact on achieving high levels of accuracy and
robustness. The diversity of layouts and graphic elements in PDF documents
adds an additional layer of complexity, requiring representatively annotated
data so that the models can learn to handle all possible variations.
Considering the voluminous aspect of the data needed for training the
models, we quickly realize that the data annotation process becomes a tedious
and time-consuming task requiring human intervention to manually identify
and label each relevant element. This task is not only time-consuming but also
subject to human error, often requiring additional checks and corrections.
To find a middle ground between the amount of data, minimizing
annotation time, and high-quality annotations, in this work, we proposed a
pipeline that, from a limited number of annotated PDF documents with the
categories text, title, list, table, and image as input, can create new document
layouts similar to the desired number by the user. This pipeline goes further
by filling the new created layouts with content to provide synthetic document
images and their respective annotations. With its simple, intuitive, and scalable
structure, this pipeline can contribute to active learning, allowing detection
models to be continuously trained, making them more effective and robust in
the face of real documents.
In our experiments, when evaluating and comparing three detection
models, we observed that the RT-DETR (Real-Time Detection Transformer)
achieved the best results, reaching a mean Average Precision (mAP) of 96.30 percent,
surpassing the results of Mask R-CNN (Region-based Convolutional Neural
Networks) and Mask DINO (Mask DETR with Improved Denoising Anchor
Boxes). The superiority of RT-DETR indicates its potential to become a reference solution in detecting features in PDF documents. These promising results
pave the way for more efficient and reliable applications in the automatic processing of documents.
|
Page generated in 0.0407 seconds