• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 48
  • 33
  • Tagged with
  • 81
  • 81
  • 63
  • 19
  • 18
  • 12
  • 12
  • 11
  • 11
  • 11
  • 11
  • 11
  • 10
  • 10
  • 10
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

[en] DG2CEP: AN ON-LINE ALGORITHM FOR REAL-TIME DETECTION OF SPATIAL CLUSTERS FROM LARGE DATA STREAMS THROUGH COMPLEX EVENT PROCESSING / [pt] DG2CEP: UM ALGORITMO ON-LINE PARA DETECÇÃO EM TEMPO REAL DE AGLOMERADOS ESPACIAIS EM GRANDES FLUXOS DE DADOS ATRAVÉS DE PROCESSAMENTO DE FLUXO DE DADOS

MARCOS PAULINO RORIZ JUNIOR 08 June 2017 (has links)
[pt] Clusters (ou concentrações) de objetos móveis, como veículos e seres humanos, é um padrão de mobilidade relevante para muitas aplicações. Uma detecção rápida deste padrão e de sua evolução, por exemplo, se o cluster está encolhendo ou crescendo, é útil em vários cenários, como detectar a formação de engarrafamentos ou detectar uma rápida dispersão de pessoas em um show de música. A detecção on-line deste padrão é uma tarefa desafiadora porque requer algoritmos que sejam capazes de processar de forma contínua e eficiente o alto volume de dados enviados pelos objetos móveis em tempo hábil. Atualmente, a maioria das abordagens para a detecção destes clusters operam em lote. As localizações dos objetos móveis são armazenadas durante um determinado período e depois processadas em lote por uma rotina externa, atrasando o resultado da detecção do cluster até o final do período ou do próximo lote. Além disso, essas abordagem utilizam extensivamente estruturas de dados e operadores espaciais, o que pode ser problemático em cenários de grande fluxos de dados. Com intuito de abordar estes problemas, propomos nesta tese o DG2CEP, um algoritmo que combina o conhecido algoritmo de aglomeração por densidade (DBSCAN) com o paradigma de processamento de fluxos de dados (Complex Event Processing) para a detecção contínua e rápida dos aglomerados. Nossos experimentos com dados reais indicam que o DG2CEP é capaz de detectar a formação e dispersão de clusters rapidamente, em menos de alguns segundos, para milhares de objetos móveis. Além disso, os resultados obtidos indicam que o DG2CEP possui maior similaridade com DBSCAN do que abordagens baseadas em lote. / [en] Spatial concentrations (or spatial clusters) of moving objects, such as vehicles and humans, is a mobility pattern that is relevant to many applications. A fast detection of this pattern and its evolution, e.g., if the cluster is shrinking or growing, is useful in numerous scenarios, such as detecting the formation of traffic jams or detecting a fast dispersion of people in a music concert. An on-line detection of this pattern is a challenging task because it requires algorithms that are capable of continuously and efficiently processing the high volume of position updates in a timely manner. Currently, the majority of approaches for spatial cluster detection operate in batch mode, where moving objects location updates are recorded during time periods of certain length and then batch-processed by an external routine, thus delaying the result of the cluster detection until the end of the time period. Further, they extensively use spatial data structures and operators, which can be troublesome to maintain or parallelize in on-line scenarios. To address these issues, in this thesis we propose DG2CEP, an algorithm that combines the well-known density-based clustering algorithm DBSCAN with the data stream processing paradigm Complex Event Processing (CEP) to achieve continuous and timely detection of spatial clusters. Our experiments with real world data streams indicate that DG2CEP is able to detect the formation and dispersion of clusters with small latency while having a higher similarity to DBSCAN than batch-based approaches.
42

[en] USING RUNTIME INFORMATION AND MAINTENANCE KNOWLEDGE TO ASSIST FAILURE DIAGNOSIS, DETECTION AND RECOVERY / [pt] UTILIZANDO INFORMAÇÕES DA EXECUÇÃO DO SISTEMA E CONHECIMENTOS DE MANUTENÇÃO PARA AUXILIAR O DIAGNÓSTICO, DETECÇÃO E RECUPERAÇÃO DE FALHAS

THIAGO PINHEIRO DE ARAUJO 16 January 2017 (has links)
[pt] Mesmo sistemas de software desenvolvidos com um controle de qualidade rigoroso podem apresentar falhas durante seu ciclo de vida. Quando uma falha é observada no ambiente de produção, mantenedores são responsáveis por produzir o diagnóstico e remover o seu defeito correspondente. No entanto, em um serviço crítico este tempo pode ser muito longo, logo, se for possível, a assinatura da falha deve ser utilizada para gerar um mecanismo de recuperação automático capaz de detectar e tratar futuras ocorrências similares, até que o defeito possa ser removido. Nesta tese, a atividade de recuperação consiste em restaurar o sistema para um estado correto, que permita continuar a execução com segurança, ainda que com limitações em suas funcionalidades. Para serem eficazes, as tarefas de diagnóstico e recuperação requerem informações detalhadas sobre a execução que falhou. Falhas que ocorrem durante a fase de testes em um ambiente controlado podem ser depuradas através da inserção de nova instrumentação e re-execução da rotina que contem o defeito, tornando mais fácil o estudo de comportamentos inesperados. No entanto, falhas que ocorrem no ambiente de produção apresentam informações limitadas à situação específica em que ocorrem, além de serem imprevisíveis. Para mitigar essa adversidade, informações devem ser coletadas sistematicamente com o intuito de detectar, diagnosticar para recuperar e, eventualmente, diagnosticar para remover a circunstância geradora da falha. Além disso, há um balanceamento entre a informação inserida como instrumentação e a performance do sistema: técnicas de logging geralmente apresentam baixo impacto no desempenho, porém não provêm informação suficiente sobre a execução; por outro lado, as técnicas de tracing podem registrar informações precisas e detalhadas, todavia são impraticáveis para um ambiente de produção. Esta tese propõe uma abordagem hibrida para gravação e extração de informações durante a execução do sistema. A solução proposta se baseia no registro de eventos, onde estes são enriquecidos com propriedades contextuais sobre o estado atual da execução no momento em que o evento é gravado. Através deste registro de eventos com informações de contexto, uma técnica de diagnóstico e uma ferramenta foram desenvolvidas para permitir que eventos pudessem ser filtrados com base na perspectiva de interesse do mantenedor. Além disso, também foi desenvolvida uma abordagem que utiliza estes eventos enriquecidos para detectar falhas automaticamente visando recuperação. As soluções propostas foram avaliadas através de medições e estudos conduzidos em sistemas implantados, baseando-se nas falhas que de fato ocorreram enquanto se utilizava o software em um contexto de produção. / [en] Even software systems developed with strict quality control may expect failures during their lifetime. When a failure is observed in a production environment the maintainer is responsible for diagnosing the cause and eventually removing it. However, considering a critical service this might demand too long a time to complete, hence, if possible, the failure signature should be identified in order to generate a recovery mechanism to automatically detect and handle future occurrences until a proper correction can be made. In this thesis, recovery consists of restoring a correct context allowing dependable execution, even if the causing fault is still unknown. To be effective, the tasks of diagnosing and recovery implementation require detailed information about the failed execution. Failures that occur during the test phase run in a controlled environment, allow adding specific code instrumentation and usually can be replicated, making it easier to study the unexpected behavior. However, failures that occur in the production environment are limited to the information present in the first occurrence of the failure. But run time failures are obviously unexpected, hence run time data must be gathered systematically to allow detecting, diagnosing with the purpose of recovering, and eventually diagnosing with the purpose of removing the causing fault. Thus there is a balance between the detail of information inserted as instrumentation and the system performance: standard logging techniques usually present low impact on performance, but carry insufficient information about the execution; while tracing techniques can record precise and detailed information, however are impracticable for a production environment. This thesis proposes a novel hybrid approach for recording and extracting system s runtime information. The solution is based on event logs, where events are enriched with contextual properties about the current state of the execution at the moment the event is recorded. Using these enriched log events a diagnosis technique and a tool have been developed to allow event filtering based on the maintainer s perspective of interest. Furthermore, an approach using these enriched events has been developed that allows detecting and diagnosing failures aiming at recovery. The proposed solutions were evaluated through measurements and studies conducted using deployed systems, based on failures that actually occurred while using the software in a production context.
43

[en] A METHOD FOR INTERPRETING CONCEPT DRIFTS IN A STREAMING ENVIRONMENT / [pt] UM MÉTODO PARA INTERPRETAÇÃO DE MUDANÇAS DE REGIME EM UM AMBIENTE DE STREAMING

JOAO GUILHERME MATTOS DE O SANTOS 10 August 2021 (has links)
[pt] Em ambientes dinâmicos, os modelos de dados tendem a ter desempenho insatisfatório uma vez que a distribuição subjacente dos dados muda. Este fenômeno é conhecido como Concept Drift. Em relação a este tema, muito esforço tem sido direcionado ao desenvolvimento de métodos capazes de detectar tais fenômenos com antecedência suficiente para que os modelos possam se adaptar. No entanto, explicar o que levou ao drift e entender suas consequências ao modelo têm sido pouco explorado pela academia. Tais informações podem mudar completamente a forma como adaptamos os modelos. Esta dissertação apresenta uma nova abordagem, chamada Detector de Drift Interpretável, que vai além da identificação de desvios nos dados. Ele aproveita a estrutura das árvores de decisão para prover um entendimento completo de um drift, ou seja, suas principais causas, as regiões afetadas do modelo e sua severidade. / [en] In a dynamic environment, models tend to perform poorly once the underlying distribution shifts. This phenomenon is known as Concept Drift. In the last decade, considerable research effort has been directed towards developing methods capable of detecting such phenomena early enough so that models can adapt. However, not so much consideration is given to explain the drift, and such information can completely change the handling and understanding of the underlying cause. This dissertation presents a novel approach, called Interpretable Drift Detector, that goes beyond identifying drifts in data. It harnesses decision trees’ structure to provide a thorough understanding of a drift, i.e., its principal causes, the affected regions of a tree model, and its severity. Moreover, besides all information it provides, our method also outperforms benchmark drift detection methods in terms of falsepositive rates and true-positive rates across several different datasets available in the literature.
44

[en] DENOISING AND SIMPLIFICATION IN THE CONSTRUCTION OF 3D DIGITAL MODELS OF COMPLEX OBJECTS / [pt] REMOÇÃO DE RUÍDO E SIMPLIFICAÇÃO NA CONSTRUÇÃO DE MODELOS DIGITAIS 3D DE OBJETOS COMPLEXOS

JAN JOSE HURTADO JAUREGUI 01 February 2022 (has links)
[pt] À medida que o processo de digitalização avança em diversos setores, a criação de modelos digitais 3D torna-se cada vez mais necessária. Normalmente, esses modelos são construídos por designers 3D, exigindo um esforço manual considerável quando o objeto modelado é complexo. Além disso, como o designer não tem uma referência precisa na maioria dos casos, o modelo resultante está sujeito a erros de medição. No entanto, é possível minimizar o esforço de construção e o erro de medição usando técnicas de aquisição 3D e modelos CAD previamente construídos. A saída típica de uma técnica de aquisição 3D é uma nuvem de pontos 3D bruta, que precisa de processamento para reduzir o ruído inerente e a falta de informações topológicas. Os modelos CAD são normalmente usados para documentar um processo de projeto de engenharia, apresentando alta complexidade e muitos detalhes irrelevantes para muitos processos de visualização. Portanto, dependendo da aplicação, devemos simplificar bastante o modelo CAD para atender aos seus requisitos. Nesta tese, nos concentramos na construção de modelos digitais 3D a partir dessas fontes. Mais precisamente, apresentamos um conjunto de algoritmos de processamento de geometria para automatizar diferentes etapas de um fluxo de trabalho típico usado para esta construção. Primeiro, apresentamos um algoritmo de redução de ruído de nuvem de pontos que visa preservar as feições nítidas da superfície subjacente. Este algoritmo inclui soluções para a estimativa normal e problemas de detecção de feições nítidas. Em segundo lugar, apresentamos uma extensão do algoritmo de redução de ruído de nuvem de pontos para processar malhas triangulares, onde tiramos proveito da topologia explícita definida pela malha. Por fim, apresentamos um algoritmo para a simplificação extrema de modelos CAD complexos, que tendem a se aproximar da superfície externa do objeto modelado. Os algoritmos propostos são comparados com métodos de última geração, apresentando resultados competitivos e superando-os na maioria dos casos de teste. / [en] As the digitalization process advances in several industries, the creation of 3D digital models is becoming more and more required. Commonly, these models are constructed by 3D designers, requiring considerable manual effort when the modeled object is complex. In addition, since the designer does not have an accurate reference in most cases, the resulting model is prone to measurement errors. However, it is possible to minimize the construction effort and the measurement error by using 3D acquisition techniques and previously constructed CAD models. The typical output of a 3D acquisition technique is a raw 3D point cloud, which needs processing to reduce the inherent noise and lack of topological information. CAD models are typically used to document an engineering design process, presenting high complexity and too many details irrelevant to many visualization processes. So, depending on the application, we must severely simplify the CAD model to meet its requirements. In this thesis, we focus on the construction of 3D digital models from these sources. More precisely, we present a set of geometry processing algorithms to automatize different stages of a typical workflow used for this construction. First, we present a point cloud denoising algorithm that seeks to preserve the sharp features of the underlying surface. This algorithm includes solutions for the normal estimation and sharp feature detection problems. Second, we present an extension of the point cloud denoising algorithm to process triangle meshes, where we take advantage of the explicit topology defined by the mesh. Finally, we present an algorithm for the extreme simplification of complex CAD models, which tends to approximate the outer surface of the modeled object. The proposed algorithms are compared with state-of-the-art methods, showing competitive results and outperforming them in most test cases.
45

[en] A ROBUST REAL-TIME COMPONENT FOR PERSONAL PROTECTIVE EQUIPMENT DETECTION IN AN INDUSTRIAL SETTING / [pt] UM COMPONENTE ROBUSTO EM TEMPO REAL PARA DETECÇÃO DE EQUIPAMENTOS DE PROTEÇÃO INDIVIDUAL EM UM AMBIENTE INDUSTRIAL

PEDRO HENRIQUE LOPES TORRES 19 July 2021 (has links)
[pt] Em grandes indústrias, como construção, metalúrgica e petróleo, trabalhadores são continuamente expostos a vários tipos de perigos em seus locais de trabalho. Segundo a Organização Internacional do Trabalho (OIT), anualmente ocorrem cerca de 340 milhões de acidentes de trabalho. Equipamentos de Proteção Individual (EPI) são utilizados para garantir a proteção essencial da saúde e segurança dos trabalhadores. Com isto, há um grande esforço para garantir que esses tipos de equipamentos sejam usados de maneira adequada em ambientes de trabalho. Em tais ambientes, é comum ter câmeras de circuito fechado de televisão (CFTV) para monitorar os trabalhadores, pois essas podem ser usadas para verificar o uso adequado de EPIs. Alguns trabalhos presentes na literatura abordam o problema de verificação automática de EPIs usando imagens de CFTV como entrada; no entanto, muitos destes trabalhos não conseguem lidar com a detecção de uso seguro de múltiplos equipamentos e outros até mesmo pulam a fase de verificação, fazendo apenas a detecção. Neste trabalho, propomos um novo componente de análise de segurança cognitiva para um sistema de monitoramento. Este componente atua para detectar o uso adequado de EPIs em tempo real, usando fluxo de dados de câmeras de CFTV comuns. Construímos este componente do sistema com base nas melhores técnicas de Aprendizado Profundo voltadas para a tarefa de detecção de objetos. A metodologia proposta é robusta com resultados consistentes e promissores em termos da métrica Mean Average Precision (mAP) e pode atuar em tempo real. / [en] In large industries, such as construction, metallurgy, and oil, workers are continually exposed to various hazards in their workplace. Accordingly to the International Labor Organization (ILO), there are 340 million occupational accidents annually. Personal Protective Equipment (PPE) is used to ensure the essential protection of workers health and safety. There is a great effort to ensure that these types of equipment are used properly. In such an environment, it is common to have closed-circuit television (CCTV) cameras to monitor workers, as those can be used to verify the PPE s proper usage. Some works address this problem using CCTV images; however, they frequently can not deal with multiples safe equipment usage detection and others even skip the verification phase, making only the detection. In this paper, we propose a novel cognitive safety analysis component for a monitoring system. This component acts to detect the proper usage of PPE s in real-time using data stream from regular CCTV cameras. We built the system component based on the top of state-of-art deep learning techniques for object detection. The methodology is robust with consistent and promising results for Mean Average Precision (mAP) and can act in real-time.
46

[en] A COMPARISON OF DEEP LEARNING TECHNIQUES FOR DEFORESTATION DETECTION IN THE BRAZILIAN AMAZON AND CERRADO BIOMES FROM REMOTE SENSING IMAGERY / [pt] COMPARAÇÃO DE TÉCNICAS DE DEEP LEARNING PARA DETECÇÃO DE DESMATAMENTO EM BIOMAS DA AMAZÔNIA E CERRADO BRASILEIROS A PARTIR DE IMAGENS DE SENSORIAMENTO REMOTO

MABEL XIMENA ORTEGA ADARME 04 May 2020 (has links)
[pt] O desmatamento é uma das principais causas de redução da biodiversidade, mudança climática e outros fenômenos destrutivos. Assim, a detecção antecipada de desmatamento é de suma importância. Técnicas baseadas em imagens de satélite são uma das opções mais iteresantes para esta aplicação. No entanto, muitos trabalhos desenvolvidos incluem algumas operações manuais ou dependência de um limiar para identificar regiões que sofrem desmatamento ou não. Motivado por este cenário, a presente dissertação apresenta uma avaliação de métodos para detecção automática de desmatamento, especificamente de Early Fusion (EF) Convolutional Network, Siamese Convolutional Network (SN), Convolutional Support Vector Machine (CSVM) e Support Vector Machine (SVM), o último tomado como baseline. Todos os métodos foram avaliados em regiões dos biomas brasileiros Amazônia e Cerrado. Duas imagens Landsat 8 adquiridas em diferentes datas foram utilizadas nos experimentos, e também o impacto do tamanho do conjunto de treinamento foi analisado. Os resultados demonstraram que as abordagens baseadas no Deep Learning superaram claramente o baseline SVM em termos de pontuação F1-score e Overrall Accuracy, com uma superioridade de SN e EF sobre CSVM e SVM. Da mesma forma, uma redução do efeito sal e pimenta nos mapas de mudança gerados foi notada devido, principalmente ao aumento de amostras nos conjuntos de treinamento. Finalmente, realizou-se uma análise visando avaliar como os métodos podem reduzir o esforço humano na inspeção visual das áreas desmatadas. / [en] Deforestation is one of the main causes of biodiversity reduction, climate change, among other destructive phenomena. Thus, early detection of deforestation processes is of paramount importance. Techniques based on satellite images are one of the most attractive options for this application. However, many works developed include some manual operations or dependency on a threshold to identify regions that suffer deforestation or not. Motivated by this scenario, the present dissertation presents an evaluation of methods for automatic deforestation detection, specifically Early Fusion (EF) Convolutional Network, Siamese Convolutional Network (SN), Convolutional Support Vector Machine (CSVM) and Support Vector Machine (SVM), taken as the baseline. These methods were evaluated in regions of Brazilian Amazon and Cerrado Biomes. Two Landsat 8 images acquired at different dates were used in the experiments, and the impact of training set size was also analyzed. The results demonstrated that Deep Learning-based approaches clearly outperformed the SVM baseline in our approaches, both in terms of F1-score and Overall Accuracy, with the superiority of SN and EF over CSVM and SVM. In the same way, a reduction of the salt-and-pepper effect in the generated probabilistic change maps was noticed due, mainly, to the increase of samples in the training sets. Finally, an analysis was carried out to assess how the methods can reduce the time invested in the visual inspection of deforested areas.
47

[en] IMPROVING EPILEPSY LESION DETECTION USING ADVANCED TECHNIQUES OF ACQUISITION AND ANALYSIS OF MRI: A SYSTEMATIC REVIEW / [pt] MELHORANDO A DETECÇÃO DE LESÕES EPILÉPTICAS UTILIZANDO TÉCNICAS AVANÇADAS DE OBTENÇÃO E ANÁLISE DE MRI: UMA REVISÃO SISTEMÁTICA

LUCAS MACHADO LOUREIRO 05 May 2022 (has links)
[pt] Em aproximadamente um terço dos pacientes com epilepsia, a cirurgia é única forma de intervenção para diminuição dos impactos ou término das crises. Em pacientes sem um foco lesional na imagem por ressonância magnética, essa intervenção depende de outros métodos investigativos, que nem sempre estão prontamente disponíveis. Nesses casos, métodos avançados de pós-processamento e de sequências de imagens podem ajudar a detectar lesões. O objetivo dessa revisão sistemática foi resumir a disponibilidade e taxas de sucesso dessas técnicas. De acordo com as diretrizes PRISMA, usando as bases de dados PubMED, Web of Science, PsycNET e CENTRAL, uma busca por artigos foi conduzida até o dia 12 de janeiro de 2021. No total, a busca retornou 4.024 artigos, com 49 permanecendo após a revisão. Vinte e cinco artigos usaram alguma forma de voxel-based morphometry, 14 usaram machine learning e 10 usaram técnicas avançadas de MRI. Apenas um artigo descreveu um estudo prospectivo. A taxa de detecção de lesões variou bastante entre estudos, com técnicas de machine learning demonstrando taxas mais consistentes, todas acima de 50 por cento em grupos de pacientes com imagem negativa. Isso pode ser útil em centros onde outros métodos investigativos, como PET, SPECT, MEG ou sEEG não estão prontamente acessíveis. / [en] In approximately one third of patients with epilepsy, surgery is the only form of intervention to diminish seizure burden or achieve seizure freedom. In patients without a lesional focus on MRI, surgical intervention depends on other investigative methods, not always readily accessible. Advanced MRI postprocessing and acquisition methods may help with lesion localization in those cases. The aim of this systematic review was to summarize the availability and success rate of such MRI techniques. In accordance with the PRISMA guidelines, using PubMED, Web of Science, PsycNET, and CENTRAL, a search for papers was performed until the 12th of January of 2021. In total, the search returned 4,024 papers, of which 49 remained after revision. Twenty-five used a form of voxelbased morphometry, 14 used machine learning techniques, and 10 used advanced MRI sequences not commonly part of the standard MRI-protocol. Only one paper described a prospective study. The lesion detection rate greatly varied between studies, with machine learning techniques showing a more consistent rate, all above 50 percent in MRI-negative groups. This could be particularly helpful in center where other investigative methods, including PET, SPECT, MEG and stereo EEG are not readily available.
48

[pt] DETECÇÃO DE CONTEÚDO SENSÍVEL EM VIDEO COM APRENDIZADO PROFUNDO / [en] SENSITIVE CONTENT DETECTION IN VIDEO WITH DEEP LEARNING

PEDRO VINICIUS ALMEIDA DE FREITAS 09 June 2022 (has links)
[pt] Grandes quantidades de vídeo são carregadas em plataformas de hospedagem de vídeo a cada minuto. Esse volume de dados apresenta um desafio no controle do tipo de conteúdo enviado para esses serviços de hospedagem de vídeo, pois essas plataformas são responsáveis por qualquer mídia sensível enviada por seus usuários. Nesta dissertação, definimos conteúdo sensível como sexo, violencia fisica extrema, gore ou cenas potencialmente pertubadoras ao espectador. Apresentamos um conjunto de dados de vídeo sensível para classificação binária de vídeo (se há conteúdo sensível no vídeo ou não), contendo 127 mil vídeos anotados, cada um com seus embeddings visuais e de áudio extraídos. Também treinamos e avaliamos quatro modelos baseline para a tarefa de detecção de conteúdo sensível em vídeo. O modelo com melhor desempenho obteve 99 por cento de F2-Score ponderado no nosso subconjunto de testes e 88,83 por cento no conjunto de dados Pornography-2k. / [en] Massive amounts of video are uploaded on video-hosting platforms every minute. This volume of data presents a challenge in controlling the type of content uploaded to these video hosting services, for those platforms are responsible for any sensitive media uploaded by their users. There has been an abundance of research on methods for developing automatic detection of sensitive content. In this dissertation, we define sensitive content as sex, extreme physical violence, gore, or any scenes potentially disturbing to the viewer. We present a sensitive video dataset for binary video classification (whether there is sensitive content in the video or not), containing 127 thousand tagged videos, Each with their extracted audio and visual embeddings. We also trained and evaluated four baseline models for the sensitive content detection in video task. The best performing model achieved 99 percent weighed F2-Score on our test subset and 88.83 percent on the Pornography-2k dataset.
49

[en] METHOD FOR AUTOMATIC DETECTION OF STAMPS IN SCANNED DOCUMENTS USING DEEP LEARNING AND SYNTHETIC DATA GENERATION BY INSTANCE AUGMENTATION / [pt] MÉTODO PARA DETECÇÃO AUTOMÁTICA DE CARIMBOS EM DOCUMENTOS ESCANEADOS USANDO DEEP LEARNING E GERAÇÃO DE DADOS SINTÉTICOS ATRAVÉS DE INSTANCE AUGMENTATION

THALES LEVI AZEVEDO VALENTE 11 August 2022 (has links)
[pt] Documentos digitalizados em ambientes de negócios substituíram grandes volumes de papéis. Profissionais autorizados usam carimbos para certificar informações críticas nesses documentos. Muitas empresas precisam verificar o carimbo adequado de documentos de entrada e saída. Na maioria das situações de inspeção, as pessoas realizam inspeção visual para identificar carimbos. Assim sendo, a verificação manual de carimbos é cansativa, suscetível a erros e ineficiente em termos de tempo gasto e resultados esperados. Erros na verificação manual de carimbos podem gerar multas de órgãos reguladores, interrupção de operações e até mesmo comprometer fluxos de trabalho e transações financeiras. Este trabalho propõe dois métodos que combinados podem resolver esse problema, automatizando totalmente a detecção de carimbos em documentos digitalizados do mundo real. Os métodos desenvolvidos podem lidar com conjuntos de dados contendo muitos tipos de carimbos de tamanho de amostra pequena, com múltiplas sobreposições, combinações diferentes por página e dados ausentes. O primeiro método propõe uma arquitetura de rede profunda projetada a partir da relação entre os problemas identificados em carimbos do mundo real e os desafios e soluções da tarefa de detecção de objetos apontados na literatura. O segundo método propõe um novo pipeline de aumento de instâncias de conjuntos de dados de carimbos a partir de dados reais e investiga se é possível detectar tipos de carimbos com amostras insuficientes. Este trabalho avalia os hiperparâmetros da abordagem de aumento de instâncias e os resultados obtidos usando um método Deep Explainability. Foram alcançados resultados de última geração para a tarefa de detecção de carimbos combinando com sucesso esses dois métodos, alcançando 97.3 por cento de precisão e 93.2 por cento de recall. / [en] Scanned documents in business environments have replaced large volumes of papers. Authorized professionals use stamps to certify critical information in these documents. Many companies need to verify the adequate stamping of incoming and outgoing documents. In most inspection situations, people perform a visual inspection to identify stamps. Therefore, manual stamp checking is tiring, susceptible to errors, and inefficient in terms of time spent and expected results. Errors in manual checking for stamps can lead to fines from regulatory bodies, interruption of operations, and even compromise workflows and financial transactions. This work proposes two methods that combined can address this problem, by fully automating stamp detection in real-world scanned documents. The developed methods can handle datasets containing many small sample-sized types of stamps, multiples overlaps, different combinations per page, and missing data. The first method proposes a deep network architecture designed from the relationship between the problems identified in real-world stamps and the challenges and solutions of the object detection task pointed out in the literature. The second method proposes a novel instance augmentation pipeline of stamp datasets from real data to investigate whether it is possible to detect stamp types with insufficient samples. We evaluate the hyperparameters of the instance augmentation approach and the obtained results through a Deep Explainability method. We achieve state-of-the-art results for the stamp detection task by successfully combining these two methods, achieving 97.3 percent of precision and 93.2 percent of recall.
50

[pt] DESENVOLVIMENTO DE MÉTODOS ESPECTROFLUORIMÉTRICOS E CROMATOGRÁFICOS A LÍQUIDO PARA ANÁLISE DE ÓLEOS ESSENCIAIS CÍTRICOS. R / [en] DEVELOPMENT OF SPECTROFLUORIMETRIC AND LIQUID CHROMATOGRAPHIC METHODS FOR CITRUS ESSENTIAL OILS ANALYSIS

ROSANA CANDIDA MACEDO 05 September 2024 (has links)
[pt] O principal objetivo deste trabalho foi o desenvolvimento de métodosespectrofluorimétricos e de cromatografia líquida de alta eficiência em fase reversa(RP-HPLC, reversed-phase liquid chromatography) para análise de óleosessenciais cítricos (OEC). Para este fim, microemulsões livres de surfactante(SFMEs, surfactante-free microemulsions) foram utilizadas como uma abordagempara o tratamento das amostras.Primeiramente, a região de formação das SFMEs foi avaliada para diferentesproporções água:OE (1:4, 1:2, 1:1, 2:1, 4:1, m/m) na presença de propano-1-ol eoctan-1-ol (10:3 m/m). Titulações condutométricas indicaram agregados micelarescontendo OE (microemulsão do tipo óleo-em-água) para a proporção 4:1 (compartículas dispersas de raio hidrodinâmico de 95,7 ± 5,3 nm). Nessas condições, afluorescência aumentou, permitindo o uso da espectroscopia de fluorescência 3Dpara obtenção de padrões de impressão digital que foram utilizados para análisediscriminante de nove marcas brasileiras, juntamente com análise de componentes principais com desdobramento dos dados (UPCA, unfold principal components analysis). Uma variância cumulativa de 96,7 por cento foi obtida para os três primeiros componentes principais e os gráficos de pontuação mostraram uma localização distinta para cada grupo. Um estudo preliminar também mostrou a capacidade desses sistemas em avaliar condições de armazenamento e adulteração. O impacto das condições de armazenamento foi realizado ao longo de 21 dias expostos à luz, com resultados mostrando grandes diferenças espectrais em comparação com uma amostra armazenada em frasco âmbar a 22 graus C. A adulteração de OEs por fortificação com óleo de canola e óleo mineral foi detectada em diferentes níveis (1, 5, 10 e 20 por cento, m/m) e, além das diferenças espectrais, observou-se uma mudança na estabilidade da micro emulsão. Em uma segunda etapa do estudo, esses sistemas foram replicados para diferentes OEC, incluindo laranja doce e azeda, tangerina, limão e grape fruit. Estudos foram empregados para avaliar condições ótimas para a formação do sistema, visando abranger todos os OECs avaliados sem comprometer a reprodutibilidade da medição. A nova condição SFME adotada foi de 15 microL da fase oleosa contendo OE e octan-1-ol (1:2 v/v), 19 mL de água e propan-1-ol até o volume final de 25 mL. Além do baixo consumo de amostra, obteve-se um aumento significativo na fluorescência, apesar da menor proporção da fase oleosa. Os dados da matriz de excitação-emissão foram utilizados para análise de agrupamento. OUPCA foi aplicado com sucesso, com uma variância cumulativa de 99,5 por cento para os três primeiros componentes principais. A decomposição dos auto vetores revelou uma influência significativa dos comprimentos de onda de excitação/emissão de336/436 nm. Análises complementares por HPLC confirmaram a relação entre fluoróforos e a fração não volátil, característica dos OECs. A combinação de baixo consumo de amostra e alto teor de água torna a aplicação desses sistemas vantajosa para a diferenciação de OECs. A transparência e a baixa viscosidade também são consideradas aspectos positivos. Em uma terceira e última etapa, o efeito do meio de amostragem na análise de polimetoxiflavo nas (PMFs) no OE de laranja doce por RP-HPLC foi avaliado, utilizando o conhecimento adquirido nas etapas anteriores em relação à formação de sistemas SFMEs. Este estudo teve como foco a análise de PMFs presentes na fração não volátil do OE de laranja doce, que inclui tetra-O-metil-scutelareína, sinensetina, tangeretina, nobiletina e heptametoxiflavona. Dois métodos utilizando eluição isocrática com diferentes fases móveis, (A) água/metanol e (B)água/acetonitrila, foram empregados usando detecção absorciométrica e fluorimétrica. O meio de amostragem influenciou significativamente a eluição cromatográfica, afetando potencialmente a largura dos picos e o tempo de retenção, especialmente para tangeretina, onde um aumento de 300 e 103 por cento na intensidade de pico foi obtido para as fases móveis A e B, quando misturas com octan-1-ol foram utilizadas. Devido à coeluição entre nobiletina e tetra-O-metil scutelareína observada com a fase móvel A, o método foi validado utilizando a fase móvel B(acetonitrila/água, 50:50 por cento, v/v). A detecção de fluorescência forneceu valores delimites de detecção e quantificação mais baixos para sinensetina (1 e 3 microg mL-1) enobiletina (13 e 44 microg mL-1) do que os relatados na literatura. O método foi aplicado a amostras comerciais de OE de laranja doce, fornecendo resultados consistentes para todas as PMFs. / [en] The main goal of this work was the development of spectrofluorimetric and reversed-phase high-performance liquid chromatography (RP-HPLC) methods for citrus essential oils (CEO) analysis. For this purpose, surfactant-free microemulsions (SFMEs) were used as an approach for sample treatment. First, the SFME formation region was studied at different water:EO weight proportions (1:4, 1:2, 1:1, 2:1, 4:1 w/w) in the presence of propan-1-ol and octan-1-ol (10:3 w/w). Conductometric titrations indicated micellar aggregates containing EO (oil-in-water microemulsion) for the 4:1 proportion (droplets of hydrodynamic radius of 95.7 ± 5.3 nm). In such conditions, fluorescence increased allowing the use of 3D fluorescence spectroscopy to obtain spectroscopic fingerprint pattern that was used aiming discriminant analysis, considering nine EO Brazilian brands, along with unfold principal component analysis(UPCA). A cumulative variance of 96.7 percent was obtained for the first three principal components and score plots showed distinct location for each group. Preliminary study showed the capability of these systems in evaluating storage conditions, and adulteration. The impact of storage conditions was made over 21 days exposed to light with results showing large spectral differences compared to a sample stored in amber flask at 22 degrees C. Adulteration of EOs by canola and mineral oil fortification was detected at different levels (1, 5, 10 and 20 percent, w/w) and, in addition to the spectral differences, a change in microemulsion stability was observed. In a second stage of the study, these systems were replicated for different CEOs, including sweet and sour orange, tangerine, lemon, and grapefruit. Studies were employed to assess optimal conditions for system formation, aiming to encompass all evaluated CEOs without compromising measurement reproducibility. The new SFME condition adopted was 15 microL of the oily phase containing EO and octan-1-ol (1:2 v/v), 19 mL of water, and propan-1-ol up to the 25 mL final volume. In addition to low sample consumption, a significant increase in fluorescence was achieved, despite the lower proportion of the oily phase. Excitation-emission matrix data were utilized for clustering analysis. UPCA was successfully applied, with cumulative variance of 99.5 percent for the first three principal components. Eigenvectors decomposition revealed a significant influence of the 336/436 nm excitation/emission wavelengths. Complementary analyses by HPLC confirm the relationship between fluorophores and the non-volatile fraction, characteristic of CEOs. The combination of low sample consumption and high-water content makes the application of these systems advantageous for CEO differentiation. Transparency and low viscosity are also considered positive aspects. In a third and final stage, the effect of the sampling medium on the analysis of polymethoxyflavones (PMFs) in sweet orange EO by RP-HPLC was evaluated, utilizing the knowledge acquired in previous stages regarding the formation of SFME systems. This study was focused on analyzing PMFs present in the non-volatile fraction of sweet orange EO, which includes tetra-O-methyl-scutellarein, sinensetin, tangeretin, nobiletin, and heptamethoxyflavone. Two methods utilizing isocratic elution with different mobile phases, (A) water/methanol and (B) water/acetonitrile, were employed using absorciometric and fluorimetric detection. The sampling medium significantly influenced chromatographic elution, potentially affecting peak width and retention time, especially for tangeretin, where a 300 percent and 103 percent increase in peak intensity was obtained for mobile phases A and B, respectively, when mixtures with octan-1-ol were used. Due to co-elution between nobiletin and tetra-O-methyl scutelarein observed with mobile phase A, the method was validated using mobile phase B (acetonitrile and water 50:50 percent, v/v). Fluorescence detection provided lower LOD and LOQ values for sinensetin (1 and 3 microg mL -1 ) and nobiletin (13 and 44 microg mL -1 ) than reported in the literature. The method was applied to commercial sweet orange EOs samples, yielding consistent results for all PMFs.

Page generated in 0.0512 seconds