• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 310
  • 47
  • 45
  • 45
  • 45
  • 31
  • 14
  • 14
  • 13
  • 13
  • 6
  • Tagged with
  • 319
  • 319
  • 314
  • 310
  • 110
  • 99
  • 98
  • 70
  • 59
  • 49
  • 48
  • 42
  • 41
  • 40
  • 39
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
301

Deep learning methods for detecting anomalies in videos: theoretical and methodological contributions / Métodos de deep learning para a detecção de anomalias em vídeos: contribuições teóricas e metodológicas

Ribeiro, Manassés 05 March 2018 (has links)
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) / A detecção de anomalias em vídeos de vigilância é um tema de pesquisa recorrente em visão computacional. Os métodos de aprendizagem profunda têm alcançado o estado da arte para o reconhecimento de padrões em imagens e o Autocodificador Convolucional (ACC) é uma das abordagens mais utilizadas por sua capacidade em capturar as estruturas 2D dos objetos. Neste trabalho, a detecção de anomalias se refere ao problema de encontrar padrões em vídeos que não pertencem a um conceito normal esperado. Com o objetivo de classificar anomalias adequadamente, foram verificadas formas de aprender representações relevantes para essa tarefa. Por esse motivo, estudos tanto da capacidade do modelo em aprender características automaticamente quanto do efeito da fusão de características extraídas manualmente foram realizados. Para problemas de detecção de anomalias do mundo real, a representação da classe normal é uma questão importante, sendo que um ou mais agrupamentos podem descrever diferentes aspectos de normalidade. Para fins de classificação, esses agrupamentos devem ser tão compactos (densos) quanto possível. Esta tese propõe o uso do ACC como uma abordagem orientada a dados aplicada ao contexto de detecção de anomalias em vídeos. Foram propostos métodos para o aprendizado de características espaço-temporais, bem como foi introduzida uma abordagem híbrida chamada Autocodificador Convolucional com Incorporação Compacta (ACC-IC), cujo objetivo é melhorar a compactação dos agrupamentos normais. Além disso, foi proposto um novo critério de parada baseado na sensibilidade e sua adequação para problemas de detecção de anomalias foi verificada. Todos os métodos propostos foram avaliados em conjuntos de dados disponíveis publicamente e comparados com abordagens estado da arte. Além do mais, foram introduzidos dois novos conjuntos de dados projetados para detecção de anomalias em vídeos de vigilância em rodovias. O ACC se mostrou promissor na detecção de anomalias em vídeos. Resultados sugerem que o ACC pode aprender características espaço-temporais automaticamente e a agregação de características extraídas manualmente parece ser valiosa para alguns conjuntos de dados. A compactação introduzida pelo ACC-IC melhorou o desempenho de classificação para a maioria dos casos e o critério de parada baseado na sensibilidade é uma nova abordagem que parece ser uma alternativa interessante. Os vídeos foram analisados qualitativamente de maneira visual, indicando que as características aprendidas com os dois métodos (ACC e ACC-IC) estão intimamente correlacionadas com os eventos anormais que ocorrem em seus quadros. De fato, ainda há muito a ser feito para uma definição mais geral e formal de normalidade, de modo que se possa ajudar pesquisadores a desenvolver métodos computacionais eficientes para a interpretação dos vídeos. / The anomaly detection in automated video surveillance is a recurrent topic in recent computer vision research. Deep Learning (DL) methods have achieved the state-of-the-art performance for pattern recognition in images and the Convolutional Autoencoder (CAE) is one of the most frequently used approach, which is capable of capturing the 2D structure of objects. In this work, anomaly detection refers to the problem of finding patterns in images and videos that do not belong to the expected normal concept. Aiming at classifying anomalies adequately, methods for learning relevant representations were verified. For this reason, both the capability of the model for learning automatically features and the effect of fusing hand-crafted features together with raw data were studied. Indeed, for real-world problems, the representation of the normal class is an important issue for detecting anomalies, in which one or more clusters can describe different aspects of normality. For classification purposes, these clusters must be as compact (dense) as possible. This thesis proposes the use of CAE as a data-driven approach in the context of anomaly detection problems. Methods for feature learning using as input both hand-crafted features and raw data were proposed, and how they affect the classification performance was investigated. This work also introduces a hybrid approach using DL and one-class support vector machine methods, named Convolutional Autoencoder with Compact Embedding (CAE-CE), for enhancing the compactness of normal clusters. Besides, a novel sensitivity-based stop criterion was proposed, and its suitability for anomaly detection problems was assessed. The proposed methods were evaluated using publicly available datasets and compared with the state-of-the-art approaches. Two novel benchmarks, designed for video anomaly detection in highways were introduced. CAE was shown to be promising as a data-driven approach for detecting anomalies in videos. Results suggest that the CAE can learn spatio-temporal features automatically, and the aggregation of hand-crafted features seems to be valuable for some datasets. Also, overall results suggest that the enhanced compactness introduced by the CAE-CE improved the classification performance for most cases, and the stop criterion based on the sensitivity is a novel approach that seems to be an interesting alternative. Videos were qualitatively analyzed at the visual level, indicating that features learned using both methods (CAE and CAE-CE) are closely correlated to the anomalous events occurring in the frames. In fact, there is much yet to be done towards a more general and formal definition of normality/abnormality, so as to support researchers to devise efficient computational methods to mimetize the semantic interpretation of visual scenes by humans.
302

Métodos para aproximação poligonal e o desenvolvimento de extratores de características de forma a partir da função tangencial

Carvalho, Juliano Daloia de 12 September 2008 (has links)
Whereas manually drawn contours could contain artifacts related to hand tremor, automatically detected contours could contain noise and inaccuracies due to limitations or errors in the procedures for the detection and segmentation of the related regions. To improve the further step of description, modeling procedures are desired to eliminate the artifacts in a given contour, while preserving the important and significant details present in the contour. In this work, are presented a couple of polygonal modeling methods, first a method applied direct on the original contour and other derived from the turning angle function. Both methods use the following parametrization Smin e µmax to infer about removing or maintain a given segment. By the using of the mentioned parameters the proposed methods could be configured according to the application problem. Both methods have been shown eficient to reduce the influence of noise and artifacts while preserving relevant characteristic for further analysis. Systems to support the diagnosis by images (CAD) and retrieval of images by content (CBIR) use shape descriptor methods to make possible to infer about factors existing in a given contour or as base to classify groups with dierent patterns. Shape factors methods should represent a value that is aected by the shape of an object, thus it is possible to characterize the presence of a factor in the contour or identify similarity among contours. Shape factors should be invariant to rotation, translation or scale. In the present work there are proposed the following shape features: index of the presence of convex region (XRTAF ), index of the presence of concave regions (V RTAF ), index of convexity (CXTAF ), two measures of fractal dimension (DFTAF e DF1 TAF ) and the index of spiculation (ISTAF ). All derived from the smoothed turning angle function. The smoothed turning angle function represent the contour in terms of their concave and convex regions. The polygonal modeling and the shape descriptors methods were applied on the breast masses classification issue to evaluate their performance. The polygonal modeling procedure proposed in this work provided higher compression and better polygonal fitness. The best classification accuracies, on discriminating between benign masses and malignant tumors, obtain for XRTAF , V RTAF , CXTAF , DFTAF , DF1 TAF and ISTAF , in terms of area under the receiver operating characteristics curve, were 0:92, 0:92, 0:93, 0:93, 0:92 e 0:94, respectively. / Contornos obtidos manualmente podem conter ruídos e artefatos oriundos de tremores da mão bem como contornos obtidos automaticamente podem os conter dado a problemas na etapa de segmentação. Para melhorar os resultados da etapa de representação e descrição, são necessários métodos capazes de reduzir a influência dos ruídos e artefatos enquanto mantém características relevantes da forma. Métodos de aproximação poligonal têm como objetivo a remoção de ruídos e artefatos presentes nos contornos e a melhor representação da forma com o menor número possível de segmentos de retas. Nesta disserta ção são propostos dois métodos de aproximação poligonal, um aplicado diretamente no contorno e outro que é obtido a partir da função tangencial do contorno original. Ambos os métodos fazem uso dos parâmetros Smin e µmax para inferirem sobre a permanência ou remoção de um dado segmento. Com a utilização destes parâmetros os métodos podem ser configurados para serem utilizados em vários tipos de aplicações. Ambos os métodos mostram-se eficientes na remoção de ruídos e artefatos, enquanto que características relevantes para etapas de pós-processamento são mantidas. Sistemas de apoio ao diagnóstico por imagens e de recuperação de imagens por conte údo fazem uso de métodos descritores de forma para que seja possível inferir sobre características presentes em um dado contorno ou ainda como base para medir a dissimilaridade entre contornos. Métodos descritores de características são capazes de representar um contorno por um número, assim é possível estabelecer a presença de uma característica no contorno ou ainda identificar uma possível similaridade entre os contornos. Métodos para extração de características devem ser invariantes a rotação, translação e escala. Nesta dissertação são propostos os seguintes métodos descritores de características: índice de presença de regiões convexas (XRTAF ), índice da presença de regiões côncavas (V RTAF ), índice de convexidade (CXTAF ), duas medidas de dimensão fractal (DFTAF e DF1 TAF ) e o índice de espículos (ISTAF ). Todos aplicados sobre a função tangencial suavizada. A função tangencial suavizada representa o contorno em termos de suas regiões côncavas e regiões convexas. Os métodos de aproximação poligonal e descritores de características foram aplicados para o problema de classificação de lesões de mama. Os resultados obtidos, mostraram que os métodos de aproximação poligonal propostos neste trabalho resultam em polígonos mais compactos e com melhor representação do contorno original. Os melhores resultados de classificação, na discriminação entre lesões benignas e tumores malignos, obtidos por XRTAF , V RTAF , CXTAF , DFTAF , DF1 TAF e ISTAF , em termos da área sob a curva ROC, foram 0:92, 0:92, 0:93, 0:93, 0:92 e 0:94, respectivamente. / Mestre em Ciência da Computação
303

Ferramenta de visão computacional para processos fotogramétricos / Tool of computer vision for joined fotogrametrics

Sandro Roberto Fernandes 29 April 2008 (has links)
Nesta dissertação é apresentado o desenvolvimento de uma ferramenta computacional para o processamento de pares de imagens estereoscópicas obtidos por câmeras aéreas métricas e não métricas. O programa foi desenvolvido na linguagem C++ e foi utilizado a biblioteca OpenGL. O resultado obtido é uma imagem tridimensional de onde pode ser extraídas cotas de altura e formas de terreno. Estas imagens poderão ser usadas no estudo de áreas de risco em encostas. / In this dissertation is presented the development of a computational tool for the processing of pairs of images estereoscópicas obtained by metric and not metric aerial cameras. The program was developed in the program language C++ and the library was used OpenGL. The result of the program is a three-dimensional image from where it can be extracted height quotas and land forms. These images can be used in the study of risk areas on slopes.
304

Restauração de imagens de AFM com o funcional de regularização de Tikhonov visando a avaliação de superfícies metálicas / Restoration of AFM images with functional Tikhonov regularization for evaluating metallic surfaces

Alexander Corrêa dos Santos 29 August 2008 (has links)
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Problemas durante o processo de aquisição de imagens de AFM têm feito com que pesquisas na área de nanotecnologia busquem a utilização de ferramentas para minimizar esses efeitos degenerativos. Neste sentido, foram desenvolvidas ferramentas computacionais de restauração destas imagens degradadas. Neste trabalho é utilizado o método baseado na Regularização de Tikhonov, cuja aplicação está concentrada principalmente em restaurações de imagens biológicas. A proposta deste trabalho é a utilização deste regularizador também em imagens de interesse em engenharia. Em alguns casos, um pré-processamento anteriormente à aplicação do algoritmo, apresenta boa resposta na restauração das imagens. Na fase de préprocessamento foram utilizados alguns filtros como, filtro de média, filtro de mediana, filtro laplaciano e filtro de média pontual. Com a aplicação deste regularizador em imagens foi possível obter perfis de distribuição dos pixels onde é mostrado que na medida em que se aumenta a carga de dissolução de ferro puro em ácido sulfúrico, percebe-se que a razão de aspecto aumenta e características de superfície ficam mais visíveis. / Problems during the process of acquisition of images of AFM have been doing with that research in the nanotechnology searchs the use of tools to minimize those degenerative effects. Computational tools for restoration of these degraded images have developed, in this work the method is used based on Regularization of Tikhonov. This method is usually used for restoration of biological images. It is proposed the use of this regularization functional also in images of interest in engineering. In some cases, a previously processing to the application of the algorithm, it presents good answer in the restoration of the images. The previously processing phase some were used filters as, average filter, median filter, laplacian filter and filter of punctual average, besides combination of filters. With the application of this regularizator it was possible to obtain profiles of distribution of the pixels where is shown that in the measure in that he increases the dissolution charge of iron in sulphuric acid, it is noticed that the aspect reason increases and surface characteristics are more visible.
305

Desenvolvimento de metodologia para análise de arborescências em materiais dielétricos por contraste de fase de raios X

Ribeiro Júnior, Sebastião 17 September 2013 (has links)
A ocorrência de arborescências em água (water tree) ou elétrica (electrical tree) é apontada como o principal fenômeno de degradação em isolações sólidas de cabos de distribuição de energia elétrica. A evolução destas arborescências pode levar a camada de isolação à ruptura dielétrica e, como conseqüência, à falha destes equipamentos, com a interrupção do fornecimento de energia elétrica. O entendimento deste fenômeno é necessário para desenvolver métodos de análise e prevenção da ruptura de materiais isolantes. Este trabalho mostra a aplicação da técnica contraste de fase por raios X como metodologia para o estudo das arborescências formadas em materiais isolantes de borracha de propileno etileno (EPR) e polietileno reticulado (XLPE). / The water tree or electrical tree occurrence is identified as the main phenomena in the degradation in solid isolations of the electric energy distribution cables. The water tree evolution can lead to dielectric breakdown of the isolation layer and, consequently, to the failure this equipment and the interruption of the electric energy supply. The understanding this phenomenon is necessary for the development analysis methods and to prevent collapse in the polymeric insulation. This work demonstrates the application of X-ray phase contrast technique as a methodology for the study of the water tree and electrical tree in Ethylene propylene rubber (EPR) and crosslinked polyethylene (XLPE).
306

Avaliação de qualidade de vídeo utilizando modelo de atenção visual baseado em saliência

Romani, Eduardo 19 February 2015 (has links)
A avaliação de qualidade de vídeo possui um papel fundamental no processamento de vídeo e em aplicações de comunicação. Uma métrica de qualidade de vídeo ideal deve garantir a alta correlação entre a predição da distorção do vídeo e a percepção de qualidade do Sistema Visual Humano. Este trabalho propõe o uso de modelos de atenção visual com abordagem bottom up baseados em saliências para avaliação de qualidade de vídeo. Três métricas objetivas de avaliação são propostas. O primeiro método é uma métrica com referência completa baseada na estrutura de similaridade. O segundo modelo é uma métrica sem referência baseada em uma modelagem sigmoidal com solução de mínimos quadrados que usa o algoritmo de Levenberg-Marquardt e extração de características espaço-temporais. E, a terceira métrica é análoga à segunda, porém usa a característica Blockiness na detecção de distorções de blocagem no vídeo. A abordagem bottom-up é utilizada para obter os mapas de saliências que são extraídos através de um modelo multiescala de background baseado na detecção de movimentos. Os resultados experimentais apresentam um aumento da eficiência de predição de qualidade de vídeo nas métricas que utilizam o modelo de saliência em comparação com as respectivas métricas que não usam este modelo, com destaque para as métricas sem referência propostas que apresentaram resultados melhores do que métricas com referência para algumas categorias de vídeos. / Video quality assessment plays a key role in the video processing and communications applications. An ideal video quality metric shall ensure high correlation between the video distortion prediction and the perception of the Human Visual System. This work proposes the use of visual attention models with bottom-up approach based on saliencies for video qualitty assessment. Three objective metrics are proposed. The first method is a full reference metric based on the structural similarity. The second is a no reference metric based on a sigmoidal model with least squares solution using the Levenberg-Marquardt algorithm and extraction of spatial and temporal features. And, the third is analagous to the last one, but uses the characteristic Blockiness for detecting blocking distortions in the video. The bottom-up approach is used to obtain the salient maps, which are extracted using a multiscale background model based on motion detection. The experimental results show an increase of efficiency in the quality prediction of the proposed metrics using salient model in comparission to the same metrics not using these model, highlighting the no reference proposed metrics that had better results than metrics with reference to some categories of videos.
307

Uma abordagem para detecção de pessoas em imagens de veículos aéreos não-tripulados / An approach to people detection in unmanned aerial vehicles images

Oliveira, Diulhio Candido de 14 June 2016 (has links)
CAPES / Este trabalho tem como objetivo propor um método reconhecimento de pessoas em imagens aéreas obtidas a partir de Veículos Aéreos Não Tripulados de pequeno porte. Esta é uma aplicação de grande interesse, pois pode ser inserida em diversas situações tanto civis quanto militares como, por exemplo, missões de busca e salvamento. O uso de Veículos Aéreos Não Tripulados autônomos tende a aumentar com o barateamento desta tecnologia. Assim, esta tecnologia pode sobressair sobre outras utilizadas atualmente, como satélites e voos com grandes aeronaves. Para o reconhecimento de pessoas em imagens aéreas de forma autônoma, este trabalho propõe métodos na forma de Sistemas de Reconhecimento de Padrões (SRP) aplicados ao reconhecimento de imagens. Para este métodos, foram testadas quatro técnicas de aprendizado de máquina: Redes Neurais Convolucionais, HOG+SVM, Cascata Haar e Cascata LBP. Além disso, a fim de possibilitar o reconhecimento de pessoas em imagens aéreas em tempo real, foram testadas e avaliadas técnicas de detecção e segmentação de objetos: Mapa de Saliências e o Processamento de Imagens Térmicas de baixa resolução (PIT). Neste trabalho foram avaliadas as taxas de reconhecimento dos SRPs, além do seu tempo de processamento em um sistema embarcado de baixo custo e em uma Base de Controle Móvel (BCM). Os resultados de reconhecimento mostraram a efetividade das Redes Neurais Convolucionais, com uma acurácia de 0,9971, seguido do HOG+SVM com 0,9236, Cascata Haar com 0,7348 e por fim, Cascata LBP com 0,6615. Em situações onde foi simulado a oclusão parcial, as Redes Neurais Convolucionais atingiram Sensibilidade média 0,72, HOG+SVM de 0,50 e as Cascatas 0,20. Nos experimentos com os SRPs (algoritmos de segmentação e detecção juntamente com as técnicas de reconhecimento), o Mapa de Saliências pouco afetou as taxas de reconhecimento, quais ficaram muito próximas das obtidas no experimentos de reconhecimento. Já o Processamento de Imagens Térmicas de baixa resolução apresentou dificuldades em executar uma segmentação precisa, obtendo imagens com variação na translação, prejudicando a precisão do sistema. Por fim, este trabalho propõe uma nova abordagem para implementação de um SRP para o reconhecimento de pessoas em imagens áreas, utilizando Processamento de Imagens Térmicas juntamente com as Redes Neurais Convolucionais. Este SRP une altas taxas de reconhecimento com desempenho computacional de ao menos 1 fps na plataforma BCM. / This work aims to propose a method for people recognition in Small Unmanned Aerial Vehicles aerial imagery. This is an application of high interest, it can be used in several situations, both civilian and military, as search and rescue missions. The use of Unmanned Aerial Vehicles autonomously tends to increase with the cheapening of this technology, supporting search and rescue missions. Thus, this technology can excel over others currently used, as satellites and flights with large aircraft. For autonomous people recognition, this work proposes new methods as Pattern Reconigition System (PRS) applied to image recognition, applying it in aerial images. Four Pattern Reconigition techniques were tested: Convolutional Neural Networks, HOG+SVM, Haar Cascade and LBP Cascade. Furthermore, in order to achieve recognition of people in aerial images in Real-Time target and detection techniques were tested and evaluated: Saliency Maps and Low-resolution Thermal Image Processing (TIP). In this work were considered recognition rates of the methods and their computational time in a low-cost embedded system and a Mobile Ground Control Station (MGCS). The recognition results shown the Convolutional Neural Network potential, where an accuracy of 0.9971 was achieved, followed by HOG + SVM with 0.9236, Haar Cascade with 0.7348 and LBP Cascade with 0.6615. In situations simulated partial occlusion, where was the CNNs achieved average Sensitivity of 0.72, HOG+SVM with 0.50 and both Cascades 0.20. In experiments with PRS (targeting and detection algorithms with the recognition techniques), the Saliency Map had little influence in recongition rates, it was close to the rates achieved in recognition experiments. While the Low-resolution Thermal Image Processing had difficulties in segmentation process, where translation variantions occured, it harmed the system precision. Lastly, this work proposes a new approach for PRS implementation for people recognition in aerial imagery, using TIP with CNN. This PRS combines high rates of recognition with an computational performace of, at least, 1 fps in MGCS plataform.
308

Galvanic vestibular stimulator for fMRI research / Estimulador galvânico vestibular para experimentos de fMRI

Rülander, Britta Angela 02 March 2016 (has links)
CAPES / This master thesis presents the further development of a galvanic vestibular stimulator for use in fMRI examinations developed in a previous thesis (MANCZAK, 2012). This thesis amends the GVS by circuits to measure feedback values and implements the stimulation circuit with digital components, such as a microcontroller and flyback integrated circuits. The microcontroller is used in order to control the current source and process the measured values. The communication between the PC, which allows user interaction through a graphical user interface, and the microcontroller is implemented through optical communication, which is defined by a communication protocol specification. The digital circuitry is designed to be placed within the MRI room, meeting the requirements imposed by strong magnetic fields and radio frequency pulses. The underlying hypothesis of the thesis is that the device can be placed within the MRI room without having a negative impact on the MRI image quality. Laboratory tests without the MRI confirmed the correct design of the galvanic vestibular stimulator.
309

Avaliação de uma análise automatizada para determinação de atividade enzimática / Evaluation of new method for automatized analysis to determine the enzimatic activity

Estrela, Mariely Cordeiro 31 March 2017 (has links)
O Instituto de Biologia Molecular do Paraná (IBMP) atua na produção de insumos para detecção de doenças. Em parceria com Bio-Manguinhos (Fiocruz) é atualmente responsável pelo fornecimento do módulo de amplificação do KIT NAT Brasileiro para o diagnóstico molecular de HIV (AIDS), HCV (Hepatite C) e HBV (Hepatite B), entre outros produtos para diagnóstico in vitro. O teste molecular consiste basicamente, na amplificação do material genético do vírus (DNA ou RNA) através da técnica de PCR (reação em cadeia pela polimerase) em tempo real, que possibilita a detecção do agente patógeno a partir de pequenas quantidades de ácido nucleico presente na amostra. A reação de PCR ocorre pela atividade da Taq DNA Polimerase, uma enzima termostável amplamente utilizada para replicação seletiva de fragmentos de DNA. Esta enzima foi isolada a partir de uma bactéria termofílica, denominada Thermus aquaticus e é produzida pelo IBMP, sendo considerada um insumo de alta criticidade. Uma das etapas de controle do processo produtivo dessa enzima é a avaliação do extrato bruto enzimático e a determinação da atividade da enzima purificada. O método de quantificação consiste em avaliar a atividade enzimática através da metodologia de PCR convencional, seguida por uma análise do perfil eletroforético das amostras em gel de agarose. No entanto, a metodologia empregada atualmente apresenta uma grande subjetividade, visto que a interpretação dos resultados pode sofrer variações quando analisados por diferentes operadores. O objetivo do presente trabalho é avaliar a implementação de uma análise automatizada dos resultados através do processamento digital de imagens, que além de facilitar sobremaneira as rotinas laboratoriais, pode ser a chave para resultados com maior grau de precisão e repetibilidade, eliminando assim o viés subjetivo do analista. A nova metodologia de análise implica em menor interferência do analista na interpretação dos resultados. O método proposto foi testado em um conjunto de imagens e os resultados obtidos foram comparados com os valores da análise manual atualmente utilizada. Os resultados foram considerados promissores, pois a análise automatizada, além de reduzir significativamente o tempo de análise, possibilita uma padronização dos resultados. / The Molecular Biology Institute of Paraná (IBMP) acts in the production of inputs for detection of diseases. In partnership with Bio-Manguinhos (Fiocruz), it is currently responsible for manufacturing the amplification module of the Brazilian NAT KIT for HIV (AIDS), HCV (Hepatitis C) and HBV (Hepatitis B), besides other products for molecular diagnostics. The molecular test basically consists of amplifying the genetic material of the virus (DNA or RNA) through the real-time PCR (polymerase chain reaction) technique, which enables detection of the pathogen from small amounts of nucleic acid present in the sample. The PCR reaction occurs by the activity of Taq DNA Polymerase, a thermostable enzyme widely used for selective replication of DNA fragments. This enzyme was isolated from a thermophilic bacterium, called Thermus aquaticus and is produced by the IBMP, being considered an input of high criticality. One of the steps in controlling the production process of this enzyme is the evaluation of the enzymatic extract and the determination of the activity of the purified enzyme. The quantification method consists in evaluating the enzymatic activity through the conventional PCR methodology, followed by an analysis of the electrophoretic profile of the agarose gel samples. However, the methodology currently used presents a great subjectivity, since the interpretation of results can suffer variations when analyzed by different operators. The objective of the present work is to evaluate the implementation of an automated analysis of the results through digital image processing, which in addition to facilitating the laboratory routines, can be the key to results with a greater degree of precision and repeatability, thus eliminating the subjective bias of the analyst. The new methodology of analysis implies less interference of the analyst in the interpretation of the results. The proposed method was tested in a set of images and the obtained results were compared with the values of the manual analysis currently used. The results were considered promising because the automated analysis, besides significantly reducing the analysis time, allows a standardization of the results.
310

Prior de regularização para problema de demosaicing com aplicação em CFA’s variados / Regularization prior to demosaicing problems with various CFA application

Fugita, Romário Keiti Pizzatto 24 September 2015 (has links)
CNPq / Este trabalho tem por objetivo apresentar uma nova proposta aos algoritmos de Demosaicing existentes, utilizando uma abordagem mais flexível quanto ao uso do Color filter array (CFA) em imagens coloridas de único sensor. O algoritmo proposto tem como base a estrutura de problemas inversos, cujo funcionamento utiliza um modelo de operação matriz-vetor que é adaptável ao CFA empregado. A partir deste conceito, o algoritmo trata o problema de Demosaicing como o de minimização de função custo, com um termo referente à dependência da estimativa com os dados obtidos e com o modelo de captura, o outro termo é relacionado aos conhecimentos observados em imagens que podem ser explorados para uma estimativa mais precisa, tal elemento é chamado de Prior. A proposta estabelecida tem como base algoritmos de regularização com foco na alta correlação presente entre os canais de cor (R, G e B), e na suavidade local de regiões uniformes, essa base formaliza o Prior empregado no trabalho. A minimização da proposta é atingida iterativamente através do IRLS-CG, que é a combinação de dois algoritmos de minimização eficientes, que apresenta rápidas respostas, e a capacidade de trabalhar com a norma L1 em conjunto com a norma L2. Com o intuito de atestar a qualidade do algoritmo proposto, foi elaborado um experimento em que o mesmo foi testado com diferentes CFAs e em situação com ruído gaussiano de 35dB e sem ruído algum em imagens da base de dados da Kodak, e os resultados comparados com algoritmos do estado-da-arte, no qual o desempenho da proposta apresentou resultados excelentes, inclusive em CFAs que destoam do padrão Bayer, que é o mais comumente usado na atualidade. / This research presents a new proposal to Demosaicing algorithms, using a more flexible approach to deal with the Color filter array (CFA) in single sensor color imaging. The proposed algorithm is structured in the inverse problems model, whose functions employ a CFA adaptive matrix-vector operational model. From this concept, the Demosaicing problem is treated as a cost function minimization with two terms, one referring to the dependence between the estimation and the data provided by the acquisition model, and other term related to features observed in images, which can be explored to form a more precise estimation, this last term is known as Prior. The established proposal is applied in regularization algorithms with focus on the high correlation among color channels (R, G, and B), and in the local smoothness of uniform regions. Both characteristics organize the Prior employed in this work. The minimization proposed is iteratively achieved through IRLS-CG, which is the combination of two efficient minimization algorithms, that presents quick responses, and the capacity to deal with L1 and L2 norm at the same time. The quality of the proposed algorithm is verified in an experiment in which varous CFA were used and a situation with 35dB gaussian noise and another one with no noise applied to the Kodak dataset, and the results were compared with state-of-the-art algorithms, in which the performance of the proposed Prior showed excellent results, including when the CFA is different from Bayer’s, which is the most commonly used pattern.

Page generated in 0.0767 seconds