Spelling suggestions: "subject:"processamento dde imagens."" "subject:"processamento dee imagens.""
111 |
Fractografia quantitativa : relações entre tenacidade e o comportamento fractal em ligas metálicas /Caltabiano, Pietro Carelli Reis de Oliveira. January 2011 (has links)
Orientador: Luis Rogério de Oliveira Hein / Banca: Alfeu Saraiva Ramos / Banca: Miriam de Lourdes N. Motta Melo / Resumo:Superfícies de fratura expressam a sequência de eventos de liberação de energia coma propagação de trincas. No caso de ligas metálicas, a evolução das formações topográficas pode indicar as linhas de ação de carga, falhas de uso ou de processamento e outros. Nestes casos, a fractografia pode auxiliar na investigação de falhas estruturais e nos processos de manufatura. Neste trabalho foram realizados dois tipos de análise de correlações: a primeira entre a largura da zona deestiramento (LZE) e o valor da tenacidade a fratura (Kc) e a segunda entre os valores de tenacidade à fratura e a fractalidade da topografia das superfícies fraturadas, sempre por meio de processamento digital de imagens. Para obtenção das superfícies de fratura dos corpos de provas do aço 15-5PH e da liga do alumínio AA 7475, este foram ensaiados para obtenção de valores de Kic. As superfícies de fratura geradas foram mapeadas pela técnica de reconstrução por extensão de foco, e para cada região foram calculados os valores de dimensão fractal: dimensão monofractal (Df), dimensão estrutural (Ds) e dimensão textural (DT). Os resultados da análise entre LZE e Kc apresentaram uma alta correlação para o aço 15-5PH, mostrando a validade do método de seleção da LZE o do processo de reconstrução da imagem. Já análise fractal mostrou quanto maior a ductilidade do material menor é o nível de correlação linear obtido entre tenacidade e os valores fractais. Contudo, para o aço 15-5PH, com comportamento transitando entre o regime linear elástico e elasto-plástico, o nível da correlação linear entre Kc e os valores fractais tende a ser significante, principalmente para as correlações estabelecidas envolvendo a dimensão textural (DT). Devido ao caráte dúctil da liga AA 7475 não foram encontrados correlações significantes / Abstract: Fracture surface express the sequence of energy release events during crack propagation and, in the case of metallic alloys, the topographic evolution can descrbr the action of load lines, failures due to using processing, and others. In the cases, the quantitative fractography can help the investigation of failures in structures and manufacturing processes. In this work, two correlation analyses were carried out: the first between the stretch zone width (SZW) and fracture toughness (Kc) and the second between Kc and the fractality of the fractured surface topography, both analyzed by digital image processing. The 15-5PH stee and AA7475 aluminium alloy fracture surfaces for analysis were obtained by toughness testing. Each seurface was mapped by extend depth of field technique, and the following fractal dimension values were calculated for each mapped position: monofractal dimension (Df), structural dimension (Ds) and textural dimension (DT). The results for analysis between LZE and Kc data showed a high correlation for 15-5PH steel, also checking the validity of the delimitation method of SZW and the image reconstruction process. The fractal analysis showed that as higher the ductility of the material, as lower will be the level of linear correlation obtained between toughness and the fractal values. However, for 15-5PH steel, with behavior ranging between the linear-elastic and elastic-plastic, the level of linear correlation between Kc and the fractal values tend to be significant, especially for established correlations involving the textural dimension (Dt). However, for AA 7475 aluminium alloy no significant correlation could be established due to predominance of shallow dimples / Mestre
|
112 |
Segmentação de imagens e reconstrução de modelos aplicada a estruturas ósseas /Marques, Adriano de Souza, 1975. January 2008 (has links)
Orientador: Edson Antonio Capello Sousa / Banca: José Eduardo Cogo Castanho / Banca: Cleudmar Amaral de Araujo / Resumo: Na biomecânica, a computação tem se tornado uma forte aliada no estudo utilizando-se imagens, pois avanços significativos têm sido verificados devido à evolução das técnicas de aquisição de imagens médicas. Em estruturas ósseas, devido à complexidade das formas geométricas, a obtenção de modelos precisos torna-se um processo difícil, exigindo métodos computacionais igualmente complexos. Por outro lado, a computação gráfica oferece técnicas que possibilitam a adequada manipulação destas imagnes. Entre os diversos métodos existentes, o modelo de contornos ativos, também conhecido como snakes, vem sendo amplamente difundido no processo dd segmentação para extração de estruturas de interesse no contexto médico. Este trabalho utiliza o método de contornos ativos por Fluxo do Vetor Gradiente (GVF) para obtenção das matrizes do contorno de estruturas com geometrias côncavas, neste representado por seções transversais obtidas da tomografia de uma mandíbula humana. Utilizando-se as matrizes obtidas, é gerado um modelo da mandíbula em 3D aplicando-se o método de triangulação foi utilizado o pacote MATLAB®, e para obtenção do modelo tridimensional, foi utilizado o pacote ANSYS®. / Abstract: In biomechanics, the computer has become a strong ally to study using the images, as significant advances have been recorded owing to technical progress of the acquisition of medical images. In bone structures due to the complexity of geometric shapes, to obtain accurate models becomes a difficult processes, requiring equally complex computational methods. On the other hand, offers computer graphics techniques that enable the appropriate handling of these images. Among the various existing methods, the model of active contours, also known as snakes, have been widely disseminated in hte process of segmentation to extract structures of interest medical. This work uses the method of active contours for Gradient Vector Flow (GVF) to obtain the matrices of the outline of structures with concave geometries, this represented by cross sections obtained from the tomography of a human jaw. Using the matrices obtained, it generated a 3D model of the jaw by applying the method of triangulation between adjacent contours. For the process of segmentation and triangulation was performed using MATLAB® application, and for obtaining three-dimensional model was performed using ANSYS® application. / Mestre
|
113 |
O problema do pixel mistura: um estudo comparativoCaimi, Daniel January 1993 (has links)
Os satélites para sensoriamento remoto atualmente dispoívies à comunidade científica possuem diferenies resoluções espaciais, por exemplo: SPOT 20 e 10 metros, LANDSAT-TM 30 metros e NOA-AVHRR 1100 metros. Essa resolução frequentemente não é grande o suficiente para um grande número de aplicações que necessitam de uma percepção da cena mais detalhada. Muitas vezes, no interior de uma célula de resolução (pixel) mais de uma classe ocorre. Este caso é conhecido como pixel mistura. Na classificação de imagens obtidas por sensoriamento remoto é comum a utilização de metodologias que atribuem somente uma classe a um pixel, como o procedimento clássico da máxima verossimilhança. Esse procedimento resulta frequentemente em uma estimação errônea das áreas ocupadas pelas classes presentes na cena. Em alguns casos, especialmente quando não há uma classe dominante, isto pode ser a fonte de um erro significativo. Desde o início dos anos 70, diferentes metodologias têm sido propostas para o trabalho num nível de subpixel. A grande vantagem do trabalho nesse nível é que um pixel não é necessariamente atribuído a somente uma classe. O pixel tem um grau que o correlaciona a cada classe: de zero(se a classe não ocorre no pixel) até 1 (a classe ocorre no pixel inteiro). Assim, cada pixel tem um vetor associado que estima a proporção de cada classe nele. A metodologia mais comumente utilizada considera a refletância do pixel mistura como uma combinação linear da refletância média de cada classe componente. De acordo com essa visão as refletâncias associadas às classes componentes são consideradas constantes conhecidas i.e., não são variáveis aleatórias. Assim, a proporção de cada classe no pixel é obtida pela resolução de um sistema de equações lineares. Uma outra metodologia é assumir as refletâncias que caracterizam as classes como sendo variáveis aleatórias. Nesta visão, as informações a respeito das distribuições das classes é utilizada. A estimativa das proporções de cada classe é obtida pelo vetor de proporções que maximiza a função de verossimilhança. Mais recentemente, uma visão diferente foi proposta: a utilização da lógica fuzzy. Esta metodologia utiliza o conceito de função de pertinência que é essencial à teoria dos conjuntos fuzzy. Esta função utiliza elementos com natureza estatística ou não para a estimação das proporções. No presente trabalho, duas funções de pertinência foram definidas: a primeira baseada na função densidade probabilidade gaussiana e a segunda baseada diretamente na distância de Mahalanobis. O objetivo deste estudo é avaliar cada uma das metodologias anteriores em termos de acurácia, performance e dados necessários. Para este objetivo, as metodologias foram implementadas computacionalmente e alimentadas com imagens LANDSAT-TM. Para a avaliação da acurácia dos modelos um estudo qualitativo foi executado.
|
114 |
A new adaptive algorithm for video super-resolution with improved outlier handling capabilityBorsoi, Ricardo Augusto January 2016 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Engenharia Elétrica, Florianópolis, 2016. / Made available in DSpace on 2017-05-02T04:11:04Z (GMT). No. of bitstreams: 1
345229.pdf: 8370755 bytes, checksum: 43bc9ba1a882d921528fd1f71fccec7d (MD5)
Previous issue date: 2016 / Abstract : Super resolution reconstruction (SRR) is a technique that consists basically in combining multiple low resolution images from a single scene in order to create an image with higher resolution. The main characteristics considered in the evaluation of SRR algorithms performance are the resulting image quality, its robustness to outliers and its computational cost. Among the super resolution algorithms present in the literature, the R-LMS has a very small computational cost, making it suitable for real-time operation. However, like many SRR techniques the R-LMS algorithm is also highly susceptible to outliers, which can lead the reconstructed image quality to be of lower quality than the low resolution observations. Although robust techniques have been proposed to mitigate this problem, the computational cost associated with even the simpler algorithms is not comparable to that of the R-LMS, making real-time operation impractical. It is therefore desirable to devise new algorithms that offer a better compromise between quality, robustness and computational cost. In this work, a new SRR technique based on the R-LMS algorithm is proposed. Based on the proximal-point cost function representation of the gradient descent iterative equation, an intuitive interpretation of the R-LMS algorithm behavior is obtained, both in ideal conditions and in the presence of outliers. Using a statistical model for the innovation outliers, a new regularization is then proposed to increase the algorithm robustness by allowing faster convergence on the subspace corresponding to the innovations while at the same time preserving the estimated image details. Two new algorithms are then derived. Computer simulations have shown that the new algorithms deliver a performance comparable to that of the R-LMS in the absence of outliers, and a significantly better performance in the presence of outliers, both quantitatively and visually. The computational cost of the proposed solution remained comparable to that of the R-LMS.<br> / Reconstrução com super resolução (SRR - Super resolution reconstruction) é uma técnica que consiste basicamente em combinar múltiplas imagens de baixa resolução a fim de formar uma única imagem com resolução superior. As principais características consideradas na avaliação de algoritmos de SRR são a qualidade da imagem reconstruída, sua robustez a outliers e o custo computacional associado. Uma maior qualidade nas imagens reconstruídas implica em um maior aumento efetivo na resolução das mesmas. Uma maior robustez, por outro lado, implica que um resultado de boa qualidade é obtido mesmo quando as imagens processadas não seguem fielmente o modelo matemático adotado. O custo computacional, por sua vez, é extremamente relevante em aplicações de SRR, dado que a dimensão do problema é extremamente grande. Uma das principais aplicações da SRR consiste na reconstrução de sequências de vídeo. De modo a facilitar o processamento em tempo real, o qual é um requisito frequente para aplicações de SRR de vídeo, algorítmos iterativos foram propostos, os quais processam apenas uma imagem a cada instante de tempo, utilizando informações presentes nas estimativas obtidas em instantes de tempo anteriores. Dentre os algoritmos de super resolução iterativos presentes na literatura, o R-LMS possui um custo computacional extremamente baixo, além de fornecer uma reconstrução com qualidade competitiva. Apesar disso, assim como grande parte das técnicas de SRR existentes o R-LMS é bastante suscetível a presença de outliers, os quais podem tornar a qualidade das imagens reconstruídas inferior àquela das observações de baixa resolução. A fim de mitigar esse problema, técnicas de SRR robusta foram propostas na literatura. Não obstante, mesmo o custo computacional dos algoritmos robustos mais simples não é comparável àquele do R-LMS, tornando o processamento em tempo real infactível. Deseja-se portanto desenvolver novos algoritmos que ofereçam um melhor compromisso entre qualidade, robustez e custo computacional. Neste trabalho uma nova técnica de SRR baseada no algoritmo R-LMS é proposta. Com base na representação da função custo do ponto proximal para a equação iterativa do método do gradiente, uma interpretação intuitiva para o comportamento do algoritmo R-LMS é obtida tanto para sua operação em condições ideais quanto na presença de outliers do tipo inovação, os quais representam variações significativas na cena entre frames adjacentes de uma sequência de vídeo. É demonstrado que o problema apresentado pelo R-LMS quanto a robustez à outliers de inovação se deve, principalmente, a sua baixa taxa de convergência. Além disso, um balanço direto pôde ser observado entre a rapidez da taxa de convergência e a preservação das informações estimadas em instantes de tempo anteriores. Desse modo, torna-se inviável obter, simultaneamente, uma boa qualidade no processamento de sequências bem comportadas e uma boa robustez na presença de inovações de grande porte. Desse modo, tem-se como objetivo projetar um algoritmo voltado à reconstrução de sequências de vídeo em tempo real que apresente uma maior robustez à outliers de grande porte, sem comprometer a preservação da informação estimada a partir da sequência de baixa resolução. Utilizando um modelo estatístico para os outliers provindos de inovações, uma nova regularização é proposta a fim de aumentar a robustez do algoritmo, permitindo simultaneamente uma convergência mais rápida no subespaço da imagem correspondente às inovações e a preservação dos detalhes previamente estimados. A partir disso dois novos algoritmos são então derivados. A nova regularização proposta penaliza variações entre estimativas adjacentes na sequência de vídeo em um subespaço aproximadamente ortogonal ao conteúdo das inovações. Verificou-se que o subespaço da imagem no qual a inovação contém menos energia é precisamente onde estão contidos os detalhes da imagem. Isso mostra que a regularização proposta, além de levar a uma maior robustez, também implica na preservação dos detalhes estimados na sequência de vídeo em instantes de tempo anteriores. Simulações computacionais mostram que apesar da solução proposta não levar a melhorias significativas no desempenho do algoritmo sob condições próximas às ideais, quando outliers estão presentes na sequência de imagens o método proposto superou consideravelmente o desempenho apresentado pelo R-LMS, tanto quantitativamente quanto visualmente. O custo computacional da solução proposta manteve-se comparável àquele do algoritmo R-LMS.
|
115 |
Nonlinear hyperspectral unmixingImbiriba, Tales Cesar de Oliveira January 2016 (has links)
Tese (doutorado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Engenharia Elétrica, Florianópolis, 2016. / Made available in DSpace on 2017-05-02T04:12:42Z (GMT). No. of bitstreams: 1
345225.pdf: 2049485 bytes, checksum: b138ce3f4249b8d23da1cd8d2d24875d (MD5)
Previous issue date: 2016 / Abstract : Mixing phenomena in hyperspectral images depend on a variety of factors such as the resolution of observation devices, the properties of materials, and how these materials interact with incident light in the scene. Different parametric and nonparametric models have been considered to address hyperspectral unmixing problems. The simplest one is the linear mixing model. Nevertheless, it has been recognized that mixing phenomena can also be nonlinear. Kernel-based nonlinear mixing models have been applied to unmix spectral information of hyperspectral images when the type of mixing occurring in the scene is too complex or unknown. However, the corresponding nonlinear analysis techniques are necessarily more challenging and complex than those employed for linear unmixing. Within this context, it makes sense to search for different strategies to produce simpler and/or more accurate results. In this thesis, we tackle three distinct parts of the complete spectral unmixing (SU) problem. First, we propose a technique for detecting nonlinearly mixed pixels. The detection approach is based on the comparison of the reconstruction errors using both a Gaussian process regression model and a linear regression model. The two errors are combined into a detection test statistics for which a probability density function can be reasonably approximated. Second, we propose an iterative endmember extraction algorithm to be employed in combination with the detection algorithm. The proposed detect-then-unmix strategy, which consists of extracting endmembers, detecting nonlinearly mixed pixels and unmixing, is tested with synthetic and real images. Finally, we propose two methods for band selection (BS) in the reproducing kernel Hilbert space (RKHS), which lead to a significant reduction of the processing time required by nonlinear unmixing techniques. The first method employs the kernel k-means (KKM) algorithm to find clusters in the RKHS. Each cluster centroid is then associated to the closest mapped spectral vector. The second method is centralized, and it is based upon the coherence criterion, which sets the largest value allowed for correlations between the basis kernel functions characterizing the unmixing model. We show that the proposed BS approach is equivalent to solving a maximum clique problem (MCP), that is, to searching for the largest complete subgraph in a graph. Furthermore, we devise a strategy for selecting the coherence threshold and the Gaussian kernel bandwidth using coherence bounds for linearly independent bases. Simulation results illustrate the efficiency of the proposed method.<br> / Imagem hiperespectral (HI) é uma imagem em que cada pixel contém centenas (ou até milhares) de bandas estreitas e contíguas amostradas num amplo domínio do espectro eletromagnético. Sensores hiperespectrais normalmente trocam resolução espacial por resolução espectral devido principalmente a fatores como a distância entre o instrumento e a cena alvo, e limitada capacidade de processamento, transmissão e armazenamento históricas, mas que se tornam cada vez menos problemáticas. Este tipo de imagem encontra ampla utilização em uma gama de aplicações em astronomia, agricultura, imagens biomédicas, geociências, física, vigilância e sensoriamento remoto. A usual baixa resolução espacial de sensores espectrais implica que o que se observa em cada pixel é normalmente uma mistura das assinaturas espectrais dos materiais presentes na cena correspondente (normalmente denominados de endmembers). Assim um pixel em uma imagem hiperespectral não pode mais ser determinado por um tom ou cor mas sim por uma assinatura espectral do material, ou materiais, que se encontram na região analisada. O modelo mais simples e amplamente utilizado em aplicações com imagens hiperespectrais é o modelo linear, no qual o pixel observado é modelado como uma combinação linear dos endmembers. No entanto, fortes evidências de múltiplas reflexões da radiação solar e/ou materiais intimamente misturados, i.e., misturados em nível microscópico, resultam em diversos modelos não-lineares dos quais destacam-se os modelos bilineares, modelos de pós não-linearidade, modelos de mistura íntima e modelos não-paramétricos. Define-se então o problema de desmistura espectral (ou em inglês spectral unmixing - SU), que consiste em determinar as assinaturas espectrais dos endmembers puros presentes em uma cena e suas proporções (denominadas de abundâncias) para cada pixel da imagem. SU é um problema inverso e por natureza cego uma vez que raramente estão disponíveis informações confiáveis sobre o número de endmembers, suas assinaturas espectrais e suas distribuições em uma dada cena. Este problema possui forte conexão com o problema de separação cega de fontes mas difere no fato de que no problema de SU a independência de fontes não pode ser considerada já que as abundâncias são de fato proporções e por isso dependentes (abundâncias são positivas e devem somar 1). A determinação dos endmembers é conhecida como extração de endmembers e a literatura apresenta uma gama de algoritmos com esse propósito. Esses algoritmos normalmente exploram a geometria convexa resultante do modelo linear e da restrições sobre as abundâncias. Quando os endmembers são considerados conhecidos, ou estimados em um passo anterior, o problema de SU torna-se um problema supervisionado, com pares de entrada (endmembers) e saída (pixels), reduzindo-se a uma etapa de inversão, ou regressão, para determinar as proporções dos endmembers em cada pixel.
Quando modelos não-lineares são considerados, a literatura apresenta diversas técnicas que podem ser empregadas dependendo da disponibilidade de informações sobre os endmembers e sobre os modelos que regem a interação entre a luz e os materiais numa dada cena. No entanto, informações sobre o tipo de mistura presente em cenas reais são raramente disponíveis. Nesse contexto, métodos kernelizados, que assumem modelos não-paramétricos, têm sido especialmente bem sucedidos quando aplicados ao problema de SU. Dentre esses métodos destaca-se o SK-Hype, que emprega a teoria de mínimos quadrados-máquinas de vetores de suporte (LS-SVM), numa abordagem que considera um modelo linear com uma flutuação não-linear representada por uma função pertencente a um espaço de Hilbert de kernel reprodutivos (RKHS). Nesta tese de doutoramento diferentes problemas foram abordados dentro do processo de SU de imagens hiperespectrais não-lineares como um todo. Contribuições foram dadas para a detecção de misturas não-lineares, estimação de endmembers quando uma parte considerável da imagem possui misturas não-lineares, e seleção de bandas no espaço de Hilbert de kernels reprodutivos (RKHS). Todos os métodos foram testados através de simulações com dados sintéticos e reais, e considerando unmixing supervisionado e não-supervisionado. No Capítulo 4, um método semi-paramétrico de detecção de misturas não-lineares é apresentado para imagens hiperespectrais. Esse detector compara a performance de dois modelos: um linear paramétrico, usando mínimos-quadrados (LS), e um não-linear não-paramétrico usando processos Gaussianos. A idéia da utilização de modelos não-paramétricos se conecta com o fato de que na prática pouco se sabe sobre a real natureza da não-linearidade presente na cena. Os erros de ajuste desses modelos são então comparados em uma estatística de teste para a qual é possível aproximar a distribuição na hipótese de misturas lineares e, assim, estimar um limiar de detecção para uma dada probabilidade de falso-alarme. A performance do detector proposto foi estudada considerando problemas supervisionados e não-supervisionados, sendo mostrado que a melhoria obtida no desempenho SU utilizando o detector proposto é estatisticamente consistente. Além disso, um grau de não-linearidade baseado nas energias relativas das contribuições lineares e não-lineares do processo de mistura foi definido para quantificar a importância das parcelas linear e não-linear dos modelos. Tal definição é importante para uma correta avaliação dos desempenhos relativos de diferentes estratégias de detecção de misturas não-lineares. No Capítulo 5 um algoritmo iterativo foi proposto para a estimação de endmembers como uma etapa de pré-processamento para problemas SU não supervisionados. Esse algoritmo intercala etapas de detecção de misturas não-lineares e estimação de endmembers de forma iterativa, na qual uma etapa de estimação de endmembers é seguida por uma etapa de detecção, na qual uma parcela dos pixels mais não-lineares é descartada. Esse processo é repetido por um número máximo de execuções ou até um critério de parada ser atingido. Demonstra-se que o uso combinado do detector proposto com um algoritmo de estimação de endmembers leva a melhores resultados de SU quando comparado com soluções do estado da arte. Simulações utilizando diferentes cenários corroboram as conclusões. No Capítulo 6 dois métodos para SU não-linear de imagens hiperespectrais, que empregam seleção de bandas (BS) diretamente no espaço de Hilbert de kernels reprodutivos (RKHS), são apresentados. O primeiro método utiliza o algoritmo Kernel K-Means (KKM) para encontrar clusters diretamente no RKHS onde cada centroide é então associada ao vetor espectral mais próximo. O segundo método é centralizado e baseado no critério de coerência, que incorpora uma medida da qualidade do dicionário no RKHS para a SU não-linear. Essa abordagem centralizada é equivalente a resolver um problema de máximo clique (MCP). Contrariamente a outros métodos concorrentes que não incluem uma escolha eficiente dos parâmetros do modelo, o método proposto requer apenas uma estimativa inicial do número de bandas selecionadas. Os resultados das simulações empregando dados, tanto sintéticos como reais, ilustram a qualidade dos resultados de unmixing obtidos com os métodos de BS propostos. Ao utilizar o SK-Hype, para um número reduzido de bandas, são obtidas estimativas de abundância tão precisas quanto aquelas obtidas utilizando o método SK-Hype com todo o espectro disponível, mas com uma pequena fração do custo computacional.
|
116 |
Uma abordagem de segmenteção de imagens por aprendizagem / Horácio Andrés Legal Ayala ; orientador, Jacques Facon ; co-orientador, Edson José Rodrigues JustinoLegal-Ayala, Horacio Andrés January 2004 (has links)
Dissertação (mestrado) - Pontifícia Universidade Católica do Paraná, Curitiba, 2004 / Inclui bibliografia / Este trabalho propõe uma nova abordagem de segmentação de imagens por aprendizagem. O processo de aprendizagem utiliza duas imagens, a imagem original e sua versão ideal segmentada. A partir destas imagens, é gerada uma matriz de decisão que contempla cad
|
117 |
Uso do NDVI na análise fenológica de áreas irrigadas identificadas pela transformada de Hough / Use the NDVI in phenological analysis of irrigated areas identified by the Hough transformRamos, Ricardo Soares 30 March 2016 (has links)
Submitted by Marco Antônio de Ramos Chagas (mchagas@ufv.br) on 2016-07-27T12:19:19Z
No. of bitstreams: 1
texto completo.pdf: 3122585 bytes, checksum: 578f7fecde6cafffd4ac41ebefea6c80 (MD5) / Made available in DSpace on 2016-07-27T12:19:20Z (GMT). No. of bitstreams: 1
texto completo.pdf: 3122585 bytes, checksum: 578f7fecde6cafffd4ac41ebefea6c80 (MD5)
Previous issue date: 2016-03-30 / Tendo em vista a importância da agricultura irrigada no país, principalmente para a produção de alimentos, utilizar técnicas que consigam estimar e calcular essas áreas de cultivo, tem sido de grande interesse em diversas áreas do conhecimento. A ideia principal deste trabalho é identificar as áreas de cultivo com irrigação pela técnica de pivô central através do processo de extração de feições baseado na Transformada de Hough para feições circulares. Está função foi desenvolvida para identificar as feições de interesse por meio do reconhecimento das formas dos objetos encontrados na imagem, no caso deste estudo, circunferências. Na etapa de realce da imagem original foram utilizadas transformações radiométricas por meio de operações aritméticas entre bandas de mesma data para a criação de índices de vegetação, e operações entre bandas de datas distintas para destacar as feições de interesse. Para a realização das operações entre bandas distintas se tomou as devidas precauções quanto às correções radiométricas das imagens “brutas” para minimizar as distorções provocadas pelos efeitos atmosféricos. Assim, foi realizada a soma das bandas da região espectral do vermelho e do infravermelho próximo do sensor OLI Landsat 8 adquiridas em nove datas distintas do ano de 2014. A função de extração de feições foi executada para a imagem soma com os valores do índice de vegetação (NDVI). Os resultados obtidos a partir da imagem soma foram comparados com os resultados obtidos para cada data separadamente e também com o trabalho desenvolvido por ANA & Embrapa/CNPMS (2014). Os testes estatísticos aplicados basearam-se nas culturas presentes em parte dos talhões identificados. Foram analisadas as variações do comportamento do NDVI em função dos ciclos fenológicos das culturas ao longo do ciclo produtivo. Os resultados dos testes estatísticos sinalizaram que as variações do NDVI estão relacionadas às fases do ciclo fenológico das plantas. / Owing to the importance of irrigated agriculture in the country, principally for food production, usage techniques that are able to estimate and calculate these growth areas, has been of great interest in several knowledge areas. The main idea of this work is identify areas of crop irrigation by center pivot technique through the features extraction process based on the Hough Transform for circular features. This function was developed to identify features of interest athwart the recognition the forms of objects founded in the image, in the case of this study, circumferences. In the original image enhancement step, radiometric transformations were used to over arithmetic operations between bands of the same date for create vegetation indexes, and operations between bands of distinct dates to highlight features of interest. To carry out the operations between different bands took the necessary precautions to radiometric corrections of the raw images to minimize distortions caused by atmospheric effects. Accordingly, was held the summation of the bands from the spectral region of red and near infrared sensor OLI Landsat 8, acquired in nine different dates of the year 2014. The feature extraction function was accomplished for the image adds with the values of index vegetation (NDVI). The results obtained from that image was compared with the results obtained for each date separately and also to the work developed by ANA & EMBRAPA / CNPMS (2014). The statistical tests applied were based on the cultures present in part of the identified plots. Were analyzed the behaviorism variations from the NDVI depending on the phenological cycles of crops throughout the production cycle. The results of statistical tests signaled that NDVI variations are associated to the phases of phenological cycle of plants.
|
118 |
Segmentação dos vasos sanguíneos pulmonares em imagens de tomografia computadorizada do tórax / Lung blood vessels segmentation in thoracic CT ScansRibeiro, Alyson Bezerra Nogueira January 2013 (has links)
RIBEIRO, A. B. N. Segmentação dos vasos sanguíneos pulmonares em imagens de tomografia computadorizada do tórax. 2013. 79 f. Dissertação (Mestrado em Engenharia de Teleinformática) - Centro de Tecnologia, Universidade Federal do Ceará, Fortaleza, 2013. / Submitted by Marlene Sousa (mmarlene@ufc.br) on 2014-01-03T13:15:14Z
No. of bitstreams: 1
2013_dis_abnribeiro.pdf: 12330820 bytes, checksum: 37c185e13781545433d38e785dac92dc (MD5) / Approved for entry into archive by Marlene Sousa(mmarlene@ufc.br) on 2014-01-09T13:26:21Z (GMT) No. of bitstreams: 1
2013_dis_abnribeiro.pdf: 12330820 bytes, checksum: 37c185e13781545433d38e785dac92dc (MD5) / Made available in DSpace on 2014-01-09T13:26:21Z (GMT). No. of bitstreams: 1
2013_dis_abnribeiro.pdf: 12330820 bytes, checksum: 37c185e13781545433d38e785dac92dc (MD5)
Previous issue date: 2013 / Medical image analysis using computer vision techniques has become quite promising because of its improvement on the diagnostic accuracy of various pathologies. For this reason, pulmonology became an area of high concentration of projects involving methods of Digital Image Processing. The blood vessels segmentation in the lung is an important aid in the detection of pulmonary heart diseases. This process is performed by analyzing the results obtained with known diagnostic imaging exams, like chest Xrays, computed tomography (CT) scan, magnetic resonance imaging, scintigraphy and angiography. Pulmonary hypertension and cancer are examples of diseases that can be diagnosed with less subjectivity if performing vessels segmentation, three-dimensional visualization and attribute extraction of these images. Thus, several algorithms are developed with the objective of obtaining an optimal segmentation of these structures. Among those algorithms are active contours, fuzzy logic, 3D Region Growing, 3D multi-scale ltering algorithm and Expectation Maximization (EM). In this study, the blood vessels were extracted from lung CT scans of the chest using three methods. The rst is a combination of 3D Region Growing controlled by a Gaussian membership function and thresholding, the second is a hybrid segmentation by thresholding and Fuzzy Connectedness. Finally,the third refers to segmentation using the K-means classi er. The results and evaluation of applying these algorithms are presented. / A análise de imagens médicas por meio de técnicas de visão computacional tornou-se bastante promissora, principalmente pelo fato de aperfeiçoar a acurácia diagnóstica de diversas patologias. Por essas razão, a Pneumologia é considerada atualmente uma área de concentração de projetos que envolvem métodos de Processamento Digital de Imagens. A segmentação de vasos sanguíneos pulmonares é de bastante auxílio na detecção de cardiopatias pulmonares. Esse processo é realizado através da análise dos resultados obtidos por exame de diagnóstico por imagem, os quais se destacam as radiogra fias torácicas, tomografi a computadorizada (TC) do tórax, ressonância magnética, cintilografi a pulmonar e angiogra fia. A hipertensão pulmonar e o câncer são exemplos de doenças que podem ser diagnosticadas com menor subjetividade ao realizar a segmentação de vasos, visualização em três dimensões e extração de seus atributos. Devido a essa importância, diversos algoritmos são desenvolvidos com intuito de obter uma segmentação ótima destas estruturas. Dentre estes, encontram-se os métodos por contornos ativos, Lógica Fuzzy, Crescimento de Regiões, Filtragem Multi-escalar 3D e algoritmo Expectation Maximization (EM). Nesta dissertação, são segmentados os vasos sanguíneos pulmonares de imagens de tomogra fia computadorizada do tórax utilizando-se três métodos: uma combinação de Crescimento de Regiões 3D controlado por uma função de pertinência gaussiana e limiarização; um método híbrido de segmentação por Conectividade Fuzzy e limiarização; por m, a segmentação utilizando o classi cador K-médias. Os resultados obtidos pelas segmentações são analisados e comparados por meio de uma análise dos coe cientes de similaridade e sensibilidade. Os resultados da aplicação dos três métodos são caracterizados aceitáveis e compatíveis com os observados na literatura.
|
119 |
Aplicação de uma métrica de similaridade não linear em algoritmos de segmentaçãoCarvalho, Luís Eduardo Ramos de January 2015 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Ciência da Computação, 2015. / Made available in DSpace on 2015-04-29T21:09:35Z (GMT). No. of bitstreams: 1
333107.pdf: 16297606 bytes, checksum: 454d808d03f08650094d51715415a4c2 (MD5)
Previous issue date: 2015 / Um dos principais processos utilizados no campo de processamento digital de imagens é a segmentação, processo no qual a imagem é separada em seus elementos ou partes constituintes. Na literatura, existem diferentes e bem conhecidos métodos usados para segmentação, tais como clusterização, limiarização, segmentação com redes neurais e segmentação por crescimento de regiões . No intuito de melhorar de melhorar o desempenho dos algoritmos de segmentação, um estudo sobre o efeito da aplicação de uma métrica não linear em algoritmos de segmentação foi realizado neste trabalho. Foram selecionados três algoritmos de segmentação (Mumford-Shah, Color Structure Code e Felzenszwalb and Huttenlocher) provenientes do método de crescimento de regiões e nestes se alterou a parte de análise de similaridade utilizando para tal uma métrica não linear. A métrica não linear utilizada, denominada Polinomial Mahalanobis, é uma variação da distância de Mahalanobis utilizada para medir a distância estatística entre distribuições. Uma avaliação qualitativa e uma análise empírica foram realizadas neste trabalho para comparar os resultados obtidos em termos de eficácia. Os resultados desta comparação, apresentados neste estudo, apontam uma melhoria nos resultados de segmentação obtidos pela abordagem proposta. Em termos de eficiência, foram analisados os tempos de execução dos algoritmos com e sem o aprimoramento e os resultados desta análise mostraram um aumento do tempo de execução dos algoritmos com abordagem proposta.<br> / Abstract : One of the main procedures used on digital image processing is segmentation,where the image is split into its constituent parts or objects. In the literature,there are different well-known methods used for segmentation, suchas clustering, thresholding, segmentation using neural network and segmentationusing region growing. Aiming to improve the performance of the segmentationalgorithms, a study off the effect of the application of a non-linearmetric on segmentation algorithms was performed in this work. Three segmentationalgorithms were chosen (Mumford-Shah, Color Structure Code,Felzenszwalb and Huttenlocher) originating from region growing techniques,and on those the similarity metric was enhanced with a non-linear metric.The non-linear metric used, known as Polynomial Mahalanobis, is a variationfrom the statistical Mahalanobis distance used for measure the distancebetween distributions. A qualitative evaluation and empirical analysis wasperformed in this work to compare the obtained results in terms of efficacy.The results from these comparison, presented in this study, indicate an improvementon the segmentation result obtained by the proposed approach. Interms of efficiency, the execution time of the algorithms with and without theproposed improvement were analyzed and the result of this analysis showedan increase of the execution time for the algorithms with the proposed approach.
|
120 |
Um Estudo sobre a extração de características e a classificação de imagens invariantes à rotação extraídas de um sensor industrial 3D / A Study on the extraction of characteristics and the classification of invariant images through the rotation of an 3D industrial sensorSilva, Rodrigo Dalvit Carvalho da 08 May 2014 (has links)
SILVA. R. D. C. Um Estudo sobre a extração de características e a classificação de imagens invariantes à rotação extraídas de um sensor industrial 3D. 2014. 79 f. Dissertação (Mestrado em Engenharia de Teleinformática) - Centro de Tecnologia, Universidade Federal do Ceará, Fortaleza, 2014. / Submitted by Marlene Sousa (mmarlene@ufc.br) on 2015-02-27T18:34:34Z
No. of bitstreams: 1
2014_dis_rdcsilva.pdf: 2254363 bytes, checksum: 020dab0cb946a2cc5aeba421d119924a (MD5) / Approved for entry into archive by Marlene Sousa(mmarlene@ufc.br) on 2015-03-04T17:08:40Z (GMT) No. of bitstreams: 1
2014_dis_rdcsilva.pdf: 2254363 bytes, checksum: 020dab0cb946a2cc5aeba421d119924a (MD5) / Made available in DSpace on 2015-03-04T17:08:40Z (GMT). No. of bitstreams: 1
2014_dis_rdcsilva.pdf: 2254363 bytes, checksum: 020dab0cb946a2cc5aeba421d119924a (MD5)
Previous issue date: 2014-05-08 / In this work, the problem of recognition of objects using images extracted from a 3D industrial sensor is discussed. We focus in 9 feature extractors (where seven are based on invariant moments -Hu, Zernike, Legendre, Fourier-Mellin, Tchebichef, Bessel–Fourier and Gaussian-Hermite-, another is based on the Hough transform and the last one on independent component analysis), and 4 classifiers (Naive Bayes, k-Nearest Neighbor, Support Vector machines and Artificial Neural Network-Multi-Layer Perceptron). To choose the best feature extractor, their performance was compared in terms of classification accuracy rate and extraction time by the k-nearest neighbors classifier using euclidean distance. The feature extractor based on Zernike moments, got the best hit rates, 98.00 %, and relatively low time feature extraction, 0.3910 seconds. The data generated from this, were presented to different heuristic classification. Among the tested classifiers, the k-nearest neighbors classifier achieved the highest average hit rate, 98.00%, and average time of relatively low rank, 0.0040 seconds, thus making it the most suitable classifier for the implementation of this study. / Neste trabalho, é discutido o problema de reconhecimento de objetos utilizando imagens extraídas de um sensor industrial 3D. Nós nos concentramos em 9 extratores de características, dos quais 7 são baseados nos momentos invariantes (Hu, Zernike, Legendre, Fourier-Mellin, Tchebichef, Bessel-Fourier e Gaussian-Hermite), um outro é baseado na Transformada de Hough e o último na análise de componentes independentes, e, 4 classificadores, Naive Bayes, k-Vizinhos mais Próximos, Máquina de Vetor de Suporte e Rede Neural Artificial-Perceptron Multi-Camadas. Para a escolha do melhor extrator de características, foram comparados os seus desempenhos de classificação em termos de taxa de acerto e de tempo de extração, através do classificador k-Vizinhos mais Próximos utilizando distância euclidiana. O extrator de características baseado nos momentos de Zernike obteve as melhores taxas de acerto, 98.00%, e tempo relativamente baixo de extração de características, 0.3910 segundos. Os dados gerados a partir deste, foram apresentados a diferentes heurísticas de classificação. Dentre os classificadores testados, o classificador k-Vizinhos mais Próximos, obteve a melhor taxa média de acerto, 98.00% e, tempo médio de classificação relativamente baixo, 0.0040 segundos, tornando-se o classificador mais adequado para a aplicação deste estudo.
|
Page generated in 0.1079 seconds