• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 178
  • 20
  • 16
  • 16
  • 15
  • 14
  • 2
  • 2
  • 1
  • 1
  • Tagged with
  • 187
  • 187
  • 80
  • 46
  • 37
  • 32
  • 22
  • 22
  • 21
  • 18
  • 18
  • 16
  • 15
  • 15
  • 15
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
131

Detecção de mudanças a partir de imagens de fração

Bittencourt, Helio Radke January 2011 (has links)
A detecção de mudanças na superfície terrestre é o principal objetivo em aplicações de sensoriamento remoto multitemporal. Sabe-se que imagens adquiridas em datas distintas tendem a ser altamente influenciadas por problemas radiométricos e de registro. Utilizando imagens de fração, obtidas a partir do modelo linear de mistura espectral (MLME), problemas radiométricos podem ser minimizados e a interpretação dos tipos de mudança na superfície terrestre é facilitada, pois as frações têm um significado físico direto. Além disso, interpretações ao nível de subpixel são possíveis. Esta tese propõe três algoritmos – rígido, suave e fuzzy – para a detecção de mudanças entre um par de imagens de fração, gerando mapas de mudança como produtos finais. As propostas requerem a suposição de normalidade multivariada para as diferenças de fração e necessitam de pouca intervenção por parte do analista. A proposta rígida cria mapas de mudança binários seguindo a mesma metodologia de um teste de hipóteses, baseando-se no fato de que os contornos de densidade constante na distribuição normal multivariada são definidos por valores da distribuição qui-quadrado, de acordo com a escolha do nível de confiança. O classificador suave permite gerar estimativas da probabilidade do pixel pertencer à classe de mudança, a partir de um modelo de regressão logística. Essas probabilidades são usadas para criar um mapa de probabilidades de mudança. A abordagem fuzzy é aquela que melhor se adapta ao conceito de pixel mistura, visto que as mudanças no uso e cobertura do solo podem ocorrer em nível de subpixel. Com base nisso, mapas dos graus de pertinência à classe de mudança foram criados. Outras ferramentas matemáticas e estatísticas foram utilizadas, tais como operações morfológicas, curvas ROC e algoritmos de clustering. As três propostas foram testadas utilizando-se imagens sintéticas e reais (Landsat-TM) e avaliadas qualitativa e quantitativamente. Os resultados indicam a viabilidade da utilização de imagens de fração em estudos de detecção de mudanças por meio dos algoritmos propostos. / Land cover change detection is a major goal in multitemporal remote sensing applications. It is well known that images acquired on different dates tend to be highly influenced by radiometric differences and registration problems. Using fraction images, obtained from the linear model of spectral mixing (LMSM), radiometric problems can be minimized and the interpretation of changes in land cover is facilitated because the fractions have a physical meaning. Furthermore, interpretations at the subpixel level are possible. This thesis presents three algorithms – hard, soft and fuzzy – for detecting changes between a pair of fraction images. The algorithms require multivariate normality for the differences among fractions and very little intervention by the analyst. The hard algorithm creates binary change maps following the same methodology of hypothesis testing, based on the fact that the contours of constant density are defined by chi-square values, according to the choice of the probability level. The soft one allows for the generation of estimates of the probability of each pixel belonging to the change class by using a logistic regression model. These probabilities are used to create a map of change probabilities. The fuzzy approach is the one that best fits the concept behind the fraction images because the changes in land cover can occurr at a subpixel level. Based on these algorithms, maps of membership degrees were created. Other mathematical and statistical techniques were also used, such as morphological operations, ROC curves and a clustering algorithm. The algorithms were tested using synthetic and real images (Landsat-TM) and the results were analyzed qualitatively and quantitatively. The results indicate that fraction images can be used in change detection studies by using the proposed algorithms.
132

Classificação de dados imagens em alta dimensionalidade, empregando amostras semi-rotuladas e estimadores para as probabilidades a priori / Classification of high dimensionality image data, using semilabeled samples and estimation of the a priori probabilities

Liczbinski, Celso Antonio January 2007 (has links)
Em cenas naturais, ocorrem com certa freqüência classes espectralmente muito similares, isto é, os vetores média são muito próximos. Em situações como esta dados de baixa dimensionalidade (LandSat-TM, Spot) não permitem uma classificação acurada da cena. Por outro lado, sabe-se que dados em alta dimensionalidade tornam possível a separação destas classes, desde que as matrizes covariância sejam suficientemente distintas. Neste caso, o problema de natureza prática que surge é o da estimação dos parâmetros que caracterizam a distribuição de cada classe. Na medida em que a dimensionalidade dos dados cresce, aumenta o número de parâmetros a serem estimados, especialmente na matriz covariância. Contudo, é sabido que, no mundo real, a quantidade de amostras de treinamento disponíveis, é freqüentemente muito limitada, ocasionando problemas na estimação dos parâmetros necessários ao classificador, degradando, portanto a acurácia do processo de classificação, na medida em que a dimensionalidade dos dados aumenta. O Efeito de Hughes, como é chamado este fenômeno, já é bem conhecido no meio científico, e estudos vêm sendo realizados com o objetivo de mitigar este efeito. Entre as alternativas propostas com a finalidade de mitigar o Efeito de Hughes, encontram-se as técnicas que utilizam amostras não rotuladas e amostras semi-rotuladas para minimizar o problema do tamanho reduzido das amostras de treinamento. Deste modo, técnicas que utilizam amostras semi-rotuladas, tornamse um tópico interessante de estudo, bem como o comportamento destas técnicas em ambientes de dados de imagens digitais de alta dimensionalidade em sensoriamento remoto, como por exemplo, os dados fornecidos pelo sensor AVIRIS. Neste estudo foi dado prosseguimento à metodologia investigada por Lemos (2003), o qual implementou a utilização de amostras semi-rotuladas para fins de estimação dos parâmetros do classificador Máxima Verossimilhança Gaussiana (MVG). A contribuição do presente trabalho consistiu na inclusão de uma etapa adicional, introduzindo a estimação das probabilidades a priori P( wi) referentes às classes envolvidas para utilização no classificador MVG. Desta forma, utilizando-se funções de decisão mais ajustadas à realidade da cena analisada, obteve-se resultados mais acurados no processo de classificação. Os resultados atestaram que com um número limitado de amostras de treinamento, técnicas que utilizam algoritmos adaptativos, mostram-se eficientes em reduzir o Efeito de Hughes. Apesar deste Efeito, quanto à acurácia, em todos os casos o modelo quadrático mostrou-se eficiente através do algoritmo adaptativo. A conclusão principal desta dissertação é que o método do algoritmo adaptativo é útil no processo de classificação de imagens com dados em alta dimensionalidade e classes com características espectrais muito próximas. / In natural scenes there are some cases in which some of the land-cover classes involved are spectrally very similar, i.e., their first order statistics are nearly identical. In these cases, the more traditional sensor systems such as Landsat-TM and Spot, among others usually result in a thematic image low in accuracy. On the other hand, it is well known that high-dimensional image data allows for the separation of classes that are spectrally very similar, provided that their second-order statistics differ significantly. The classification of high-dimensional image data, however, poses some new problems such as the estimation of the parameters in a parametric classifier. As the data dimensionality increases, so does the number of parameters to be estimated, particularly in the covariance matrix. In real cases, however, the number of training samples available is usually limited preventing therefore a reliable estimation of the parameters required by the classifier. The paucity of training samples results in a low accuracy for the thematic image which becomes more noticeable as the data dimensionality increases. This condition is known as the Hughes Phenomenon. Different approaches to mitigate the Hughes Phenomenon investigated by many authors have been reported in the literature. Among the possible alternatives that have been proposed, the so called semi-labeled samples has shown some promising results in the classification of remote sensing high dimensional image data, such as AVIRIS data. In this dissertation the approach proposed by Lemos (2003) is further investigated to increase the reliability in the estimation of the parameters required by the Gaussian Maximum Likelihood (GML) classifier. In this dissertation, we propose a methodology to estimate the a priory probabilities P( i) required by the GMV classifier. It is expected that a more realistic estimation of the values for the a priory probabilities well help to increase the accuracy of the thematic image produced by the GML classifier. The experiments performed in this study have shown an increase in the accuracy of the thematic image, suggesting the adequacy of the proposed methodology.
133

Sistema de visão computacional para detecção e quantificação de enfisema pulmonar / Computational vision system for detection and pulmonary quality of emphysema

Félix, John Hebert da Silva 03 December 2007 (has links)
FÉLIX, J. H. S. Sistema de visão computacional para detecção e quantificação de enfisema pulmonar. 2007. 109 f. Dissertação (Mestrado em Engenharia de Teleinformática) – Centro de Tecnologia, Universidade Federal do Ceará, Fortaleza, 2007. / Submitted by Marlene Sousa (mmarlene@ufc.br) on 2016-04-04T16:42:36Z No. of bitstreams: 1 2007_dis_jhsfelix.pdf: 3162606 bytes, checksum: 5102225711b46dd2847dbb36460fe1ea (MD5) / Approved for entry into archive by Marlene Sousa(mmarlene@ufc.br) on 2016-04-06T14:03:23Z (GMT) No. of bitstreams: 1 2007_dis_jhsfelix.pdf: 3162606 bytes, checksum: 5102225711b46dd2847dbb36460fe1ea (MD5) / Made available in DSpace on 2016-04-06T14:03:23Z (GMT). No. of bitstreams: 1 2007_dis_jhsfelix.pdf: 3162606 bytes, checksum: 5102225711b46dd2847dbb36460fe1ea (MD5) Previous issue date: 2007-12-03 / The Chronic Obstructive Pulmonary Disease (COPD) is a worldwide public health problem with high rates of mortality, being the tabacco the main causer of this disease. COPD is underestimated and underdiagnosed globally, and consequently the patient receives an undertreatment. To avoid an increase of pathological cases with incorrect diagnoses, the computerized tomography should be used as an excellent tool for premature diagnosis of pulmonary emphysema component from COPD. However, the analysis on images accomplished by radiologists or doctors is subjective,leading them to accomplish inaccurate measurements, due to human vision limitation. The objective of this work is to develop a Computational Vision System for Detection and Quantification of the Pulmonary Emphysema (SDEP) capable of segment automatically the images of High-Resolution Computerized Tomography (HRCT) of the lungs, allowing its better view. Also, in this study are analysed the obtained results to evaluate the e±ciency of SDEP system comparing it with the Osiris 4 system, and with two segmentation algorithms. Results of the segmentation are analysed through the viewing of 102 images of 8 healthy volunteers and 141 images of 11 COPD patients. The SDEP system presents more e±cient than other methods considered in this work, evaluating the correct segmentation, the over segmentation, segmentation with losses, and wrong segmentation. The proposed system accomplishes the segmentation of zone from lung densities using colorful mask, applying several colors in a single image quantifying each color per area and percentage, while the Osiris system uses only one color on each image. The SDEP system has, beside of advantage presented, a tool that accomplish the overlap of histograms, which permit a more appropriate visual analysis of evolution of component on the emphysema. The proposed system offers to aided diagnosis, researchers, engineers, medical doctors and specialist and others of Medical Digital Image Processing field, one valid option for pulmonary emphysema analysis from HRCT images. / A Doença Pulmonar Obstrutiva Crônica (DPOC) e um problema de saúde mundial com altos índices de mortalidade, sendo o tabagismo o principal causador desta. Apesar da DPOC ser uma doença de âmbito mundial é, geralmente, subestimada e subdiagnosticada, levando desta forma ao subtratamento. Para evitar um aumento de casos patológicos com diagnósticos incorretos, a tomografia computadorizada deve ser utilizada já que esta constitui uma excelente ferramenta para diagnóstico precoce da componente de enfisema pulmonar na DPOC. Porém, as análises nas imagens feitas pelos radiologistas ou médicos é subjetiva levando-os a realizarem medições imprecisas, devido à limitação da visão humana. O objetivo deste trabalho é desenvolver um sistema de Visão Computacional para análise de imagens tomográficas (SDEP) capaz de segmentar automaticamente as imagens de Tomografia Computadorizada de Alta Resolução (TCAR) dos pulmões, detectar e quantificar a presença de enfisema pulmonar de modo preciso e automático, possibilitando sua visualização. Também, neste trabalho são analisados os resultados, buscando avaliar a eficiência do sistema SDEP comparando-o com o sistema Osiris 4, e com dois algoritmos de segmentação. Os resultados da segmentação são analisados através da visualização de 102 imagens de 8 voluntários saudáveis e 141 imagens de 11 pacientes com DPOC. O sistema SDEP apresenta-se mais eficiente do que os outros métodos considerados neste trabalho, tomando-se como base segmentação correta, sobre-segmentação, segmentação com perdas e segmentação errada. Este sistema realiza a segmentação das faixas das densidades pulmonares através da máscara colorida, aplicando várias cores em uma única imagem e quantifica cada cor por área e porcentagem, enquanto que o sistema Osiris usa apenas uma cor por vez em cada imagem. O sistema SDEP possui também uma ferramenta que faz a sobreposição dos histogramas, o qual permite uma análise visual mais adequada da evolução da componente do enfisema. Este sistema possibilita auxílio ao diagnóstico, bem como mostra-se ser uma ferramenta de pesquisa para análise do enfisema pulmonar.
134

Estratégias analíticas para determinação de nitrito e nitrato em matrizes ambientais e alimentícias, empregando análise de imagens digitais

Santos, Jorge Luís Oliveira 10 May 2013 (has links)
Submitted by Ana Hilda Fonseca (anahilda@ufba.br) on 2014-09-04T13:58:50Z No. of bitstreams: 1 DISSERTAÇAO_JORGE LUIS OLIVEIRA SANTOS_PPGQ_UFBA.pdf: 1962243 bytes, checksum: a2a63de666dcab5749b766ddf2c50554 (MD5) / Approved for entry into archive by Fatima Cleômenis Botelho Maria (botelho@ufba.br) on 2014-09-04T14:30:51Z (GMT) No. of bitstreams: 1 DISSERTAÇAO_JORGE LUIS OLIVEIRA SANTOS_PPGQ_UFBA.pdf: 1962243 bytes, checksum: a2a63de666dcab5749b766ddf2c50554 (MD5) / Made available in DSpace on 2014-09-04T14:30:52Z (GMT). No. of bitstreams: 1 DISSERTAÇAO_JORGE LUIS OLIVEIRA SANTOS_PPGQ_UFBA.pdf: 1962243 bytes, checksum: a2a63de666dcab5749b766ddf2c50554 (MD5) / FAPESB, CNPQ / Este trabalho foi realizado no âmbito do projeto PRONEX/Água-FAPESB. É proposta uma nova estratégia para determinação de nitrito e nitrato em sistema em fluxo por multicomutação e detecção por imagens digitais. Também foi proposta uma estratégia simples para determinação de nitrito por imagem digital combinado com spot test à base de papel de filtro. Os métodos foram baseados na reação do nitrito com a sulfanilamida, formando um cátion de diazônio que posteriormente é acoplado ao dicloreto de N-(1-naftil) etilenodiamina formando um diazo composto de coloração rósea com absorção máxima em 543 nm. No sistema em fluxo os sinais analíticos foram obtidos a partir das intensidades de coloração do diazo composto nas imagens digitais obtidas por um webcam e os valores foram medidos através do software image J. Na determinação do nitrato, este foi reduzido em fluxo a nitrito por uma coluna de cádmio cobreado. As condições do sistema em fluxo foram otimizadas e a concentração de nitrato e nitrito foram determinados respectivamente na faixa de 1,0 - 10,0 mg L-1 com precisão de 1,3% e 0,2 - 2,0 mg L-1 com precisão de 0,6%. Os limites de detecção e quantificação para nitrito foram 0,014 mg L-1 e 0,045 mg L-1 e para o nitrato 0,042 mg L-1 e 0,252 mg L-1, respectivamente. O procedimento em fluxo foi aplicado com sucesso em amostras de águas subterrâneas na frequência analítica de 103 amostras/h para nitrito e 80 amostras/h para nitrato. No caso do spot test o diazo composto foi formado na superfície do papel de filtro pela adição de 5μL da solução amostra e em seguida 5μL de regente cromogênico e a intensidade da cor foi medida a partir das imagens digitais do spot test. As imagens digitais do spot test foram obtidas através do uso de scanner e o sinal analítico foi obtido pelo tratamento das imagens com o software image J. O spot test foi otimizado e a concentração de nitrito foi determinada nas faixas de 0,2 - 1,0 mg L-1 (r=0,9924) e 1,0 - 10,0 mg L-1 (r=0,9989) com limites de detecção de 0,04 mg L-1 e 0,07 mg L-1, respectivamente. O spot test proposto foi aplicado na determinação de nitrito em amostras de salsichas e água subterrânea e os resultados encontrados foram nas faixas de 21,71- 23,88 mg kg-1 e 0,04 - 0,12 mg-N L-1, respectivamente.
135

Determinação da rigidez da madeira com o emprego de imagens digitais

Duarte, Ana Paula Coelho 05 July 2011 (has links)
Made available in DSpace on 2016-12-23T13:51:51Z (GMT). No. of bitstreams: 1 Dissertacao Ana Paula Coelho Duarte.pdf: 2045883 bytes, checksum: 83ad2c04d2aba1d3d47b92dfb5d4359c (MD5) Previous issue date: 2011-07-05 / Amostras de madeira foram submetidas a ensaio de determinação de rigidez à flexão e à compressão paralela às fibras. A deflexão sofrida pela amostra foi medida por intermédio de relógio comparador (como na norma NBR 7190), para efeito de comparação e por meio de imagens digitais colhidas por câmera. As imagens também permitiram determinar a equação da linha elástica e o ângulo de curvatura apresentada pela amostra a cada valor de carga. Essas quatro metodologias para obter deformações permitiram calcular, portanto, o módulo de elasticidade de quatro maneiras. Mediu-se também a deformação específica de corpos-de-prova submetidos à compressão, seja pela maneira tradicional, com extensômetros elétricos, como de modo diferente, por análise de imagens. Concluiu-se que a análise de imagens permite inferir com exatidão o valor da rigidez, quando se usam a medida da deflexão no centro do vão ou quando se obtém por regressão os parâmetros utilizados na derivação da curva elástica. A definição do ângulo de curvatura por interpretação das imagens nem sempre apresentou bons resultados. Amostras maiores de madeira talvez permitam maior precisão nessa definição. Os resultados do cálculo da rigidez por compressão da madeira foram pouco satisfatórios, isso certamente porque a deformação é excepcionalmente pequena. Uma câmera de maior qualidade ótica será suficiente para resolver essa falha / Wood samples were submitted to standard bending and compression tests to determine their stiffness. To compare values, modulus of elasticity was first measured using a dial gage (in bending) or strain-gage (in compression). The samples were filmed at the same time and the film, captured by a Leica V-lux-20, yielded still images in the .jpg format, that were later analysed using a MatLab program. In the case of bending, three values of MOE were obtained from each image and compared to the first. One of the new methods, that permitted to calculate the deflection at the center of the sample in the image, gave values that were very close to those given by the dial. Data were also collected from the images that allowed the calculation by regression analysis of the elastic curve of the beam. MOE values so obtained were also very similar to those of the dial, with a few exceptions. The angle that subtended the curvature of the deflected beam was also found from the images, but gave MOE values quite different, in most cases. It is presumed, in this case, that the sample (a 2 by 2 by 24 cm parallelepiped) was probably too small to allow calculating with precision the lines by regression. In compression, the technique used here, the filming of two parallel lines that should become closer as the sample was loaded, did not also give good estimates of MOE. The calculated strain should amount here to only about 2 or 3 pixels, too few to guarantee a precise capture by the camera. The techniques used in this work are simple, the necessary equipment, cheap, and only one person is needed. A better camera will certainly be sufficient to make them practical and precise
136

Classificação de dados imagens em alta dimensionalidade, empregando amostras semi-rotuladas e estimadores para as probabilidades a priori / Classification of high dimensionality image data, using semilabeled samples and estimation of the a priori probabilities

Liczbinski, Celso Antonio January 2007 (has links)
Em cenas naturais, ocorrem com certa freqüência classes espectralmente muito similares, isto é, os vetores média são muito próximos. Em situações como esta dados de baixa dimensionalidade (LandSat-TM, Spot) não permitem uma classificação acurada da cena. Por outro lado, sabe-se que dados em alta dimensionalidade tornam possível a separação destas classes, desde que as matrizes covariância sejam suficientemente distintas. Neste caso, o problema de natureza prática que surge é o da estimação dos parâmetros que caracterizam a distribuição de cada classe. Na medida em que a dimensionalidade dos dados cresce, aumenta o número de parâmetros a serem estimados, especialmente na matriz covariância. Contudo, é sabido que, no mundo real, a quantidade de amostras de treinamento disponíveis, é freqüentemente muito limitada, ocasionando problemas na estimação dos parâmetros necessários ao classificador, degradando, portanto a acurácia do processo de classificação, na medida em que a dimensionalidade dos dados aumenta. O Efeito de Hughes, como é chamado este fenômeno, já é bem conhecido no meio científico, e estudos vêm sendo realizados com o objetivo de mitigar este efeito. Entre as alternativas propostas com a finalidade de mitigar o Efeito de Hughes, encontram-se as técnicas que utilizam amostras não rotuladas e amostras semi-rotuladas para minimizar o problema do tamanho reduzido das amostras de treinamento. Deste modo, técnicas que utilizam amostras semi-rotuladas, tornamse um tópico interessante de estudo, bem como o comportamento destas técnicas em ambientes de dados de imagens digitais de alta dimensionalidade em sensoriamento remoto, como por exemplo, os dados fornecidos pelo sensor AVIRIS. Neste estudo foi dado prosseguimento à metodologia investigada por Lemos (2003), o qual implementou a utilização de amostras semi-rotuladas para fins de estimação dos parâmetros do classificador Máxima Verossimilhança Gaussiana (MVG). A contribuição do presente trabalho consistiu na inclusão de uma etapa adicional, introduzindo a estimação das probabilidades a priori P( wi) referentes às classes envolvidas para utilização no classificador MVG. Desta forma, utilizando-se funções de decisão mais ajustadas à realidade da cena analisada, obteve-se resultados mais acurados no processo de classificação. Os resultados atestaram que com um número limitado de amostras de treinamento, técnicas que utilizam algoritmos adaptativos, mostram-se eficientes em reduzir o Efeito de Hughes. Apesar deste Efeito, quanto à acurácia, em todos os casos o modelo quadrático mostrou-se eficiente através do algoritmo adaptativo. A conclusão principal desta dissertação é que o método do algoritmo adaptativo é útil no processo de classificação de imagens com dados em alta dimensionalidade e classes com características espectrais muito próximas. / In natural scenes there are some cases in which some of the land-cover classes involved are spectrally very similar, i.e., their first order statistics are nearly identical. In these cases, the more traditional sensor systems such as Landsat-TM and Spot, among others usually result in a thematic image low in accuracy. On the other hand, it is well known that high-dimensional image data allows for the separation of classes that are spectrally very similar, provided that their second-order statistics differ significantly. The classification of high-dimensional image data, however, poses some new problems such as the estimation of the parameters in a parametric classifier. As the data dimensionality increases, so does the number of parameters to be estimated, particularly in the covariance matrix. In real cases, however, the number of training samples available is usually limited preventing therefore a reliable estimation of the parameters required by the classifier. The paucity of training samples results in a low accuracy for the thematic image which becomes more noticeable as the data dimensionality increases. This condition is known as the Hughes Phenomenon. Different approaches to mitigate the Hughes Phenomenon investigated by many authors have been reported in the literature. Among the possible alternatives that have been proposed, the so called semi-labeled samples has shown some promising results in the classification of remote sensing high dimensional image data, such as AVIRIS data. In this dissertation the approach proposed by Lemos (2003) is further investigated to increase the reliability in the estimation of the parameters required by the Gaussian Maximum Likelihood (GML) classifier. In this dissertation, we propose a methodology to estimate the a priory probabilities P( i) required by the GMV classifier. It is expected that a more realistic estimation of the values for the a priory probabilities well help to increase the accuracy of the thematic image produced by the GML classifier. The experiments performed in this study have shown an increase in the accuracy of the thematic image, suggesting the adequacy of the proposed methodology.
137

Desenvolvimento de um espectrofotômetro para medidas de absorção/emissão na região do visível utilizando mini lâmpada incandescente, mídia de DVD e smartphone

Oliveira, Helton Jader Souza de 27 August 2015 (has links)
Submitted by Maike Costa (maiksebas@gmail.com) on 2016-05-10T13:37:38Z No. of bitstreams: 1 arquivo total.pdf: 3109388 bytes, checksum: 647810f9fb25d144a271d5f256240096 (MD5) / Made available in DSpace on 2016-05-10T13:37:38Z (GMT). No. of bitstreams: 1 arquivo total.pdf: 3109388 bytes, checksum: 647810f9fb25d144a271d5f256240096 (MD5) Previous issue date: 2015-08-27 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES / A spectrophotometer for absorption measurements / emission, simple, portable and as partially partial dual mode for quantitative experiments was constructed using cheap and available materials is proposed in this paper. The instrument, here called SpectroPhone consists of modules made of MDF, one DVD as a diffraction grating media, two mini white incandescent lamps as radiation source and a Smartphone to acquire images and perform data processing, such as detector. The pixels of a region produced in a spectral images provide qualitative and quantitative information after the application of the concepts and HSV color model RGB, respectively. A simple algorithm based on HSV was developed for the conversion of the hue values (H) in their corresponding λ. Its analytical performance was assessed by quantitative analysis based on analytical curves, specimens of which have been validated by analysis of variance (ANOVA). The SpectroPhone was applied to the determination of Fe2+ in the absorption mode in pharmaceutical samples, and Na+, in emission mode and in natural saline water. For comparison purposes, a commercial spectrophotometer for absorption mode and a photometer for commercial flame emission mode were used to construct the calibration curves of the reference instrument. Applying the paired t test at 95% confidence for the results of concentrations obtained with the instruments, it is observed that there was no statistically significant difference showing high precision and accuracy. SpectroPhone can be considered a good alternative to instrumental spectrometric measurements, not just limited to educational and academic purposes. / Um espectrofotômetro para medidas de absorção/emissão, simples, parciamente portátil e modo duplo parcial para experimentos quantitativos foi construído usando materiais baratos e disponíveis é proposto neste trabalho. O instrumento, aqui chamado de SpectroPhone é composto por módulos confeccionados em MDF, uma mídia de DVD como rede de difração, duas mini lâmpadas incadescentes branca como fonte de radiação e um Smartphone para adquirir imagens e realizar tratamento de dados, como detector. Os pixels de uma região produzida em uma imagens digital fornecem informações qualitativas e quantitativas após a aplicações do HSV e conceitos do modelo de cor RGB, respectivamente. Um simples algoritmo baseado em HSV foi desenvolvido para a conversão dos valores do matiz (H) em seu λ correspondentes. Seu desempenho analítico foi avaliado por meio de análises quantitativas baseados em curvas analíticas, cujos modelos foram validados por meio da análise de variância (ANOVA). O SpectroPhone foi aplicado na determinação de Fe2+ no modo de absorção em amostras farmacêuticas, e Na+, no modo de emissão em soro fisiológico e em água naturais. Para fins de comparação, um espectrofotômetro comercial para o modo de absorção e um fotômetro em chama comercial para o modo de emissão foram empregados para construir as curvas analíticas do instrumento de referência. Aplicando o teste t pareado ao nível de 95% de confiança para os resultados de concentrações obtidas com os instrumentos, observa-se que não houve diferença estatisticamente significativa apresentando alta precisão e exatidão. O SpectroPhone pode ser considerado uma boa alternativa instrumental para medições espectrométricas, não apenas limitada para fins didáticos e acadêmicos.
138

Segmentação de Imagens via Análise de Sensibilidade

Pereira, Roberta Ribeiro Guedes 03 April 2012 (has links)
Made available in DSpace on 2015-05-08T14:53:37Z (GMT). No. of bitstreams: 1 arquivototal.pdf: 1867949 bytes, checksum: e215bd83c33614620ee1baf3db08ebb4 (MD5) Previous issue date: 2012-04-03 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES / Segmentation is the phase of the image processing where the input image is divided into constituent parts or objects. In general, the automatic segmentation is one of the most difficult tasks in digital image processing. In this work we used the topological sensitivity analysis as segmentation technique. The idea of segmentation of images via topological sensitivity analysis is to consider the class switching as an infinitesimal non-smooth perturbation of a pixel and calculate the sensitivity to this perturbation by a functional form associated with this disorder. In fact, the algorithms in the literature using the above approach are based on the Mumford-Shah functional whose minimum value is associated with the segmented image. The topological derivative is a scalar field that provides a first order approximation of the functional disorder associated with each pixel for each class of segmentation. Thus, in pixels where the topological derivative takes its most negative values ??will decrease the cost function and the corresponding change will result in better targeting than the previous. This work aims to present a comparative analysis of four segmentation algorithms based on topological derivative, three of them taken from the literature: Top-Shape 1, Shape 2 and Top-Sdt-Discrete, and the last top-Shape3, a new algorithm. The construction of the last algorithm is motivated by the analysis of the previous algorithms and limiting characteristics found, and derived results with higher quality and performance / A segmenta¸c ao ´e a fase do processamento de imagens onde a imagem de entrada ´e dividida em partes ou objetos constituintes. Em geral, a segmenta¸c ao autom´atica ´e uma das tarefas mais dif´ıceis no processamento de imagem digital . Neste trabalho ´e empregada a an´alise de sensibilidade topol´ogica como t´ecnica de segmenta¸c ao. A ideia da segmenta¸c ao de imagens via an´alise de sensibilidade topol´ogica ´e considerar a mudan¸ca de classe de um pixel como perturba¸c ao infinitesimal n ao suave e, calcular a sensibilidade a esta perturba¸c ao atrav´es de um funcional de forma associado a esta perturba¸c ao. De fato, os algoritmos encontrados na literatura que utilizam a abordagem acima s ao baseados no funcional de Mumford-Shah cujo valor m´ınimo est´a associado `a imagem segmentada. A derivada topol´ogica ´e um campo escalar que fornece uma aproxima¸c ao de primeira ordem do funcional associado a perturba¸c ao de cada pixel para cada uma das classes da segmenta¸c ao. Assim, nos pixels onde a derivada topol´ogica assume seus valores mais negativos a fun¸c ao custo ir´a diminuir e a mudan¸ca correspondente ir´a resultar numa segmenta¸c ao melhor do que a anterior. Este trabalho tem como objetivo apresentar uma an´alise comparativa entre quatro algoritmos de segmenta¸c ao baseados em derivada topol´ogica, sendo tr es deles extra´ıdos da literatura: Topo-Shape 1, Topo-Shape 2 e Sdt-Discrete , e o ´ultimo Topo-Shape3, novo algoritmo proposto. A constru¸c ao deste algoritmo ´e motivada pela an´alise dos algoritmos anteriores e caracter´ısticas limitantes encontradas, o que derivou resultados com maior qualidade e desempenho
139

Reconhecimento de contorno de edifício em imagens de alta resolução usando os momentos complexos de Zernike /

Imada, Renata Nagima. January 2014 (has links)
Orientador: Aluir Porfírio Dal Poz / Banca: Edson Aparecido Mitishita / Banca: Aylton Pagamisse / Resumo: Nesta pesquisa foi estudado um m etodo de reconhecimento de contornos de telhado de edif cios em imagens digitais de alta resolu c~ao, que classi ca-os com rela c~ao a sua forma. O m etodo baseia-se nos momentos de Zernike, que s~ao baseados nos polin^omios ortogonais de Zernike, em que cria-se um vetor de caracter sticas para cada regi~ao da imagem, que deve ser previamente segmentada de maneira que seus objetos sejam divididos em diferentes regi~oes. Este m etodo para a descri c~ao de forma baseia-se na area do objeto de interesse e possui a caracter stica dos momentos serem invariantes em rela c~ao as transforma c~oes geom etricas de rota c~ao, transla c~ao e escala, que o torna atrativo para o problema de an alise de imagem proposto. Desse modo, foi criada uma base de dados contendo esbo cos (ou modelos) de poss veis apari c~oes de contornos de telhado de edif cio numa dada cena, para que seja associado tamb em um vetor de caracter sticas de Zernike para estes esbo cos. Assim, a dist^ancia euclidiana entre este vetor e o vetor de caracter sticas calculado a partir de uma regi~ao segmentada na imagem, permite dizer se a regi~ao dada corresponde a um contorno de edif cio ou a outro objeto. A capacidade de discrimina c~ao do m etodo proposto entre diferentes formas de edif cios, e tamb em entre formas de edif cios e n~ao edif cios foi avaliada experimentalmente e mostrou resultados positivos. / Abstract: In this research, a method of recognition of building roof contours in high-resolution digital images which classi es them with respect to their form was studied. The method is based on Zernike moments, which are based on orthogonal Zernike polynomials and it creates a feature vector for each image region. The image segmentation has to be made rst to de ne di erent regions for its objects. This method for shape analysis is based on the object area of interest and the moments has the characteristic of being invariant under geometric transformations of rotation, translation and scaling, this makes it attractive to the proposed image analysis problem. Thus, a database containing sketches (or models) of possible appearances of building roof contours in a given scene was created, so a Zernike feature vector was also associated for these sketches. Therefore, the Euclidean distance between this vector and the feature vector calculated from a segmented region in the image lets say if the given region corresponds to a building contour or other object. The capacity of the proposed method in discriminating di erent building shapes and also in discriminating building shapes from non-building shapes was evaluated experimentally and it showed positive results. / Mestre
140

Detecção de mudanças a partir de imagens de fração

Bittencourt, Helio Radke January 2011 (has links)
A detecção de mudanças na superfície terrestre é o principal objetivo em aplicações de sensoriamento remoto multitemporal. Sabe-se que imagens adquiridas em datas distintas tendem a ser altamente influenciadas por problemas radiométricos e de registro. Utilizando imagens de fração, obtidas a partir do modelo linear de mistura espectral (MLME), problemas radiométricos podem ser minimizados e a interpretação dos tipos de mudança na superfície terrestre é facilitada, pois as frações têm um significado físico direto. Além disso, interpretações ao nível de subpixel são possíveis. Esta tese propõe três algoritmos – rígido, suave e fuzzy – para a detecção de mudanças entre um par de imagens de fração, gerando mapas de mudança como produtos finais. As propostas requerem a suposição de normalidade multivariada para as diferenças de fração e necessitam de pouca intervenção por parte do analista. A proposta rígida cria mapas de mudança binários seguindo a mesma metodologia de um teste de hipóteses, baseando-se no fato de que os contornos de densidade constante na distribuição normal multivariada são definidos por valores da distribuição qui-quadrado, de acordo com a escolha do nível de confiança. O classificador suave permite gerar estimativas da probabilidade do pixel pertencer à classe de mudança, a partir de um modelo de regressão logística. Essas probabilidades são usadas para criar um mapa de probabilidades de mudança. A abordagem fuzzy é aquela que melhor se adapta ao conceito de pixel mistura, visto que as mudanças no uso e cobertura do solo podem ocorrer em nível de subpixel. Com base nisso, mapas dos graus de pertinência à classe de mudança foram criados. Outras ferramentas matemáticas e estatísticas foram utilizadas, tais como operações morfológicas, curvas ROC e algoritmos de clustering. As três propostas foram testadas utilizando-se imagens sintéticas e reais (Landsat-TM) e avaliadas qualitativa e quantitativamente. Os resultados indicam a viabilidade da utilização de imagens de fração em estudos de detecção de mudanças por meio dos algoritmos propostos. / Land cover change detection is a major goal in multitemporal remote sensing applications. It is well known that images acquired on different dates tend to be highly influenced by radiometric differences and registration problems. Using fraction images, obtained from the linear model of spectral mixing (LMSM), radiometric problems can be minimized and the interpretation of changes in land cover is facilitated because the fractions have a physical meaning. Furthermore, interpretations at the subpixel level are possible. This thesis presents three algorithms – hard, soft and fuzzy – for detecting changes between a pair of fraction images. The algorithms require multivariate normality for the differences among fractions and very little intervention by the analyst. The hard algorithm creates binary change maps following the same methodology of hypothesis testing, based on the fact that the contours of constant density are defined by chi-square values, according to the choice of the probability level. The soft one allows for the generation of estimates of the probability of each pixel belonging to the change class by using a logistic regression model. These probabilities are used to create a map of change probabilities. The fuzzy approach is the one that best fits the concept behind the fraction images because the changes in land cover can occurr at a subpixel level. Based on these algorithms, maps of membership degrees were created. Other mathematical and statistical techniques were also used, such as morphological operations, ROC curves and a clustering algorithm. The algorithms were tested using synthetic and real images (Landsat-TM) and the results were analyzed qualitatively and quantitatively. The results indicate that fraction images can be used in change detection studies by using the proposed algorithms.

Page generated in 0.1748 seconds