• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 6
  • Tagged with
  • 6
  • 6
  • 6
  • 6
  • 4
  • 4
  • 4
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Localização de faltas em linhas de média e alta tensão utilizando codificação eficiente / Localization of lacks in average lines and high tension using efficient codification

Sousa, Maxwell Borges de 12 July 2005 (has links)
Made available in DSpace on 2016-08-17T14:52:59Z (GMT). No. of bitstreams: 1 Maxwell Borges de Sousa.pdf: 1084993 bytes, checksum: 17b2b4e74064d8f28393d8a5d69dbff6 (MD5) Previous issue date: 2005-07-12 / Signal processing techniques have been used to estimate fault location in medium and high voltage transmission lines, taking into account information obtained from travelling waves, generated at the moment of the fault. The main problem is to find the second reverse travelling wave that reflects on the fault point and returns to the measurement point from diferent fault angles and submitted to many signals related to the disturbance but not correlated to the desired signal. Several methods have been proposed in the literature. This work shows an alternative method based on the e±cient coding, through Independent Component Analysis. Results obtained using a real power system model indicated that the proposed methodology is promising in the location of faults, from diferent fault angles and submitted to many signals related to the disturbance but not correlated to the desired signal. / Técnicas de processamento de sinais têm sido usadas para estimar a localização de faltas em linhas de média e alta tensão, a partir de informações obtidas das ondas viajantes geradas no momento em que ocorre uma falta. O principal problema é encontrar a segunda onda viajante reversa que reflete no ponto de falta e retorna ao ponto de medição, a partir de diferentes ângulos de faltas e sujeitas a vários sinais de perturbação não-correlacionados com o sinal desejado. Vários métodos têm sido propostos na literatura. Este trabalho mostra um método alternativo baseado na codificação eficiente, através da utilização da Análise de Componentes Independentes (ICA). Resultados obtidos com a simulação de um sistema real indicam que a metodologia proposta é uma ferramenta promissora na localização de faltas, a partir de diferentes ângulos de incidência e sujeitas a distúrbios não-correlacionados com o sinal desejado.
2

Codificação Eficiente de Sinais de Eletrocardiograma / Efficient Coding of ECG signals

Araújo, Enio Aguiar de 28 May 2010 (has links)
Made available in DSpace on 2016-08-17T14:53:09Z (GMT). No. of bitstreams: 1 Enio Aguiar de Araujo.pdf: 4163087 bytes, checksum: 164f9ddea4dce2f8f19d8e66d5e8294f (MD5) Previous issue date: 2010-05-28 / Typically, in the digital processing of electrocardiography signal, linear transformations are used to turn the signals more tractable in accordance to some application. For applications such as classification or data compression, it usually aimed to reduce the redundancy present in the signals, increasing the potential of the applications. There are various methods usually used for the task, the Fourier transform, the wavelet transform and principal component analysis. All those methods have any sort of limitation, being the use of a predefined space, orthogonal spaces or the limitations to second order statistics. In this work we propose the use of the independent component analysis method for the encoding of the ECG signals, using as theoretical basis the neuroscience concept of efficient coding. Two important results were found, the basis functions space generated by the proposed method is different from the spaces seen on the usual methods, and, on average, the method can reduce the redundancy of the signal. We concluded that the traditional methods might not exploit the coding potential of ECG signals due to their limitations, and also that ICA might be a reliable method for improving the performance comparing to the current systems. / Tipicamente, em processamento digital de sinais de eletrocardiografia, são utilizadas transformações lineares visando tornar os sinais mais tratáveis de acordo com a aplicação. Para aplicações como classificação ou compressão de dados, normalmente temse como objetivo dessas transformações, reduzir a redundãncia presente nesses sinais, o que aumenta o potencial dessas aplicações. Existem diversos métodos usualmente utilizados para essa tarefa, como a transformada de Fourier, a transformada de Wavelets, e análise de componentes principais. Todos esses métodos tem alguma limitação, seja a utilização de um espaço predefinido e ortogonal ou utilizar apenas estatística de segunda ordem. Neste trabalho propomos a utilização do método de análise de componentes independentes para a codificação de sinais de ECG utilizando como base o conceito da neurociência de codificação eficiente. Dois resultados importantes foram obtidos, o espaço de funções bases gerado pelo método proposto se diferencia dos espaços de transformações utilizados usualmente, e, em média, o método proposto teve maior capacidade de reduzir a redundância dos sinais. Concluímos que os métodos tradicionais podem não explorar ao máximo o potencial de codificação de sinais de ECG devido às suas limitações, e que ICA pode ser um método plausível para melhorarmos os sistemas atualmente utilizados.
3

PROCESSAMENTO E ANÁLISE DE SINAIS MAMOGRÁFICOS NA DETECÇÃO DO CÂNCER DE MAMA: Diagnóstico Auxiliado por Computador (CAD) / PROCESSING AND ANALYSIS OF MAMMOGRAPHIC SIGNALS IN THE DETECTION OF BREAST CANCER: Computer Aided Diagnosis (CAD)

Costa, Daniel Duarte 06 December 2012 (has links)
Made available in DSpace on 2016-08-16T18:18:41Z (GMT). No. of bitstreams: 1 Tese Daniel Duarte Costa.pdf: 3067192 bytes, checksum: b9a8d78583596a2e1dff6298c4a89014 (MD5) Previous issue date: 2012-12-06 / Conselho Nacional de Desenvolvimento Científico e Tecnológico / Breast cancer is the leading cause of cancer death among women in Western countries. To improve the accuracy of diagnosis by radiologists and doing it so early, new computer vision systems have been developed and improved with the passage of time. Some methods of the detection and classification of lesions in mammography images for computer systems diagnostic (CAD) were developed using different statistical techniques. In this thesis, we present methodologies of CADs systems to detect and classify mass regions in mammographic images, from two image databases: DDSM and MIAS. The results show that it is possible by these methods to obtain a detection rate of up to 96% of mass regions, using efficient coding technique and K-means clustering algorithm. To classify regions in mass or non-mass correctly, was obtained a success rate up to 90% using the independent component analysis (ICA) and linear discriminant analysis (LDA). From these results generated a web application, called SADIM (Sistema de Auxílio a Diagnóstico de Imagem Mamográfica), which can be used by any registered professional. / O câncer de mama é a principal causa de morte por câncer na população feminina dos países ocidentais. Para melhorar a precisão do diagnóstico por radiologistas e fazê-lo de forma precoce, novos sistemas de visão computacional têm sido criados e melhorados com o decorrer do tempo. Alguns métodos de detecção e classificação da lesão em imagens radiológicas, por sistemas de diagnósticos por computador (CAD), foram desenvolvidos utilizando diferentes técnicas estatísticas. Neste trabalho, apresentam-se metodologias de sistemas CADs para detectar e classificar regiões de massa em imagens mamográficas, oriundas de duas bases de imagens: DDSM e MIAS. Os resultados mostram que é possível, através destas metodologias, obter uma taxa de detecção de até 96% das regiões de massa, utilizando a técnica de codificação eficiente com o algoritmo de agrupamento k-means, e classificar corretamente as regiões de massa em até 90% utilizando-se das técnicas de análise de componentes independentes (ICA) e análise discriminante linear (LDA). A partir destes resultados gerou-se uma aplicação web, denominada SADIM (Sistema de Auxílio a Diagnóstico de Imagem Mamográfica), que pode ser utilizado por qualquer profissional cadastrado. Palavras-chave: processamento de imagens médicas; diagnóstico auxiliado por computador; mamografias análise de imagens; codificação eficiente.
4

DIAGNÓSTICO DE DIABETES TIPO II POR CODIFICAÇÃO EFICIENTE E MÁQUINAS DE VETOR DE SUPORTE / DIAGNOSIS OF DIABETES TYPE II BY EFFICIENT CODING AND VECTOR MACHINE SUPPORT

Ribeiro, Aurea Celeste da Costa 30 June 2009 (has links)
Made available in DSpace on 2016-08-17T14:53:05Z (GMT). No. of bitstreams: 1 Aurea Celeste da Costa Ribeiro.pdf: 590401 bytes, checksum: 1ec80bb8ac1a3e674ff49966fa9b383c (MD5) Previous issue date: 2009-06-30 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Diabetes is a disease caused by the pancreas failing to produce insulin. It is incurable and its treatment is based on a diet, exercise and drugs. The costs for diagnosis and human resources for it have become high and ine±cient. Computer- aided design (CAD) systems are essential to solve this problem. Our study proposes a CAD system based on the one-class support vector machine (SVM) method and the eficient coding with independent component analysis (ICA) to classify a patient's data set in diabetics or non-diabetics. First, the classification tests were done using both non-invasive and invasive characteristics of the disease. Then, we made one test without the invasive characteristics: plasma glucose concentration and 2-Hour serum insulin (mu U/ml), which use blood samples. We have obtained an accuracy of 99.84% and 99.28%, respectively. Other tests were made without the invasive characteristics, also excluding one non-invasive characteristic at a time, to observe the influence of each one in the final results. / Diabetes é uma doença causada pela falência do pâncreas em produzir insulina, é incurável e seu tratamento é baseado em dietas, exercícios e remédios. Os custos com o tratamento, diagnóstico na população e combate da doença tornam-se cada vez mais altos. Sistemas de auxíio ao diagnóstico da doença são uma das soluções para ajudar na diminuição dos custos com a doença. Nosso método propõe um sistema de auxílio de diagnóstico baseado nas máquinas de vetor de suporte para uma classe e na codificação eficiente através da análise de componentes independentes para classificar uma base de dados de pacientes em diabéticos e não-diabéticos. Primeiramente, foram feitos testes de classificação com as características não- invasivas e invasivas da base de dados juntas. Em seguida, fizemos um teste sem as características invasivas da base de dados, que são glicose e insulina em jejum, que são feitas com a coleta sanguínea. Obteve-se uma taxa de acurácia de 99,84% e 99,28%, respectivamente. Outros testes foram feitos sem as características invasivas, tirando uma característica não-invasiva por vez, com o fim de observar a influência de cada uma no resultado final.
5

Compressão de imagens utilizando análise de componentes independentes / COMPRESSION FOR IMAGE ANALYSIS USING INDEPENDENT COMPONENTS

Sousa Junior, Carlos Magno 20 March 2007 (has links)
Made available in DSpace on 2016-08-17T14:53:09Z (GMT). No. of bitstreams: 1 Carlos Magno.pdf: 663844 bytes, checksum: a783e1b5874266e0e7bca44dc3f315ae (MD5) Previous issue date: 2007-03-20 / Redundancy is an old issue in data compression research. Compression methods that use statistics have been heavily influenced by neuroscience research. In this work, we propose an image compression system based on the efficient coding concept derived from neural information processing models. The system performance is compared with discrete cosine transform (DCT) and principal components analysis (PCA) results at several compression ratios (CR). Evaluation through both objective measurements and visual inspection showed that the proposed system is more robust to distortions such as blocking artifacts than DCT and PCA. / A redundância é um assunto antigo em pesquisa sobre compressão de dados. Os métodos de compressão de dados que usam estatísticas foram recentemente influenciados pelas pesquisas em neurociência. Neste trabalho, propomos um sistema de compressão de imagem baseado no conceito de codificação eficiente derivado dos modelos de processamento da informação neural. O desempenho do sistema é comparado aos resultados da transformada discreta cosseno (DCT) e análise de componentes principais (PCA) com a mesma taxa de compressão (CR). A avaliação através das medidas objetiva e visual mostrou que o sistema proposto apresentou menos distorções, tais como artefatos de blocos do que a DCT e PCA.
6

Campos receptivos similares às wavelets de Haar são gerados a partir da codificação eficiente de imagens urbanas;V1 / Receptive fields similar to those of wavelets are generated by Haar from the consolidation of efficient urban images

Cavalcante, André Borges 25 February 2008 (has links)
Made available in DSpace on 2016-08-17T14:52:43Z (GMT). No. of bitstreams: 1 Andre Borges Cavalcante.pdf: 1739525 bytes, checksum: 2073615c7df203b086d5c76276905a35 (MD5) Previous issue date: 2008-02-25 / Efficient coding of natural images yields filters similar to the Gabor-like receptive fields of simple cells of primary visual cortex. However, natural and man-made images have different statistical proprieties. Here we show that a simple theoretical analysis of power spectra in a sparse model suggests that natural and man-made images would need specific filters for each group. Indeed, when applying sparse coding to man-made scenes, we found both Gabor and Haar wavelet-like filters. Furthermore, we found that man-made images when projected on those filters yielded smaller mean squared error than when projected on Gabor-like filters only. Thus, as natural and man-made images require different filters to be efficiently represented, these results suggest that besides Gabor, the primary visual cortex should also have cells with Haar-like receptive fields. / A codificação eficiente de imagens naturais gera filtros similares às wavelets de Gabor que relembram os campos receptivos de células simples do córtex visual primário. No entanto, imagens naturais e urbanas tem características estatísticas diferentes. Será mostrado que uma simples análise do espectro de potência em um modelo eficiente sugere que imagens naturais e urbanas requerem filtros específicos para cada grupo. De fato, aplicando codificação eficiente à imagens urbanas, encontramos filtros similares às wavelets de Gabor e de Haar. Além disso, observou-se que imagens urbanas quando projetadas nesses filtros geraram um menor erro médio quadrático do que quando projetadas somente em filtros de similares a Gabor. Desta forma, como imagens naturais e urbanas requerem filtros diferentes para serem representadas de forma eficiente, estes resultados sugerem que além de Gabor, o córtex visual primário também deve possuir células com campos receptivos similares às wavelets de Haar.

Page generated in 0.0887 seconds