• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 28
  • 4
  • Tagged with
  • 32
  • 32
  • 17
  • 14
  • 14
  • 14
  • 10
  • 7
  • 6
  • 6
  • 6
  • 6
  • 6
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Compressão de sinais ECG utilizando DWT com quantização não-linear e por sub-bandas

Campitelli, Marcelo Adrián 14 December 2015 (has links)
Dissertação (mestrado)—Universidade de Brasília, Faculdade de Tecnologia, Departamento de Engenharia Elétrica, 2015. / Submitted by Albânia Cézar de Melo (albania@bce.unb.br) on 2016-02-23T16:38:33Z No. of bitstreams: 1 2015_MarceloAdrianCampitelli.pdf: 2323124 bytes, checksum: 45791074bc64885c0526dc991339d062 (MD5) / Approved for entry into archive by Marília Freitas(marilia@bce.unb.br) on 2016-02-25T12:57:08Z (GMT) No. of bitstreams: 1 2015_MarceloAdrianCampitelli.pdf: 2323124 bytes, checksum: 45791074bc64885c0526dc991339d062 (MD5) / Made available in DSpace on 2016-02-25T12:57:08Z (GMT). No. of bitstreams: 1 2015_MarceloAdrianCampitelli.pdf: 2323124 bytes, checksum: 45791074bc64885c0526dc991339d062 (MD5) / Com o desenvolvimento cada vez mais intenso da tecnologia de dispositivos biomédicos, há cada vez mais acesso aos sinais bioelétricos, o que permite grande avanço na realização de diagnósticos, planejamento de tratamentos e monitoração de pacientes. Particularmente, o eletrocardiograma (ECG) tem sido usado para muitos propósitos. Além disso, novas formas simples e de baixo custo para adquirir o ECG tem sido descobertas. Entretanto, esses avanços exigem o melhoramento dos processos de codificação do sinal de ECG, de forma a permitir seu armazenamento e transmissão eficientemente em termos de requisitos de memória e consumo de energia. Neste contexto, o presente trabalho propõe duas contribuições. Em primeiro lugar, apresenta um algoritmo de compressão de sinais ECG, utilizando transformadas wavelets, e propondo um processo de quantização novo, não encontrado na literatura. Nesse processo, a transformação é realizada utilizando a transformada discreta de wavelets (DWT) e a quantização consiste em um re-ordenamento não-linear das magnitudes dos coeficientes transformados (correção gamma) em conjunto com uma quantização por sub-bandas. A segunda contribuição consiste num estudo sistemático do desempenho das diferentes famílias de wavelets nos resultados obtidos pelo algoritmo proposto, calculando também os parâmetros ótimos de quantização para cada família wavelet utilizada. Para a análise desses métodos, foram realizados testes avaliando o desempenho do algoritmo proposto e comparando os resultados com outros métodos apresentados na literatura. Nesses testes, foram usados como referências os sinais da base de dados do Instituto de Tecnologia de Massachusetts e do Hospital Beth Israel de Boston (MIT-BIH). Uma parcela do banco de dados foi utilizada para otimizar os parâmetros de cada família wavelet no algoritmo proposto, e o desempenho final foi avaliado com todos os sinais restantes. Especificamente, para o sinal 117 do MIT-BIH, que é o sinal mais utilizado para comparar resultados na literatura, o método proposto levou a um fator de compressão (CR) de 11,40 e uma raiz da diferença média percentual (PRD) de 1,38. Demonstrou-se que o algoritmo gera melhores resultados de compressão quando comparado com a maioria dos métodos do estado-da-arte. Também se destaca a simplicidade na implementação do algoritmo em relação a outros encontrados na literatura. / With the increasing development of biomedical devices technology, there is more access to bioelectrical signals. That allows great advances in reaching diagnostics, planning treatments and monitoring patients. Particularly, the electrocardiogram (ECG) has been used for many purposes. Besides that, simple and low-cost ways to acquire the ECG have been found. Nevertheless, those advances require the improvement of the ECG signal coding processes, in a way that allows its efficient storage and transmission in terms of memory requirements and energy consumption. In this context, this dissertation proposes two contributions. Firstly, it presents an ECG signal compression algorithm, using wavelet transforms, and proposing a novel quantization process, not found in the literature. In said process, the transformation is done using the discrete wavelet transform (DWT) and the quantization consists of a non-linear re-ordering of the transformed coefficients magnitudes (gamma correction) in tandem with a sub-band quantization. The second contribution consists in a systematic study of the performance of the different wavelet families through the results obtained by the proposed algorithm, also calculating the optimum quantization parameters for each wavelet family. For the analysis of these methods, tests were done evaluating the performance of the proposed algorithm, comparing its results with other methods presented in the literature. In said tests, signals from the Massachusetts Institute of Technology and Boston’s Beth Israel Hospital database (MIT-BIH) were used as reference. A part of the database was utilized to optimize the parameters of each wavelet family, and the final performance was evaluated with the remaining signals from the database. Specifically, for signal 117 of the MIT-BIH database, which is the most used signal to compare results in the literature, the proposed method led to a compression factor (CR) of 11,40 and a percentage root-mean-square difference (PRD) of 1,38. It was demonstrated that the algorithm generates better compression results when compared to the majority of state-of-the-art methods. The simplicity of the algorithm’s implementation also stands out in relation to other algorithms found in the literature.
2

Concepção e realização de uma interface hadware/software destinada à aquisição de sinais cardíacos utilizando tecnologia sem fio

Marques, Ednaldo Ferreira 07 January 2010 (has links)
Submitted by LIVIA FREITAS (livia.freitas@ufba.br) on 2016-01-22T15:54:54Z No. of bitstreams: 1 DissertacaoMscEdnaldo.pdf: 18094265 bytes, checksum: abe612737a6df2686311f28fc738d312 (MD5) / Approved for entry into archive by Uillis de Assis Santos (uillis.assis@ufba.br) on 2016-02-15T21:23:31Z (GMT) No. of bitstreams: 1 DissertacaoMscEdnaldo.pdf: 18094265 bytes, checksum: abe612737a6df2686311f28fc738d312 (MD5) / Made available in DSpace on 2016-02-15T21:23:31Z (GMT). No. of bitstreams: 1 DissertacaoMscEdnaldo.pdf: 18094265 bytes, checksum: abe612737a6df2686311f28fc738d312 (MD5) / Neste trabalho apresenta-se a metodologia para concepção de equipamento para estudo da eletrofisiologia cardíaca, desenvolvendo uma interface de hardware/software capaz de adquirir, tratar e exibir os sinais biomédicos do coração. Requisitos de projeto como o baixo custo, a portabilidade, a compatibilidade eletromagnética e a isolação galvânica da rede elétrica foram estabelecidos, porém foram respeitadas todas as regras de ergonomia, amostragem, filtragem e padronização da representação gráfica do eletrocardiograma (ECG) visando atender as normas vigentes. Para tanto, uma breve introdução sobre a área de eletrocardiografia foi realizada, contextualizando o presente Trabalho. O sistema e composto por três subsistemas principais: um hardware microcontrolado que capta o sinal de três derivações de ECG através de eletrodos colocados na superfície do corpo do paciente e os transmite a um computador pessoal (PC) remoto por tecnologia sem fio (wireless); um firmware residente no núcleo do sistema, um DSP (Digital Signal Processor), responsável pelo gerenciamento do sistema, pelo calculo numérico e pelo processamento digital de sinais; e um software, escrito em linguagem C++ (sistema operacional Windows), executado no PC responsável pela visualização e padronização dos dados adquiridos. Este trabalho contempla também um estudo do protocolo Bluetooth, para a formação de redes wireless com os equipamentos desenvolvidos, com o objetivo de monitorar o comportamento cardíaco de vários pacientes em um único ponto de concentração.
3

Concepção e realização de uma interface hardware /software destinada à aquisição de sinais cardíacos utilizando tecnologia sem fio

Marques, Ednaldo Ferreira January 2009 (has links)
Submitted by Diogo Barreiros (diogo.barreiros@ufba.br) on 2017-02-17T14:50:27Z No. of bitstreams: 1 DissertacaoMscEdnaldo.pdf: 18094265 bytes, checksum: abe612737a6df2686311f28fc738d312 (MD5) / Approved for entry into archive by Vanessa Reis (vanessa.jamile@ufba.br) on 2017-02-17T15:02:35Z (GMT) No. of bitstreams: 1 DissertacaoMscEdnaldo.pdf: 18094265 bytes, checksum: abe612737a6df2686311f28fc738d312 (MD5) / Made available in DSpace on 2017-02-17T15:02:35Z (GMT). No. of bitstreams: 1 DissertacaoMscEdnaldo.pdf: 18094265 bytes, checksum: abe612737a6df2686311f28fc738d312 (MD5) / NESTE Trabalho apresenta-se a metodologia para concep¸c˜ao de equipamento para estudo da eletrofisiologia card´ıaca, desenvolvendo uma interface de hardware/software capaz de adquirir, tratar e exibir os sinais biom´edicos do cora¸c˜ao. Requisitos de projeto como o baixo custo, a portabilidade, a compatibilidade eletromagn´etica e a isola¸c˜ao galvˆanica da rede el´etrica foram estabelecidos, por´em foram respeitadas todas as regras de ergonomia, amostragem, filtragem e padroniza¸c˜ao da representa¸c˜ao gr´afica do eletrocardiograma (ECG) visando atender as normas vigentes. Para tanto, uma breve introdu¸c˜ao sobre a ´area de Eletrocardiografia foi realizada, contextualizando o presente Trabalho. O sistema ´e composto por trˆes subsistemas principais: um hardware microcontrolado que capta o sinal de trˆes deriva¸c˜oes de ECG atrav´es de eletrodos colocados na superf´ıcie do corpo do paciente e os transmite a um computador pessoal (PC) remoto por tecnologia sem fio (wireless); um firmware residente no n´ucleo do sistema, um DSP (Digital Signal Processor), respons´avel pelo gerenciamento do sistema, pelo c´alculo num´erico e pelo processamento digital de sinais; e um software, escrito em linguagem C++ (sistema operacional Windows), executado no PC respons´avel pela visualiza¸c˜ao e padroniza¸c˜ao dos dados adquiridos. Este trabalho contempla tamb´em um estudo do protocolo Bluetooth, para a forma¸c˜ao de redes wireless com os equipamentos desenvolvidos, com o objetivo de monitorar o comportamento card´ıaco de v´arios pacientes em um ´unico ponto de concentra¸c˜ao.
4

Filtro difusão-mediana com determinação automática dos parâmetros com aplicações em sinais de ECG e sensor piezoelétrico. / Diffusion-median filter with automatic determination of parameters with applications in ECG signals and piezoelectric sensor.

Melo, Marco Antonio Assis de 11 May 2009 (has links)
O objetivo deste trabalho é filtrar sinais corrompidos por ruído Gaussiano ou impulsivo, preservando a amplitude e a morfologia do sinal original. Normalmente, um filtro linear é utilizado nesta tarefa, porém este filtro altera significativamente as amplitudes e as bordas dos sinais, bem como insere atrasos no sinal. Mostra-se neste trabalho que a difusão anisotrópica em conjunto com filtro mediana é muito mais eficaz do que os filtros lineares para esta aplicação. A difusão anisotrópica é uma filtragem iterativa, onde o sinal é filtrado repetidamente. A difusão anisotrópica é controlada por uma função denominada parada-na-aresta, por um parâmetro de escala e pelo número de iterações. Neste trabalho, testamos três bem conhecidas funções parada-na-aresta, concluindo que a função de parada na aresta de Malik e Perona consegue o maior fator de redução de ruído. Infelizmente, esta função é extremamente sensível ao número de iterações, onde o fator de redução de ruído deteriora-se rapidamente antes e depois do ponto ótimo. Como não se conhece o sinal sem ruído, não é possível determinar precisamente qual é o melhor momento de encerrar as iterações do filtro anisotrópico. Desenvolve-se neste trabalho um novo método de parada de difusão baseado na análise da resposta de freqüência do sinal filtrado. Também mostramos como determinar automaticamente um valor de escala adequado. Aplicamos a técnica proposta em eletrocardiograma (ECG). complexo QRS e as Contrações Ventriculares Prematuras (Premature Ventricular Contractions - PVCs) são informações importantes contidas no sinal de ECG. Quando esses sinais são adquiridos no mundo real, eles são freqüentemente corrompidos por eletromiogramas (EMG), artefatos ruidosos provenientes da atividade elétrica associada às contrações musculares. EMG é considerado o ruído de ECG mais difícil de ser eliminado. Ao filtrar o sinal de ECG para remover EMG, não se pode alterar a informação do complexo QRS e anomalia PVC, para não comprometer o diagnóstico clínico. O sinal EMG é modelado como sendo ruído Gaussiano ou, de uma forma mais realística, como ruído com distribuição alfa-estável com características impulsivas. Aplicamos a técnica proposta para filtrar sinais de eletrocardiograma reais do banco de dados de Massachusetts Institute of Technology - Beth Israel Hospital (MIT-BIH). Também é analisada nesta tese a filtragem de sinais provenientes de sensor piezoelétrico. Estes sinais são usados em sistemas reais de corte de aço duro. Em geral uma ferramenta de corte tem sensores piezoelétricos, usados para medição do esforço do corte. Quando a ferramenta de corte se encosta à peça a ser cortada, o sinal do sensor produz uma informação que decai erroneamente ao longo do tempo. Aplicamos a difusão anisotrópica em conjunto com o filtro mediana para determinar o decaimento do sinal do sensor piezoelétrico ao longo do tempo, e assim compensar esta distorção e melhorar o corte de aço duro. / This thesis aims to filter signals corrupted by Gaussian or impulsive noise, preserving the amplitude and the morphology of the original signal. Typically, a linear filter is used for this task, but this filter significantly alters the amplitudes and the edges of the signals and inserts delays in the signal. This work shows that the anisotropic diffusion in conjunction with median filter is much more effective than linear filters for this application. The anisotropic diffusion is an iterative filter, where the signal is filtered repeatedly. An edge-stopping function, a scale parameter and the number of iterations control the anisotropic diffusion. In this study, we tested three well-known edge-stopping functions, concluding that the Perona and Maliks function yields the largest noise reduction factor. Unfortunately, this function is extremely sensitive to the number of iterations, where the noise reduction factor deteriorates quickly before and after the optimal point. As we do not have access to the original noiseless signal, it is not possible to determine precisely the best moment to stop the iterations of the anisotropic filtering. We develop in this paper a new method to determine the best stopping time based on the analysis of the frequency response of the filtered signal. We also show how to determine automatically an adequate scale parameter. We apply the proposed technique to filter electrocardiogram (ECG). The QRS complex and Premature Ventricular Contractions (PVCs) are important information in the ECG signal. When these signals are acquired in the real world, they are often corrupted with noise artifacts from the electrical activity associated with muscle contractions called Electromyography (EMG). EMC is considered the most difficult noise to be eliminated from ECG. When the ECG signal is filtered to remove EMG, the information of the QRS complex and the PVC abnormality must not be altered, to not compromise the clinical diagnosis. We model the EMG signal as Gaussian noise or, more realistically, as alpha stable distribution noise with impulsive characteristics. We apply this technique to filter the real ECG signals from the Massachusetts Institute of Technology - Beth Israel Hospital database (MIT-BIH). This thesis also analyzes the filtering of signals from piezoelectric sensor. These signals are used in real systems for cutting hard steel. In general, a cutting tool has piezoelectric sensors, used to measure the cutting force. When the cutting tool touches the part to be cut, the signal from the sensor produces information that falsely decays over the time. We apply the anisotropic diffusion in conjunction with the median filter to determine the decay of the signal, and therefore offset this distortion and improve the hard steel cutting.
5

Filtro difusão-mediana com determinação automática dos parâmetros com aplicações em sinais de ECG e sensor piezoelétrico. / Diffusion-median filter with automatic determination of parameters with applications in ECG signals and piezoelectric sensor.

Marco Antonio Assis de Melo 11 May 2009 (has links)
O objetivo deste trabalho é filtrar sinais corrompidos por ruído Gaussiano ou impulsivo, preservando a amplitude e a morfologia do sinal original. Normalmente, um filtro linear é utilizado nesta tarefa, porém este filtro altera significativamente as amplitudes e as bordas dos sinais, bem como insere atrasos no sinal. Mostra-se neste trabalho que a difusão anisotrópica em conjunto com filtro mediana é muito mais eficaz do que os filtros lineares para esta aplicação. A difusão anisotrópica é uma filtragem iterativa, onde o sinal é filtrado repetidamente. A difusão anisotrópica é controlada por uma função denominada parada-na-aresta, por um parâmetro de escala e pelo número de iterações. Neste trabalho, testamos três bem conhecidas funções parada-na-aresta, concluindo que a função de parada na aresta de Malik e Perona consegue o maior fator de redução de ruído. Infelizmente, esta função é extremamente sensível ao número de iterações, onde o fator de redução de ruído deteriora-se rapidamente antes e depois do ponto ótimo. Como não se conhece o sinal sem ruído, não é possível determinar precisamente qual é o melhor momento de encerrar as iterações do filtro anisotrópico. Desenvolve-se neste trabalho um novo método de parada de difusão baseado na análise da resposta de freqüência do sinal filtrado. Também mostramos como determinar automaticamente um valor de escala adequado. Aplicamos a técnica proposta em eletrocardiograma (ECG). complexo QRS e as Contrações Ventriculares Prematuras (Premature Ventricular Contractions - PVCs) são informações importantes contidas no sinal de ECG. Quando esses sinais são adquiridos no mundo real, eles são freqüentemente corrompidos por eletromiogramas (EMG), artefatos ruidosos provenientes da atividade elétrica associada às contrações musculares. EMG é considerado o ruído de ECG mais difícil de ser eliminado. Ao filtrar o sinal de ECG para remover EMG, não se pode alterar a informação do complexo QRS e anomalia PVC, para não comprometer o diagnóstico clínico. O sinal EMG é modelado como sendo ruído Gaussiano ou, de uma forma mais realística, como ruído com distribuição alfa-estável com características impulsivas. Aplicamos a técnica proposta para filtrar sinais de eletrocardiograma reais do banco de dados de Massachusetts Institute of Technology - Beth Israel Hospital (MIT-BIH). Também é analisada nesta tese a filtragem de sinais provenientes de sensor piezoelétrico. Estes sinais são usados em sistemas reais de corte de aço duro. Em geral uma ferramenta de corte tem sensores piezoelétricos, usados para medição do esforço do corte. Quando a ferramenta de corte se encosta à peça a ser cortada, o sinal do sensor produz uma informação que decai erroneamente ao longo do tempo. Aplicamos a difusão anisotrópica em conjunto com o filtro mediana para determinar o decaimento do sinal do sensor piezoelétrico ao longo do tempo, e assim compensar esta distorção e melhorar o corte de aço duro. / This thesis aims to filter signals corrupted by Gaussian or impulsive noise, preserving the amplitude and the morphology of the original signal. Typically, a linear filter is used for this task, but this filter significantly alters the amplitudes and the edges of the signals and inserts delays in the signal. This work shows that the anisotropic diffusion in conjunction with median filter is much more effective than linear filters for this application. The anisotropic diffusion is an iterative filter, where the signal is filtered repeatedly. An edge-stopping function, a scale parameter and the number of iterations control the anisotropic diffusion. In this study, we tested three well-known edge-stopping functions, concluding that the Perona and Maliks function yields the largest noise reduction factor. Unfortunately, this function is extremely sensitive to the number of iterations, where the noise reduction factor deteriorates quickly before and after the optimal point. As we do not have access to the original noiseless signal, it is not possible to determine precisely the best moment to stop the iterations of the anisotropic filtering. We develop in this paper a new method to determine the best stopping time based on the analysis of the frequency response of the filtered signal. We also show how to determine automatically an adequate scale parameter. We apply the proposed technique to filter electrocardiogram (ECG). The QRS complex and Premature Ventricular Contractions (PVCs) are important information in the ECG signal. When these signals are acquired in the real world, they are often corrupted with noise artifacts from the electrical activity associated with muscle contractions called Electromyography (EMG). EMC is considered the most difficult noise to be eliminated from ECG. When the ECG signal is filtered to remove EMG, the information of the QRS complex and the PVC abnormality must not be altered, to not compromise the clinical diagnosis. We model the EMG signal as Gaussian noise or, more realistically, as alpha stable distribution noise with impulsive characteristics. We apply this technique to filter the real ECG signals from the Massachusetts Institute of Technology - Beth Israel Hospital database (MIT-BIH). This thesis also analyzes the filtering of signals from piezoelectric sensor. These signals are used in real systems for cutting hard steel. In general, a cutting tool has piezoelectric sensors, used to measure the cutting force. When the cutting tool touches the part to be cut, the signal from the sensor produces information that falsely decays over the time. We apply the anisotropic diffusion in conjunction with the median filter to determine the decay of the signal, and therefore offset this distortion and improve the hard steel cutting.
6

Avaliação de representações transformadas para compressão de sinais de eletroencefalografia, com base em análise de componentes principais, decomposições wavelet, transformada discreta de cossenos e compressive sensing

Tôrres, Filipe Emídio 19 March 2018 (has links)
Dissertação (mestrado)—Universidade de Brasília, Faculdade UnB Gama, Programa de Pós-Graduação em Engenharia Biomédica, 2018. / Submitted by Fabiana Santos (fabianacamargo@bce.unb.br) on 2018-08-30T19:08:22Z No. of bitstreams: 1 2018_FilipeEmídioTôrres.pdf: 3263020 bytes, checksum: 67052b5b208c8be101de72f84c20c0f9 (MD5) / Approved for entry into archive by Raquel Viana (raquelviana@bce.unb.br) on 2018-09-10T18:37:59Z (GMT) No. of bitstreams: 1 2018_FilipeEmídioTôrres.pdf: 3263020 bytes, checksum: 67052b5b208c8be101de72f84c20c0f9 (MD5) / Made available in DSpace on 2018-09-10T18:37:59Z (GMT). No. of bitstreams: 1 2018_FilipeEmídioTôrres.pdf: 3263020 bytes, checksum: 67052b5b208c8be101de72f84c20c0f9 (MD5) Previous issue date: 2018-08-30 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES). / Os sinais de eletroencefalografia (EEG) podem ser utilizados para aplicações clínicas, como análises de níveis de sono, diagnósticos e acompanhamento de epilepsia, monitoramento e reabilitação. Esse tipo de sinal também é usado no contexto de interação cérebro-máquina (BCI do inglês, Brain Computer Interface), e seu uso é crescente em várias aplicações deste tipo, como controle de cadeiras de rodas, computadores e automóveis. Sendo assim, existem problemas comumente encontrados, por exemplo, na aquisição desse sinal. Muitas das vezes são necessárias de dezenas a centenas de eletrodos, além de que podem ocorrer falhas de contato exigindo trocas periódicas ou renovação de gel condutor. Outras dificuldades encontradas dizem respeito ao armazenamento e transmissão desses dados em dispositivos móveis e com restrição de consumo de energia. Portanto, existem técnicas de processamento de sinais diversas que podem diminuir o número de sensores necessários e reduzir os custos de armazenamento e transmissão. A proposta desta pesquisa é implementar e avaliar o Compressive Sensing (CS) e mais outras 4 técnicas aplicadas à compressão de sinais de EEG, visando compará-las quanto ao nível de esparsificação e à qualidade de sinais reconstruídos a partir da mesma quantidade de coeficientes. As técnicas utilizadas são o CS, a análise de componentes principais (PCA), análise de componentes independentes (ICA), 30 famílias de wavelets implementadas com base em bancos de filtros de decomposição e a transformada discreta de cossenos (DCT). O CS é destas técnicas a mais recentemente desenvolvida e apresenta possíveis vantagens na fase de aquisição com relação às demais, e o trabalho deseja avaliar sua viabilidade. Para a avaliação são considerados dois bancos de dados de sinais reais, um de polissonografia chamado Sleep Heart Health Study e um estudo em crianças do Instituto de Tecnologia de Massachusetts (MIT), ambos disponíveis publicamente. O estudo se baseia na transformação, quantização, codificação e em seus processos inversos para reconstrução do sinal. A partir dos resultados são realizadas comparações entre os sinais reconstruídos utilizando as diferentes representações escolhidas. Para a comparação, são usadas métricas quantitativas de razão do sinal-ruído (SNR), fator de compressão (CF), um tipo de diferença percentual residual (PRD1) e medidas de tempo.Foi observado que os algoritmos podem reconstruir os sinais com menos de 1=3 dos coeficientes originais dependendo da técnica utilizada. Em geral a DCT e a PCA têm um melhor resultado contra as outras nas métricas utilizadas. Porém cabe ressaltar que o CS permite menor custo de aquisição, possivelmente requisitando um hardware mais simples para isso. De fato, toda a aquisição realizada com base em CS pôde ser feita com medidas obtidas usando apenas soma dos sinais dos eletrodos, sem perdas em relação a matrizes de medidas que envolvem também multiplicações. Admitindo, por exemplo, uma reconstrução a partir de 50% do número de coeficientes do sinal no banco do MIT, a DCT conseguiu uma relação de SNR de 27; 8 dB entre o sinal original e a reconstrução. O PCA teve 24; 0 dB e as melhores wavelets ficaram na faixa dos 19 dB, já o CS com 8; 3 dB e o ICA apenas 1; 1 dB. Para esse mesmo banco, com 50% de CF, o PRD1 resultou em 27; 8% na DCT, 24; 0% na PCA, 17; 2% na wavelet biortogonal 2.2, 8; 3% no CS–10 e 1; 1% no ICA. Portanto, o estudo e uso do CS é justificado pela diferença de complexidade da fase de aquisição com relação a outras técnicas, inclusive tendo melhores resultados do que algumas delas. Na próxima etapa da pesquisa, pretende-se avaliar a compressão multicanal, para verificar o desempenho de cada técnica ao explorar a redundância entre os canais. Além de ferramentas que possam ajudar no desempenho do CS, como fontes de informação a priori e pré-filtragem dos sinais. / Electroencephalography (EEG) signals can be used for clinical applications such as sleep level analysis, diagnosis and monitoring of epilepsy, monitoring and rehabilitation. This type of signal is also used in the context of the Brain Computer Interface (BCI), and its use is increasing in many applications of this type, such as wheelchair, computer and automobile control. Thus, there are problems commonly encountered, for example, in the acquisition of this signal. Often times, it is necessary tens to thousands of electrodes, besides of contact failures may occur requiring periodic changes or conductive gel renewal. Other difficulties encountered relate to the storage and transmission of this data in mobile devices and with restricted energy consumption. Therefore, there are several signal processing techniques that can reduce the number of sensors required and also save storage and transmission costs. The purpose of this research is to implement and evaluate the Compressive Sensing (CS) and other 4 techniques applied to the compression of EEG signals, in order to compare them with the level of scattering and the quality of reconstructed signals from the same number of coefficients. The techniques used are CS, Principal Component Analysis (PCA), Independent Component Analysis (ICA), 30 families of wavelets implemented on the basis of decomposition filter banks and DCT (discrete cosine transform). CS is one of the most recently developed techniques and presents possible advantages in the acquisition phase in relation to the others, and the work wants to evaluate its viability. Two real-signal databases, a polysomnography called the Sleep Heart Health Study and one study of children at the Massachusetts Institute of Technology (MIT), both publicly available, are considered for the evaluation. The study is based on transformation, quantization, coding and its inverse processes for signal reconstruction. From the results are made comparisons between the reconstructed signals using the different representations chosen. For comparison, quantitative measurements of signal-to-noise ratio (SNR), compression factor (CF), a type of residual percentage difference (PRD1), and time measurements are used. It was observed that the algorithms can reconstruct the signals with less than 1/3 of the original coefficients depending on the technique used. In general, DCT and PCA have a better result comparing the others depending the metrics used. However, it is worth mentioning that CS allows lower cost of acquisition, possibly requesting a simpler hardware for this. In fact, all the acquisition based on CS could be done with measurements obtained using only the sum of the signals of the electrodes, without losses in relation to matrices of measures that also involve multiplications. Assuming, for example, a reconstruction from 50 % of the number of signal coefficients in the MIT database, the DCT achieved a SNR ratio of 27:8 dB between the original signal and the reconstruction. The PCA had 24:0 dB and the best wavelets were in the 19 dB range, the CS with 8:3 dB and the ICA only 1:1 dB. For this same database, with 50 % of CF, PRD1 resulted in 27:8% by DCT, 24:0% by PCA, 17:2% by biortogonal wavelet 2.2, 8:3% by CS–10 and 1:1% by ICA. Therefore, the study and use of CS is justified by the difference in complexity of the acquisition phase in relation to other techniques, including having better results than some of them. In the next step of the research, it is intended to evaluate the multichannel compression, to verify the performance of each technique when exploring the redundancy between the channels. In addition to tools that can help in the performance of the CS, as sources of information a priori and pre-filtering the signals.
7

Método de análise de componentes dependentes para o processamento, caracterização e extração de componentes de sinais biomédicos / Dependent Component Analysis for processing, characterization and extraction of biomedical signal components.

Montesco, Carlos Alberto Estombelo 10 December 2007 (has links)
Na área de processamento de sinais biomédicos a extração de informação, baseada em um conjunto de medidas adquiridas no tempo, é considerada de suma importância. A qualidade desta informação extraída permite avaliar o funcionamento dos diversos órgãos. Objetivos: (1) propor o método de análise de componentes dependentes para auxiliar a extração de componentes de interesse, a partir de medidas multivariadas; (2) caraterizar as componentes extraídas através de representações em termos de tempo e freqüência, e espectro de potência; e, (3) aplicar o método e avaliar as componentes de interesse extraídas no contexto real MCGf, MGG e fMRI. A proposta para a extração fundamenta-se no método chamado de Análise de Componentes Dependentes ACD. As medidas a serem processadas são multivariadas a partir de sensores distribuídos, espacialmente, no corpo humano dando origem a um conjunto de dados correlacionados no tempo e/ou no espaço. Observa-se que os sinais de interesse raramente são registrados de forma isolada, e sim misturados com outros sinais superpostos, ruído e artefatos fisiológicos ou ambientais, onde a relação sinal-ruído é geralmente baixa. Nesse contexto, a estratégia a ser utilizada baseia-se na ACD, que permitirá extrair um pequeno número de fontes, de potencial interesse, com informações úteis. A estratégia ACD para extração de informação é aplicada em três importantes problemas, na área de processamento de sinais biomédicos: (1) detecção do sinal do feto em magnetocardiografia fetal (MCGf); (2) detecção da atividade de resposta elétrica do estômago em magnetogastrografia (MGG); e, (3) detecção de regiões ativas do cérebro em experimentos de imagens por ressonância magnética funcional (Functional Magnetic Resonance Imaging, fMRI). Os resultados, nos três casos estudados, mostraram que o método utilizado, como estratégia, é efetivo e computacionalmente eficiente para extração de sinais de interesse. Concluímos, baseados nas aplicações, que o método proposto é eficaz, mostrando seu potencial para futuras pesquisas clínicas. / An important goal in biomedical signal processing is the extraction of information based on a set of physiological measurements made along time. Generally, biomedical signals are electromagnetic measurements. Those measurements (usually made with multichannel equipment) are registered using spatially distributed sensors around some areas of the human body, originating a set of time and/or space correlated data. The signals of interest are rarely registered alone, being usually observed as a mixture of other spurious, noisy signals (sometimes superimposed) and environmental or physiological artifacts. More over, the signal-to-noise ratio is generally low. In many applications, a big number of sensors are available, but just a few sources are of interest and the remainder can be considered noise. For such kind of applications, it is necessary to develop trustful, robust and effective learning algorithms that allow the extraction of only a few sources potentially of interest and that hold useful information. The strategy used here for extraction of sources is applied in three important problems in biomedical signal processing: (1) detection of the fetal magnetocardiogram signal (fMCG); (2) detection of the electrical activity of the stomach in magnetogastrograms (MGG); and (3) detection of active regions of the brain in experiments in functional Magnetic Resonance Imaging (fMRI). The results, within the three cases of study, showed that the DCA method used as strategy is effective and computationally efficient on extraction of desired signals.
8

Análise do sinal de variabilidade da frequência cardíaca através de estatística não extensiva: taxa de q-entropia multiescala / Heart rate variability analysis through nonextensive statistics: multiscale q-entropy rate

Silva, Luiz Eduardo Virgilio da 28 February 2013 (has links)
O corpo humano é um sistema complexo composto por vários subsistemas interdependentes, que interagem entre si em várias escalas. Sabe-se que essa complexidade fisiológica tende a diminuir com a presença de doenças e com o avanço da idade, reduzindo a capacidade de adaptação dos indivíduos. No sistema cardiovascular, uma das maneira de se avaliar sua dinâmica regulatória é através da análise da variabilidade da frequência cardíaca (VFC). Os métodos clássicos de análise da VFC são baseados em modelos lineares, como é o caso da análise espectral. Contudo, como os mecanismos fisiológicos de regulação cardíaca apresentam características não lineares, as análises utilizando tais modelos podem ser limitadas. Nos últimos tempos, várias propostas de métodos não lineares têm surgido. Porém, não se sabe de uma medida consistente com o conceito de complexidade fisiológica, onde tanto os regimes periódicos como aleatórios são caracterizados como perda de complexidade. Baseado no conceito de complexidade fisiológica, esta tese propõe novos métodos de análise não lineares para séries de VFC. Os métodos consistem da generalização de medidas de entropia já existentes, utilizando a mecânica estatística não aditiva de Tsallis e a técnica de geração de dados substitutos. Foi definido um método, chamado de qSDiff, que calcula a diferença entre a entropia de um sinal e a entropia média de suas séries substitutas. O método de entropia utilizado consiste de uma generalização da entropia amostral (SampEn), utilizando o paradigma não aditivo. Das séries qSDiff foram extraídos três atributos, que foram avaliados como possíveis índices de complexidade fisiológica. A entropia multiescala (MSE) também foi generalizada seguindo o paradigma não aditivo, e os mesmos atributos foram calculados em várias escalas. Os métodos foram aplicados em séries reais de VFC de humanos e de ratos, bem como em um conjunto de sinais simulados, formado por ruídos e mapas, este último em regimes caótico e periódico. O atributo qSDiffmax demonstrou ser consistente para baixas escalas ao passo que os atributos qmax e qzero para escalas maiores, separando e classificando os grupos quanto à complexidade fisiológica. Observou-se ainda uma possível relação entre estes q-atributos com a presença de caos, que precisa ser melhor estudada. Os resultados ainda apontam a possibilidade de que, na insuficiência cardíaca, ocorre maior degradação nos mecanismos de baixa escala, de curto período, ao passo que na fibrilação atrial o prejuízo se estenderia para escalas maiores. As medidas baseadas em entropia propostas são capazes de extrair informações importantes das séries de VFC, sendo mais consistentes com o conceito de complexidade fisiológica do que a SampEn (clássica). Reforçou-se a hipótese de que a complexidade se revela em múltiplas escalas de um sinal. Acreditamos que os métodos propostos podem contribuir bastante na análise da VFC e também de outros sinais biomédicos. / Human body is a complex system composed of several interdependent subsystems, interacting at various scales. It is known that physiological complexity tends to decrease with disease and aging, reducing the adaptative capabilities of the individual. In the cardiovascular system, one way to evaluate its regulatory dynamics is through the analysis of heart rate variability (HRV). Classical methods of HRV analysis are based on linear models, such as spectral analysis. However, as the physiological mechanisms regulating heart rate exhibit nonlinear characteristics, analyzes using such models may be limited. In the last years, several proposals nonlinear methods have emerged. Nevertheless, no one is known to be consistent with the physiological complexity theory, where both periodic and random regimes are characterized as complexity loss. Based on physiological complexity theory, this thesis proposes new methods for nonlinear HRV series analysis. The methods are generalization of existing entropy measures, through Tsallis nonadditive statistical mechanics and surrogate data. We defined a method, called qSDiff, which calculates the difference between the entropy of a signal and its surrogate data average entropy. The entropy method used is a generalization of sample entropy (SampEn), through nonadditive paradigm. From qSDiff we extracted three attributes, which were evaluated as potential physiological complexity indexes. Multiscale entropy (MSE) was also generalized following nonadditive paradigm, and the same attributes were calculated at various scales. The methods were applied to real human and rats HRV series, as well as to a set of simulated signals, consisting of noises and maps, the latter in chaotic and periodic regimes. qSDiffmax attribute proved to be consistent for low scales while qmax and qzero attributes to larger scales, separating and ranking groups in terms of physiological complexity. There was also found a possible relationship between these q-attributes with the presence of chaos, which must be further investigated. The results also suggested the possibility that, in congestive heart failure, degradation occurs rather at small scales or short time mechanisms, while in atrial fibrillation, damage would extend to larger scales. The proposed entropy based measures are able to extract important information of HRV series, being more consistent with physiological complexity theory than SampEn (classical). Results strengthened the hypothesis that complexity is revealed at multiple scales. We believe that the proposed methods can contribute to HRV as well as to other biomedical signals analysis.
9

Desenvolvimento de um protótipo para monitoração de saturação de oxigênio e freqüência cardíaca para roedores. / Development of a oxigen saturation and cardiac frequency prototype for rodents.

Vilhegas, Leonardo Zane 12 December 2007 (has links)
A utilização de equipamentos para monitoração de parâmetros fisiológicos não é apenas crucial em pacientes que são submetidos a alguns procedimentos médicos, mas é também de extremo valor para animais em uso similar. Este projeto tem como principal objetivo o desenvolvimento de um sistema de monitoração de saturação de oxigênio e freqüência cardíaca para roedores; tal sistema é composto por um dispositivo protótipo compacto e sensor óptico. No presente trabalho, foram utilizadas as tecnologias dos microcontroladores da Microchip para realizar as diversas digitalizações; a tecnologia USB, para realizar a comunicação com computadores e o desenvolvimento da interface desenvolvida com o software disponível da National Instruments, o LabVIEW. Neste estudo, o sistema desenvolvido foi empregado em camundongos e foram realizadas diversas avaliações em laboratório e em campo para a validação do dispositivo protótipo. Os batimentos cardíacos e a saturação de oxigênio, tanto em repouso quanto em movimento, foram detectados pelo protótipo. Os valores de freqüência cardíaca variaram entre 545 e 700 bpm enquanto os valores de saturação de oxigênio variaram entre 80 a 95%. / The equipments use to monitoring physiological parameters isnt just crucial in patients who are submitted to some medical procedures but it is also of extreme value for animals in similar use. This project has as main objective the development of a monitor oxygen saturation and cardiac frequency for mice; the system is compound of a compact prototype device and optic sensor. In the present work, the Microchip microcontrollers technologies had been used, to realize many digitalization; the USB technology interface, to realize the communication with computers and the interface development developed with the available National Instruments software, the LabVIEW. In this study, the developed system was used in mice and have been realized many evaluations in laboratory and field for the prototype validation device. The cardiac beatings and oxygen saturation, as much in rest how in movement they had been detected by the prototype. The values of heart rate had varied of 545 to 700 while the values of oxygen saturation had varied of 80 to 95%.
10

Stimuli and feature extraction methods for EEG-based brain-machine interfaces: a systematic comparison. / Estímulos e métodos de extração de características para interfaces cérebro-máquina baseadas em EEG: uma comparação sistemática.

Villalpando, Mayra Bittencourt 29 June 2017 (has links)
A brain-machine interface (BMI) is a system that allows the communication between the central nervous system (CNS) and an external device (Wolpaw et al. 2002). Applications of BMIs include the control of external prostheses, cursors and spellers, to name a few. The BMIs developed by various research groups differ in their characteristics (e.g. continuous or discrete, synchronous or asynchronous, degrees of freedom, others) and, in spite of several initiatives towards standardization and guidelines, the cross comparison across studies remains a challenge (Brunner et al. 2015; Thompson et al. 2014). Here, we used a 64-channel EEG equipment to acquire data from 19 healthy participants during three different tasks (SSVEP, P300 and hybrid) that allowed four choices to the user and required no previous neurofeedback training. We systematically compared the offline performance of the three tasks on the following parameters: a) accuracy, b) information transfer rate, c) illiteracy/inefficiency, and d) individual preferences. Additionally, we selected the best performing channels per task and evaluated the accuracy as a function of the number of electrodes. Our results demonstrate that the SSVEP task outperforms the other tasks in accuracy, ITR and illiteracy/inefficiency, reaching an average ITR** of 52,8 bits/min and a maximum ITR** of 104,2 bits/min. Additionally, all participants achieved an accuracy level above 70% (illiteracy/inefficiency threshold) in both SSVEP and P300 tasks. Furthermore, the average accuracy of all tasks did not deteriorate if a reduced set with only the 8 best performing electrodes were used. These results are relevant for the development of online BMIs, including aspects related to usability, user satisfaction and portability. / A interface cérebro-máquina (ICM) é um sistema que permite a comunicação entre o sistema nervoso central e um dispositivo externo (Wolpaw et al., 2002). Aplicações de ICMs incluem o controle de próteses externa, cursores e teclados virtuais, para citar alguns. As ICMs desenvolvidas por vários grupos de pesquisa diferem em suas características (por exemplo, contínua ou discreta, síncrona ou assíncrona, graus de liberdade, outras) e, apesar de várias iniciativas voltadas para diretrizes de padronização, a comparação entre os estudos continua desafiadora (Brunner et al. 2015, Thompson et al., 2014). Aqui, utilizamos um equipamento EEG de 64 canais para adquirir dados de 19 participantes saudáveis ao longo da execução de três diferentes tarefas (SSVEP, P300 e híbrida) que permitiram quatro escolhas ao usuário e não exigiram nenhum treinamento prévio. Comparamos sistematicamente o desempenho \"off-line\" das três tarefas nos seguintes parâmetros: a) acurácia, b) taxa de transferência de informação, c) analfabetismo / ineficiência e d) preferências individuais. Além disso, selecionamos os melhores canais por tarefa e avaliamos a acurácia em função do número de eletrodos. Nossos resultados demonstraram que a tarefa SSVEP superou as demais em acurácia, ITR e analfabetismo/ineficiência, atingindo um ITR** médio de 52,8 bits/min e um ITR** máximo de 104,2 bits/min. Adicionalmente, todos os participantes alcançaram um nível de acurácia acima de 70% (limiar de analfabetismo/ineficiência) nas tarefas SSVEP e P300. Além disso, a acurácia média de todas as tarefas não se deteriorou ao se utilizar um conjunto reduzido composto apenas pelos melhores 8 eletrodos. Estes resultados são relevantes para o desenvolvimento de ICMs \"online\", incluindo aspectos relacionados à usabilidade, satisfação do usuário e portabilidade.

Page generated in 0.4616 seconds