• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 346
  • 4
  • Tagged with
  • 350
  • 350
  • 199
  • 195
  • 138
  • 123
  • 118
  • 94
  • 89
  • 67
  • 54
  • 52
  • 50
  • 47
  • 47
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
191

Modelagem e desenvolvimento de dispositivo para reabilitação de dedos da mão / Modeling and device development for hand fingers rRehabilitation

Oliveira, Bruno Rodrigues de 18 June 2016 (has links)
Submitted by Marlene Santos (marlene.bc.ufg@gmail.com) on 2016-09-09T19:01:20Z No. of bitstreams: 2 Dissertação- Bruno Rodrigues de Oliveira - 2016.pdf: 17683570 bytes, checksum: 9b371db8aea2547b14113e6356efda81 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Approved for entry into archive by Luciana Ferreira (lucgeral@gmail.com) on 2016-09-12T14:19:29Z (GMT) No. of bitstreams: 2 Dissertação- Bruno Rodrigues de Oliveira - 2016.pdf: 17683570 bytes, checksum: 9b371db8aea2547b14113e6356efda81 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Made available in DSpace on 2016-09-12T14:19:29Z (GMT). No. of bitstreams: 2 Dissertação- Bruno Rodrigues de Oliveira - 2016.pdf: 17683570 bytes, checksum: 9b371db8aea2547b14113e6356efda81 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Previous issue date: 2016-06-18 / In everyday applications, the use of hands is essential in performing many tasks. Several situations such as car acidents, labor or stroke, impair mobility and maneuverability of the hands, forcing the individual to seek rehabilitation methods. This study aims to model and develop a device for rehabilitation of the finger that allows performthemovements of flexion / extension, within the limits of each joint. Evaluating types of fingers rehabilitation devices, they are observed its peculiarities and its main advantages, culminating in proposing an efficient model. Thus, this research presents the development of a more affordable device that meets the needs of patients in order to recover their normal activities. / Emaplicações diárias, a utilização dasmãos é indispensável na realização de grande número de tarefas. Diversas situações, como acidentes automobilísticos, trabalhistas ou vasculares, prejudicam a mobilidade e manuseabilidade das mãos, obrigando o indivíduo a procurar métodos de reabilitação. Este estudo tem como objetivo modelar e desenvolver um dispositivo para reabilitação dos dedos da mão que possibilite realizar os movimentos de flexão/ extensão, respeitando os limites de cada articulação. Avaliando tipos de dispositivos de reabilitação de dedos da mão existentes, são observadas suas particularidades e suas principais vantagens, culminando na proposição de um modelo eficiente. Assim, esta pesquisa apresenta o desenvolvimento de um dispositivo mais acessível que atenda às necessidades dos pacientes, auxiliando na recuperação de suas atividades normais.
192

Análise da estabilidade, variabilidade e complexidade do ligamento cruzado anterior após reconstrução do ligamento cruzado anterior / Analysis of gait stability, variability and complexity after anterior cruciate ligament reconstruction

Oliveira, Eduardo Afonso de 21 September 2016 (has links)
Submitted by Cássia Santos (cassia.bcufg@gmail.com) on 2016-10-10T14:46:14Z No. of bitstreams: 2 Dissertação - Eduardo Afonso de Oliveira - 2016.pdf: 2734632 bytes, checksum: 12b6c8a8aa8bd614921e69b23a2d2457 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Approved for entry into archive by Luciana Ferreira (lucgeral@gmail.com) on 2016-10-10T15:55:00Z (GMT) No. of bitstreams: 2 Dissertação - Eduardo Afonso de Oliveira - 2016.pdf: 2734632 bytes, checksum: 12b6c8a8aa8bd614921e69b23a2d2457 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Made available in DSpace on 2016-10-10T15:55:00Z (GMT). No. of bitstreams: 2 Dissertação - Eduardo Afonso de Oliveira - 2016.pdf: 2734632 bytes, checksum: 12b6c8a8aa8bd614921e69b23a2d2457 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Previous issue date: 2016-09-21 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES / Background: The objective of this study was to investigate gait stability by nonlinear dynamic methods and gait variability and complexity in the postoperative period after anterior cruciate ligament (ACL) reconstruction. Methods: The study was observational and case-controlled and used 40 subjects (32 male) divided into 4 groups of 20 each: a control group (CG) and 3 observational groups in different postoperative periods after ACL reconstruction: OG-I (30‒90 days), OG-II (90‒180 days), and OG-III (360 days). For kinematic recording, each subject walked on a treadmill for 4 minutes at a constant speed of 3.5 km/h. Gait variability was assessed using the normalized root mean square (RMS ratio) of trunk acceleration and the average standard deviation of medial-lateral trunk acceleration (VAR ML). Gait stability was assessed using the margin of stability (MoS) and local dynamic stability (s), and complexity was assessed using approximate entropy (ApEn). Results: Compared to the CG, the RMS ratio and VAR ML increased significantly in the OG-I group and decreased incrementally in OG-II and OG-III. MoS decreased significantly in the OG-I group and increased incrementally in OG-II and OG-III, while s decreased in the OG-I and OG-II groups and increased in the OG-III groups. The ApEn was lower in the OG-I group than in the CG and decreased incrementally in OG-II and OG-III. Conclusions: Results indicated that ACL reconstruction was followed by a progressive increase in stability and a progressive decrease in variability over the postoperative rehabilitation period. In terms of stability and gait variability, six months of physiotherapy for rehabilitation after ACL reconstruction appears to be effective, but it is insufficient for a complete recovery as compared to healthy individuals. / A avaliação clínica da variabilidade e da estabilidade da marcha em fases distintas do pós-operatório de Ligamento Cruzado Anterior através de métodos não-lineares pode ser eficiente para quantificar e comparar os tratamentos utilizados durante o programa de reabilitação e direcionar as intervenções pós-operatórias, visando acelerar o retorno aos treinamentos ou à vida diária. Os objetivos deste estudo foram: (1) analisar as adaptações biomecânicas da marcha após a reconstrução do Ligamento Cruzado Anterior e (2) investigar a existência de alterações da estabilidade e da variabilidade da marcha no pós-operatório do Ligamento Cruzado Anterior por métodos de dinâmicas não-lineares. Do tipo observacional e caso-controle este estudo analisou, no Laboratório de Biomecânica e Bioengenharia da Universidade Federal de Goiás, 40 sujeitos (32 homens, 8 mulheres), divididos em quatro grupos: um Grupo Controle, composto por 10 sujeitos (8 homens e 2 mulheres) e três grupos observacionais, todos compostos por 10 sujeitos (8 homens e 2 mulheres) em fases distintas do pós-operatório do Ligamento Cruzado Anterior: (1) 30 a 90 dias, (2) 90 a 180 dias e (3) 360 dias de reconstrução. Os voluntários foram instruídos a caminhar sobre uma esteira elétrica por 4 minutos, em velocidade constante a 3.5 km/h para gravação dos parâmetros cinemáticos da marcha. Como resultados foram encontradas alterações nas variáveis relativas aos parâmetros espaço-temporais da marcha - com aumento progressivo no comprimento do passo, no tempo da fase de apoio e no período de duplo apoio - nas variáveis relativas à variabilidade da marcha - com redução progressiva do RMS ratio e da Média dos Desvios Padrões ao longo das Passadas – nas variáveis relativas à estabilidade da marcha – com redução do valor do Lyapunov Short médio-lateral e aumento da Média da margem de estabilidade médio-lateral com tendência de aproximação aos valores do Grupo Controle ao final da reabilitação – e na variável relativa à complexidade da marcha – com redução progressiva do valor da Entropia Aproximada. Concluiu-se que após a reconstrução do Ligamento Cruzado Anterior há aumento progressivo da estabilidade e redução progressiva da variabilidade conforme progressão do tempo pós-operatório. Contudo, o tempo de 6 meses de fisioterapia e o tempo de 12 meses de reconstrução cirúrgica parecem ser eficazes, mas não suficientes para uma total recuperação - quando comparado a indivíduos saudáveis – do ponto de vista da estabilidade e da variabilidade da marcha.
193

Desenvolvimento de um sistema de termometria por ultrassom para monitoramento de temperatura

Andrade, Patrícia Cardoso de 05 May 2017 (has links)
Submitted by Erika Demachki (erikademachki@gmail.com) on 2017-06-23T17:02:47Z No. of bitstreams: 2 Dissertação - Patrícia Cardoso de Andrade - 2017.pdf: 2778221 bytes, checksum: 777088966ede58904a5d760acc52b11e (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Approved for entry into archive by Erika Demachki (erikademachki@gmail.com) on 2017-06-29T18:28:28Z (GMT) No. of bitstreams: 2 Dissertação - Patrícia Cardoso de Andrade - 2017.pdf: 2778221 bytes, checksum: 777088966ede58904a5d760acc52b11e (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Made available in DSpace on 2017-06-29T18:28:28Z (GMT). No. of bitstreams: 2 Dissertação - Patrícia Cardoso de Andrade - 2017.pdf: 2778221 bytes, checksum: 777088966ede58904a5d760acc52b11e (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Previous issue date: 2017-05-05 / Conselho Nacional de Pesquisa e Desenvolvimento Científico e Tecnológico - CNPq / Measuring internal temperature and/or temperature gradient in materials is of fundamental interest in both engineering and basic sciences because the temperature is closely related to the properties of the material. The purpose of this study was to develop an ultrasound thermometry system for internal temperature gradient monitoring of materials subjected to a heat source. A low cost oscilloscope was used as a system for the acquisition of ultrasonic signals. Jointly, was developed a computational algorithm responsible for estimating the internal temperature distribution of materials. For this purpose was used a low cost oscilloscope as a system for the acquisition of ultrasonic signals. Measurements were taken during the heating and cooling regimen of an aluminum block. A thermocouple temperature measurement system was used to verify and validate the temperature distribution obtained by the ultrasound thermometry method. The development of the computational algorithm responsible for communication and data collection provided real-time temperature measurements. The comparison of the temperature measurements derived from both methods showed agreement greater than 96%, with differences lower than 0.70°C. The methodology presented was relevant within the laboratory context to estimate the internal temperature of heated materials. / Medir temperatura interna e/ou gradiente de temperatura em materiais é de fundamental interesse, tanto nas engenharias quanto nas ciências básicas, pois a temperatura está intimamente relacionada com as propriedades do material. O objetivo desse estudo foi desenvolver um sistema de termometria por ultrassom para monitoramento interno de gradiente de temperatura em materiais submetidos a fonte de calor. Conjuntamente, foi desenvolvido um algoritmo computacional responsável em estimar a distribuição de temperatura interna dos materiais. Para essa finalidade foi empregando um osciloscópio de baixo custo como sistema de aquisição de sinais ultrassônicos. Medições foram realizadas durante o regime de aquecimento e resfriamento de um bloco de alumínio. Um sistema de medição de temperatura por termopares foi utilizado para verificar e validar a distribuição de temperatura obtida pelo método de termometria por ultrassom. O desenvolvimento do algoritmo computacional responsável pela comunicação e coleta de dados propiciou medições de temperatura em tempo real. A comparação das medições de temperatura derivada de ambos os métodos apresentou concordância maior que 96%, com diferenças inferiores a 0,70°C. Portanto, conclui-se que a metodologia apresentada mostrou-se relevante dentro do contexto laboratorial para estimativa de temperatura interna de materiais aquecidos.
194

Cálculo da Frequência Instantânea Cardíaca Utilizando o Algoritmo LMS e uma Interface de Aquisição de Dados / CALCULATION OF THE CARDIAC INSTANTANEOUS FREQUENCY USING ALGORITHM LMS AND AN INTERFACE OF ACQUISITION OF DATA

Brito, Deusdete de Sousa 11 October 2002 (has links)
Made available in DSpace on 2016-08-17T14:52:45Z (GMT). No. of bitstreams: 1 Deusdete Brito.PDF: 646824 bytes, checksum: 52d3dc54a7bd1d78f16e7b240f977ce8 (MD5) Previous issue date: 2002-10-11 / Conselho Nacional de Desenvolvimento Científico e Tecnológico / In this work we consider the calculation of the heart instantaneous frequency from the estimate of the weights, gotten through LMS algorithm, (Least Mean Squares) when functioning as spectrum analyzer. It is known that the electrocardiogram (ECG) is a signal that is characterized for a repetitive regularity, which can be called quasi-periodicity. We explore this characteristic to extract the instantaneous frequency of the referred signal. For this, we use the LMS as a spectral analyzer. We use as reference inputs pairs of sines and cosines, inside the frequency band where if it finds the frequency of the desired signal, namely, the heart frequency. The algorithm estimates the frequency desired in real time, with the signal acquired through a data acquisition interface Intel 80C31. The results obtained show that the algorithm can be recommended for this purpose, as besides being easily implemented and generating small computational load it estimates the heart instantaneous frequency with a relative mean error of 0.025 which represent a difference of 18.89% between the two methods. / Neste trabalho propomos o cálculo da frequência instantânea cardíaca a partir da estimativa do espectrograma dos pesos sinápticos, obtidos através do algoritmo LMS, (Least Mean Square) quando funcionando como analisador de espectro. Sabe-se que o eletrocardiograma (ECG) é um sinal que se caracteriza por uma regularidade repetitiva, que se pode chamar quasiperiodicidade. Exploramos aqui essa característica para extrair a frequência instantânea do referido sinal. Para isso, utilizamos o LMS como analisador de espectro. Utilizamos como entradas de referència pares de senos e cossenos, dentro da faixa de frequência em que se encontra a frequência do sinal desejado, no caso, a frequência cardíaca. O algoritmo estima a frequência desejada em tempo real, com obtenção do sinal através de uma interface de aquisição de dados Intel 80C31. Os resultados obtidos mostraram que o algoritmo pode ser recomendado pra esta finalidade, pois além de ser facilmente implementável e por gerar pequena carga computacional ele estimou a frequência instantânea cardíaca com um erro relativo médio de 0.025 que representa uma diferença de 18.89% entre os dois métodos.
195

MELHORAMENTO DO SINAL DE VOZ POR INIBIÇÃO LATERAL E MASCARAMENTO BINAURAL / IMPROVEMENT OF THE SIGNAL VOICE BY LATERAL INHIBITION AND BINAURAL MASKING

Nascimento, Edil James de Jesus 02 April 2004 (has links)
Made available in DSpace on 2016-08-17T14:52:52Z (GMT). No. of bitstreams: 1 Edil James de Jesus Nascimento.PDF: 2709948 bytes, checksum: c8bf5634508e47328bd033c4d323f9c0 (MD5) Previous issue date: 2004-04-02 / The human hearing system is capable to accomplish different tasks that would be useful in engineering applications. One of them is the ability to separate sound sources, allowing the listener to "focus" a single sound source in a noisy environment. Great investments have been made in the development of technologies applied to the voice recognition by machines in real environment. For that, different techniques of processing computational have been proposed, for reduction of the ambient noise and improvement of the signal desired in complex acoustic environment (cocktail party). The model of the human hearing system motivates those techniques in their different phases. In this work, we developed an algorithm to improve the processing speech signal based on the binaural hearing model. After receiving the mixed signals, for two microphones, the algorithm increases the intelligibility of the signal of larger energy of one of the receivers. Using two speakers and considering that each one is closer of one of the microphones, we made use of the concepts of lateral inhibition and binaural masking, to recover the signal of speech of larger energy of one of the receivers. The algorithm was developed in platform matlab and it was compared with another without use the lateral inhibition in the recovery of the desired signal. The results, appraised through the calculation of the relative error and of the scale MOS, showed that the use of the lateral inhibition in the recovery of the signal, improves the relative error between the desired signal and the recovered signal and consequently the quality of the recovered signal. / O sistema auditivo humano é capaz de realizar diferentes tarefas que seriam úteis em aplicações de engenharia. Uma delas é a habilidade de separar fontes sonoras, permitindo a um ouvinte focar uma única fonte sonora em um ambiente ruidoso. Grandes investimentos têm sido feitos no desenvolvimento de tecnologias aplicadas ao reconhecimento de voz, por meio de máquinas, em ambientes reais. Para isso, diferentes técnicas de processamento computacional têm sido propostas para a redução do ruído ambiente e melhoramento do sinal desejado em ambiente acústico complexo (cocktail party). Essas técnicas são motivadas pelo modelo do sistema auditivo humano em suas diferentes fases. Neste trabalho, desenvolvemos um algoritmo para melhorar o processamento de um sinal de fala baseado no modelo auditivo binaural. Após receber os sinais misturados, por dois microfones, o algoritmo aumenta a inteligibilidade do sinal de maior energia de um dos receptores. Utilizando dois oradores e considerando que cada um está mais próximo de um dos receptores, fizemos uso dos conceitos de inibição lateral e mascaramento binaural, para recuperar o sinal de fala de maior energia de um dos receptores. O algoritmo foi desenvolvido sob a plataforma matlab e comparado com um outro sem a utilização da inibição lateral na recuperação do sinal desejado. Os resultados, avaliados através do cálculo do erro relativo e da escala MOS, mostraram que a utilização da inibição lateral na recuperação do sinal, melhora o erro relativo entre o sinal desejado e o sinal recuperado e conseqüentemente a qualidade do sinal recuperado.
196

ESTIMAÇÂO DA FREQUÊNCIA INSTANTANEA CARDIACA UTILIZANDO O MÉTODO EAR E WAVELETS / ESTEEM OF THE FREQUENCY CARDIAC INSTANTANEOUS USING METHOD EAR AND WAVELETS

Santos, Marcio de Oliveira 12 December 2003 (has links)
Made available in DSpace on 2016-08-17T14:52:55Z (GMT). No. of bitstreams: 1 Marcio de Oliveira Santos.pdf: 375867 bytes, checksum: 9316c23a45525634b808c0315c716985 (MD5) Previous issue date: 2003-12-12 / The patient diagnosis can be made through a analysis of the cardiac variability that, being formed of nervous interactions, give the status of the vagal and sympathetic systems. The main measure to do this analysis is HRV, obtained by RR temporal differences or spectral methods. A major disadvantage we can find in the latter methods is a high sampling tax that yields in lost of information and high storage cost. New methods has been developed to minimize these incovenients, like HIF. This method have two steps: a driver function and a wavelet filter. The proposed algorithm is based on HIF using a auto regressive method as driver function and otimized parameters to the wavelet filter. The obtained results are very promissor and the estimation error is smaller than traditional methods one. / O diagnóstico de um paciente pode ser feito através da análise da variabilidade cardíaca que, por ser resultado de interações nervosas, fornece o estado dos sistemas vagal e simpático. A principal medida utilizada para se fazer esta análise é a taxa de variabilidade cardíaca (HRV) que pode ser obtida por métodos de diferença temporal de ondas R e espectrais. A principal desvantagem que é encontrada nestes métodos é que a alta taxa de amostragem do ECG é herdada por estes métodos, ocasionando perda de informação e o aumento de custo para armazenamento dos dados se torna mais alto. Para que este problema fosse solucionado foram desenvolvidas novas medidas que não apresentassem esses inconvenientes, como o algoritmo HIF. Este algoritmo é composto de duas etapas: a construção de uma função driver e filtragem através de uma wavelet de Gabor. O algoritmo proposto neste trabalho foi baseado no HIF utilizando um novo método autoregressivo (EAR) para função driver e otimizando-se os parâmetros da wavelet de Gabor. Os resultados obtidos mostraram que o algoritmo desenvolvido é bastante promissor e o erro de estimação é bem menor em relação a HIF.
197

ELICITAÇÃO DE REQUISITOS NÃO FUNCIONAIS EM CONFORMIDADE COM POLÍTICAS DE QUALIDADE PARA APLICAÇÕES MÉDICAS / ELICIT REQUIREMENTS FOR NON FUNCTIONAL PURSUANT POLICIES ON QUALITY FOR MEDICAL APPLICATIONS

BASTOS FILHO, Francisco de Assis Menêzes 30 March 2007 (has links)
Made available in DSpace on 2016-08-17T14:53:09Z (GMT). No. of bitstreams: 1 Francisco de Assis.pdf: 1036916 bytes, checksum: f22914501d5f211716214a40fad5d08a (MD5) Previous issue date: 2007-03-30 / For several years, a lot of research is being done trying to find a solution for various problems concerning requirements engineering. Various approaches have pointed out that the requirements phase is the most important stage in the software development process. In general, requirements that are mistakenly elicited, analyzed and specified, gives rise to the development of low quality software. Non functional requirements gained little attention in the literature and are less understood but they are critical factors to the software development. When these requirements are badly elicited or not elicited at all, this gives rise to a difficulty in their treatment and their validation. Thus, we think that treating non functional requirements from the elicitation phase we contribute to a good software quality. This work deals with two aspects related with non functional requirements, namely how to elicit them and how to guarantee those requirements in conformity with a quality policy, even when new requirements or new technologies are adopted. As to attain this aim, we have elicited the requirements starting from a defined quality set necessary for medical applications. We defined a quality policy based upon these needs in such a way we could measure the conformity of non functional requirements definition specified in the requirements Document (RDs) with the desired quality, specified in the quality policy. / Ao longo dos anos, muitas pesquisas vêm sendo desenvolvidas na tentativa de se encontrar uma solução para os problemas relacionados à engenharia de requisitos. Existe uma unanimidade em certas abordagens, em ressaltar que a fase de requisitos se constitui na etapa mais crucial no processo de desenvolvimento de software. Freqüentemente, requisitos de software são mal elicitados, analisados e especificados, sendo estes fatores decisivos para o desenvolvimento de software de baixa qualidade. Requisitos não funcionais têm recebido muito pouca atenção na literatura, são pouco compreendidos mas são críticos no processo de desenvolvimento de software. O fato destes requisitos serem mal elicitados ou não elicitados os tornam mais difíceis de serem tratados e validados. Acreditamos que ao abordarmos os requisitos não funcionais desde a fase de elicitação, estamos contribuindo para a qualidade geral do software que será produzido. Este trabalho aborda dois aspectos relacionados aos requisitos não funcionais: como elicitá-los e como garantir a conformidade desses requisitos com uma política de qualidade, mesmo quando novos requisitos ou novas tecnologias forem adotadas. Para atingir este objetivo, elicitamos os requisitos a partir de um conjunto de necessidades de qualidade definidas para aplicações médicas. Definimos uma política de qualidade baseada nestas necessidades, de modo que possamos medir a conformidade das definições dos requisitos não funcionais especificados no Documento de Requisitos (DRs) com a qualidade desejada, especificada na política de qualidade.
198

Codificação Eficiente de Sinais de Eletrocardiograma / Efficient Coding of ECG signals

Araújo, Enio Aguiar de 28 May 2010 (has links)
Made available in DSpace on 2016-08-17T14:53:09Z (GMT). No. of bitstreams: 1 Enio Aguiar de Araujo.pdf: 4163087 bytes, checksum: 164f9ddea4dce2f8f19d8e66d5e8294f (MD5) Previous issue date: 2010-05-28 / Typically, in the digital processing of electrocardiography signal, linear transformations are used to turn the signals more tractable in accordance to some application. For applications such as classification or data compression, it usually aimed to reduce the redundancy present in the signals, increasing the potential of the applications. There are various methods usually used for the task, the Fourier transform, the wavelet transform and principal component analysis. All those methods have any sort of limitation, being the use of a predefined space, orthogonal spaces or the limitations to second order statistics. In this work we propose the use of the independent component analysis method for the encoding of the ECG signals, using as theoretical basis the neuroscience concept of efficient coding. Two important results were found, the basis functions space generated by the proposed method is different from the spaces seen on the usual methods, and, on average, the method can reduce the redundancy of the signal. We concluded that the traditional methods might not exploit the coding potential of ECG signals due to their limitations, and also that ICA might be a reliable method for improving the performance comparing to the current systems. / Tipicamente, em processamento digital de sinais de eletrocardiografia, são utilizadas transformações lineares visando tornar os sinais mais tratáveis de acordo com a aplicação. Para aplicações como classificação ou compressão de dados, normalmente temse como objetivo dessas transformações, reduzir a redundãncia presente nesses sinais, o que aumenta o potencial dessas aplicações. Existem diversos métodos usualmente utilizados para essa tarefa, como a transformada de Fourier, a transformada de Wavelets, e análise de componentes principais. Todos esses métodos tem alguma limitação, seja a utilização de um espaço predefinido e ortogonal ou utilizar apenas estatística de segunda ordem. Neste trabalho propomos a utilização do método de análise de componentes independentes para a codificação de sinais de ECG utilizando como base o conceito da neurociência de codificação eficiente. Dois resultados importantes foram obtidos, o espaço de funções bases gerado pelo método proposto se diferencia dos espaços de transformações utilizados usualmente, e, em média, o método proposto teve maior capacidade de reduzir a redundância dos sinais. Concluímos que os métodos tradicionais podem não explorar ao máximo o potencial de codificação de sinais de ECG devido às suas limitações, e que ICA pode ser um método plausível para melhorarmos os sistemas atualmente utilizados.
199

Compressão de sinais de eletrocardiograma utilizando análise de componentes independentes / COMPRESSION OF ELETROCARDIOGRAMA SIGNALS USING ANALYSIS OF INDEPENDENT COMPONENTS

Guilhon, Denner Robert Rodrigues 24 February 2006 (has links)
Made available in DSpace on 2016-08-17T14:53:12Z (GMT). No. of bitstreams: 1 Denner Guilhon.pdf: 761750 bytes, checksum: 0100d830816d0600a5ff8aacd65531cb (MD5) Previous issue date: 2006-02-24 / The continuing demand for high performance and low cost electrocardiogram processing systems have required the elaboration of even more efficient and reliable ECG compression techniques. The objective of this work is to evaluate the performance of an electrocardiogram (ECG) compression algorithm based on independent components analysis (ICA). To each of the ECG signal we processed, using ICA, vectorial subspaces composed of its basis functions were obtained, for the signal can be expressed as a linear combination of them. The ECG signal was subdivided into m fixed length windows, and each of them was projected in the subspace, resulting in a vector w of coefficients for each window. A simple quantization process was performed over the m vectors w, according to defined levels of quantization, each one generating different levels of reconstruction error. It was observed that the storage of the coefficients implies the use of less space in memory in comparison to that one used by the corresponding windows of the electrocardiogram signal. The reconstruction error measure traditionally used, the percent root mean-square difference (PRD), was used into the evaluation of the algorithm. The results had been compared with those obtained using the Karhunen Lo´eve transform (KLT). / A demanda contınua de por sistemas de processamento de eletrocardiogramas de alto desempenho e baixo custo tem exigido a elaboração de técnicas de compressão de ECG cada vez mais eficientes e confiáveis. O objetivo deste trabalho é avaliar o desempenho de um algoritmo baseado em análise de componentes independentes (ICA) para a compressão de eletrocardiogramas (ECGs). Para cada um dos sinais de ECG utilizados foram obtidos, através de ICA, subespaços vetoriais construıdos a partir de suas funções base, pois o sinal pode ser expresso como uma combinação linear destas. O sinal de ECG foi subdividido em m janelas de comprimento fixo, e cada uma delas foi projetada no subespaço, resultando em um vetor w de coeficientes para cada janela. Um processo de quantização simples foi executado para os m vetores w, segundo nıveis de quantização definidos, cada um gerando diferentes nıveis de erro de reconstrução. Foi observado que o armazenamento dos coeficientes implica na utilização de um menor espaço em memória em comparação àquele utilizado pelas janelas correspondentes do sinal de eletrocardiograma. A medida tradicionalmente utilizada de erro de reconstrução, diferença média quadrática percentual (PRD), foi empregada para a avaliação do algoritmo. Os resultados foram comparados àqueles obtidos utilizando a transformada de Karhunen Loeve (KLT).
200

Método de reconhecimento pessoal através da íris usando funções geoestatísticas / Method of personal recognition through iris texture using geostatistics functions

SOUSA JUNIOR, Osvaldo Silva de 04 December 2006 (has links)
Made available in DSpace on 2016-08-17T14:53:17Z (GMT). No. of bitstreams: 1 Osvaldo Junior.pdf: 1458966 bytes, checksum: a19ea3d3a77d6e058740e17388f1c8fa (MD5) Previous issue date: 2006-12-04 / Biometrics identification methods are gaining applications each day and this has motivated a lot of research in this area. This work presents a proposal for a method to identify people through iris texture analysis using geostatistics functions and their combination. To achieve this work objective, it is considered the following phases: automatic localization of the iris, features extraction and classification. In the localization phase, it is used a combination of three techniques: Watershed, Hough Transform and Active Contours. Each technique has an essential function to achieve a good performance. Within the extraction phase, there were used four geostatistics functions (semivariogram, semimadogram, covariogram and correlogram) and a combination of them to extract this features with a good precision. Finally in the phase of classification it is used a Euclidean Distance to determine the similarity degree between the extracted features. The tests were realised for the phases of localization and classification using an iris database called CASIA that has 756 images. The results achieved by the localization method are about 90%. For the classification method, considering the tests realized with the authentication mode, the obtained results has reached a success rate of 97.02% for a false acceptance rate equal to zero and 97.22% for a false acceptance rate equal to a false rejection rate. The tests realized with the identification mode have reached a rate of success of 98.14%. / Os métodos de identificação biométrica estão ganhando espaço em aplicações do dia-a-dia o que vem motivando a pesquisa nessa área. Este trabalho apresenta uma proposta de um método para identificação de pessoas através da análise da textura da íris usando funções geoestatísticas e uma combinação das mesmas. Para realização do trabalho foram consideradas as seguintes fases: localização automática da íris, extração de características e classificação. Na fase de localização foi usada a combinação de três técnicas Watershed, Transformada de Hough e Contornos Ativos, onde cada uma possui uma função essencial para um bom desempenho do processo. Na fase de extração são usadas quatro funções geoestatísticas (semivariograma, semimadograma, covariograma e correlograma) e uma combinação das mesmas para extrair características que discriminem a íris com uma boa precisão. Finalmente, na fase de classificação é usada a distancia Euclidiana para determinar o grau de similaridade entre as características extraídas. Os testes foram realizados, para as fases de localização e classificação, com um banco de dados de íris, denominado CASIA que possui 756 imagens. Na fase de localização o resultado alcançado foi de 90%. Para a fase de classificação, considerando os testes realizados no modo de autenticação, os resultados obtidos chegaram a uma taxa de sucesso de 97.02% para uma falsa aceitação igual a zero e de 97.22% para uma falsa aceitação igual a uma falsa rejeição. Para os testes realizados no modo de identificação a taxa de sucesso chegou a 98.14%.

Page generated in 0.0378 seconds