• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 191
  • 4
  • Tagged with
  • 195
  • 195
  • 195
  • 195
  • 137
  • 122
  • 116
  • 64
  • 43
  • 39
  • 35
  • 35
  • 34
  • 31
  • 31
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Medidas de duração de consoantes oclusivas como vestígios de fala em análise acústico-instrumental forense de amostras com e sem uso de disfarce / Stop consonants term measures as remains in forensic acoustic instrumental analysis of disguised and normal speech

Carneiro, Denise de Oliveira 24 August 2016 (has links)
A atribuição de autoria a falas provenientes de gravações ambientais e interceptações telefônicas de falas que provêm de crimes como tráfico de drogas, estelionato, sequestro, abuso sexual, pedofilia, e corrupção pode apresentar à perícia vários dificultadores para a obtenção de medidas acústicas. Um desses dificultadores pode ser o disfarce de voz. Com a possibilidade de ter suas vozes gravadas, o disfarce tem se tornado comum entre os perpetradores de crimes. Quando a voz é gravada, poderá servir como prova a partir do exame de comparação de locutor (ECL), que reúne metodologias para determinar se duas amostras de fala provêm do mesmo falante. O ECL é realizado por meio de análise perceptivo-auditiva, acústico-instrumental e de reconhecimento automático. Embora já tenham sido desenvolvidas tecnologias de verificação automática, as análises sem interferência humana não apresentam respaldo suficiente, seja pela má qualidade do sinal ou pela escassez de amostras de fala em banco de dados e, por isso, as pesquisas que ancorem as outras modalidades de análise são essenciais. A análise acústico-instrumental emprega ferramentas computacionais para avaliação quantitativa e qualitativa da fala e a engenharia biomédica possibilita o desenvolvimento de tecnologias para instrumentação da análise do sinal de fala. Em busca de um parâmetro acústico que seja robusto em análises de disfarce de voz, este trabalho utilizou medidas de duração de fases de segmentos, que têm sido pouco exploradas em ECL. As consoantes oclusivas não vozeadas do português brasileiro [p, t, k] são produzidas em três fases distintas: fase de oclusão, fase de soltura e transição formântica. As duas primeiras fases apresentam correlatos acústicos que se destacam na visualização do oscilograma: silêncio relativo e produção de ondas aperiódicas. Nesta pesquisa, foram analisadas instrumentalmente as falas de 20 sujeitos, 10 do sexo masculino e 10 do sexo feminino, com idades entre 25 e 55 anos, durante a leitura, com e sem o uso de disfarce, de um texto que simulava uma situação criminosa. Foram obtidas medidas dos tempos de oclusão e soltura das consoantes não vozeadas e constatou-se que o contexto fonológico posterior influencia o tempo de produção. Verificaram-se medidas diferentes entre a primeira e a segunda leitura com uso do disfarce, indicando que o falante apresentou dificuldade na manutenção do ajuste fonatório e que, embora tenham sido encontradas diferenças entre as medidas obtidas em fala com e sem disfarce, a correlação é forte entre as mesmas. O tempo de oclusão aparentou comportamento menos influenciável pelo uso do disfarce para as sílabas [pi, pu, te, tɛ], enquanto o tempo de soltura demonstrou maior suscetibilidade, exceto em [pi, te]. Os resultados permitem que alguns dos segmentos analisados sejam considerados vestígios de autoria dentro de um conjunto probatório. / Authorship attribution of speech, from environmental recordings and telephone interceptions, which can be evidence of crimes related to drug dealing, racketeering, kidnapping, sexual abuse, pedophilia, and corruption, may present difficulties to experts in obtaining acoustic measures. One of these difficulties may be the use of disguise. With the possibility of being recorded, voice disguise has become common among crime perpetrators. When a voice is recorded, it can be an evidence after speaker comparison examination (SCE), which adopts methodologies to determine whether two speech samples have been produced by the same speaker. SCE can be perceptual, acoustic-instrumental and through automatic recognition. Although automatic recognition technologies have already been developed, analyses without human interference do not have enough support, both for poor signal quality or for lack of speech samples. Therefore, research that is anchored in other analysis methods are essential. Acoustic-instrumental analyses use computational tools for quantitative and qualitative evaluation of speech, and biomedical engineering enables the development of technologies and instrumentation for speech signal analyses. In search of an acoustic parameter that is robust in disguise analyses, this research used segment phase measurements, which have been little explored in SCE. Brazilian Portuguese voiceless stops [p, t, k] are produced in three distinct phases: occlusion phase, release phase and formant transition. The first two phases have acoustic correlates that are visually distinct in the oscillogram: relative silence and aperiodic wave production. In this research, the speech of 20 subjects were instrumentally analyzed, 10 males and 10 females, aged between 25 and 55 years, while reading, with and without the use of disguise, a text that simulated a criminal situation. Occlusion and release duration of the voiceless stop consonants were measured and it was found that the phonological context influences the production time. Different measures were found between the first and the second reading with disguised voice, indicating that the speaker had difficulty in maintaining the phonation setting, and that, although there were differences between the measures in speech with and without disguise, the correlation between them was strong. Occlusion time appeared to be less influenced by the use of disguise for the syllables [pi, pu, te, tɛ], while the release time showed greater susceptibility, except for [pi, te]. The results allow that some of the segments analyzed be considered vestiges of authorship within a body of evidence.
42

Altera??es da default mode network provocadas pela ingest?o de Ayahuasca investigadas por Resson?ncia Magn?tica Funcional

Fontes, Fernanda Palhano Xavier de 25 May 2012 (has links)
Made available in DSpace on 2014-12-17T15:28:50Z (GMT). No. of bitstreams: 1 FernandaPXF_DISSERT.pdf: 1956112 bytes, checksum: 765e57e876596c2a3922bb6f98c28b64 (MD5) Previous issue date: 2012-05-25 / Conselho Nacional de Desenvolvimento Cient?fico e Tecnol?gico / Ayahuasca is psychotropic beverage that has been used for ages by indigenous populations in South America, notably in the Amazon region, for religious and medicinal purposes. The tea is obtained by the decoction of leaves from the Psychotria viridis with the bark and stalk of a shrub, the Banisteriopsis caapi. The first is rich in N-N-dimethyltryptamine (DMT), which has an important and well-known hallucinogenic effect due to its agonistic action in serotonin receptors, specifically 5-HT2A. On the other hand, β-carbolines present in B. caapi, particularly harmine and harmaline, are potent monoamine oxidase inhibitors (MAOi). In addition, the tetrahydroharmine (THH), also present in B. caapi, acts as mild selective serotonin reuptake inhibitor and a weak MAOi. This unique composition induces a number of affective, sensitive, perceptual and cognitive changes in individuals under the effect of Ayahuasca. On the other hand, there is growing interest in the Default Mode Network (DMN), which has been consistently observed in functional neuroimaging studies. The key components of this network include structures in the brain midline, as the anterior medial frontal cortex, ventral medial frontal cortex, posterior cingulate cortex, precuneus, and some regions within the inferior parietal lobe and middle temporal gyrus. It has been argued that DMN participate in tasks involving self-judgments, autobiographical memory retrieval, mental simulations, thinking in perspective, meditative states, and others. In general, these tasks require an internal focus of attention, hence the conclusion that the DMN is associated with introspective mental activity. Therefore, this study aimed to evaluate by functional magnetic resonance imaging (fMRI) changes in DMN caused via the ingestion of Ayahuasca by 10 healthy subjects while submitted to two fMRI protocols: a verbal fluency task and a resting state acquisition. In general, it was observed that Ayahuasca causes a reduction in the fMRI signal in central nodes of DMN, such as the anterior cingulate cortex, the medial prefrontal cortex, the posterior cingulate cortex, precuneus and inferior parietal lobe. Furthermore, changes in connectivity patterns of the DMN were observed, especially a decrease in the functional connectivity of the precuneus. Together, these findings indicate an association between the altered state of consciousness experienced by individuals under the effect of Ayahuasca, and changes in the stream of spontaneous thoughts leading to an increased introspective mental activity / A Ayahusca ? uma bebida psicotr?pica que tem sido utilizada h? s?culos por popula??es originais da Am?rica do Sul, notadamente da regi?o Amaz?nica, com fins religiosos e medicinais. O ch? ? obtido pela decoc??o de folhas da Psychotria viridis com a casca e tronco de um arbusto, a Banisteriopsis caapi. A primeira ? rica em N,N-dimetiltriptamina (DMT), que tem importante e bem conhecido efeito alucin?geno devido a sua atua??o agonista nos receptores de serotonina, especificamente 5-HT2A. Por outro lado, as β-carbolinas presentes na B. caapi, particularmente a harmina e a harmalina, s?o potentes inibidores da monoamina oxidase (iMAO). Al?m disso, a tetrahidroharmina (THH), tamb?m presente na B. caapi, atua como leve inibidor seletivo da recapta??o de serotonina e um fraco inibidor de MAO. Essa composi??o ?nica provoca uma s?rie de altera??es afetivas, sensoriais, perceptuais e cognitivas em indiv?duos sob o efeito da Ayahuasca. Por outro lado, existe um interesse crescente na rede de modo padr?o, do ingl?s Default Mode Network (DMN), que tem sido consistentemente observada em estudos de neuroimagem funcional. As principais componentes dessa rede incluem estruturas da linha m?dia do c?rtex cerebral, como o c?rtex frontomedial anterior, c?rtex frontomedial ventral, o giro cingulado posterior, o pr?-cuneus e algumas regi?es do lobo parietal inferior e do giro temporal m?dio. Acredita-se que a DMN participe de tarefas que envolvem autojulgamentos, evoca??o de mem?rias autobiogr?ficas, realiza??o de simula??es mentais, pensar em perspectiva, estados meditativos, entre outros. De maneira geral, essas tarefas requerem um foco de aten??o interno, da? a conclus?o de que a DMN estaria associada ? atividade mental introspectiva. Assim, este estudo teve como objetivo avaliar, por meio de resson?ncia magn?tica funcional (fMRI), as poss?veis mudan?as da DMN causadas pela ingest?o da Ayahuasca em 10 volunt?rios saud?veis investigados enquanto se submeteram a dois protocolos: uma tarefa de flu?ncia verbal e a aquisi??o de dados cont?nuos durante estado de repouso. De maneira geral, observa-se que a Ayahuasca provoca redu??o na amplitude do sinal de fMRI nos nodos centrais da DMN, tais como o c?ngulo anterior, o c?rtex pr?-frontal medial, o c?ngulo posterior, o pr?-cuneus e o lobo parietal inferior. Al?m disso, tamb?m foram observadas altera??es no padr?o de conectividade da DMN, em particular, diminui??o da conectividade funcional no pr?-cuneus. Juntos, esses achados indicam a poss?vel associa??o entre o estado alterado de consci?ncia experimentado pelos indiv?duos sob efeito da Ayahuasca, e mudan?as no fluxo de pensamentos espont?neos ligados ao aumento da introspec??o
43

Cálculo da Frequência Instantânea Cardíaca Utilizando o Algoritmo LMS e uma Interface de Aquisição de Dados / CALCULATION OF THE CARDIAC INSTANTANEOUS FREQUENCY USING ALGORITHM LMS AND AN INTERFACE OF ACQUISITION OF DATA

Brito, Deusdete de Sousa 11 October 2002 (has links)
Made available in DSpace on 2016-08-17T14:52:45Z (GMT). No. of bitstreams: 1 Deusdete Brito.PDF: 646824 bytes, checksum: 52d3dc54a7bd1d78f16e7b240f977ce8 (MD5) Previous issue date: 2002-10-11 / Conselho Nacional de Desenvolvimento Científico e Tecnológico / In this work we consider the calculation of the heart instantaneous frequency from the estimate of the weights, gotten through LMS algorithm, (Least Mean Squares) when functioning as spectrum analyzer. It is known that the electrocardiogram (ECG) is a signal that is characterized for a repetitive regularity, which can be called quasi-periodicity. We explore this characteristic to extract the instantaneous frequency of the referred signal. For this, we use the LMS as a spectral analyzer. We use as reference inputs pairs of sines and cosines, inside the frequency band where if it finds the frequency of the desired signal, namely, the heart frequency. The algorithm estimates the frequency desired in real time, with the signal acquired through a data acquisition interface Intel 80C31. The results obtained show that the algorithm can be recommended for this purpose, as besides being easily implemented and generating small computational load it estimates the heart instantaneous frequency with a relative mean error of 0.025 which represent a difference of 18.89% between the two methods. / Neste trabalho propomos o cálculo da frequência instantânea cardíaca a partir da estimativa do espectrograma dos pesos sinápticos, obtidos através do algoritmo LMS, (Least Mean Square) quando funcionando como analisador de espectro. Sabe-se que o eletrocardiograma (ECG) é um sinal que se caracteriza por uma regularidade repetitiva, que se pode chamar quasiperiodicidade. Exploramos aqui essa característica para extrair a frequência instantânea do referido sinal. Para isso, utilizamos o LMS como analisador de espectro. Utilizamos como entradas de referència pares de senos e cossenos, dentro da faixa de frequência em que se encontra a frequência do sinal desejado, no caso, a frequência cardíaca. O algoritmo estima a frequência desejada em tempo real, com obtenção do sinal através de uma interface de aquisição de dados Intel 80C31. Os resultados obtidos mostraram que o algoritmo pode ser recomendado pra esta finalidade, pois além de ser facilmente implementável e por gerar pequena carga computacional ele estimou a frequência instantânea cardíaca com um erro relativo médio de 0.025 que representa uma diferença de 18.89% entre os dois métodos.
44

MELHORAMENTO DO SINAL DE VOZ POR INIBIÇÃO LATERAL E MASCARAMENTO BINAURAL / IMPROVEMENT OF THE SIGNAL VOICE BY LATERAL INHIBITION AND BINAURAL MASKING

Nascimento, Edil James de Jesus 02 April 2004 (has links)
Made available in DSpace on 2016-08-17T14:52:52Z (GMT). No. of bitstreams: 1 Edil James de Jesus Nascimento.PDF: 2709948 bytes, checksum: c8bf5634508e47328bd033c4d323f9c0 (MD5) Previous issue date: 2004-04-02 / The human hearing system is capable to accomplish different tasks that would be useful in engineering applications. One of them is the ability to separate sound sources, allowing the listener to "focus" a single sound source in a noisy environment. Great investments have been made in the development of technologies applied to the voice recognition by machines in real environment. For that, different techniques of processing computational have been proposed, for reduction of the ambient noise and improvement of the signal desired in complex acoustic environment (cocktail party). The model of the human hearing system motivates those techniques in their different phases. In this work, we developed an algorithm to improve the processing speech signal based on the binaural hearing model. After receiving the mixed signals, for two microphones, the algorithm increases the intelligibility of the signal of larger energy of one of the receivers. Using two speakers and considering that each one is closer of one of the microphones, we made use of the concepts of lateral inhibition and binaural masking, to recover the signal of speech of larger energy of one of the receivers. The algorithm was developed in platform matlab and it was compared with another without use the lateral inhibition in the recovery of the desired signal. The results, appraised through the calculation of the relative error and of the scale MOS, showed that the use of the lateral inhibition in the recovery of the signal, improves the relative error between the desired signal and the recovered signal and consequently the quality of the recovered signal. / O sistema auditivo humano é capaz de realizar diferentes tarefas que seriam úteis em aplicações de engenharia. Uma delas é a habilidade de separar fontes sonoras, permitindo a um ouvinte focar uma única fonte sonora em um ambiente ruidoso. Grandes investimentos têm sido feitos no desenvolvimento de tecnologias aplicadas ao reconhecimento de voz, por meio de máquinas, em ambientes reais. Para isso, diferentes técnicas de processamento computacional têm sido propostas para a redução do ruído ambiente e melhoramento do sinal desejado em ambiente acústico complexo (cocktail party). Essas técnicas são motivadas pelo modelo do sistema auditivo humano em suas diferentes fases. Neste trabalho, desenvolvemos um algoritmo para melhorar o processamento de um sinal de fala baseado no modelo auditivo binaural. Após receber os sinais misturados, por dois microfones, o algoritmo aumenta a inteligibilidade do sinal de maior energia de um dos receptores. Utilizando dois oradores e considerando que cada um está mais próximo de um dos receptores, fizemos uso dos conceitos de inibição lateral e mascaramento binaural, para recuperar o sinal de fala de maior energia de um dos receptores. O algoritmo foi desenvolvido sob a plataforma matlab e comparado com um outro sem a utilização da inibição lateral na recuperação do sinal desejado. Os resultados, avaliados através do cálculo do erro relativo e da escala MOS, mostraram que a utilização da inibição lateral na recuperação do sinal, melhora o erro relativo entre o sinal desejado e o sinal recuperado e conseqüentemente a qualidade do sinal recuperado.
45

ESTIMAÇÂO DA FREQUÊNCIA INSTANTANEA CARDIACA UTILIZANDO O MÉTODO EAR E WAVELETS / ESTEEM OF THE FREQUENCY CARDIAC INSTANTANEOUS USING METHOD EAR AND WAVELETS

Santos, Marcio de Oliveira 12 December 2003 (has links)
Made available in DSpace on 2016-08-17T14:52:55Z (GMT). No. of bitstreams: 1 Marcio de Oliveira Santos.pdf: 375867 bytes, checksum: 9316c23a45525634b808c0315c716985 (MD5) Previous issue date: 2003-12-12 / The patient diagnosis can be made through a analysis of the cardiac variability that, being formed of nervous interactions, give the status of the vagal and sympathetic systems. The main measure to do this analysis is HRV, obtained by RR temporal differences or spectral methods. A major disadvantage we can find in the latter methods is a high sampling tax that yields in lost of information and high storage cost. New methods has been developed to minimize these incovenients, like HIF. This method have two steps: a driver function and a wavelet filter. The proposed algorithm is based on HIF using a auto regressive method as driver function and otimized parameters to the wavelet filter. The obtained results are very promissor and the estimation error is smaller than traditional methods one. / O diagnóstico de um paciente pode ser feito através da análise da variabilidade cardíaca que, por ser resultado de interações nervosas, fornece o estado dos sistemas vagal e simpático. A principal medida utilizada para se fazer esta análise é a taxa de variabilidade cardíaca (HRV) que pode ser obtida por métodos de diferença temporal de ondas R e espectrais. A principal desvantagem que é encontrada nestes métodos é que a alta taxa de amostragem do ECG é herdada por estes métodos, ocasionando perda de informação e o aumento de custo para armazenamento dos dados se torna mais alto. Para que este problema fosse solucionado foram desenvolvidas novas medidas que não apresentassem esses inconvenientes, como o algoritmo HIF. Este algoritmo é composto de duas etapas: a construção de uma função driver e filtragem através de uma wavelet de Gabor. O algoritmo proposto neste trabalho foi baseado no HIF utilizando um novo método autoregressivo (EAR) para função driver e otimizando-se os parâmetros da wavelet de Gabor. Os resultados obtidos mostraram que o algoritmo desenvolvido é bastante promissor e o erro de estimação é bem menor em relação a HIF.
46

ELICITAÇÃO DE REQUISITOS NÃO FUNCIONAIS EM CONFORMIDADE COM POLÍTICAS DE QUALIDADE PARA APLICAÇÕES MÉDICAS / ELICIT REQUIREMENTS FOR NON FUNCTIONAL PURSUANT POLICIES ON QUALITY FOR MEDICAL APPLICATIONS

BASTOS FILHO, Francisco de Assis Menêzes 30 March 2007 (has links)
Made available in DSpace on 2016-08-17T14:53:09Z (GMT). No. of bitstreams: 1 Francisco de Assis.pdf: 1036916 bytes, checksum: f22914501d5f211716214a40fad5d08a (MD5) Previous issue date: 2007-03-30 / For several years, a lot of research is being done trying to find a solution for various problems concerning requirements engineering. Various approaches have pointed out that the requirements phase is the most important stage in the software development process. In general, requirements that are mistakenly elicited, analyzed and specified, gives rise to the development of low quality software. Non functional requirements gained little attention in the literature and are less understood but they are critical factors to the software development. When these requirements are badly elicited or not elicited at all, this gives rise to a difficulty in their treatment and their validation. Thus, we think that treating non functional requirements from the elicitation phase we contribute to a good software quality. This work deals with two aspects related with non functional requirements, namely how to elicit them and how to guarantee those requirements in conformity with a quality policy, even when new requirements or new technologies are adopted. As to attain this aim, we have elicited the requirements starting from a defined quality set necessary for medical applications. We defined a quality policy based upon these needs in such a way we could measure the conformity of non functional requirements definition specified in the requirements Document (RDs) with the desired quality, specified in the quality policy. / Ao longo dos anos, muitas pesquisas vêm sendo desenvolvidas na tentativa de se encontrar uma solução para os problemas relacionados à engenharia de requisitos. Existe uma unanimidade em certas abordagens, em ressaltar que a fase de requisitos se constitui na etapa mais crucial no processo de desenvolvimento de software. Freqüentemente, requisitos de software são mal elicitados, analisados e especificados, sendo estes fatores decisivos para o desenvolvimento de software de baixa qualidade. Requisitos não funcionais têm recebido muito pouca atenção na literatura, são pouco compreendidos mas são críticos no processo de desenvolvimento de software. O fato destes requisitos serem mal elicitados ou não elicitados os tornam mais difíceis de serem tratados e validados. Acreditamos que ao abordarmos os requisitos não funcionais desde a fase de elicitação, estamos contribuindo para a qualidade geral do software que será produzido. Este trabalho aborda dois aspectos relacionados aos requisitos não funcionais: como elicitá-los e como garantir a conformidade desses requisitos com uma política de qualidade, mesmo quando novos requisitos ou novas tecnologias forem adotadas. Para atingir este objetivo, elicitamos os requisitos a partir de um conjunto de necessidades de qualidade definidas para aplicações médicas. Definimos uma política de qualidade baseada nestas necessidades, de modo que possamos medir a conformidade das definições dos requisitos não funcionais especificados no Documento de Requisitos (DRs) com a qualidade desejada, especificada na política de qualidade.
47

Codificação Eficiente de Sinais de Eletrocardiograma / Efficient Coding of ECG signals

Araújo, Enio Aguiar de 28 May 2010 (has links)
Made available in DSpace on 2016-08-17T14:53:09Z (GMT). No. of bitstreams: 1 Enio Aguiar de Araujo.pdf: 4163087 bytes, checksum: 164f9ddea4dce2f8f19d8e66d5e8294f (MD5) Previous issue date: 2010-05-28 / Typically, in the digital processing of electrocardiography signal, linear transformations are used to turn the signals more tractable in accordance to some application. For applications such as classification or data compression, it usually aimed to reduce the redundancy present in the signals, increasing the potential of the applications. There are various methods usually used for the task, the Fourier transform, the wavelet transform and principal component analysis. All those methods have any sort of limitation, being the use of a predefined space, orthogonal spaces or the limitations to second order statistics. In this work we propose the use of the independent component analysis method for the encoding of the ECG signals, using as theoretical basis the neuroscience concept of efficient coding. Two important results were found, the basis functions space generated by the proposed method is different from the spaces seen on the usual methods, and, on average, the method can reduce the redundancy of the signal. We concluded that the traditional methods might not exploit the coding potential of ECG signals due to their limitations, and also that ICA might be a reliable method for improving the performance comparing to the current systems. / Tipicamente, em processamento digital de sinais de eletrocardiografia, são utilizadas transformações lineares visando tornar os sinais mais tratáveis de acordo com a aplicação. Para aplicações como classificação ou compressão de dados, normalmente temse como objetivo dessas transformações, reduzir a redundãncia presente nesses sinais, o que aumenta o potencial dessas aplicações. Existem diversos métodos usualmente utilizados para essa tarefa, como a transformada de Fourier, a transformada de Wavelets, e análise de componentes principais. Todos esses métodos tem alguma limitação, seja a utilização de um espaço predefinido e ortogonal ou utilizar apenas estatística de segunda ordem. Neste trabalho propomos a utilização do método de análise de componentes independentes para a codificação de sinais de ECG utilizando como base o conceito da neurociência de codificação eficiente. Dois resultados importantes foram obtidos, o espaço de funções bases gerado pelo método proposto se diferencia dos espaços de transformações utilizados usualmente, e, em média, o método proposto teve maior capacidade de reduzir a redundância dos sinais. Concluímos que os métodos tradicionais podem não explorar ao máximo o potencial de codificação de sinais de ECG devido às suas limitações, e que ICA pode ser um método plausível para melhorarmos os sistemas atualmente utilizados.
48

Compressão de sinais de eletrocardiograma utilizando análise de componentes independentes / COMPRESSION OF ELETROCARDIOGRAMA SIGNALS USING ANALYSIS OF INDEPENDENT COMPONENTS

Guilhon, Denner Robert Rodrigues 24 February 2006 (has links)
Made available in DSpace on 2016-08-17T14:53:12Z (GMT). No. of bitstreams: 1 Denner Guilhon.pdf: 761750 bytes, checksum: 0100d830816d0600a5ff8aacd65531cb (MD5) Previous issue date: 2006-02-24 / The continuing demand for high performance and low cost electrocardiogram processing systems have required the elaboration of even more efficient and reliable ECG compression techniques. The objective of this work is to evaluate the performance of an electrocardiogram (ECG) compression algorithm based on independent components analysis (ICA). To each of the ECG signal we processed, using ICA, vectorial subspaces composed of its basis functions were obtained, for the signal can be expressed as a linear combination of them. The ECG signal was subdivided into m fixed length windows, and each of them was projected in the subspace, resulting in a vector w of coefficients for each window. A simple quantization process was performed over the m vectors w, according to defined levels of quantization, each one generating different levels of reconstruction error. It was observed that the storage of the coefficients implies the use of less space in memory in comparison to that one used by the corresponding windows of the electrocardiogram signal. The reconstruction error measure traditionally used, the percent root mean-square difference (PRD), was used into the evaluation of the algorithm. The results had been compared with those obtained using the Karhunen Lo´eve transform (KLT). / A demanda contınua de por sistemas de processamento de eletrocardiogramas de alto desempenho e baixo custo tem exigido a elaboração de técnicas de compressão de ECG cada vez mais eficientes e confiáveis. O objetivo deste trabalho é avaliar o desempenho de um algoritmo baseado em análise de componentes independentes (ICA) para a compressão de eletrocardiogramas (ECGs). Para cada um dos sinais de ECG utilizados foram obtidos, através de ICA, subespaços vetoriais construıdos a partir de suas funções base, pois o sinal pode ser expresso como uma combinação linear destas. O sinal de ECG foi subdividido em m janelas de comprimento fixo, e cada uma delas foi projetada no subespaço, resultando em um vetor w de coeficientes para cada janela. Um processo de quantização simples foi executado para os m vetores w, segundo nıveis de quantização definidos, cada um gerando diferentes nıveis de erro de reconstrução. Foi observado que o armazenamento dos coeficientes implica na utilização de um menor espaço em memória em comparação àquele utilizado pelas janelas correspondentes do sinal de eletrocardiograma. A medida tradicionalmente utilizada de erro de reconstrução, diferença média quadrática percentual (PRD), foi empregada para a avaliação do algoritmo. Os resultados foram comparados àqueles obtidos utilizando a transformada de Karhunen Loeve (KLT).
49

Método de reconhecimento pessoal através da íris usando funções geoestatísticas / Method of personal recognition through iris texture using geostatistics functions

SOUSA JUNIOR, Osvaldo Silva de 04 December 2006 (has links)
Made available in DSpace on 2016-08-17T14:53:17Z (GMT). No. of bitstreams: 1 Osvaldo Junior.pdf: 1458966 bytes, checksum: a19ea3d3a77d6e058740e17388f1c8fa (MD5) Previous issue date: 2006-12-04 / Biometrics identification methods are gaining applications each day and this has motivated a lot of research in this area. This work presents a proposal for a method to identify people through iris texture analysis using geostatistics functions and their combination. To achieve this work objective, it is considered the following phases: automatic localization of the iris, features extraction and classification. In the localization phase, it is used a combination of three techniques: Watershed, Hough Transform and Active Contours. Each technique has an essential function to achieve a good performance. Within the extraction phase, there were used four geostatistics functions (semivariogram, semimadogram, covariogram and correlogram) and a combination of them to extract this features with a good precision. Finally in the phase of classification it is used a Euclidean Distance to determine the similarity degree between the extracted features. The tests were realised for the phases of localization and classification using an iris database called CASIA that has 756 images. The results achieved by the localization method are about 90%. For the classification method, considering the tests realized with the authentication mode, the obtained results has reached a success rate of 97.02% for a false acceptance rate equal to zero and 97.22% for a false acceptance rate equal to a false rejection rate. The tests realized with the identification mode have reached a rate of success of 98.14%. / Os métodos de identificação biométrica estão ganhando espaço em aplicações do dia-a-dia o que vem motivando a pesquisa nessa área. Este trabalho apresenta uma proposta de um método para identificação de pessoas através da análise da textura da íris usando funções geoestatísticas e uma combinação das mesmas. Para realização do trabalho foram consideradas as seguintes fases: localização automática da íris, extração de características e classificação. Na fase de localização foi usada a combinação de três técnicas Watershed, Transformada de Hough e Contornos Ativos, onde cada uma possui uma função essencial para um bom desempenho do processo. Na fase de extração são usadas quatro funções geoestatísticas (semivariograma, semimadograma, covariograma e correlograma) e uma combinação das mesmas para extrair características que discriminem a íris com uma boa precisão. Finalmente, na fase de classificação é usada a distancia Euclidiana para determinar o grau de similaridade entre as características extraídas. Os testes foram realizados, para as fases de localização e classificação, com um banco de dados de íris, denominado CASIA que possui 756 imagens. Na fase de localização o resultado alcançado foi de 90%. Para a fase de classificação, considerando os testes realizados no modo de autenticação, os resultados obtidos chegaram a uma taxa de sucesso de 97.02% para uma falsa aceitação igual a zero e de 97.22% para uma falsa aceitação igual a uma falsa rejeição. Para os testes realizados no modo de identificação a taxa de sucesso chegou a 98.14%.
50

Análise térmica, eletromiográfica e mecanomiográfica do músculo reto femoral durante o movimento de pedalada / Thermographic, electromyographic and mechanomyographic analysis of rectus femoris muscle during cycling movement

Gelain, Manuela Cristine 30 October 2016 (has links)
CAPES / Desde a década de 80, a obesidade mundial aumentou cerca de 36%. O cicloergômetro é um recurso para combater a obesidade e também pode ser utilizado como instrumento para manter, reabilitar e avaliar o condicionamento físico. Pedalar promove uma série de benefícios ao organismo como a melhora do condicionamento cardiorrespiratório, do sistema cardiovascular e musculoesquelético, das conexões neurais e da autoestima. A termografia é um recurso utilizado para medir a temperatura emitida pela superfície da pele. A eletromiografia (EMG) e a mecanomiografia (MMG) quantificam e qualificam a contração muscular. O objetivo desta pesquisa é investigar a viabilidade da análise térmica superficial da pele na identificação das alterações metabólicas e vasculares geradas pela contração muscular durante a pedalada, em indivíduos hígidos, por meio da correlação com os sinais eletromiográficos e mecanomiográficos. Onze voluntários do sexo masculino foram separados em dois grupos: sedentários (GS) e dos ativos fisicamente (GA). Eles participaram do protocolo de pedalada com acréscimo de carga até a fadiga muscular do músculo reto femoral. Dois testes (1 e 2), com intervalo de 1h entre ambos, foram realizados. A coleta dos dados antropométricos, cardíacos, térmicos e dos sinais neuromusculares resultou em tabelas exportadas ao software IBM SPSS Statistics para análise da distribuição normal, percentagens, testes de Wilcoxon, Mann-Whitney e correlação da temperatura com os sinais neuromusculares pelo teste de Spearman. As medianas antropométricas dos participantes mostram para o GS a idade de 33±4,5 anos, massa de 82±12 kg, altura de 1,85±0,09 m, IMC de 23,95±2,65 kg/m2, adipometria da coxa de 11,73±4,98 mm e perimetria de 0,55±0,04 cm. Já para o GA, a idade de 28±12 anos, massa de 66,5±8,58 kg, altura de 1,76±0,04 m, IMC de 21,75±2,78 kg/m2 , adipometria da coxa de 10±2,09 mm e perimetria de 0,57±0,02 cm. A frequência cardíaca diminuiu 25% do primeiro para o segundo teste, assim como a pressão arterial, sistólica e diastólica, em cerca de 3 e 15%, respectivamente, no GS. A temperatura diminuiu de 1 a 3 °C em ambos os grupos; entretanto, o teste de Wilcoxon comprovou o resultado significativo apenas para o GS no primeiro teste, com p= 0,018, e no segundo, com p=0,043. Houve aumento da amplitude dos sinais da MMG e EMG, entretanto, os testes de Wilcoxon e Mann-Whitney não apresentaram p-valor significativo. Na correlação da temperatura com a contração muscular, por meio do teste de Spearman, somente o GA apresentou um p-valor significativo e forte na MMG (p=0,01 e r=1,000) e na EMG (p=0,01 e r= -1,000). Com esses achados, concluiu-se que a variação térmica se comporta de modo inversamente proporcional à variação de amplitude dos sinais de EMG e MMG e a temperatura representa um parâmetro viável para análise das alterações metabólicas e vasculares geradas pela contração durante as atividades aeróbicas com acréscimo de carga até a exaustão. / From the 80s on, global obesity increased around 36%. Cycle-ergometer is a resource to oppose obesity and it is also used as a tool to maintain, rehabilitate and evaluate physical conditioning. Cycling promotes a number of benefits to the organism as the improvement of cardiorespiratory condition, cardiovascular and musculoskeletal system, neural connections and self-esteem. Thermography is a resource used to measure body skin temperature. Electromyography (EMG) and mechanomyography (MMG) allows quantifying and qualifying muscle contraction. The goal of this research is to investigate the feasibility of surface skin thermal analysis in the identification of metabolic and vascular disorders created by muscle contraction during cycling in healthy individuals, through correlation with electromyographical and mechanomiographical signals. Eleven male volunteers were separate on two groups: sedentary (GS) and physically active (GA). Both participated on cycling protocol with load increase until muscular fatigue of the rectus femoris occurs. There were two tests (1 and 2) with 1h interval in between. After collection of anthropometric data, cardiac, thermal and neuromuscular signals, tables were compiled and their values exported to IBM's SPSS Statistics in order to check the normal distribution, percentages, Wilcoxon’s and Mann-Whitney’s test and the correlation of temperature with neuromuscular signals using the Spearman's test. The median anthropometric values of the GS showed average age of 33±4,5 years, weight of 82±12 kg, height of 1,85±0,09 m, BMI of 23,95±2,65 kg/m2, measurement of thigh’s skinfold thickness of 11,73±4,98 mm and perimeter of 0,55±0,04 cm. The average values for GA were: age of 28±12 years, weight of 66,5±8,58 kg, height of 1,76±0,04 m, BMI of 21,75±2,78 kg/m2, measurement of thigh’s skinfold thickness of 10±2,09 mm and perimeter of 0,57±0,02 cm. The heart rate decreased 25% from de first to second test, likewise systolic and diastolic arterial pressure around 3% and 15%, respectively, for GS. Temperature decreased from 1 to 3 °C in both groups, however, Wilcoxon’s test proved a significant result only to GS first test p=0,018 and second test p=0,043. The amplitude of MMG and EMG signal increased, however Wilcoxon’s and MannWhitney’s tests did not show a significant p-value. Concerning temperature correlation to muscle contraction by Spearman’s test, only GA showed a significant p-value and strong correlation for MMG (p=0,01 and r=1,000) and EMG (p=0,01 e r= -1000) signals. From these findings, it was concluded that thermal variation behaviors inversely proportional to EMG and MMG amplitude variation, and temperature represents a feasible parameter to analyze the metabolic and vascular disorders created by muscle contraction during aerobic activities with load increase until exhaustion.

Page generated in 0.4294 seconds