Spelling suggestions: "subject:"wavelets."" "subject:"waveletss.""
401 |
Otimização de imagens de mamografia computadorizadaAlvarez, Matheus [UNESP] 30 June 2012 (has links) (PDF)
Made available in DSpace on 2014-06-11T19:29:11Z (GMT). No. of bitstreams: 0
Previous issue date: 2012-06-30Bitstream added on 2014-06-13T18:58:43Z : No. of bitstreams: 1
alvarez_m_me_botib.pdf: 425512 bytes, checksum: ffc36e9f37fd09af33193b987cfefdc4 (MD5) / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) / O propósito deste trabalho é apresentar uma metodologia de análise computacional de radiografias do fantoma de acreditação mamográfico (FAM) do colégio americano de radiologia (CAR) a ser utilizado em serviços de mamografia. Processamentos via transformada discreta de wavelet (TDW) são usados de maneira a realçar o contraste dos objetos teste a serem analisados, possibilitando condições automáticas da avaliação do desempenho de sistemas mamográficos. Os algoritmos desenvolvidos localizam a região do fantoma na radiografia de maneira totalmente automatizada, onde são aplicados processamentos via TDW, que realçam características geométricas e morfológicas do fantoma. Cada região da imagem é submetida a testes de reconhecimento de detalhes estruturais, visando a minimização de detecção de falsos positivos. Em seguida, parâmetros morfológicos e geométricos das imagens processadas são utilizados na quantificação do nível de qualidade final da imagem. Também foram investigados as possibilidades de otimizar a dose utilizada na obtenção de mamografias e o potencial de otimização dos algoritmos desenvolvidos. A análise das tabelas de contingência revelou uma associação significativa ( p < 0.001 ) para as avaliações de massas, fibras e microcalcificações, revelando um grau de concordância satisfatório entre algoritmos e radiologistas. As médias das diferenças para simuladores de massas, fibras e microcalcificações obtidas foram, respectivamente, -0,11±0,86, -0,01±0,82 e 0,14±0,88. Foi avaliado o potencial de diminuição de dose na obtenção da mamografia de uma mama padrão e um potencial de redução de dose de aproximadamente 50% da dose utilizada atualmente foi encontrado. A metodologia desenvolvida e validada pode ser utilizada na detecção de pequenas variações da... / The purpose of this paper is to present a methodology for computed analysis of the mammographic accreditation phantom (MAP) recommended by the American College of Radiology (ACR) radiographs. Wavelet enhancement by the discrete wavelet transform (DWT) are used in order to highlight the test objects to be analyzed. Enabling automatic conditions of evaluating the performance of mammographic systems. The algorithms presented here locate the region of the ACR MAP in the radiograph by a fully automatic process. DWT is used to enhance the contrast between the objects and the background this allows morphological operator to detect the test objects in each region. Then, Morphological and geometrical pparameters of the processed images are used to quantify the final level of image quality presented by the system. We also investigated the possibilities of optimizing the dose used in the acquisition of mammograms. Our analysis revealed a strong correlation (p<0.001) in the computed evaluation of the test objects and radiologists scores.The mean difference between the human and the computed score were -0.11±0.86, -0.01±0.82, 0.14±0.88. We have found a potential of dose reduction in approximated 50% of the currently radiation level without prejudicing the image quality level. The methodology were developed and validated to show that they can be used to detect small variations in the radiographs levels. Our... (Complete abstract click electronic access below)
|
402 |
Otimização de imagens de mamografia computadorizada /Alvarez, Matheus. January 2012 (has links)
Orientador: José Ricardo de Arruda Miranda / Coorientador: Diana Rodrigues de Pina / Banca: Sérgio José Barbosa Duarte / Banca: André Petean Trindade / Resumo: O propósito deste trabalho é apresentar uma metodologia de análise computacional de radiografias do fantoma de acreditação mamográfico (FAM) do colégio americano de radiologia (CAR) a ser utilizado em serviços de mamografia. Processamentos via transformada discreta de wavelet (TDW) são usados de maneira a realçar o contraste dos objetos teste a serem analisados, possibilitando condições automáticas da avaliação do desempenho de sistemas mamográficos. Os algoritmos desenvolvidos localizam a região do fantoma na radiografia de maneira totalmente automatizada, onde são aplicados processamentos via TDW, que realçam características geométricas e morfológicas do fantoma. Cada região da imagem é submetida a testes de reconhecimento de detalhes estruturais, visando a minimização de detecção de falsos positivos. Em seguida, parâmetros morfológicos e geométricos das imagens processadas são utilizados na quantificação do nível de qualidade final da imagem. Também foram investigados as possibilidades de otimizar a dose utilizada na obtenção de mamografias e o potencial de otimização dos algoritmos desenvolvidos. A análise das tabelas de contingência revelou uma associação significativa ( p < 0.001 ) para as avaliações de massas, fibras e microcalcificações, revelando um grau de concordância satisfatório entre algoritmos e radiologistas. As médias das diferenças para simuladores de massas, fibras e microcalcificações obtidas foram, respectivamente, -0,11±0,86, -0,01±0,82 e 0,14±0,88. Foi avaliado o potencial de diminuição de dose na obtenção da mamografia de uma mama padrão e um potencial de redução de dose de aproximadamente 50% da dose utilizada atualmente foi encontrado. A metodologia desenvolvida e validada pode ser utilizada na detecção de pequenas variações da... (Resumo completo, clicar acesso eletrônico abaixo) / Abstract: The purpose of this paper is to present a methodology for computed analysis of the mammographic accreditation phantom (MAP) recommended by the American College of Radiology (ACR) radiographs. Wavelet enhancement by the discrete wavelet transform (DWT) are used in order to highlight the test objects to be analyzed. Enabling automatic conditions of evaluating the performance of mammographic systems. The algorithms presented here locate the region of the ACR MAP in the radiograph by a fully automatic process. DWT is used to enhance the contrast between the objects and the background this allows morphological operator to detect the test objects in each region. Then, Morphological and geometrical pparameters of the processed images are used to quantify the final level of image quality presented by the system. We also investigated the possibilities of optimizing the dose used in the acquisition of mammograms. Our analysis revealed a strong correlation (p<0.001) in the computed evaluation of the test objects and radiologists scores.The mean difference between the human and the computed score were -0.11±0.86, -0.01±0.82, 0.14±0.88. We have found a potential of dose reduction in approximated 50% of the currently radiation level without prejudicing the image quality level. The methodology were developed and validated to show that they can be used to detect small variations in the radiographs levels. Our... (Complete abstract click electronic access below) / Mestre
|
403 |
Longa dependência em sequências de DNA : análise de flutuações destendenciadas, teorias das distribuições estáveis e de waveletsLinhares, Raquel Romes January 2011 (has links)
O método da análise de flutuações destendenciadas (Detrended Fluctuation Analysis - DFA), proposto por Peng et al. (1994), é um exemplo de metodologia recente, sendo utilizada em um crescente número de aplicações, para identificar longa dependência em séries temporais. Como não existe uma regra específica para a escolha dos números de regressores no método de DFA, apresentamos aqui uma escolha ótima assintótica. Para um ruído Gaussiano fracionário, provamos que o estimador bHDFA tem distribuição Gaussiana exata e assintótica. O parâmetro mais importante para ser estimado em dados com caudas pesadas é a sua taxa de decaimento α que determina a probabilidade de ocorrência dos valores extremos da distribuição subjacente. Propomos, neste trabalho, um novo estimador para o parâmetro α, baseado na função característica empírica e no procedimento de encolhimento de wavelets. Estamos interessados em analisar a longa dependência em sequência de DNA utilizando a metodologia de mudança de regimes, proposta por Liu (2000). Nesta metodologia, se a duração dos regimes de uma série temporal tem uma distribuição de caudas pesadas com parâmetro α ∈ (1, 2), então a série temporal apresenta a característica de longa dependência. Além disso, aplicando-se qualquer transformação linear que preserva a propriedade de variância finita na série temporal, igualmente preservará a propriedade de longa dependência. Por fim, estudamos as distribuições de distâncias das regiões codantes e não codantes em sequências de DNA. Concluímos que todas as técnicas apresentadas neste trabalho, para analisar longa dependência em série temporais, envolvendo conceitos de análise de flutuações destendenciadas, distribuições com caudas pesadas e encolhimento de wavelets, mostram a existência de longa dependência em todas sequências de DNA aqui estudadas. / The method of detrended fluctuation analysis (DFA), proposed by Peng et al. (1994), is useful in revealing the extent of long-range dependence in time series. Since there is not a specific rule for the choice of the numbers of regressors in DFA method, we present here an asymptotic optimal choice. For a fractional Gaussian noise, we prove the exact and the asymptotic Gaussian distributions for the bHDFA estimator. The most important parameter to estimate in a heavy-tailed data is the tail rate of decay α which determines the probability of occurrence of extreme values of the underlying distribution. Here we propose a novel estimator for α based on the empirical characteristic function and on the principal of wavelet shrinkage. Here we are interested in analyzing the long-range dependence in several DNA sequences, under the heavy-tail regime switching mechanism, proposed by Liu (2000). In this mechanism, if the duration of the regimes of a given time series has a heavy tail distribution with index parameter α ∈ (1, 2), then there is long-range dependence in this time series, and any functional transformation of the original time series preserving the property of finite variance, also preserves the property of long-range dependence. We also study the length distribution of coding and noncoding regions in DNA sequences. We conclude that all techniques presented in this paper to analyze longrange dependence in time series, involving concepts of detrended fluctuation analysis, heavy tail distributions and wavelet shrinkage, show the existence of long-range dependence in all DNA sequences studied here.
|
404 |
Análise de sinais biológicos utilizando wavelets. / Biological signal analysis by wavelets.Franco Beltrame Runza 17 October 2001 (has links)
A análise de sinais mioelétricos provenientes do tubo gastro-intestinal de animais de laboratório (ratos), conseguidos por meio de eletrodos cronicamente implantados, é peça-chave no entendimento das desordens associadas ao sistema digestivo. Esta análise enfrenta consideráveis dificuldades quando realizadas por métodos clássicos, em especial os baseados na transformada de Fourier. A interação de várias componentes mioelétricas torna muito complicado e trabalhoso o acompanhamento destes sinais ao longo do tubo digestivo e a obtenção de parâmetros típicos como a velocidade de propagação entre eletrodos. Estuda-se aqui uma alternativa mais nova e promissora: a transformada Wavelet. Utilizando esta ferramenta matemática, torna-se possível obter uma melhor resolução tempo-freqüencial dos sinais estudados, permitindo encontrar padrões referentes à propagação do sinal mesmo em leituras ruidosas e compostas de várias freqüências. Foram analisados 82 leituras de 9 animais normais do Laboratório de Investigação Médica da Faculdade de Medicina da USP, sendo possível determinar dois parâmetros: a velocidade de propagação média entre eletrodos (cerca de 1.2 cm/s) e as componentes principais da freqüência basal (0.63 e 0.65 Hz). / The analysis of myoelectric signals from the gastro-intestinal tube of laboratory animals (mice), recorded by chronically implanted electrodes, is a key stone in understanding the disorders associated to the digestive system. This analysis meets considerable difficulties when done by classical methods, specially those based in the Fourier transform. The many myoelectric components interactions makes the following of these signals along the digestive tract and the retrieval of typical parameters (such as the propagation velocity between electrodes) a very complicated and laborious task. Here is studied a newer and more promising alternative: the Wavelet transform. Using this mathematical tool, it becomes possible to obtain a better time-frequency resolution of the studied signals, allowing to find patterns related to the signal propagation even in noisy and multifrequencial readings. 82 readings from 9 normal animals belonging to the Medical Investigation Laboratory of the Medicine Faculty of University of São Paulo were analyzed, becoming feasible to determine two parameters: the mean propagation velocity between electrodes (about 1.2 cm/s) and the main components of the basal frequency (0.63 e 0.65 Hz).
|
405 |
Longa dependência em sequências de DNA : análise de flutuações destendenciadas, teorias das distribuições estáveis e de waveletsLinhares, Raquel Romes January 2011 (has links)
O método da análise de flutuações destendenciadas (Detrended Fluctuation Analysis - DFA), proposto por Peng et al. (1994), é um exemplo de metodologia recente, sendo utilizada em um crescente número de aplicações, para identificar longa dependência em séries temporais. Como não existe uma regra específica para a escolha dos números de regressores no método de DFA, apresentamos aqui uma escolha ótima assintótica. Para um ruído Gaussiano fracionário, provamos que o estimador bHDFA tem distribuição Gaussiana exata e assintótica. O parâmetro mais importante para ser estimado em dados com caudas pesadas é a sua taxa de decaimento α que determina a probabilidade de ocorrência dos valores extremos da distribuição subjacente. Propomos, neste trabalho, um novo estimador para o parâmetro α, baseado na função característica empírica e no procedimento de encolhimento de wavelets. Estamos interessados em analisar a longa dependência em sequência de DNA utilizando a metodologia de mudança de regimes, proposta por Liu (2000). Nesta metodologia, se a duração dos regimes de uma série temporal tem uma distribuição de caudas pesadas com parâmetro α ∈ (1, 2), então a série temporal apresenta a característica de longa dependência. Além disso, aplicando-se qualquer transformação linear que preserva a propriedade de variância finita na série temporal, igualmente preservará a propriedade de longa dependência. Por fim, estudamos as distribuições de distâncias das regiões codantes e não codantes em sequências de DNA. Concluímos que todas as técnicas apresentadas neste trabalho, para analisar longa dependência em série temporais, envolvendo conceitos de análise de flutuações destendenciadas, distribuições com caudas pesadas e encolhimento de wavelets, mostram a existência de longa dependência em todas sequências de DNA aqui estudadas. / The method of detrended fluctuation analysis (DFA), proposed by Peng et al. (1994), is useful in revealing the extent of long-range dependence in time series. Since there is not a specific rule for the choice of the numbers of regressors in DFA method, we present here an asymptotic optimal choice. For a fractional Gaussian noise, we prove the exact and the asymptotic Gaussian distributions for the bHDFA estimator. The most important parameter to estimate in a heavy-tailed data is the tail rate of decay α which determines the probability of occurrence of extreme values of the underlying distribution. Here we propose a novel estimator for α based on the empirical characteristic function and on the principal of wavelet shrinkage. Here we are interested in analyzing the long-range dependence in several DNA sequences, under the heavy-tail regime switching mechanism, proposed by Liu (2000). In this mechanism, if the duration of the regimes of a given time series has a heavy tail distribution with index parameter α ∈ (1, 2), then there is long-range dependence in this time series, and any functional transformation of the original time series preserving the property of finite variance, also preserves the property of long-range dependence. We also study the length distribution of coding and noncoding regions in DNA sequences. We conclude that all techniques presented in this paper to analyze longrange dependence in time series, involving concepts of detrended fluctuation analysis, heavy tail distributions and wavelet shrinkage, show the existence of long-range dependence in all DNA sequences studied here.
|
406 |
Analise de multi-resolução para leis de conservação em malhas adaptativasKaibara, Magda Kimico 26 July 2018 (has links)
Orientador: Sonia Maria Gomes / Tese (doutorado) - Universidade Estadual de Campinas, Instituto de Matematica, Estatistica e Computação Cientifica / Made available in DSpace on 2018-07-26T17:04:47Z (GMT). No. of bitstreams: 1
Kaibara_MagdaKimico_D.pdf: 18000047 bytes, checksum: f1d6aa2eac2dce06fcfde7f377978e7c (MD5)
Previous issue date: 2000 / Resumo: São dois os tópicos principais deste trabalho. Por um lado estão as análises de multi-resolução de dados que estabelecem relações entre as informações {¿ k+1} sobre uma dada função / no nível de resolução mais fino, e informações em multinível ¿ k+1 ¿ k+1 MR = {¿ k0} U {d k0} U ... U {d k} onde dl contém a diferença de informação entre dois níveis consecutivos lel+1. Nos casos tratados, os dados ¿ k+1 são valores pontuais ou médias celulares em mamas irregulares do intervalo. Tipicamente estas malhas são esparsas e escolhidas de forma a que as funções em estudo possam ser representadas de uma maneira mais econômica, com poucos graus de liberdade. Por outro lado, estão os esquemas de alta resolução para leis de conservação. Usando análise de multi-resolução de médias celulares em malhas irregulares adaptativas, apresentamos um algoritmo que permite acelerar os cálculos numéricos. Apresentamos resultados que demonstram a eficiência e a praticabilidade do esquema proposto. Aplicamos este esquema na simulação numérica em sistemas de equações que modelam técnicas de extração de óleo de reservatórios petrolíferos pela injeção de água com polímero. / Abstract: Our objective in this work is twofold. On one hand we are interested on multi-resolution analysis of data, that gives the relationship between the information } at a finest level of resolution k +1 and a multilevel representation, that is, ¿ k+1 ¿ k+1 MR = {¿ k0} U {d k0} U ... U {d k} where dl contains the difference of information between consecutive levels l and l + 1. For the cases considered here ¿k+1 are point values or cell averages on irregular meshes of the interval. Typically, these meshes are sparse and they axe chosen in order to represent functions with few degrees of freedom. On the other hand, we are interested on high resolution schemes for conservation laws. We use the multiresolution analysis for cell averages on adaptive meshes to accelerate the computations. For some model problems, we present results which show the feasibility and the efficiency of the method. We also apply the scheme to the numerical simulation of a system of equations arising in polymer-flooding of an oil reservoir. / Doutorado / Doutor em Matemática Aplicada
|
407 |
Um metodo de classificação de texturas com rotação baseado na modelagem HMM de caracteristicas AM-FMSalles, Evandro Ottoni Teatini 28 July 2018 (has links)
Orientador : Lee Luan Ling / Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação / Made available in DSpace on 2018-07-28T21:29:54Z (GMT). No. of bitstreams: 1
Salles_EvandroOttoniTeatini_D.pdf: 1113019 bytes, checksum: 6b4d4a0d95c21c9c8f53366eaa195ee9 (MD5)
Previous issue date: 2001 / Doutorado
|
408 |
Analise wavelet na simulação numerica de equações diferenciais parciais com adaptabilidade espacialDomingues, Margarete Oliveira 24 October 2001 (has links)
Orientadores : Sonia Maria Gomes, Marco Antonio Raup / Tese (doutorado) - Universidade Estadual de Campinas, Instituto de Matematica, Estatistica e Computação Cientifica / Made available in DSpace on 2018-07-29T04:24:44Z (GMT). No. of bitstreams: 1
Domingues_MargareteOliveira_D.pdf: 5573280 bytes, checksum: dfcb6290a8ced0d519ff2c2711dcf511 (MD5)
Previous issue date: 2001 / Resumo: Motivado pelos modelos de fenômenos em Meteorologia e áreas afins, o trabalho desta tese foi desenvolvido com o objetivo de formular um método numérico, com adaptabilidade espacial, adequado para a simulação computacional de problemas de equações diferenciais parciais evolutivas. Os resultados apresentados nesta pesquisa ressaltam as propriedades de detecção de estruturas singulares e compressão de dados, que são características das representações de funções e operadores em termos de bases wavelet Nesse sentido, numa primeira etapa foram avaliados diversos aspectos de aproximações no contexto de wavelets splines biortogonais. Do ponto de vista teórico, foram estudados o eITO de truncamento e o efeito da discretização na velocidade de fase e de grupo. Do ponto de vista computacional, foram avaliadas as representações esparsas de funções e de operadores diferenciais em multinível. Entre as várias estratégias analisadas, adotou-se um método híbrido wavelet + diferenças finitas em malhas adaptativas, com estrutura de blocos. Nesse método os coeficientes wavelets desempenham o papel de indicadores das regiões de refinamento. E a discretização dos operadores é feita por diferenças finitas usuais com espaçamento variável, de acordo com a escala de cada bloco da malha. Entre as razões dessa escolha, vale destacar a sua versatilidade, permitindo alterar, automaticamente, os níveis de refinamento durante a evolução temporal; a facilidade de lidar com condições de fronteiras e termos não lineares; e a estrutura de dados simplificada. Este trabalho resultou no desenvolvimento do programa WDF em OOP /C++ que executa esse método. Em princípio, dada uma precisão desejada, é possível fazer simulações com o refinamento requerido pela solução numérica. São apresentadas simulações 2D para a Equação de Advecção de um pulso, de Advecção-difusão de uma estrutura tipo frente-oblíqua e para o modelo não-linear de Burger / Abstract: Motivated by the phenomena models in Meteorology and similar areas, the work of this thesis was developed with the objective to fonnulate a numerical method, with space adaptabitity, suitable for the computational time evolution partial differencial equation simulation. The results presented in this research enhance the properties of detection of singular structures and data compression, characteristic of the representations of functions and operators in tenns of wavelet basis. Ip. this direction, in a first stage severa! aspects of approaches in the context of biorthogonal spline wavelets has been evaluated. From a theoretical point of view, the truncation error and the discretization effect on group and phase velocities has been studied. From the computational point of view, sparse representations has been evaluated for functions and diffrential operators in multilevel. Among severa! strategies analyzed, the hybrid method wavelet + tinite differences is adopted, in adaptative meshes, with block structure. In this method the wavelet coefficients play the role of pointers of the refinement regions, and the operators discretization is done by usual tinite difference schemes with a variable spacing, in accordance to the scale of each block of the mesh. Among the main reasons for this choice, were its versatility, allowing to modify, automatically, the refinement levels during the time evolution; the easiness to deal with boundary conditions and non-linear terms; and a simplified data structure. This work resulted in the development ofthe program WDF in OOP /C+ + that executes this method. In principIe, given a desired accuracy, it is possible to make simulations with the refinement required by the numerical solution. 2D simulations of the Equation of Advection of a pulse, Advection-diffusion of a structure type oblique front and for the non-linear Burger's model are presented. / Doutorado / Doutor em Matemática Aplicada
|
409 |
Compressão de eletrocardiogramas usando wavelets / Compression of electrocardiograms using waveletsAgulhari, Cristiano Marcos, 1983- 02 November 2009 (has links)
Orientador: Ivanil Sebastião Bonatti / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação / Made available in DSpace on 2018-08-12T20:20:55Z (GMT). No. of bitstreams: 1
Agulhari_CristianoMarcos_M.pdf: 901688 bytes, checksum: 97ec8feb4ee297c319c80463616a7391 (MD5)
Previous issue date: 2009 / Resumo: A principal contribuição desta dissertação é a proposta de dois métodos de compressão de eletrocardiogramas (ECGs). O primeiro método, chamado Run Length Encoding Adaptativo (RLEA), é baseado nas transformadas wavelet e consiste basicamente em utilizar uma função wavelet, obtida pela resolução de um problema de otimização, que se ajuste ao sinal a ser comprimido. O problema de otimização torna-se irrestrito com a parametrização dos coeficientes do filtro escala, que definem unicamente uma função wavelet. Após a resolução do problema de otimização é aplicado o procedimento de decomposição wavelet no sinal e os coeficientes de representação mais significativos são retidos, sendo que o número de coeficientes retidos é determinado de forma a satisfazer uma medida de distorção pré-especificada. Os coeficientes retidos são então quantizados e compactados, assim como o bitmap que indica as posições dos coeficientes retidos. A quantização é feita de forma adaptativa, utilizando diferentes números de bits de quantização para os diferentes subespaços de decomposição considerados. Tanto os valores dos coeficientes retidos quanto o bitmap são codificados utilizando uma variante do método Run Length Encoding. O segundo método proposto nesta dissertação, chamado Zero Padding Singular Values Decomposition (ZPSVD), consiste em primeiramente detectar os batimentos, equalizá-los pela inserção de zeros (zero padding) e então aplicar a decomposição SVD para obter tanto a base quanto os coeficientes de representação dos batimentos. Alguns componentes da base são retidos e então comprimidos utilizando os mesmos procedimentos aplicados aos coeficientes de decomposição do ECG no método RLEA, enquanto que os coeficientes de projeção dos batimentos nessa base são quantizados utilizando um procedimento de quantização adaptativa. Os dois métodos de compressão propostos são comparados com diversos outros métodos existentes na literatura por meio de experimentos numéricos / Abstract: The main contribution of the present thesis is the proposition of two electrocardiogram (ECG) compression methods. The first method, called Run Length Encoding Adaptativo (RLEA), is based on wavelet transforms and consists of using a wavelet function, obtained by the resolution of an optimization problem, which fits to the signal to be compressed. The optimization problem becomes unconstrained with the parametrization of the coefficients of the scaling filter, that define uniquely a wavelet function. After the resolution of the optimization problem, the wavelet decomposition procedure is applied to the signal and the most significant coefficients of representation are retained, being the number of retained coefficients determined in order to satisfty a pre-specified distortion measure. The retained coefficients are quantized and compressed, likewise the bitmap that informs the positions of the retained coefficients. The quantization is performed in an adaptive way, using different numbers of bits for the different decomposition subspaces considered. Both the values of the retained coefficients and the bitmap are encoded using a modi- fied version of the Run Length Encoding technique. The second method proposed in this dissertation, called Zero Padding Singular Values Decomposition (ZPSVD), consists of detecting the beat pulses of the ECG, equalizing the pulses by inserting zeros (zero padding), and finally applying the SVD to obtain both the basis and the coefficients of representation of the beat pulses. Some components of the basis are retained and then compressed using the same procedures applied to the coefficients of decomposition of the ECG in the RLEA method, while the coefficients of projection of the beat pulses in the basis are quantized using an adaptive quantization procedure. Both proposed compression methods are compared to other techniques by means of numerical experiments / Mestrado / Telecomunicações e Telemática / Mestre em Engenharia Elétrica
|
410 |
Avaliação de classificadores HAAR projetados para detecção de facesPadilla, Rafael, 3238-8715 24 September 2012 (has links)
Submitted by Divisão de Documentação/BC Biblioteca Central (ddbc@ufam.edu.br) on 2018-04-09T13:57:30Z
No. of bitstreams: 2
license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5)
Reprodução Não Autorizada.pdf: 47716 bytes, checksum: 0353d988c60b584cfc9978721c498a11 (MD5) / Approved for entry into archive by Divisão de Documentação/BC Biblioteca Central (ddbc@ufam.edu.br) on 2018-04-09T13:57:42Z (GMT) No. of bitstreams: 2
license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5)
Reprodução Não Autorizada.pdf: 47716 bytes, checksum: 0353d988c60b584cfc9978721c498a11 (MD5) / Made available in DSpace on 2018-04-09T13:57:42Z (GMT). No. of bitstreams: 2
license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5)
Reprodução Não Autorizada.pdf: 47716 bytes, checksum: 0353d988c60b584cfc9978721c498a11 (MD5)
Previous issue date: 2012-09-24 / CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / This dissertation work presents the development of a new evaluation method for Haar classifiers designed to locate faces in images, in order to help researchers choose the best classifier for their own need, as well as to propose a new metric to evaluate future classifiers designed for face location. Face location, the primary step of the vision-based automated systems, finds the face area in the input image. An accurate location of the face is still a challenging task, but it enables a more efficient segmentation, making the identification and recognition of individuals more accurate. Viola-Jones framework has been widely used by researchers in order to detect the location of faces and objects in a given image. Face detection classifiers, used by Viola-Jones framework, are shared by the scientific and academic community. Nevertheless, few works have studied their accuracy. By applying 10 of these classifiers in two different face databases (FEI and Yale), an analysis was made and a new heuristic was created considering scores given to 22 facial landmarks. The results appear to be more accurate than the ones obtained by the only heuristic proposed by another work, developed so far. / Este trabalho de dissertação apresenta o desenvolvimento de um novo método de avaliação de classificadores Haar para localização de faces em imagens, com a finalidade de auxiliar pesquisadores na escolha do melhor classificador dentre os disponíveis atualmente, assim como oferecer uma nova métrica para avaliar futuros classificadores de localização facial. A localização facial, primeira etapa de sistemas biométricos pela face, limita as regiões das faces na imagem de entrada. A localização precisa da face ainda é uma tarefa desafiadora, e possibilita uma segmentação da área da face mais eficaz, aumentando a acurácia no processo de identificação e reconhecimento de indivíduos. O framework Viola-Jones tem sido amplamente utilizado por pesquisadores para detecção e localização de objetos e faces. Classificadores de detecção facial que utilizam o método Viola-Jones são compartilhados pela comunidade científica e acadêmica. Porém, pouco é discutido sobre a precisão de tais classificadores. Com a aplicação de 10 classificadores em dois bancos de faces distintas entre si (FEI e Yale), uma análise foi realizada e um novo método de avaliação foi proposto. Neste método uma nova métrica foi desenvolvida, levando em consideração scores dados a 22 pontos faciais. Os resultados obtidos mostraram-se mais precisos que a única metodologia de avaliação de classificadores de face Haar presente até o momento.
|
Page generated in 0.087 seconds