Spelling suggestions: "subject:"entropia."" "subject:"antropia.""
291 |
Utilização de medidas de previsibilidade em sinais de voz para discriminação de patologias de laringe / Application of predictability measures to voice signals for larynx pathology differentiationScalassara, Paulo Rogério 10 November 2009 (has links)
Este trabalho apresenta um estudo inicial da aplicação de medidas de previsibilidade em sinais de voz. O objetivo é desenvolver métodos que sejam capazes de diferenciar sinais saudáveis e patológicos, inclusive separar patologias. Para isso, tenta-se medir a variação da incerteza e previsibilidade entre os sinais de voz dos grupos analisados. Algumas patologias de laringe, como nódulo e edema de Reinke, usadas neste estudo, causam modificações nos sinais de voz devido a mudanças na estrutura e funcionalidade do trato e pregas vocais. Nos casos patológicos, tem-se, principalmente, aumento de perturbações de freqüência e amplitude, adição de ruído e supressão de componentes harmônicos de alta freqüência da voz. Por causa disso, observa-se perda da estrutura quase-periódica dos sinais, aumentando-se a incerteza do sistema vocal e, portanto, diminuição de sua previsibilidade. Para avaliar essas mudanças, usam-se medidas de entropia de Shannon e entropia relativa entre os sinais saudáveis e patológicos. Além dessas, tem-se a potência de previsão (PP), a qual é uma medida baseada na entropia relativa entre o sinal de voz e seu erro de previsão obtido por um modelo. Inicialmente, optou-se pelo modelo autorregressivo (AR), consagrado em análise de voz, porém, devido a resultados não satisfatórios, apresentou-se um modelo baseado em decomposições por wavelets. Outra ferramenta utilizada foi a chamada análise de componentes previsíveis (PrCA), a qual realiza uma decomposição dos sinais em componentes ordenados por sua previsibilidade, sendo possível reconstruí-los usando somente os componentes mais previsíveis. Também, com essa técnica, analisaram-se representações tridimensionais dos sinais de voz em um espaço cujas coordenadas são dadas por versões atrasadas dos próprios sinais. Os algoritmos desenvolvidos foram testados com o auxílio de sinais de voz simulados, os quais possuíam variações de nível de ruído e perturbações de amplitude e freqüência. Com isso, foi possível detectar erros e solucionar problemas com os métodos. Após a avaliação dos algoritmos, estimou-se os valores de entropia dos sinais de voz, a entropia relativa entre os sinais saudáveis e os sinais dos grupos analisados, além de se calcular a PP usando o modelo AR e o modelo por wavelets. Por fim, utilizou-se a PrCA para obtenção de versões mais previsíveis dos sinais, então, calculando-se a PP para esses casos usando essa versão como previsão dos sinais. Aplicou-se, também, a PrCA para as representações tridimensionais dos sinais usando um modelamento AR multidimensional para obtenção de previsões. Com os ensaios de entropia dos sinais de voz, não foi possível diferenciar os grupos, mas com os resultados de entropia relativa, conseguiu-se distinguir eficientemente os sinais patológicos dos saudáveis. Porém, essa medida não possui muita aplicação prática, isso pois é necessário um banco de vozes diagnosticadas para servir de comparação. Nos ensaios de PP usando modelo AR, também não foi possível diferenciar os grupos, no entanto, com o modelo wavelet, os sinais saudáveis apresentaram significativamente maior previsibilidade do que os patológicos, mas, mesmo assim, não se conseguiu diferenciar as patologias. Com a PrCA, utilizando-se ambos os modelos, foi possível diferenciar os grupos patológicos do saudável, porém, frente ao modelo AR, os sinais saudáveis apresentaram menor previsibilidade. Isso demonstra que a previsibilidade depende do modelo usado para a análise, assim, as patologias da laringe podem diminuir ou aumentar a capacidade de previsão dos sinais de voz conforme o modelo usado. Com a avaliação dos resultados de PrCA das representações tridimensionais, tem-se comportamento semelhante ao obtido pela análise direta nos sinais de voz com o modelo AR, entretanto, essa forma e representação dos dados mostra se promissora em estudos futuros. Com esses ensaios, concluiu-se que este estudo foi muito útil para um maior conhecimento da dinâmica da produção vocal e que as medidas de previsibilidade são interessantes para avaliação de patologias da laringe, em especial, a presença de nódulo nas pregas vocais e edema de Reinke, pelo menos nestes estudos iniciais e usando os sinais de voz disponíveis. Mais estudos ainda são necessários, entretanto essa forma de análise já apresenta bons resultados, os quais podem ser aplicados para auxiliar o diagnóstico de disfonias por profissionais da saúde. / This thesis presents initial studies of the application of predictability measures to voice signal analysis. Its aim is to develop methods that are capable of differentiating healthy and pathological signals, also amongst pathologies. In order to do that, we perform an attempt to measure the uncertainty and predictability variations of the signals from the analyzed groups. Some larynx pathologies, such as nodule and Reinkes edema, that are used in this study, cause changes to the voice signals due to structure and functionality modifications of the vocal tract and folds. The main modifications are higher amplitude and frequency perturbations, noise addition, and supression of high frequency harmonic components. Because of that, the signals lose some of their almost periodic structure, the vocal system\'s uncertainty increases and, therefore, the predictability decreases. We use several measures to evaluate these changes, such as Shannons entropy and relative entropy between healthy and pathological signals. In addition, we use the predictive power (PP), that is based on the relative entropy between the voice signal and its prediction error given by a model. Firstly, we used the autoregressive model (AR), common for voice analysis, however, due to unsatisfactory results, we presented a model based on wavelet decomposition. We also took advantage of another tool, called predictable component analysis (PrCA), it performs a signal decomposition in components that are ordered by their predictability. Then it is possible to reconstruct the signals using only their most predictable components. Using this technique, we analyzed a kind of tridimensional representation of the voice signals in a space with coordinates given by delayed versions of the signals. We tested the developed algorithms with the aid of simulated voice signals, which had variations of noise level and amplitude and frequency perturbations. By means of that, it was possible to detect errors and solve method problems. After the algorithms evaluation, we estimated the entropy of the voice signals and the relative entropy between the healthy signals and all the signals. In addition, we estimated the PP using the AR and wavelet based models. After that, we used the PrCA in order to obtain more predictable versions of the signals and then, estimated the PP using this version as the signals prediction. Also, we applied the PrCA to the signals tridimensional representations using a multidimensional AR model as a predictor. Using the voice entropy results, we could not distinguish between the analyzed groups, but with the relative entropy values, the healthy and pathological signals were differentiated efficiently. In spite of that, this measure has no practical application, because a diagnosed voice database is necessary as a basis of comparison. For the PP with AR modeling, no distinction between the groups is observed, but with the wavelet modeling, the healthy signals showed significantly higher predictability than the pathological ones, however the pathologies were differentiated. Using the PrCA with both models, the pathological and healthy groups were distinguished, but for the AR model, the healthy signals presented smaller predictability. This shows that the predictability depends on the analysis model, thus the larynx pathologies can decrease or increase the prediction capacity of the voice signals according to the used model. The results of PrCA of the tridimensional representations show similar behavior of the ones from direct PrCA signal analisys with the AR model. Despite of these results, this form of data representation seems to be promising for future studies. Considering these results, we concluded that this study was very useful to acquire a better understanding of the dynamics of voice production and that the predictability measures are interesting for the evaluation of larynx pathologies, especially presence of nodule in the vocal folds and Reinke\'s edema, at least for this initial study using the available signals. More studies are still necessary, but this analysis method already presents good results, which can be applied to aid pathology diagnosis by health professionals.
|
292 |
Entropia conjunta de espaço e reqüência espacial estimada através da discriminação de estímulos espaciais com luminância e cromaticidade moduladas por funções de Gábor: implicações para o processamento paralelo de informação no sistema visual humanoSILVEIRA, Vladímir de Aquino 06 December 2013 (has links)
Submitted by Edisangela Bastos (edisangela@ufpa.br) on 2014-01-21T20:51:32Z
No. of bitstreams: 2
license_rdf: 23898 bytes, checksum: e363e809996cf46ada20da1accfcd9c7 (MD5)
Dissertacao_EntropiaConjuntaEspaco.pdf: 9261515 bytes, checksum: 926c47da037adbe378be4cd95f2fe327 (MD5) / Rejected by Edisangela Bastos(edisangela@ufpa.br), reason: on 2014-01-21T20:53:31Z (GMT) / Submitted by Edisangela Bastos (edisangela@ufpa.br) on 2014-01-22T18:12:56Z
No. of bitstreams: 2
license_rdf: 23898 bytes, checksum: e363e809996cf46ada20da1accfcd9c7 (MD5)
Dissertacao_EntropiaConjuntaEspaco.pdf: 9261515 bytes, checksum: 926c47da037adbe378be4cd95f2fe327 (MD5) / Approved for entry into archive by Ana Rosa Silva(arosa@ufpa.br) on 2014-01-28T12:39:35Z (GMT) No. of bitstreams: 2
license_rdf: 23898 bytes, checksum: e363e809996cf46ada20da1accfcd9c7 (MD5)
Dissertacao_EntropiaConjuntaEspaco.pdf: 9261515 bytes, checksum: 926c47da037adbe378be4cd95f2fe327 (MD5) / Made available in DSpace on 2014-01-28T12:39:35Z (GMT). No. of bitstreams: 2
license_rdf: 23898 bytes, checksum: e363e809996cf46ada20da1accfcd9c7 (MD5)
Dissertacao_EntropiaConjuntaEspaco.pdf: 9261515 bytes, checksum: 926c47da037adbe378be4cd95f2fe327 (MD5)
Previous issue date: 2013 / CNPq - Conselho Nacional de Desenvolvimento Científico e Tecnológico / FAPESPA - Fundação Amazônia de Amparo a Estudos e Pesquisas / FADESP - Fundação de Amparo e Desenvolvimento da Pesquisa / CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / O objetivo deste estudo foi estimar a entropia conjunta do sistema visual humano no domínio do espaço e no domínio das freqüências espaciais através de funções
psicométricas. Estas foram obtidas com testes de discriminação de estímulos com
luminância ou cromaticidade moduladas por funções de Gábor. A essência do método
consistiu em avaliar a entropia no domínio do espaço, testando-se a capacidade do sujeito
em discriminar estímulos que diferiam apenas em extensão espacial, e avaliar a entropia no
domínio das freqüências espaciais, testando-se a capacidade do sujeito em discriminar
estímulos que diferiam apenas em freqüência espacial. A entropia conjunta foi calculada,
então, a partir desses dois valores individuais de entropia. Três condições visuais foram
estudadas: acromática, cromática sem correção fina para eqüiluminância e cromática com
correção para eqüiluminância através de fotometria com flicker heterocromático. Quatro
sujeitos foram testados nas três condições, dois sujeitos adicionais foram testados na
condição cromática sem eqüiluminância fina e um sétimo sujeito também fez o teste
acromático. Todos os sujeitos foram examinados por oftalmologista e considerados
normais do ponto de vista oftálmico, não apresentando relato, sintomas ou sinais de
disfunções visuais ou de moléstias potencialmente capazes de afetar o sistema visual. Eles
tinham acuidade visual normal ou corrigida de no mínimo 20/30. O trabalho foi aprovado
pela Comissão de Ética em Pesquisa do Núcleo de Medicina Tropical da UFPA e obedeceu
às recomendações da Declaração de Helsinki. As funções de Gábor usadas para modulação
de luminância ou cromaticidade compreenderam redes senoidais unidimensionais
horizontais, moduladas na direção vertical, dentro de envelopes gaussianos bidimensionais
cuja extensão espacial era medida pelo desvio padrão da gaussiana. Os estímulos foram
gerados usando-se uma rotina escrita em Pascal num ambiente Delphi 7 Enterprise. Foi
utilizado um microcomputador Dell Precision 390 Workstation e um gerador de estímulos
CRS VSG ViSaGe para exibir os estímulos num CRT de 20”, 800 x 600 pixels, 120 Hz,
padrão RGB, Mitsubishi Diamond Pro 2070SB. Nos experimentos acromáticos, os
estímulos foram gerados pela modulação de luminância de uma cor branca correspondente
à cromaticidade CIE1931 (x = 0,270; y = 0,280) ou CIE1976 (u’ = 0,186; v’= 0,433) e
tinha luminância média de 44,5 cd/m2. Nos experimentos cromáticos, a luminância média
foi mantida em 15 cd/m2 e foram usadas duas series de estímulos verde-vermelhos. Os
estímulos de uma série foram formados por duas cromaticidades definidas no eixo M-L do
Espaço de Cores DKL (CIE1976: verde, u’=0,131, v’=0,380; vermelho, u’=0,216,
v’=0,371). Os estímulos da outra série foram formados por duas cromaticidades definidas
ao longo de um eixo horizontal verde-vermelho definido no Espaço de Cores CIE1976
(verde, u’=0,150, v’=0,480; vermelho, u’=0,255, v’=0,480). Os estímulos de referência
eram compostos por redes de três freqüências espaciais diferentes (0,4, 2 e 10 ciclos por
grau) e envelope gaussiano com desvio padrão de 1 grau. Os estímulos de testes eram
compostos por uma entre 19 freqüências espaciais diferentes em torno da freqüência
espacial de referência e um entre 21 envelopes gaussianos diferentes com desvio padrão
em torno de 1 grau. Na condição acromática, foram estudados quatro níveis de contraste de
Michelson: 2%, 5%, 10% e 100%. Nas duas condições cromáticas foi usado o nível mais
alto de contraste agregado de cones permitidos pelo gamut do monitor, 17%. O
experimento consistiu numa escolha forçada de dois intervalos, cujo procedimento de
testagem compreendeu a seguinte seqüência: i) apresentação de um estímulo de referência
por 1 s; ii) substituição do estímulo de referência por um fundo eqüiluminante de mesma
cromaticidade por 1 s; iii) apresentação do estímulo de teste também por 1 s, diferindo em
relação ao estímulo de referência seja em freqüência espacial, seja em extensão espacial,
com um estímulo sonoro sinalizando ao sujeito que era necessário responder se o estímulo
de teste era igual ou diferente do estímulo de referência; iv) substituição do estímulo de
teste pelo fundo. A extensão espacial ou a freqüência espacial do estímulo de teste foi
mudada aleatoriamente de tentativa para tentativa usando o método dos estímulos
constantes. Numa série de 300 tentativas, a freqüencia espacial foi variada, noutra série
também de 300 tentativas, a extensão espacial foi variada, sendo que cada estímulo de
teste em cada série foi apresentado pelo menos 10 vezes. A resposta do indivíduo em cada
tentativa era guardada como correta ou errada para posterior construção das curvas
psicométricas. Os pontos experimentais das funções psicométricas para espaço e
freqüência espacial em cada nível de contraste, correspondentes aos percentuais de acertos,
foram ajustados com funções gaussianas usando-se o método dos mínimos quadrados. Para
cada nível de contraste, as entropias para espaço e freqüência espacial foram estimadas
pelos desvios padrões dessas funções gaussianas e a entropia conjunta foi obtida
multiplicando-se a raiz quadrada da entropia para espaço pela entropia para freqüência
espacial. Os valores de entropia conjunta foram comparados com o mínimo teórico para
sistemas lineares, 1/4π ou 0,0796. Para freqüências espaciais baixas e intermediárias, a
entropia conjunta atingiu níveis abaixo do mínimo teórico em contrastes altos, sugerindo
interações não lineares entre dois ou mais mecanismos visuais. Este fenômeno occorreu em
todas as condições (acromática, cromática e cromática eqüiluminante) e foi mais acentuado
para a frequência espacial de 0,4 ciclos / grau. Uma possível explicação para este
fenômeno é a interação não linear entre as vias visuais retino-genículo-estriadas, tais como
as vias K, M e P, na área visual primária ou em níveis mais altos de processamento neural. / The objective of this study was to estimate the joint entropy of the human visual
system in the domains of space and spatial frequency by using psychometric functions. The
psychometric functions were obtained from stimulus discrimination that had luminance or
chromaticity modulated by Gábor functions. The method consisted in evaluating the
entropy in the space domain by testing subject capacity to discriminate stimuli that differed
only in their spatial extent and in evaluating the entropy in the spatial frequency domain by
testing subject capacity to discriminate stimuli that differed only in their spatial frequency.
The joint entropy was then estimated from these two individual entropy values. Three
visual conditions were studied: achromatic, chromatic without fine tuning correction of
equiluminance, and chromatic with full equiluminance correction by using heterochromatic
flickker photometry. Four subjects were tested in all conditions, two additional subjects
were tested in the chromatic condition without fine equiluminance adjustment and a
seventh subject also performed the acrhomatic test. All subjects were examined by an
ophthalmologist, their eyes and visual system were considered normals, and presented no
report, symptoms or signs of visual dysfunctions or diseases that could have affected their
visual system. The subjects had their normal or corrected visual acuity of 20/30 minimum.
The work was approved by the Comissão de Ética em Pesquisa (Núcleo de Medicina
Tropical, UFPA) and followed the recomendations of the Helsinki Declaration. The Gábor
functions used for luminance or chromaticity modulation comprised unidimensional
horizontal sinusoidal gratings, modulated in the vertical direction, with bidimensional
Gaussian envelopes whose spatial extent was measured by their standard deviation. Stimuli
were generated by using a software written in Pascal in a Delphi 7 Enterprise environment.
A Dell Precision 390 Workstation was used together with a CRS VSG ViSaGe stimulus
generator to display the stimuli in a CRT monitor, 20”, 800 x 600 pixels, 120 Hz, RGB,
Mitsubishi Diamond Pro 2070SB. In the achromatic experiments, the stimuli were
generated by white luminance modulation (CIE1931: x = 0.270, y = 0.280; CIE1976: u’ =
0.186, v’ = 0.433), 44,5 cd/m2 mean luminance. In the chromatic experiments, mean
luminance was kept in 15 cd/m2, and two series of red-green stimuli were used. In the first
series, two chromaticities defined on the M-L axes of the DKL color space were used
(CIE1976: green, u’=0.131, v’=0.380; red, u’=0.216, v’=0.371). In the second series, two
chromaticities were defined along a red-green horizontal axis across the CIE1976 color
space (CIE1976: green, u’=0.150, v’=0.480; red, u’=0.255, v’=0.480). Throughout the
experiment, the reference stimuli comprised gratings with three different spatial
frequencies (0.4, 2, and 10 cycles per degree) and a Gaussian envelope with 1 degree
standard deviation. The test stimuli comprised 19 different spatial frequencies in the region
of the reference spatial frequency and 21 different Gaussian envelopes in the region of the
reference standard deviation. In the achromatic condition, four levels of Michelson contrast
were studied: 2%, 5%, 10% e 100%. In the two chromatic conditions, the highest level of
pooled cone contrast allowed by the CRT gamut was used, 17%. The procedure consisted
of a two interval forced choice with the following steps: i) 1 s display of the reference
stimulus; ii) 1 s replacement of the reference stimulus by a background with the same
luminance and chromaticity; iii) 1 s display of the test stimulus which differed from the
reference stimulus either in spatial frequency or spatial extent, together with a beep to tell
the subject that it was now neccessary to provide a response if the two stimuli were equal
or different; iv) replacement of the test stimulus by the background. The spatial extent or
spatial frequency of the test stimulus was randomly changed from trial to trial by usind the
method of constant stimuli. In a series comprising 300 trials, the spatial frequency was
changed while in another series also comprising 300 trials, the spatial extent was changed,
each test stimulus in each series being displayed at least 10 times. The subject response in
every trial was stored as correct or incorrect for further use to estimate the psychometric
function. The experimental data of the psychometric functions for spatial extent and spatial
frequency at each contrast level, which corresponded to percent of correct responses, were
fitted with Gaussian functions using the Least Square Method. For each contrast level, the
spatial extent entropy and spatial frequency entropy were estimated from the standard
deviations of these Gaussian functions. The joint entropy was then calculated by
multiplying the square root of the spatial extent entropy by the spatial frequency entropy.
The joint entropy values were compared with the theoretical minimum predicted for linear
systems, 1/4π or 0.0796. For low and intermediate spatial frequencies at high contrasts, the
joint entropy reached very low levels, below this minimum, suggesting that there were
nonlinear interactions between two or more visual mechanisms. This phenomenon
occurred in all conditions (achromatic, chromatic, and chromatic with fine equiluminance
adjustment) and was more pronounced for spatial frequency 0.4 cycles / degree. A possible
explanation for this phenomenon is the occurrence of nonlinear interactions between the
retino-geniculo-striate visual pathways, such as the K, M, and P pathways, in the primary
visual area or in higher levels of neural processing of visual information.
|
293 |
Teste de validade de mÃtodos de maximizaÃÃo de entropia para construÃÃo de modelos com correlaÃÃo par-a-par.Wagner Rodrigues de Sena 20 February 2017 (has links)
Conselho Nacional de Desenvolvimento CientÃfico e TecnolÃgico / No sÃculo XXI a humanidade produziu mais novos dados (informaÃÃes) do que em toda sua histÃria. Entender a natureza dos diversos sistemas que geram essa abundÃncia de dados se tornou um dos grandes desafios desse sÃculo. Uma forma de analisar formalmente esses grandes bancos de dados à empregando a teoria da informaÃÃo desenvolvida por Claude Shannon. Essa teoria permite, usando o princÃpio da mÃxima entropia, encontrar as distribuiÃÃes de probabilidades que melhor descrevem os comportamentos coletivos desses sistemas. Nessa dissertaÃÃo, discutimos a possibilidade de usar modelos tipo Ising para descrever observaÃÃes de sistemas reais. Devido a suas limitaÃÃes, empregar o modelo de Ising implica em supor que os elementos que constituem o sistema real sà podem estar em dois estados, por exemplo ativo ou inativo. AlÃm disso, o modelo de Ising da conta apenas de interaÃÃes entre pares de elementos e desconsidera a possibilidade de interaÃÃes entre grupos maiores de elementos. Como discutiremos, mesmo com essas limitaÃÃes tal modelo pode descrever bem resultados observados em alguns sistemas naturais, como por exemplo redes de neurÃnios. Especificamente, discutiremos resultados de trabalhos anteriores que mostram que usando apenas as mÃdias de atividade de cada neurÃnio e a correlaÃÃo entre os mesmo, usando a teoria de Shannon, observa-se que os estados visitados pela rede seguem à distribuiÃÃo de Ising. Para testar a aplicabilidade desse mÃtodo em diversos sistemas geramos dados sintÃticos, obtidos de modelos tipo Ising em trÃs situaÃÃes: ferromagnÃtico, anti-ferro e vidro de spins (spin glass). NÃs chamamos o sistema que gera os dados sintÃticos de sistema subjacente. Usamos mÃtodos de maximizaÃÃo de entropia para tentar construir sistemas modelos que consigam reproduzir as mÃdia e correlaÃÃes observadas nos dados sintÃticos. Dessa forma, verificamos em que situaÃÃes nossos mÃtodos conseguem de fato gerar um sistema modelo que reproduza o sistema subjacente que gerou os dados. Esses resultados podem estabelecer um limite de aplicabilidade para a tÃcnica discutida.
|
294 |
Método de Monte Carlo para Sistemas Quânticos / Monte Carlo method for quantum systemsRicardo Andreas Sauerwein 14 December 1995 (has links)
As propriedades do estado fundamental do modelo de Heisenberg antiferroinagnético quântico de spin-1/2 na rede quadrada e na rede cúbica espacialmente anisotrópica são investigadas através de um novo método de Monte Carlo, baseado na estimativa do maior autovalor de uma matriz de elementos não negativos. A energia do estado fundamental e a magnetização \"staggered\" destes sistemas são calculadas em redes relativamente grandes com até 24 x 24 sítios para o caso de redes quadradas e 8 x 8 x 8 sítios para o caso de redes cúbicas. O método desenvolvido também pode ser usado como um novo algoritmo para a determinação direta da entropia de sistemas de spins de Ising através de simulações usuais de Monte Carlo. Usando este método, calculamos a entropia do antiferromagneto de Ising na presença de um campo magnético externo nas redes triangular e cúbica de face centrada. / The ground state properties of the antiferromagnetic quantum Heisenberg model with spin-112 defined on a square lattice and on a cubic lattice with spatial anisotropy are investigated through a new Monte Carlo method, based on the estimation of the largest eigenvalue of a matrix with nonnegative elements. The ground state energy and the staggered magnetization of these systems are calculated in relatively large lattices with up to 24 x 24 sites for the square lattices and 8 x 8 x 8 sites for cubic lattices. The method developped can also be used as a new algorithm for the direct determination of the entropy of Ising spin systems through ordinary Monte Car10 simulations. By using this method we calculate the entropy of the Ising antiferromagnetic in the presence of a magnetic field in the triangular and face centered cubic lattices.
|
295 |
Entropy: algoritmo de substituição de linhas de cache inspirado na entropia da informação. / Entropy: cache line replacement algorithm inspired in information entropy.Jorge Mamoru Kobayashi 07 June 2010 (has links)
Este trabalho apresenta um estudo sobre o problema de substituição de linhas de cache em microprocessadores. Inspirado no conceito de Entropia da Informação proposto em 1948 por Claude E. Shannon, este trabalho propõe uma nova heurística de substituição de linhas de cache. Seu objetivo é capturar e explorar melhor a localidade de referência dos programas e diminuir a taxa de miss rate durante a execução dos programas. O algoritmo proposto, Entropy, utiliza a heurística de entropia da informação para estimar as chances de uma linha ou bloco de cache ser referenciado após ter sido carregado na cache. Uma nova função de decaimento de entropia foi introduzida no algoritmo, otimizando seu funcionamento. Dentre os resultados obtidos, o Entropy conseguiu reduzir em até 50,41% o miss rate em relação ao algoritmo LRU. O trabalho propõe, ainda, uma implementação em hardware com complexidade e custo computacional comparáveis aos do algoritmo LRU. Para uma memória cache de segundo nível com 2-Mbytes e 8-way associative, a área adicional requerida é da ordem de 0,61% de bits adicionais. O algoritmo proposto foi simulado no SimpleScalar e comparado com o algoritmo LRU utilizando-se os benchmarks SPEC CPU2000. / This work presents a study about cache line replacement problem for microprocessors. Inspired in the Information Entropy concept stated by Claude E. Shannon in 1948, this work proposes a novel heuristic to replace cache lines in microprocessors. The major goal is to capture the referential locality of programs and to reduce the miss rate for cache access during programs execution. The proposed algorithm, Entropy, employs that new entropy heuristic to estimate the chances of a cache line to be referenced after it has been loaded into cache. A novel decay function has been introduced to optimize its operation. Results show that Entropy could reduce miss rate up to 50.41% in comparison to LRU. This work also proposes a hardware implementation which keeps computation and complexity costs comparable to the most employed algorithm, LRU. To a 2-Mbytes and 8-way associative cache memory, the required storage area is 0.61% of the cache size. The Entropy algorithm was simulated using SimpleScalar ISA simulator and compared to LRU using SPEC CPU2000 benchmark programs.
|
296 |
Teoria da informação e adaptatividade na modelagem de distribuição de espécies. / Information theory and adaptivity in the species distribution modeling.Elisângela Silva da Cunha Rodrigues 03 February 2012 (has links)
A modelagem de distribuição de espécies é uma técnica cuja finalidade é estimar modelos baseados em nichos ecológicos. Esses modelos podem auxiliar nos processos de tomadas de decisões, no planejamento e na realização de ações que visem a conservação e a preservação ambiental. Existem diversas ferramentas projetadas para modelagem de distribuição de espécies, dentre elas o framework openModeller, na qual este trabalho está inserido. Várias técnicas de Inteligência Artificial já foram utilizadas para desenvolver algoritmos de modelagem de distribuição de espécies, como Entropia Máxima. No entanto, as ferramentas estatísticas tradicionais não disponibilizam pacotes com o algoritmo de Entropia Máxima, o que é comum para outras técnicas. Além disso, apesar de existir um software gratuito específico para modelagem de distribuição de espécies com o algoritmo de Entropia Máxima, esse software não possui código aberto. Assim, a base deste trabalho é a investigação acerca da modelagem de distribuição de espécies utilizando Entropia Máxima. Desta forma, o objetivo principal é definir diferentes estratégias para o algoritmo de Entropia Máxima no contexto da modelagem de distribuição de espécies. Para atingir esse objetivo, foram estabelecidos um conjunto de alternativas possíveis a serem exploradas e um conjunto de métricas de avaliação e comparação das diferentes estratégias. Os resultados mais importantes desta pesquisa foram: um algoritmo adaptativo de Entropia Máxima, um algoritmo paralelo de Entropia Máxima, uma análise do parâmetro de regularização e um método de seleção de variáveis baseado no princípio da Descrição com Comprimento Mínimo (MDL Minimum Description Length), que utiliza aprendizagem por compressão de dados. / Species distribution modeling is a technique the purpose of which is to estimate models based on ecological niche. These models can assist decision making processes, planning and carrying out actions aiming at environmental conservation and preservation. There are several tools designed for species distribution modeling, such as the open- Modeller framework, in which this work is inserted. Several Artificial Intelligence techniques have been used to develop algorithms for species distribution modeling, such as Maximum Entropy. However, traditional statistical tools do not offer packages with the Maximum Entropy algorithm, which is common to other techniques. Furthermore, although there is specific free software for species distribution modeling with the Maximum Entropy algorithm, this software is not open source. The basis of this work is the investigation of the species distribution modeling using Maximum Entropy. Thus, its aim is to define different strategies for the Maximum Entropy algorithm in the context of the species distribution modeling. For this, a set of possible alternatives to be explored and a set of metrics for evaluation and comparison of the different strategies were established. The most important results were: an adaptive Maximum Entropy algorithm, a parallel Maximum Entropy algorithm, an analysis of the regularization parameter and a variable selection method based on the Minimum Description Length principle, which uses learning by data compression.
|
297 |
Rastreamento do olhar na avaliação de presença em atividades mediadas por vídeo. / Gaze tracking for presence evaluation in video mediated activities.Fernando Yoiti Obana 01 September 2015 (has links)
A percepção de presença (PP), evolução do conceito de telepresença, pode ser definida como ilusão perceptiva de não mediação e/ou a percepção ilusória da realidade. O método mais utilizado para a avaliação da PP faz uso de questionários aplicados aos sujeitos, após sua participação numa experiência. Além de não fornecer informações em tempo real esse método sofre muitas interferências advindas tanto dos sujeitos submetidos ao experimento como dos avaliadores dos questionários. Os métodos que poderiam ser mais efetivos para a avaliação da PP, em tempo real, fazem uso de sinais fisiológicos que variam independentemente da vontade dos sujeitos, como batimento cardíaco, eletrocardiograma, eletroencefalograma, resistividade e umidade da pele. Os sinais fisiológicos, no entanto, só variam de forma significativa em situações de estresse, inviabilizando sua utilização em atividades normais, sem estresse. Outra forma de avaliar a PP é utilizar sistemas de rastreamento do olhar. Estudados e desenvolvidos desde o século 19, os sistemas de rastreamento do olhar fornecem um mapeamento do movimento dos olhos. Além de indicar para onde os sujeitos estão olhando, podem também monitorar a dilatação da pupila e as piscadas. Atualmente existem sistemas de rastreamento do olhar comerciais de baixo custo, que apesar de terem menos precisão e frequência que os equipamentos de alto custo são mais práticos e possuem software de plataforma aberta. No futuro serão tão comuns e simples de usar como são hoje as câmeras em dispositivos móveis e computadores, o que viabilizará a aplicação das técnicas e métodos aqui propostos em larga escala, principalmente para monitorar a atenção e envolvimento de atividades mediadas por vídeo. É apresentada uma ferramenta que faz uso do rastreamento do olhar para avaliar a percepção de presença em atividades mediadas por vídeo (com estímulos sonoros). Dois experimentos foram realizados para validar as hipóteses da pesquisa e a ferramenta. Um terceiro experimento foi executado para verificar a capacidade da ferramenta em avaliar a percepção de presença em atividades não estressantes mediadas por vídeo. / The presence perception (PP), evolution of the concept of telepresence, could be defined as the perceptual illusion of nonmediation and/or the ilusional perception of reality. The most utilized method for PP evaluation make uses questionnaires applied for the subjects, after your participation in an experience. Besides it does not provide real-time information this method suffers with many interferences in the results that come from the subjects undergoing and form the reviewers of the of the questionnaires. The methods could be more effective for PP evaluation, in real time, make uses of physiologic signals that vary independently of the request of the subjects, e.g. heart rate, electrocardiogram, electroencephalogram, skin resistivity and skin humidity. However, meaningful physiologic signals occurs only in stress situations, unfeasible Its use in normal environments, whit no stress. Another way to evaluate the PP is using eye gaze tracking systems. Studied and developed since the 19th century, eye gaze tracking systems provide an eye movements mapping. Moreover it indicate where the subjects are viewing, these systems can follow up pupil dilatation and blinks. Currently there are commercial gaze tracking systems inexpensive, despite having less precision and frequency that expensive-equipments are more practical and open software platform is available. In the future these technologies will be common and simple to use as today are cameras on mobile devices and computers, which will enable the implementation of the techniques and methods here proposed on a large scale, mainly to monitor the attention and involvement during activities mediated by video. A tool that makes use of gaze tracking to evaluate presence perception in activities video mediated (with sound stimuli) is displayed. Two experiments were conducted to validate the hypotheses of the research and the tool. A third experiment was performed to verify the tool\'s ability to assess presence perception in non-stressful activities video mediated.
|
298 |
A suavização Gaussiana como método de marcação de características de fronteira entre regiões homogêneas contrastantes / The Gaussian smoothing as a method for marking boundary features between contrasting homogeneous regionsAntonio Henrique Figueira Louro 18 May 2016 (has links)
Este trabalho mostra que a suavização Gaussiana pode exercer outra função além da filtração. Considerando-se imagens binárias, este processo pode funcionar como uma espécie de marcador, que modifica as feições das fronteiras entre duas regiões homogêneas contrastantes. Tais feições são pontos de concavidades, de convexidades ou de bordas em linha reta. Ou seja, toda a informação necessária para se caracterizar a forma bidimensional de uma região. A quantidade de suavização realizada em cada ponto depende da configuração preto/branco que compõe a vizinhança onde este se situa. Isto significa que cada ponto sofre uma quantidade particular de modificação, a qual reflete a interface local entre o objeto e o fundo. Então, para detectar tais feições, basta quantificar a suavização em cada ponto. No entanto, a discriminação pixel a pixel exige que a distribuição Gaussiana apresente boa localização, o que só acontece em escalas muito baixas (σ≅0,5). Assim, propõe-se uma distribuição construída a partir da soma de duas Gaussianas. Uma é bem estreita para garantir a boa localização e a outra possui abertura irrestrita para representar a escala desejada. Para confirmar a propriedade de marcação dessa distribuição, são propostos três detectores de corners de contorno, os quais são aplicados à detecção de pontos dominantes. O primeiro utiliza a entropia de Shannon para quantificar a suavização em cada ponto. O segundo utiliza as probabilidades de objeto e de fundo contidos na vizinhança observada. O terceiro utiliza a diferença entre Gaussianas (DoG) para determinar a quantidade suavizada, porém com a restrição de que uma das versões da imagem tenha suavização desprezível, para garantir a boa localização. Este trabalho se fundamenta na física da luz e na visão biológica. Os ótimos resultados apresentados sugerem que a detecção de curvaturas do sistema visual pode ocorrer na retina. / This work shows that the Gaussian smoothing can have additional function to filtration. Considering the binary images, this process can operate as a kind of marker that changes the features of the boundaries between two contrasting homogeneous regions. These features are points of concavities, convexities or straight edges, which are all the necessary information to characterize the two-dimensional shape of a region. The amount of smoothing performed at each point depends on the black/white configuration that composes the neighborhood where the point is located. This means that each point suffers a particular modification, which reflects the local interface between object and background. Thus, to detect such features, one must quantify the smoothing at each point. However, pixel-wise discrimination requires that the Gaussian distribution does not suffer flattening, which occurs in very low scales (σ≅0.5), only. Thus, it is proposed a distribution built from the sum of two Gaussians. One must be very narrow to ensure good localization, and the other is free to represent the desired scale. To confirm the property of marking, three boundary based corner detectors are proposed, which are applied to the detection of dominant points. The first uses the Shannon\'s entropy to quantify the smoothing at each point. The second uses the probabilities of object and background contained in the local neighborhood. The third uses the difference of Gaussians (DoG) to determine the amount of smoothing. This Work relies on the physics of light and biological vision. The presented results are good enough to suggest that the curvature detection, in visual system, occurs in the retina.
|
299 |
Comportamento crítico da produção de entropia em modelos com dinâmicas estocásticas competitivas / Critical behavior of entropy production in models with competitive stochastic dynamicsJosé Higino Damasceno Júnior 25 April 2011 (has links)
Neste trabalho estudamos as transições de fases cinéticas e o comportamento crítico da produção de entropia em modelos de spins com interação entre primeiros vizinhos e sujeitos a duas dinâmicas de Glauber, as quais simulam dois banhos térmicos a diferentes temperaturas. Para tanto, é admitido que o sistema corresponde a um processo markoviano contínuo no tempo o qual obedece a uma equação mestra. Dessa forma, o sistema atinge naturalmente estados estacionários, que podem ser de equilíbrio ou de não-equilíbrio. O primeiro corresponde exatamente ao modelo de Ising, que ocorre quando o sistema se encontra em contato com apenas um dos reservatórios. Dessa forma, há uma transição de fase na temperatura de Curie e o balanceamento detalhado é seguramente satisfeito. No segundo caso, os dois banhos térmicos são responsáveis por uma corrente de probabilidade que só existe visto que a reversibilidade microscópica não é mais verificada. Como conseqüência, nesse regime de não-equilíbrio o sistema apresenta uma produção de entropia não nula. Para avaliarmos os diagramas de fase e a produção de entropia utilizamos as aproximações de pares e as simulações de Monte Carlo. Além disso, admitimos que a teoria de escala finita pode ser aplicada no modelo. Esses métodos foram capazes de preverem as transições de fases sofridas pelo sistema. Os expoentes e os pontos críticos foram estimados através dos resultados numéricos. Para a magnetização e a susceptibilidade obtemos = 0,124(1) e = 1,76(1), o que nos permite concluir que o nosso modelo pertence à mesma classe de Ising. Esse resultado refere-se ao princípio da universalidade do ponto crítico, que é verificado devido o nosso modelo apresentar a mesma simetria de inversão que a do modelo de Ising. Além disso, as aproximações de pares também mostraram uma singularidade na derivada da produção de entropia no ponto crítico. E as simulações de Monte Carlo nos permitem sugerir que tal comportamento é uma divergência logarítmica cujo expoente crítico associado vale 1. / We study kinetic phase transitions and the critical behavior of the entropy production in spin models with nearest neighbor interactions subject to two Glauber dynamics, which simulate two thermal baths at different temperatures. In this way, it is assumed that the system corresponds to a continuous time Markov process which obeys the master equation. Thus, the system naturally reaches steady states, which can be equilibrium or nonequilibrium. The former corresponds exactly to the Ising model, which occurs since the system is in contact with only one of the reservoirs. In this case, there is a phase transition at the Curie temperature and the detailed balance surely holds. In the second case, the two thermal baths create a non trivial probability current only when microscopic reversibility is not verified. As a consequence, there is a positive entropy production in a non-equilibrium steady state. Pair approximations and Monte Carlo simulations are employed to evaluate the phase diagrams and the entropy production. Furthermore, we assume that the finite-size scaling theory can be applied to the model. These methods were able to predict the phase transitions undergone by the system. The exponents and the critical points were estimated by the numerical results. Our best estimates of critical exponents to the magnetization and susceptibility are = 0,124 (1) and = 1,76 (1), which allows us to conclude that our model belongs to the same class of Ising. This result refers to the principle of universality of the critical point, which is checked because our model has the same inversion symmetry of the Ising model. Moreover, the pair approximation also showed a singularity in the derivative of the entropy production at the critical point. And Monte Carlo simulations allow us to suggest that the divergence at the critical point is of the logarithmic type whose critical exponent is 1
|
300 |
[en] THERMODYNAMIC NONEXTENSIVITY, DISCRETE SCALE INVARIANCE AND ELASTOPLASTICITY: A STUDY OF A SELF-ORGANIZED CRITICAL GEOMECHANICAL NUMERICAL MODEL / [pt] NÃO-EXTENSIVIDADE TERMODINÂMICA, INVARIÂNCIA DISCRETA DE ESCALA E ELASTO-PLASTICIDADE: ESTUDO NUMÉRICO DE UM MODELO GEOMECÂNICO AUTO-ORGANIZADO CRITICAMENTEARMANDO PRESTES DE MENEZES FILHO 02 December 2003 (has links)
[pt] Esta tese busca utilizar os novos conceitos físicos
relacionados à física do estado sólido e à mecânica
estatística - teoria do caos e geometria fractal - na
análise do comportamento de sistemas dinâmicos não-lineares.
Mais pormenorizadamente, trata-se de estudar o
comportamento de um modelo numérico elasto-plástico com
função de escoamento de Mohr-Coulomb, usualmente empregado
em simulações de materiais geológicos - cimentados ou
não -, quando submetido a carregamentos externos, situação
esta geralmente encontrada em problemas afeitos à mecânica
dos solos e das rochas (p/ex., estabilidade de taludes e
escavações subterrâneas). Mostra-se que tal modelo
geomecânico de muitos corpos (many-body) interagentes é
conduzido espontaneamente, ao longo de sua evolução
temporal, à chamada criticalidade auto-organizada (self-
organized criticality - SOC), estado caracterizado por
apresentar evolução na fronteira entre ordem e caos,
sensibilidade extrema a qualquer pequena perturbação, e
desenvolvimento de interações espaço-temporais de longo
alcance. Como a evolução de qualquer sistema dinâmico pode
ser vista como um fluxo ininterrupto de informações entre
suas partes constituintes, avaliou-se, para tal sistema, a
entropia de Tsallis, formulação original proposta pelo
físico brasileiro Constantino Tsallis, do Centro Brasileiro
de Pesquisas Físicas (CBPF), tendo se mostrado adequada à
sua descrição. Em especial, determinou-se para tal sistema,
pela primeira vez, o valor do índice entrópico, que
parametriza a aludida forma entrópica alternativa. Ademais,
como é característico de sistemas fora do equilíbrio
regidos por uma dinâmica de limiar, mostra-se que tal
sistema geomecânico, durante o seu desenvolvimento, teve a
sua simetria translacional inicial quebrada, sendo
substituída pela simetria por escala, auto-semelhante
(i.é., fractal). Em decorrência, o modelo exibe a chamada
invariância discreta de escala (discrete scale invariance -
DSI), fruto do processo mesmo de ruptura progressiva do
material heterogêneo. Especificamente, as simulações
numéricas sugeriram que o processo de ruptura progressiva
do material elasto-plástico se dá por uma transferência
multiplicativa de tensões, em diferentes escalas de
observação hierarquicamente dispostas, acarretando o
aparecimento de sinais bastante peculiares, caracterizados
por desvios oscilatórios sistemáticos do padrão em lei de
potência, o que possibilita a previsão de sua ruína, quando
ainda em fase preparatória. Assim, esta pesquisa mostrou a
eficiência de tal método de previsão, aplicado, pela
primeira vez, não somente aos resultados das simulações
numéricas do referido modelo geomecânico, como aos ensaios
de laboratório em rochas sedimentares, realizados no Centro
de Pesquisas da Petrobrás (CENPES). Por fim, é interessante
assinalar que o material elasto-plástico investigado neste
trabalho teve seu comportamento compartilhado por um modelo
matemático bastante simples, fundamentado na função
binomial multifractal, reconhecida por descrever processos
multiplicativos em diferentes escalas. / [en] This thesis aims at applying new concepts from solid state
physics and statistical mechanics - chaos theory and
fractal geometry - to the study of nonlinear dynamic
systems. More precisely, it deals with a two-dimensional
continuum elastoplastic Mohr-Coulomb model, commonly used
to simulate pressure-sensitive materials (e.g., soils,
rocks and concrete) subjected to stress-strain fields,
normally found in general soil or rock mechanics problems
(e.g., slope stability and underground excavations).
It is shown that such many-body system is spontaneously
driven to a state at the edge of chaos, called self-
organized criticality (SOC), capable of developing long-
range interactions in space and long-range memory in time.
A new entropic form proposed by C. Tsallis is presented and
shown that it is the suitable theoretical framework to deal
with these problems. Furthermore, the index q of the
Tsallis entropy, which measures the degree of non-
additivity of the system, is calculated, for the first
time, for an elastoplastic model. In addition, as is usual
in non-equilibrium systems with threshold dynamics, the
model changes its symmetry, from translational to fractal
(that is, self-similar), leading to what is called discrete
scale invariance. It is shown that this special type of
scale invariance, characterized by systematic oscillatory
deviations from the fundamental power-law behavior, can
be used to predict the failure of heterogeneous materials,
while the process is still being build-up, i.e., from
precursory signals, typical of progressive failure
processes. Specifically, this framework was applied, for
the first time, not only to the elastoplastic geomechanical
model, but to laboratory tests in sedimentary rocks as
well. Finally, it is interesting to realize that the above-
mentioned behaviors are also displayed by the binomial
multifractal function, known to adequately describe
multiplicative cascading processes.
|
Page generated in 0.0317 seconds