• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 356
  • 24
  • 6
  • 4
  • 4
  • 4
  • 4
  • 4
  • 3
  • 3
  • 1
  • Tagged with
  • 401
  • 263
  • 64
  • 54
  • 50
  • 44
  • 39
  • 39
  • 37
  • 36
  • 35
  • 29
  • 28
  • 28
  • 27
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
291

Utilização de medidas de previsibilidade em sinais de voz para discriminação de patologias de laringe / Application of predictability measures to voice signals for larynx pathology differentiation

Scalassara, Paulo Rogério 10 November 2009 (has links)
Este trabalho apresenta um estudo inicial da aplicação de medidas de previsibilidade em sinais de voz. O objetivo é desenvolver métodos que sejam capazes de diferenciar sinais saudáveis e patológicos, inclusive separar patologias. Para isso, tenta-se medir a variação da incerteza e previsibilidade entre os sinais de voz dos grupos analisados. Algumas patologias de laringe, como nódulo e edema de Reinke, usadas neste estudo, causam modificações nos sinais de voz devido a mudanças na estrutura e funcionalidade do trato e pregas vocais. Nos casos patológicos, tem-se, principalmente, aumento de perturbações de freqüência e amplitude, adição de ruído e supressão de componentes harmônicos de alta freqüência da voz. Por causa disso, observa-se perda da estrutura quase-periódica dos sinais, aumentando-se a incerteza do sistema vocal e, portanto, diminuição de sua previsibilidade. Para avaliar essas mudanças, usam-se medidas de entropia de Shannon e entropia relativa entre os sinais saudáveis e patológicos. Além dessas, tem-se a potência de previsão (PP), a qual é uma medida baseada na entropia relativa entre o sinal de voz e seu erro de previsão obtido por um modelo. Inicialmente, optou-se pelo modelo autorregressivo (AR), consagrado em análise de voz, porém, devido a resultados não satisfatórios, apresentou-se um modelo baseado em decomposições por wavelets. Outra ferramenta utilizada foi a chamada análise de componentes previsíveis (PrCA), a qual realiza uma decomposição dos sinais em componentes ordenados por sua previsibilidade, sendo possível reconstruí-los usando somente os componentes mais previsíveis. Também, com essa técnica, analisaram-se representações tridimensionais dos sinais de voz em um espaço cujas coordenadas são dadas por versões atrasadas dos próprios sinais. Os algoritmos desenvolvidos foram testados com o auxílio de sinais de voz simulados, os quais possuíam variações de nível de ruído e perturbações de amplitude e freqüência. Com isso, foi possível detectar erros e solucionar problemas com os métodos. Após a avaliação dos algoritmos, estimou-se os valores de entropia dos sinais de voz, a entropia relativa entre os sinais saudáveis e os sinais dos grupos analisados, além de se calcular a PP usando o modelo AR e o modelo por wavelets. Por fim, utilizou-se a PrCA para obtenção de versões mais previsíveis dos sinais, então, calculando-se a PP para esses casos usando essa versão como previsão dos sinais. Aplicou-se, também, a PrCA para as representações tridimensionais dos sinais usando um modelamento AR multidimensional para obtenção de previsões. Com os ensaios de entropia dos sinais de voz, não foi possível diferenciar os grupos, mas com os resultados de entropia relativa, conseguiu-se distinguir eficientemente os sinais patológicos dos saudáveis. Porém, essa medida não possui muita aplicação prática, isso pois é necessário um banco de vozes diagnosticadas para servir de comparação. Nos ensaios de PP usando modelo AR, também não foi possível diferenciar os grupos, no entanto, com o modelo wavelet, os sinais saudáveis apresentaram significativamente maior previsibilidade do que os patológicos, mas, mesmo assim, não se conseguiu diferenciar as patologias. Com a PrCA, utilizando-se ambos os modelos, foi possível diferenciar os grupos patológicos do saudável, porém, frente ao modelo AR, os sinais saudáveis apresentaram menor previsibilidade. Isso demonstra que a previsibilidade depende do modelo usado para a análise, assim, as patologias da laringe podem diminuir ou aumentar a capacidade de previsão dos sinais de voz conforme o modelo usado. Com a avaliação dos resultados de PrCA das representações tridimensionais, tem-se comportamento semelhante ao obtido pela análise direta nos sinais de voz com o modelo AR, entretanto, essa forma e representação dos dados mostra se promissora em estudos futuros. Com esses ensaios, concluiu-se que este estudo foi muito útil para um maior conhecimento da dinâmica da produção vocal e que as medidas de previsibilidade são interessantes para avaliação de patologias da laringe, em especial, a presença de nódulo nas pregas vocais e edema de Reinke, pelo menos nestes estudos iniciais e usando os sinais de voz disponíveis. Mais estudos ainda são necessários, entretanto essa forma de análise já apresenta bons resultados, os quais podem ser aplicados para auxiliar o diagnóstico de disfonias por profissionais da saúde. / This thesis presents initial studies of the application of predictability measures to voice signal analysis. Its aim is to develop methods that are capable of differentiating healthy and pathological signals, also amongst pathologies. In order to do that, we perform an attempt to measure the uncertainty and predictability variations of the signals from the analyzed groups. Some larynx pathologies, such as nodule and Reinkes edema, that are used in this study, cause changes to the voice signals due to structure and functionality modifications of the vocal tract and folds. The main modifications are higher amplitude and frequency perturbations, noise addition, and supression of high frequency harmonic components. Because of that, the signals lose some of their almost periodic structure, the vocal system\'s uncertainty increases and, therefore, the predictability decreases. We use several measures to evaluate these changes, such as Shannons entropy and relative entropy between healthy and pathological signals. In addition, we use the predictive power (PP), that is based on the relative entropy between the voice signal and its prediction error given by a model. Firstly, we used the autoregressive model (AR), common for voice analysis, however, due to unsatisfactory results, we presented a model based on wavelet decomposition. We also took advantage of another tool, called predictable component analysis (PrCA), it performs a signal decomposition in components that are ordered by their predictability. Then it is possible to reconstruct the signals using only their most predictable components. Using this technique, we analyzed a kind of tridimensional representation of the voice signals in a space with coordinates given by delayed versions of the signals. We tested the developed algorithms with the aid of simulated voice signals, which had variations of noise level and amplitude and frequency perturbations. By means of that, it was possible to detect errors and solve method problems. After the algorithms evaluation, we estimated the entropy of the voice signals and the relative entropy between the healthy signals and all the signals. In addition, we estimated the PP using the AR and wavelet based models. After that, we used the PrCA in order to obtain more predictable versions of the signals and then, estimated the PP using this version as the signals prediction. Also, we applied the PrCA to the signals tridimensional representations using a multidimensional AR model as a predictor. Using the voice entropy results, we could not distinguish between the analyzed groups, but with the relative entropy values, the healthy and pathological signals were differentiated efficiently. In spite of that, this measure has no practical application, because a diagnosed voice database is necessary as a basis of comparison. For the PP with AR modeling, no distinction between the groups is observed, but with the wavelet modeling, the healthy signals showed significantly higher predictability than the pathological ones, however the pathologies were differentiated. Using the PrCA with both models, the pathological and healthy groups were distinguished, but for the AR model, the healthy signals presented smaller predictability. This shows that the predictability depends on the analysis model, thus the larynx pathologies can decrease or increase the prediction capacity of the voice signals according to the used model. The results of PrCA of the tridimensional representations show similar behavior of the ones from direct PrCA signal analisys with the AR model. Despite of these results, this form of data representation seems to be promising for future studies. Considering these results, we concluded that this study was very useful to acquire a better understanding of the dynamics of voice production and that the predictability measures are interesting for the evaluation of larynx pathologies, especially presence of nodule in the vocal folds and Reinke\'s edema, at least for this initial study using the available signals. More studies are still necessary, but this analysis method already presents good results, which can be applied to aid pathology diagnosis by health professionals.
292

Entropia conjunta de espaço e reqüência espacial estimada através da discriminação de estímulos espaciais com luminância e cromaticidade moduladas por funções de Gábor: implicações para o processamento paralelo de informação no sistema visual humano

SILVEIRA, Vladímir de Aquino 06 December 2013 (has links)
Submitted by Edisangela Bastos (edisangela@ufpa.br) on 2014-01-21T20:51:32Z No. of bitstreams: 2 license_rdf: 23898 bytes, checksum: e363e809996cf46ada20da1accfcd9c7 (MD5) Dissertacao_EntropiaConjuntaEspaco.pdf: 9261515 bytes, checksum: 926c47da037adbe378be4cd95f2fe327 (MD5) / Rejected by Edisangela Bastos(edisangela@ufpa.br), reason: on 2014-01-21T20:53:31Z (GMT) / Submitted by Edisangela Bastos (edisangela@ufpa.br) on 2014-01-22T18:12:56Z No. of bitstreams: 2 license_rdf: 23898 bytes, checksum: e363e809996cf46ada20da1accfcd9c7 (MD5) Dissertacao_EntropiaConjuntaEspaco.pdf: 9261515 bytes, checksum: 926c47da037adbe378be4cd95f2fe327 (MD5) / Approved for entry into archive by Ana Rosa Silva(arosa@ufpa.br) on 2014-01-28T12:39:35Z (GMT) No. of bitstreams: 2 license_rdf: 23898 bytes, checksum: e363e809996cf46ada20da1accfcd9c7 (MD5) Dissertacao_EntropiaConjuntaEspaco.pdf: 9261515 bytes, checksum: 926c47da037adbe378be4cd95f2fe327 (MD5) / Made available in DSpace on 2014-01-28T12:39:35Z (GMT). No. of bitstreams: 2 license_rdf: 23898 bytes, checksum: e363e809996cf46ada20da1accfcd9c7 (MD5) Dissertacao_EntropiaConjuntaEspaco.pdf: 9261515 bytes, checksum: 926c47da037adbe378be4cd95f2fe327 (MD5) Previous issue date: 2013 / CNPq - Conselho Nacional de Desenvolvimento Científico e Tecnológico / FAPESPA - Fundação Amazônia de Amparo a Estudos e Pesquisas / FADESP - Fundação de Amparo e Desenvolvimento da Pesquisa / CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / O objetivo deste estudo foi estimar a entropia conjunta do sistema visual humano no domínio do espaço e no domínio das freqüências espaciais através de funções psicométricas. Estas foram obtidas com testes de discriminação de estímulos com luminância ou cromaticidade moduladas por funções de Gábor. A essência do método consistiu em avaliar a entropia no domínio do espaço, testando-se a capacidade do sujeito em discriminar estímulos que diferiam apenas em extensão espacial, e avaliar a entropia no domínio das freqüências espaciais, testando-se a capacidade do sujeito em discriminar estímulos que diferiam apenas em freqüência espacial. A entropia conjunta foi calculada, então, a partir desses dois valores individuais de entropia. Três condições visuais foram estudadas: acromática, cromática sem correção fina para eqüiluminância e cromática com correção para eqüiluminância através de fotometria com flicker heterocromático. Quatro sujeitos foram testados nas três condições, dois sujeitos adicionais foram testados na condição cromática sem eqüiluminância fina e um sétimo sujeito também fez o teste acromático. Todos os sujeitos foram examinados por oftalmologista e considerados normais do ponto de vista oftálmico, não apresentando relato, sintomas ou sinais de disfunções visuais ou de moléstias potencialmente capazes de afetar o sistema visual. Eles tinham acuidade visual normal ou corrigida de no mínimo 20/30. O trabalho foi aprovado pela Comissão de Ética em Pesquisa do Núcleo de Medicina Tropical da UFPA e obedeceu às recomendações da Declaração de Helsinki. As funções de Gábor usadas para modulação de luminância ou cromaticidade compreenderam redes senoidais unidimensionais horizontais, moduladas na direção vertical, dentro de envelopes gaussianos bidimensionais cuja extensão espacial era medida pelo desvio padrão da gaussiana. Os estímulos foram gerados usando-se uma rotina escrita em Pascal num ambiente Delphi 7 Enterprise. Foi utilizado um microcomputador Dell Precision 390 Workstation e um gerador de estímulos CRS VSG ViSaGe para exibir os estímulos num CRT de 20”, 800 x 600 pixels, 120 Hz, padrão RGB, Mitsubishi Diamond Pro 2070SB. Nos experimentos acromáticos, os estímulos foram gerados pela modulação de luminância de uma cor branca correspondente à cromaticidade CIE1931 (x = 0,270; y = 0,280) ou CIE1976 (u’ = 0,186; v’= 0,433) e tinha luminância média de 44,5 cd/m2. Nos experimentos cromáticos, a luminância média foi mantida em 15 cd/m2 e foram usadas duas series de estímulos verde-vermelhos. Os estímulos de uma série foram formados por duas cromaticidades definidas no eixo M-L do Espaço de Cores DKL (CIE1976: verde, u’=0,131, v’=0,380; vermelho, u’=0,216, v’=0,371). Os estímulos da outra série foram formados por duas cromaticidades definidas ao longo de um eixo horizontal verde-vermelho definido no Espaço de Cores CIE1976 (verde, u’=0,150, v’=0,480; vermelho, u’=0,255, v’=0,480). Os estímulos de referência eram compostos por redes de três freqüências espaciais diferentes (0,4, 2 e 10 ciclos por grau) e envelope gaussiano com desvio padrão de 1 grau. Os estímulos de testes eram compostos por uma entre 19 freqüências espaciais diferentes em torno da freqüência espacial de referência e um entre 21 envelopes gaussianos diferentes com desvio padrão em torno de 1 grau. Na condição acromática, foram estudados quatro níveis de contraste de Michelson: 2%, 5%, 10% e 100%. Nas duas condições cromáticas foi usado o nível mais alto de contraste agregado de cones permitidos pelo gamut do monitor, 17%. O experimento consistiu numa escolha forçada de dois intervalos, cujo procedimento de testagem compreendeu a seguinte seqüência: i) apresentação de um estímulo de referência por 1 s; ii) substituição do estímulo de referência por um fundo eqüiluminante de mesma cromaticidade por 1 s; iii) apresentação do estímulo de teste também por 1 s, diferindo em relação ao estímulo de referência seja em freqüência espacial, seja em extensão espacial, com um estímulo sonoro sinalizando ao sujeito que era necessário responder se o estímulo de teste era igual ou diferente do estímulo de referência; iv) substituição do estímulo de teste pelo fundo. A extensão espacial ou a freqüência espacial do estímulo de teste foi mudada aleatoriamente de tentativa para tentativa usando o método dos estímulos constantes. Numa série de 300 tentativas, a freqüencia espacial foi variada, noutra série também de 300 tentativas, a extensão espacial foi variada, sendo que cada estímulo de teste em cada série foi apresentado pelo menos 10 vezes. A resposta do indivíduo em cada tentativa era guardada como correta ou errada para posterior construção das curvas psicométricas. Os pontos experimentais das funções psicométricas para espaço e freqüência espacial em cada nível de contraste, correspondentes aos percentuais de acertos, foram ajustados com funções gaussianas usando-se o método dos mínimos quadrados. Para cada nível de contraste, as entropias para espaço e freqüência espacial foram estimadas pelos desvios padrões dessas funções gaussianas e a entropia conjunta foi obtida multiplicando-se a raiz quadrada da entropia para espaço pela entropia para freqüência espacial. Os valores de entropia conjunta foram comparados com o mínimo teórico para sistemas lineares, 1/4π ou 0,0796. Para freqüências espaciais baixas e intermediárias, a entropia conjunta atingiu níveis abaixo do mínimo teórico em contrastes altos, sugerindo interações não lineares entre dois ou mais mecanismos visuais. Este fenômeno occorreu em todas as condições (acromática, cromática e cromática eqüiluminante) e foi mais acentuado para a frequência espacial de 0,4 ciclos / grau. Uma possível explicação para este fenômeno é a interação não linear entre as vias visuais retino-genículo-estriadas, tais como as vias K, M e P, na área visual primária ou em níveis mais altos de processamento neural. / The objective of this study was to estimate the joint entropy of the human visual system in the domains of space and spatial frequency by using psychometric functions. The psychometric functions were obtained from stimulus discrimination that had luminance or chromaticity modulated by Gábor functions. The method consisted in evaluating the entropy in the space domain by testing subject capacity to discriminate stimuli that differed only in their spatial extent and in evaluating the entropy in the spatial frequency domain by testing subject capacity to discriminate stimuli that differed only in their spatial frequency. The joint entropy was then estimated from these two individual entropy values. Three visual conditions were studied: achromatic, chromatic without fine tuning correction of equiluminance, and chromatic with full equiluminance correction by using heterochromatic flickker photometry. Four subjects were tested in all conditions, two additional subjects were tested in the chromatic condition without fine equiluminance adjustment and a seventh subject also performed the acrhomatic test. All subjects were examined by an ophthalmologist, their eyes and visual system were considered normals, and presented no report, symptoms or signs of visual dysfunctions or diseases that could have affected their visual system. The subjects had their normal or corrected visual acuity of 20/30 minimum. The work was approved by the Comissão de Ética em Pesquisa (Núcleo de Medicina Tropical, UFPA) and followed the recomendations of the Helsinki Declaration. The Gábor functions used for luminance or chromaticity modulation comprised unidimensional horizontal sinusoidal gratings, modulated in the vertical direction, with bidimensional Gaussian envelopes whose spatial extent was measured by their standard deviation. Stimuli were generated by using a software written in Pascal in a Delphi 7 Enterprise environment. A Dell Precision 390 Workstation was used together with a CRS VSG ViSaGe stimulus generator to display the stimuli in a CRT monitor, 20”, 800 x 600 pixels, 120 Hz, RGB, Mitsubishi Diamond Pro 2070SB. In the achromatic experiments, the stimuli were generated by white luminance modulation (CIE1931: x = 0.270, y = 0.280; CIE1976: u’ = 0.186, v’ = 0.433), 44,5 cd/m2 mean luminance. In the chromatic experiments, mean luminance was kept in 15 cd/m2, and two series of red-green stimuli were used. In the first series, two chromaticities defined on the M-L axes of the DKL color space were used (CIE1976: green, u’=0.131, v’=0.380; red, u’=0.216, v’=0.371). In the second series, two chromaticities were defined along a red-green horizontal axis across the CIE1976 color space (CIE1976: green, u’=0.150, v’=0.480; red, u’=0.255, v’=0.480). Throughout the experiment, the reference stimuli comprised gratings with three different spatial frequencies (0.4, 2, and 10 cycles per degree) and a Gaussian envelope with 1 degree standard deviation. The test stimuli comprised 19 different spatial frequencies in the region of the reference spatial frequency and 21 different Gaussian envelopes in the region of the reference standard deviation. In the achromatic condition, four levels of Michelson contrast were studied: 2%, 5%, 10% e 100%. In the two chromatic conditions, the highest level of pooled cone contrast allowed by the CRT gamut was used, 17%. The procedure consisted of a two interval forced choice with the following steps: i) 1 s display of the reference stimulus; ii) 1 s replacement of the reference stimulus by a background with the same luminance and chromaticity; iii) 1 s display of the test stimulus which differed from the reference stimulus either in spatial frequency or spatial extent, together with a beep to tell the subject that it was now neccessary to provide a response if the two stimuli were equal or different; iv) replacement of the test stimulus by the background. The spatial extent or spatial frequency of the test stimulus was randomly changed from trial to trial by usind the method of constant stimuli. In a series comprising 300 trials, the spatial frequency was changed while in another series also comprising 300 trials, the spatial extent was changed, each test stimulus in each series being displayed at least 10 times. The subject response in every trial was stored as correct or incorrect for further use to estimate the psychometric function. The experimental data of the psychometric functions for spatial extent and spatial frequency at each contrast level, which corresponded to percent of correct responses, were fitted with Gaussian functions using the Least Square Method. For each contrast level, the spatial extent entropy and spatial frequency entropy were estimated from the standard deviations of these Gaussian functions. The joint entropy was then calculated by multiplying the square root of the spatial extent entropy by the spatial frequency entropy. The joint entropy values were compared with the theoretical minimum predicted for linear systems, 1/4π or 0.0796. For low and intermediate spatial frequencies at high contrasts, the joint entropy reached very low levels, below this minimum, suggesting that there were nonlinear interactions between two or more visual mechanisms. This phenomenon occurred in all conditions (achromatic, chromatic, and chromatic with fine equiluminance adjustment) and was more pronounced for spatial frequency 0.4 cycles / degree. A possible explanation for this phenomenon is the occurrence of nonlinear interactions between the retino-geniculo-striate visual pathways, such as the K, M, and P pathways, in the primary visual area or in higher levels of neural processing of visual information.
293

Teste de validade de mÃtodos de maximizaÃÃo de entropia para construÃÃo de modelos com correlaÃÃo par-a-par.

Wagner Rodrigues de Sena 20 February 2017 (has links)
Conselho Nacional de Desenvolvimento CientÃfico e TecnolÃgico / No sÃculo XXI a humanidade produziu mais novos dados (informaÃÃes) do que em toda sua histÃria. Entender a natureza dos diversos sistemas que geram essa abundÃncia de dados se tornou um dos grandes desafios desse sÃculo. Uma forma de analisar formalmente esses grandes bancos de dados à empregando a teoria da informaÃÃo desenvolvida por Claude Shannon. Essa teoria permite, usando o princÃpio da mÃxima entropia, encontrar as distribuiÃÃes de probabilidades que melhor descrevem os comportamentos coletivos desses sistemas. Nessa dissertaÃÃo, discutimos a possibilidade de usar modelos tipo Ising para descrever observaÃÃes de sistemas reais. Devido a suas limitaÃÃes, empregar o modelo de Ising implica em supor que os elementos que constituem o sistema real sà podem estar em dois estados, por exemplo ativo ou inativo. AlÃm disso, o modelo de Ising da conta apenas de interaÃÃes entre pares de elementos e desconsidera a possibilidade de interaÃÃes entre grupos maiores de elementos. Como discutiremos, mesmo com essas limitaÃÃes tal modelo pode descrever bem resultados observados em alguns sistemas naturais, como por exemplo redes de neurÃnios. Especificamente, discutiremos resultados de trabalhos anteriores que mostram que usando apenas as mÃdias de atividade de cada neurÃnio e a correlaÃÃo entre os mesmo, usando a teoria de Shannon, observa-se que os estados visitados pela rede seguem à distribuiÃÃo de Ising. Para testar a aplicabilidade desse mÃtodo em diversos sistemas geramos dados sintÃticos, obtidos de modelos tipo Ising em trÃs situaÃÃes: ferromagnÃtico, anti-ferro e vidro de spins (spin glass). NÃs chamamos o sistema que gera os dados sintÃticos de sistema subjacente. Usamos mÃtodos de maximizaÃÃo de entropia para tentar construir sistemas modelos que consigam reproduzir as mÃdia e correlaÃÃes observadas nos dados sintÃticos. Dessa forma, verificamos em que situaÃÃes nossos mÃtodos conseguem de fato gerar um sistema modelo que reproduza o sistema subjacente que gerou os dados. Esses resultados podem estabelecer um limite de aplicabilidade para a tÃcnica discutida.
294

Método de Monte Carlo para Sistemas Quânticos / Monte Carlo method for quantum systems

Ricardo Andreas Sauerwein 14 December 1995 (has links)
As propriedades do estado fundamental do modelo de Heisenberg antiferroinagnético quântico de spin-1/2 na rede quadrada e na rede cúbica espacialmente anisotrópica são investigadas através de um novo método de Monte Carlo, baseado na estimativa do maior autovalor de uma matriz de elementos não negativos. A energia do estado fundamental e a magnetização \"staggered\" destes sistemas são calculadas em redes relativamente grandes com até 24 x 24 sítios para o caso de redes quadradas e 8 x 8 x 8 sítios para o caso de redes cúbicas. O método desenvolvido também pode ser usado como um novo algoritmo para a determinação direta da entropia de sistemas de spins de Ising através de simulações usuais de Monte Carlo. Usando este método, calculamos a entropia do antiferromagneto de Ising na presença de um campo magnético externo nas redes triangular e cúbica de face centrada. / The ground state properties of the antiferromagnetic quantum Heisenberg model with spin-112 defined on a square lattice and on a cubic lattice with spatial anisotropy are investigated through a new Monte Carlo method, based on the estimation of the largest eigenvalue of a matrix with nonnegative elements. The ground state energy and the staggered magnetization of these systems are calculated in relatively large lattices with up to 24 x 24 sites for the square lattices and 8 x 8 x 8 sites for cubic lattices. The method developped can also be used as a new algorithm for the direct determination of the entropy of Ising spin systems through ordinary Monte Car10 simulations. By using this method we calculate the entropy of the Ising antiferromagnetic in the presence of a magnetic field in the triangular and face centered cubic lattices.
295

Entropy: algoritmo de substituição de linhas de cache inspirado na entropia da informação. / Entropy: cache line replacement algorithm inspired in information entropy.

Jorge Mamoru Kobayashi 07 June 2010 (has links)
Este trabalho apresenta um estudo sobre o problema de substituição de linhas de cache em microprocessadores. Inspirado no conceito de Entropia da Informação proposto em 1948 por Claude E. Shannon, este trabalho propõe uma nova heurística de substituição de linhas de cache. Seu objetivo é capturar e explorar melhor a localidade de referência dos programas e diminuir a taxa de miss rate durante a execução dos programas. O algoritmo proposto, Entropy, utiliza a heurística de entropia da informação para estimar as chances de uma linha ou bloco de cache ser referenciado após ter sido carregado na cache. Uma nova função de decaimento de entropia foi introduzida no algoritmo, otimizando seu funcionamento. Dentre os resultados obtidos, o Entropy conseguiu reduzir em até 50,41% o miss rate em relação ao algoritmo LRU. O trabalho propõe, ainda, uma implementação em hardware com complexidade e custo computacional comparáveis aos do algoritmo LRU. Para uma memória cache de segundo nível com 2-Mbytes e 8-way associative, a área adicional requerida é da ordem de 0,61% de bits adicionais. O algoritmo proposto foi simulado no SimpleScalar e comparado com o algoritmo LRU utilizando-se os benchmarks SPEC CPU2000. / This work presents a study about cache line replacement problem for microprocessors. Inspired in the Information Entropy concept stated by Claude E. Shannon in 1948, this work proposes a novel heuristic to replace cache lines in microprocessors. The major goal is to capture the referential locality of programs and to reduce the miss rate for cache access during programs execution. The proposed algorithm, Entropy, employs that new entropy heuristic to estimate the chances of a cache line to be referenced after it has been loaded into cache. A novel decay function has been introduced to optimize its operation. Results show that Entropy could reduce miss rate up to 50.41% in comparison to LRU. This work also proposes a hardware implementation which keeps computation and complexity costs comparable to the most employed algorithm, LRU. To a 2-Mbytes and 8-way associative cache memory, the required storage area is 0.61% of the cache size. The Entropy algorithm was simulated using SimpleScalar ISA simulator and compared to LRU using SPEC CPU2000 benchmark programs.
296

Teoria da informação e adaptatividade na modelagem de distribuição de espécies. / Information theory and adaptivity in the species distribution modeling.

Elisângela Silva da Cunha Rodrigues 03 February 2012 (has links)
A modelagem de distribuição de espécies é uma técnica cuja finalidade é estimar modelos baseados em nichos ecológicos. Esses modelos podem auxiliar nos processos de tomadas de decisões, no planejamento e na realização de ações que visem a conservação e a preservação ambiental. Existem diversas ferramentas projetadas para modelagem de distribuição de espécies, dentre elas o framework openModeller, na qual este trabalho está inserido. Várias técnicas de Inteligência Artificial já foram utilizadas para desenvolver algoritmos de modelagem de distribuição de espécies, como Entropia Máxima. No entanto, as ferramentas estatísticas tradicionais não disponibilizam pacotes com o algoritmo de Entropia Máxima, o que é comum para outras técnicas. Além disso, apesar de existir um software gratuito específico para modelagem de distribuição de espécies com o algoritmo de Entropia Máxima, esse software não possui código aberto. Assim, a base deste trabalho é a investigação acerca da modelagem de distribuição de espécies utilizando Entropia Máxima. Desta forma, o objetivo principal é definir diferentes estratégias para o algoritmo de Entropia Máxima no contexto da modelagem de distribuição de espécies. Para atingir esse objetivo, foram estabelecidos um conjunto de alternativas possíveis a serem exploradas e um conjunto de métricas de avaliação e comparação das diferentes estratégias. Os resultados mais importantes desta pesquisa foram: um algoritmo adaptativo de Entropia Máxima, um algoritmo paralelo de Entropia Máxima, uma análise do parâmetro de regularização e um método de seleção de variáveis baseado no princípio da Descrição com Comprimento Mínimo (MDL Minimum Description Length), que utiliza aprendizagem por compressão de dados. / Species distribution modeling is a technique the purpose of which is to estimate models based on ecological niche. These models can assist decision making processes, planning and carrying out actions aiming at environmental conservation and preservation. There are several tools designed for species distribution modeling, such as the open- Modeller framework, in which this work is inserted. Several Artificial Intelligence techniques have been used to develop algorithms for species distribution modeling, such as Maximum Entropy. However, traditional statistical tools do not offer packages with the Maximum Entropy algorithm, which is common to other techniques. Furthermore, although there is specific free software for species distribution modeling with the Maximum Entropy algorithm, this software is not open source. The basis of this work is the investigation of the species distribution modeling using Maximum Entropy. Thus, its aim is to define different strategies for the Maximum Entropy algorithm in the context of the species distribution modeling. For this, a set of possible alternatives to be explored and a set of metrics for evaluation and comparison of the different strategies were established. The most important results were: an adaptive Maximum Entropy algorithm, a parallel Maximum Entropy algorithm, an analysis of the regularization parameter and a variable selection method based on the Minimum Description Length principle, which uses learning by data compression.
297

Rastreamento do olhar na avaliação de presença em atividades mediadas por vídeo. / Gaze tracking for presence evaluation in video mediated activities.

Fernando Yoiti Obana 01 September 2015 (has links)
A percepção de presença (PP), evolução do conceito de telepresença, pode ser definida como ilusão perceptiva de não mediação e/ou a percepção ilusória da realidade. O método mais utilizado para a avaliação da PP faz uso de questionários aplicados aos sujeitos, após sua participação numa experiência. Além de não fornecer informações em tempo real esse método sofre muitas interferências advindas tanto dos sujeitos submetidos ao experimento como dos avaliadores dos questionários. Os métodos que poderiam ser mais efetivos para a avaliação da PP, em tempo real, fazem uso de sinais fisiológicos que variam independentemente da vontade dos sujeitos, como batimento cardíaco, eletrocardiograma, eletroencefalograma, resistividade e umidade da pele. Os sinais fisiológicos, no entanto, só variam de forma significativa em situações de estresse, inviabilizando sua utilização em atividades normais, sem estresse. Outra forma de avaliar a PP é utilizar sistemas de rastreamento do olhar. Estudados e desenvolvidos desde o século 19, os sistemas de rastreamento do olhar fornecem um mapeamento do movimento dos olhos. Além de indicar para onde os sujeitos estão olhando, podem também monitorar a dilatação da pupila e as piscadas. Atualmente existem sistemas de rastreamento do olhar comerciais de baixo custo, que apesar de terem menos precisão e frequência que os equipamentos de alto custo são mais práticos e possuem software de plataforma aberta. No futuro serão tão comuns e simples de usar como são hoje as câmeras em dispositivos móveis e computadores, o que viabilizará a aplicação das técnicas e métodos aqui propostos em larga escala, principalmente para monitorar a atenção e envolvimento de atividades mediadas por vídeo. É apresentada uma ferramenta que faz uso do rastreamento do olhar para avaliar a percepção de presença em atividades mediadas por vídeo (com estímulos sonoros). Dois experimentos foram realizados para validar as hipóteses da pesquisa e a ferramenta. Um terceiro experimento foi executado para verificar a capacidade da ferramenta em avaliar a percepção de presença em atividades não estressantes mediadas por vídeo. / The presence perception (PP), evolution of the concept of telepresence, could be defined as the perceptual illusion of nonmediation and/or the ilusional perception of reality. The most utilized method for PP evaluation make uses questionnaires applied for the subjects, after your participation in an experience. Besides it does not provide real-time information this method suffers with many interferences in the results that come from the subjects undergoing and form the reviewers of the of the questionnaires. The methods could be more effective for PP evaluation, in real time, make uses of physiologic signals that vary independently of the request of the subjects, e.g. heart rate, electrocardiogram, electroencephalogram, skin resistivity and skin humidity. However, meaningful physiologic signals occurs only in stress situations, unfeasible Its use in normal environments, whit no stress. Another way to evaluate the PP is using eye gaze tracking systems. Studied and developed since the 19th century, eye gaze tracking systems provide an eye movements mapping. Moreover it indicate where the subjects are viewing, these systems can follow up pupil dilatation and blinks. Currently there are commercial gaze tracking systems inexpensive, despite having less precision and frequency that expensive-equipments are more practical and open software platform is available. In the future these technologies will be common and simple to use as today are cameras on mobile devices and computers, which will enable the implementation of the techniques and methods here proposed on a large scale, mainly to monitor the attention and involvement during activities mediated by video. A tool that makes use of gaze tracking to evaluate presence perception in activities video mediated (with sound stimuli) is displayed. Two experiments were conducted to validate the hypotheses of the research and the tool. A third experiment was performed to verify the tool\'s ability to assess presence perception in non-stressful activities video mediated.
298

A suavização Gaussiana como método de marcação de características de fronteira entre regiões homogêneas contrastantes / The Gaussian smoothing as a method for marking boundary features between contrasting homogeneous regions

Antonio Henrique Figueira Louro 18 May 2016 (has links)
Este trabalho mostra que a suavização Gaussiana pode exercer outra função além da filtração. Considerando-se imagens binárias, este processo pode funcionar como uma espécie de marcador, que modifica as feições das fronteiras entre duas regiões homogêneas contrastantes. Tais feições são pontos de concavidades, de convexidades ou de bordas em linha reta. Ou seja, toda a informação necessária para se caracterizar a forma bidimensional de uma região. A quantidade de suavização realizada em cada ponto depende da configuração preto/branco que compõe a vizinhança onde este se situa. Isto significa que cada ponto sofre uma quantidade particular de modificação, a qual reflete a interface local entre o objeto e o fundo. Então, para detectar tais feições, basta quantificar a suavização em cada ponto. No entanto, a discriminação pixel a pixel exige que a distribuição Gaussiana apresente boa localização, o que só acontece em escalas muito baixas (σ≅0,5). Assim, propõe-se uma distribuição construída a partir da soma de duas Gaussianas. Uma é bem estreita para garantir a boa localização e a outra possui abertura irrestrita para representar a escala desejada. Para confirmar a propriedade de marcação dessa distribuição, são propostos três detectores de corners de contorno, os quais são aplicados à detecção de pontos dominantes. O primeiro utiliza a entropia de Shannon para quantificar a suavização em cada ponto. O segundo utiliza as probabilidades de objeto e de fundo contidos na vizinhança observada. O terceiro utiliza a diferença entre Gaussianas (DoG) para determinar a quantidade suavizada, porém com a restrição de que uma das versões da imagem tenha suavização desprezível, para garantir a boa localização. Este trabalho se fundamenta na física da luz e na visão biológica. Os ótimos resultados apresentados sugerem que a detecção de curvaturas do sistema visual pode ocorrer na retina. / This work shows that the Gaussian smoothing can have additional function to filtration. Considering the binary images, this process can operate as a kind of marker that changes the features of the boundaries between two contrasting homogeneous regions. These features are points of concavities, convexities or straight edges, which are all the necessary information to characterize the two-dimensional shape of a region. The amount of smoothing performed at each point depends on the black/white configuration that composes the neighborhood where the point is located. This means that each point suffers a particular modification, which reflects the local interface between object and background. Thus, to detect such features, one must quantify the smoothing at each point. However, pixel-wise discrimination requires that the Gaussian distribution does not suffer flattening, which occurs in very low scales (σ≅0.5), only. Thus, it is proposed a distribution built from the sum of two Gaussians. One must be very narrow to ensure good localization, and the other is free to represent the desired scale. To confirm the property of marking, three boundary based corner detectors are proposed, which are applied to the detection of dominant points. The first uses the Shannon\'s entropy to quantify the smoothing at each point. The second uses the probabilities of object and background contained in the local neighborhood. The third uses the difference of Gaussians (DoG) to determine the amount of smoothing. This Work relies on the physics of light and biological vision. The presented results are good enough to suggest that the curvature detection, in visual system, occurs in the retina.
299

Comportamento crítico da produção de entropia em modelos com dinâmicas estocásticas competitivas / Critical behavior of entropy production in models with competitive stochastic dynamics

José Higino Damasceno Júnior 25 April 2011 (has links)
Neste trabalho estudamos as transições de fases cinéticas e o comportamento crítico da produção de entropia em modelos de spins com interação entre primeiros vizinhos e sujeitos a duas dinâmicas de Glauber, as quais simulam dois banhos térmicos a diferentes temperaturas. Para tanto, é admitido que o sistema corresponde a um processo markoviano contínuo no tempo o qual obedece a uma equação mestra. Dessa forma, o sistema atinge naturalmente estados estacionários, que podem ser de equilíbrio ou de não-equilíbrio. O primeiro corresponde exatamente ao modelo de Ising, que ocorre quando o sistema se encontra em contato com apenas um dos reservatórios. Dessa forma, há uma transição de fase na temperatura de Curie e o balanceamento detalhado é seguramente satisfeito. No segundo caso, os dois banhos térmicos são responsáveis por uma corrente de probabilidade que só existe visto que a reversibilidade microscópica não é mais verificada. Como conseqüência, nesse regime de não-equilíbrio o sistema apresenta uma produção de entropia não nula. Para avaliarmos os diagramas de fase e a produção de entropia utilizamos as aproximações de pares e as simulações de Monte Carlo. Além disso, admitimos que a teoria de escala finita pode ser aplicada no modelo. Esses métodos foram capazes de preverem as transições de fases sofridas pelo sistema. Os expoentes e os pontos críticos foram estimados através dos resultados numéricos. Para a magnetização e a susceptibilidade obtemos = 0,124(1) e = 1,76(1), o que nos permite concluir que o nosso modelo pertence à mesma classe de Ising. Esse resultado refere-se ao princípio da universalidade do ponto crítico, que é verificado devido o nosso modelo apresentar a mesma simetria de inversão que a do modelo de Ising. Além disso, as aproximações de pares também mostraram uma singularidade na derivada da produção de entropia no ponto crítico. E as simulações de Monte Carlo nos permitem sugerir que tal comportamento é uma divergência logarítmica cujo expoente crítico associado vale 1. / We study kinetic phase transitions and the critical behavior of the entropy production in spin models with nearest neighbor interactions subject to two Glauber dynamics, which simulate two thermal baths at different temperatures. In this way, it is assumed that the system corresponds to a continuous time Markov process which obeys the master equation. Thus, the system naturally reaches steady states, which can be equilibrium or nonequilibrium. The former corresponds exactly to the Ising model, which occurs since the system is in contact with only one of the reservoirs. In this case, there is a phase transition at the Curie temperature and the detailed balance surely holds. In the second case, the two thermal baths create a non trivial probability current only when microscopic reversibility is not verified. As a consequence, there is a positive entropy production in a non-equilibrium steady state. Pair approximations and Monte Carlo simulations are employed to evaluate the phase diagrams and the entropy production. Furthermore, we assume that the finite-size scaling theory can be applied to the model. These methods were able to predict the phase transitions undergone by the system. The exponents and the critical points were estimated by the numerical results. Our best estimates of critical exponents to the magnetization and susceptibility are = 0,124 (1) and = 1,76 (1), which allows us to conclude that our model belongs to the same class of Ising. This result refers to the principle of universality of the critical point, which is checked because our model has the same inversion symmetry of the Ising model. Moreover, the pair approximation also showed a singularity in the derivative of the entropy production at the critical point. And Monte Carlo simulations allow us to suggest that the divergence at the critical point is of the logarithmic type whose critical exponent is 1
300

[en] THERMODYNAMIC NONEXTENSIVITY, DISCRETE SCALE INVARIANCE AND ELASTOPLASTICITY: A STUDY OF A SELF-ORGANIZED CRITICAL GEOMECHANICAL NUMERICAL MODEL / [pt] NÃO-EXTENSIVIDADE TERMODINÂMICA, INVARIÂNCIA DISCRETA DE ESCALA E ELASTO-PLASTICIDADE: ESTUDO NUMÉRICO DE UM MODELO GEOMECÂNICO AUTO-ORGANIZADO CRITICAMENTE

ARMANDO PRESTES DE MENEZES FILHO 02 December 2003 (has links)
[pt] Esta tese busca utilizar os novos conceitos físicos relacionados à física do estado sólido e à mecânica estatística - teoria do caos e geometria fractal - na análise do comportamento de sistemas dinâmicos não-lineares. Mais pormenorizadamente, trata-se de estudar o comportamento de um modelo numérico elasto-plástico com função de escoamento de Mohr-Coulomb, usualmente empregado em simulações de materiais geológicos - cimentados ou não -, quando submetido a carregamentos externos, situação esta geralmente encontrada em problemas afeitos à mecânica dos solos e das rochas (p/ex., estabilidade de taludes e escavações subterrâneas). Mostra-se que tal modelo geomecânico de muitos corpos (many-body) interagentes é conduzido espontaneamente, ao longo de sua evolução temporal, à chamada criticalidade auto-organizada (self- organized criticality - SOC), estado caracterizado por apresentar evolução na fronteira entre ordem e caos, sensibilidade extrema a qualquer pequena perturbação, e desenvolvimento de interações espaço-temporais de longo alcance. Como a evolução de qualquer sistema dinâmico pode ser vista como um fluxo ininterrupto de informações entre suas partes constituintes, avaliou-se, para tal sistema, a entropia de Tsallis, formulação original proposta pelo físico brasileiro Constantino Tsallis, do Centro Brasileiro de Pesquisas Físicas (CBPF), tendo se mostrado adequada à sua descrição. Em especial, determinou-se para tal sistema, pela primeira vez, o valor do índice entrópico, que parametriza a aludida forma entrópica alternativa. Ademais, como é característico de sistemas fora do equilíbrio regidos por uma dinâmica de limiar, mostra-se que tal sistema geomecânico, durante o seu desenvolvimento, teve a sua simetria translacional inicial quebrada, sendo substituída pela simetria por escala, auto-semelhante (i.é., fractal). Em decorrência, o modelo exibe a chamada invariância discreta de escala (discrete scale invariance - DSI), fruto do processo mesmo de ruptura progressiva do material heterogêneo. Especificamente, as simulações numéricas sugeriram que o processo de ruptura progressiva do material elasto-plástico se dá por uma transferência multiplicativa de tensões, em diferentes escalas de observação hierarquicamente dispostas, acarretando o aparecimento de sinais bastante peculiares, caracterizados por desvios oscilatórios sistemáticos do padrão em lei de potência, o que possibilita a previsão de sua ruína, quando ainda em fase preparatória. Assim, esta pesquisa mostrou a eficiência de tal método de previsão, aplicado, pela primeira vez, não somente aos resultados das simulações numéricas do referido modelo geomecânico, como aos ensaios de laboratório em rochas sedimentares, realizados no Centro de Pesquisas da Petrobrás (CENPES). Por fim, é interessante assinalar que o material elasto-plástico investigado neste trabalho teve seu comportamento compartilhado por um modelo matemático bastante simples, fundamentado na função binomial multifractal, reconhecida por descrever processos multiplicativos em diferentes escalas. / [en] This thesis aims at applying new concepts from solid state physics and statistical mechanics - chaos theory and fractal geometry - to the study of nonlinear dynamic systems. More precisely, it deals with a two-dimensional continuum elastoplastic Mohr-Coulomb model, commonly used to simulate pressure-sensitive materials (e.g., soils, rocks and concrete) subjected to stress-strain fields, normally found in general soil or rock mechanics problems (e.g., slope stability and underground excavations). It is shown that such many-body system is spontaneously driven to a state at the edge of chaos, called self- organized criticality (SOC), capable of developing long- range interactions in space and long-range memory in time. A new entropic form proposed by C. Tsallis is presented and shown that it is the suitable theoretical framework to deal with these problems. Furthermore, the index q of the Tsallis entropy, which measures the degree of non- additivity of the system, is calculated, for the first time, for an elastoplastic model. In addition, as is usual in non-equilibrium systems with threshold dynamics, the model changes its symmetry, from translational to fractal (that is, self-similar), leading to what is called discrete scale invariance. It is shown that this special type of scale invariance, characterized by systematic oscillatory deviations from the fundamental power-law behavior, can be used to predict the failure of heterogeneous materials, while the process is still being build-up, i.e., from precursory signals, typical of progressive failure processes. Specifically, this framework was applied, for the first time, not only to the elastoplastic geomechanical model, but to laboratory tests in sedimentary rocks as well. Finally, it is interesting to realize that the above- mentioned behaviors are also displayed by the binomial multifractal function, known to adequately describe multiplicative cascading processes.

Page generated in 0.0427 seconds