Return to search

Entropia da Informação para Sistemas de Dois Corpos

Made available in DSpace on 2015-04-22T22:07:21Z (GMT). No. of bitstreams: 1
carlos velas.pdf: 1180958 bytes, checksum: 61ddfdc0eddd3a6683e3d7b9d8715e0b (MD5)
Previous issue date: 2013-04-22 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / In this dissertation we present a detailed and analytical study of the information entropy using two formalisms. These formalisms are: Shannon entropy and Tsallis entropy. Shannon entropy obeys the principle of additivity, however the Tsallis entropy is nonadditive. These entropies are applied to atomic models of Mochinsky and positronium, which are two-body systems. To determine the entropy, we utilize the wave functions and probability densities for both the atomic models. The Shannon entropy has a logarithmic dependence, while the Tsallis entropy has a dependency on the entropic factor q , known as the Tsallis entropic factor. In our work, entropies were calculated in the position space and also in the momentum space and also using the concept of the principle of Heisenberg inequality adapted for the information entropy. For the Shannon entropy,
we have the Bialynici, Birula, and Mycielski uncertainty principle, and Tsallis entropy we use pseudo-uncertainty. Finally we demonstrate graphically the behavior of the entropies
of both the formalisms. / Nesta dissertação apresentamos um estudo detalhado e analítico da entropia da informação usando dois formalismos. Estes formalismos são: entropia de Shannon e a entropia de
Tsallis, a entropia de Shannon obedece o principio da aditividade, já a entropia de Tsallis é conhecida como entropia não-aditiva. Essas entropias serão aplicadas nos modelos
atômicos de Mochinsky e Positrônio, que são sistemas de dois corpos. Para determinar a densidade das entropias, nos utilizamos a função de onda e a densidade de probabilidade
para ambos os modelos atômicos. A entropia de Shannon tem uma dependência logarítmica, enquanto a entropia de Tsallis tem uma dependência do fator entrópico q , conhecido como fator entrópico de Tsallis. Em nosso trabalho, as entropias foram calculadas nos espaços das posições e também no espaço dos momentos, com isso utilizamos o conceito do principio da desigualdade de Heisenberg, adaptando para a entropia da informação. Para a entropia de Shannon, temos o principio de incerteza de Bialynici, Birula, and Mycielski, para a entropia de Tsallis chamamos de pseudo-incerteza. Por fim
demonstramos graficamente o comportamento das entropias de ambos os formalismos.

Identiferoai:union.ndltd.org:IBICT/oai:http://localhost:tede/3453
Date22 April 2013
CreatorsVilhena Junior, Carlos Velas de
ContributorsGhosh, Angsula
PublisherUniversidade Federal do Amazonas, Programa de Pós-graduação em Física, UFAM, BR, Instituto de Ciências Exatas
Source SetsIBICT Brazilian ETDs
LanguagePortuguese
Detected LanguagePortuguese
Typeinfo:eu-repo/semantics/publishedVersion, info:eu-repo/semantics/masterThesis
Formatapplication/pdf
Sourcereponame:Biblioteca Digital de Teses e Dissertações da UFAM, instname:Universidade Federal do Amazonas, instacron:UFAM
Rightsinfo:eu-repo/semantics/openAccess
Relation1842481183590694693, 600, 600, -8156311678363143599

Page generated in 0.0023 seconds