Dissertação

Entropia da Informação para Sistemas de Dois Corpos

Nesta dissertação apresentamos um estudo detalhado e analítico da entropia da informação usando dois formalismos. Estes formalismos são: entropia de Shannon e a entropia de Tsallis, a entropia de Shannon obedece o principio da aditividade, já a entropia de Tsallis é conhecida como entropia não-adit...

ver descrição completa

Autor principal: Vilhena Junior, Carlos Velas de
Outros Autores: http://lattes.cnpq.br/6930953033205802
Grau: Dissertação
Idioma: por
Publicado em: Universidade Federal do Amazonas 2015
Assuntos:
Acesso em linha: http://tede.ufam.edu.br/handle/tede/3453
Resumo:
Nesta dissertação apresentamos um estudo detalhado e analítico da entropia da informação usando dois formalismos. Estes formalismos são: entropia de Shannon e a entropia de Tsallis, a entropia de Shannon obedece o principio da aditividade, já a entropia de Tsallis é conhecida como entropia não-aditiva. Essas entropias serão aplicadas nos modelos atômicos de Mochinsky e Positrônio, que são sistemas de dois corpos. Para determinar a densidade das entropias, nos utilizamos a função de onda e a densidade de probabilidade para ambos os modelos atômicos. A entropia de Shannon tem uma dependência logarítmica, enquanto a entropia de Tsallis tem uma dependência do fator entrópico q , conhecido como fator entrópico de Tsallis. Em nosso trabalho, as entropias foram calculadas nos espaços das posições e também no espaço dos momentos, com isso utilizamos o conceito do principio da desigualdade de Heisenberg, adaptando para a entropia da informação. Para a entropia de Shannon, temos o principio de incerteza de Bialynici, Birula, and Mycielski, para a entropia de Tsallis chamamos de pseudo-incerteza. Por fim demonstramos graficamente o comportamento das entropias de ambos os formalismos.