/img alt="Imagem da capa" class="recordcover" src="""/>
Dissertação
Entropia da Informação para Sistemas de Dois Corpos
Nesta dissertação apresentamos um estudo detalhado e analítico da entropia da informação usando dois formalismos. Estes formalismos são: entropia de Shannon e a entropia de Tsallis, a entropia de Shannon obedece o principio da aditividade, já a entropia de Tsallis é conhecida como entropia não-adit...
Autor principal: | Vilhena Junior, Carlos Velas de |
---|---|
Outros Autores: | http://lattes.cnpq.br/6930953033205802 |
Grau: | Dissertação |
Idioma: | por |
Publicado em: |
Universidade Federal do Amazonas
2015
|
Assuntos: | |
Acesso em linha: |
http://tede.ufam.edu.br/handle/tede/3453 |
Resumo: |
---|
Nesta dissertação apresentamos um estudo detalhado e analítico da entropia da informação usando dois formalismos. Estes formalismos são: entropia de Shannon e a entropia de
Tsallis, a entropia de Shannon obedece o principio da aditividade, já a entropia de Tsallis é conhecida como entropia não-aditiva. Essas entropias serão aplicadas nos modelos
atômicos de Mochinsky e Positrônio, que são sistemas de dois corpos. Para determinar a densidade das entropias, nos utilizamos a função de onda e a densidade de probabilidade
para ambos os modelos atômicos. A entropia de Shannon tem uma dependência logarítmica, enquanto a entropia de Tsallis tem uma dependência do fator entrópico q , conhecido como fator entrópico de Tsallis. Em nosso trabalho, as entropias foram calculadas nos espaços das posições e também no espaço dos momentos, com isso utilizamos o conceito do principio da desigualdade de Heisenberg, adaptando para a entropia da informação. Para a entropia de Shannon, temos o principio de incerteza de Bialynici, Birula, and Mycielski, para a entropia de Tsallis chamamos de pseudo-incerteza. Por fim
demonstramos graficamente o comportamento das entropias de ambos os formalismos. |