@MASTERSTHESIS{ 2013:788781781, title = {Entropia da Informação para Sistemas de Dois Corpos}, year = {2013}, url = "http://tede.ufam.edu.br/handle/tede/3453", abstract = "Nesta dissertação apresentamos um estudo detalhado e analítico da entropia da informação usando dois formalismos. Estes formalismos são: entropia de Shannon e a entropia de Tsallis, a entropia de Shannon obedece o principio da aditividade, já a entropia de Tsallis é conhecida como entropia não-aditiva. Essas entropias serão aplicadas nos modelos atômicos de Mochinsky e Positrônio, que são sistemas de dois corpos. Para determinar a densidade das entropias, nos utilizamos a função de onda e a densidade de probabilidade para ambos os modelos atômicos. A entropia de Shannon tem uma dependência logarítmica, enquanto a entropia de Tsallis tem uma dependência do fator entrópico q , conhecido como fator entrópico de Tsallis. Em nosso trabalho, as entropias foram calculadas nos espaços das posições e também no espaço dos momentos, com isso utilizamos o conceito do principio da desigualdade de Heisenberg, adaptando para a entropia da informação. Para a entropia de Shannon, temos o principio de incerteza de Bialynici, Birula, and Mycielski, para a entropia de Tsallis chamamos de pseudo-incerteza. Por fim demonstramos graficamente o comportamento das entropias de ambos os formalismos.", publisher = {Universidade Federal do Amazonas}, scholl = {Programa de Pós-graduação em Física}, note = {Instituto de Ciências Exatas} }