Bassalo Aspectos Contemporâneos Da Física

Fazer download em pdf ou txt
Fazer download em pdf ou txt
Você está na página 1de 175

Instituto de Física, Universidade de São Paulo, CP 66.

318
05315-970, São Paulo, SP, Brasil

Publicação IF – 1657/2010
CAPÍTULO 1

ASPECTOS CONTEMPORÂNEOS DA

TERMODINÂMICA1

1.1 INTRODUÇÃO
Via de regra, os livros textos que estudam a Ter-
modinâmica[1−3] apresentam a troca de calor elementar que
ocorre numa transformação realizada por um sistema ter-
modinâmico, com uma notação diferente do Cálculo Elemen-
tar, isto é, usam, por exemplo, δQ, ao invés de dQ. Essa
notação é usada para chamar a atenção do leitor de que a
troca de calor elementar não é uma diferencial exata e, por-
tanto, sua integral ao longo de um caminho fechado não é nula:
C δ Q 6= 0. Essa diferença, aparentemente insignificante, en-
H

tre dQ e δQ, decorre do fato de que δQ é uma forma dife-


rencial exterior que não é exata. Assim, nesse artigo, vamos
desenvolver as Leis da Termodinâmica usando apenas o as-
pecto operacional do Cálculo (Diferenciação e Integração) Ex-
terior envolvendo esse tipo de forma, sem contudo, apresentar
um estudo mais profundo da relação conceitual entre as for-
mas diferenciais e as variáveis termodinâmicas. Esse estudo
pode ser visto, por exemplo, no volume 2 do excelente livro
A Course in Mathematics for Students of Physics, de
P. Bamberg e S. Sternberg,[4] cuja leitura, aliás, nos inspirou
a escrever este artigo. Para que o leitor possa acompanhar
as operações do Cálculo Exterior, cujos primeiros estudos
foram feitos pelo matemático francês Élie Cartan (1869-1951),
1
A primeira versão desse artigo foi publicada na ContactoS 32: 27-44 (1999)
e assinada por José Maria Filardo Bassalo e Mauro Sérgio Dorsa Cattani.
2

na década de 1920, os seus principais resultados são apresen-


tados no Apêndice, encontrado no final do livro.
1.2 LEIS DA TERMODINÂMICA
1.2.1 Lei Zero da Termodinâmica
Definição 1.2.1: Um sistema termodinâmico, uma
parte isolada do Universo que é objeto de estudo, é caracteri-
zado por parâmetros termodinâmicos que são quantidades
macroscópicas (Xi ) medidas experimentalmente. Um con-
junto desses parâmetros define um estado termodinâmico
representado por uma função f, satisfazendo a equação:

f (Xi ) = 0, i= 1, 2, ..., n. (Equação de Estado)

Observações
1. A menos que seja especificado ao contrário, um es-
tado termodinâmico representa sempre um estado de equi-
lı́brio, ou seja, um estado que não muda com o tempo. Na
descrição de cada um desses estados há certas funções que re-
presentam um papel importante e que se denominam variá-
veis de configuração. O conjunto de estados de equilı́brio
de um sistema tem a estrutura de uma variedade diferenciável
M de um espaço vetorial de dimensão finita, e as variáveis de
configuração representam um sistema de coordenadas locais
desse espaço. Essas variáveis são de dois tipos: extensivas
e intensivas (Xk , Yk ; k = 1, 2, ... , m) e sempre aparecem
aos pares. As primeiras dependem ou são proporcionais a um
fator de escala global do sistema; as segundas não dependem,
e são do tipo mecânico, ou seja, não estão associadas a trocas
de temperatura e nem de calor.
1.1. No caso de um gás, as variáveis de configuração
são: pressão P (intensiva), volume V (extensiva), e tem-
peratura T (intensiva).
1.2. Costuma-se representar a equação de estado ter-
modinâmico de um gás - a função f (P, V, T) - por uma
3

superfı́cie (variedade) no espaço tridimensional: P-V-T. A


projeção dessa superfı́cie nos planos coordenados (P-V), (P-T)
e (V-T) dão, respectivamente, os seguintes diagramas: dia-
grama P-V, diagrama P-T e diagrama V-T.
1.3. Para um gás ideal, a equação de estado foi
obtida pelo fı́sico francês Emile Clapeyron (1799-1864), em
1834, conhecida como a equação de Clapeyron:

P V = n R T, (1.2.1.1)

onde R = 8,315 joule/(mol Kelvin) é a constante universal


dos gases e n é o número de moles.
2. Quando há mudanças nas condições externas de um
estado termodinâmico, devido à interação do sistema com o
resto do Universo, diz-se que o mesmo sofreu uma trans-
formação. Esta é dita quasi-estática quando ela ocorre
lentamente de modo que em qualquer instante o sistema pode
ser considerado aproximadamente em equilı́brio. Ela é dita
reversı́vel se o sistema retrocede quando as condições exter-
nas também retrocederem. Enquanto toda transformação re-
versı́vel é quasi-estática, a situação inversa nem sempre é ver-
dadeira. As trajetórias Γ(t) seguidas pelo estado termodinâ-
mico numa transformação (quasi) reversı́vel recebem nomes
especı́ficos, como isotérmicas (T = constante), isobáricas
(P = constante), isovolumétricas ou isométricas
(V = constante), adiabáticas (troca de calor constante) etc.

Lei Zero da Termodinâmica

Existe uma forma especial de interação entre dois sis-


temas, chamada contacto térmico, na qual os estados de
equilı́brio do sistema combinado deles constituem um subcon-
junto de um conjunto de pares de estados de equilı́brio dos sis-
temas iniciais. Por exemplo, se p1 é o estado de equilı́brio do
primeiro sistema e p2 o do segundo, quando os dois sistemas
4

são levados a um contacto térmico os mesmos tenderão a um


estado de equilı́brio (q1 , q2 ), onde q1 é um novo estado de
equilı́brio do primeiro sistema e q2 do segundo. Desse modo,
diz-se que os dois sistemas estão em equilı́brio térmico. Em
1909, o matemático alemão Constantin Carathéodory (1873-
1950) apresentou um conceito matemático para a temperatura
ao desenvolver o seguinte raciocı́nio. É um fato experimen-
tal que se dois corpos estão em equilı́brio térmico deve exis-
tir uma relação entre seus parâmetros termodinâmicos. Por-
tanto, se os corpos 1 e 2 estão em equilı́brio térmico, assim
como os corpos 2 e 3, então 1 e 3 também deverão estar em
equilı́brio térmico. Desse fato, Carathéodory concluiu que
existe uma temperatura empı́rica que é a mesma para todos
os corpos em equilı́brio térmico. Em outras palavras, isso sig-
nifica dizer que a classe de equivalência de todos os sistemas
em equilı́brio térmico é chamada temperatura abstrata,
e o sistema escolhido que dá o valor numérico da mesma é
chamado termômetro. Esse postulado de Carathéodory foi
mais tarde reconhecido como a Lei Zero da Termodinâ-
mica:

Dois sistemas em equilı́brio térmico com um terceiro


estão em equilı́brio térmico entre si.

Observação
A Lei Zero da Termodinâmica propõe a tempera-
tura como uma variável intensiva (Y0 = T), porém de caráter
não mecânico, isto é, não está associada a priori com outra
variável extensiva.
1.2.2 Primeira Lei da Termodinâmica
É oportuno chamar a atenção do leitor que, conforme
dissemos na Introdução, usaremos apenas o aspecto opera-
cional das formas diferenciais definidas a seguir. Um estudo
mais detalhado sobre as relações conceituais entre as mesmas
e as variáveis termodinâmicas pode ser visto em Bamberg e
5

Sternberg,[4] conforme já dissemos.


Definição 1.2.2: Define-se o trabalho elementar
ω realizado por um sistema termodinâmico como a 1-forma
diferencial linear, dada por:

ω = Y1 dX1 + ... + Ym dXm , (1.2.2.1a)

onde (Yi , Xi ) forma o par associado entre variáveis intensi-


vas e extensivas. Registre-se que não incluı́mos na expressão
acima o termo Y0 dXO , uma vez que a temperatura (Y0 ) não
está associada a nenhum trabalho mecânico e, portanto, con-
forme dissemos anteriormente, não existe nenhuma variável
extensiva a priori a ela associada.
O trabalho total W realizado por um sistema ao
longo de qualquer curva γ (quasi) reversı́vel é dado, aproxi-
madamente, por:
R
W(γ) = γ ω. (1.2.2.1b)

Observações
1. No caso de o sistema termodinâmico ser um gás,
teremos:

ω = ± P dV, (1.2.2.1c,d)

onde o sinal mais (+) refere-se ao trabalho realizado pelo gás,


e o sinal menos (-), sobre o gás.
2. Experimentalmente, observa-se que o trabalho rea-
lizado por (ou sobre) um sistema termodinâmico depende do
tipo de transformação. Portanto, para um ciclo, teremos:

ω 6= 0.
H

Por outro lado, usando-se o Teorema de Stokes


Generalizado (T.1.1) na expressão acima, teremos:
6

d ω 6= 0 → d ω 6= 0.
H R
ω =

Definição 1.2.3: Define-se a quantidade de calor


elementar, ou simplesmente calor elementar α adicionado
ou retirado a um sistema termodinâmico, como a 1-forma
diferencial linear, dada por:

α = Λ dX + C dY, (1.2.2.1a)

onde Λ e C são funções definidas na variedade M dos estados


de equilı́brio e X, Y são as variáveis (extensiva e intensiva)
de configuração. O calor total Q adicionado ou retirado por
um sistema, que está isolado termicamente (adiabático), ao
longo de qualquer curva γ (quasi) reversı́vel (processo quasi-
estático) é dado, aproximadamente, por:
R
Q(γ) = γ α. (1.2.2.1b)

Observações
1. Para um gás, considerando-se as variáveis de con-
figuração V, T ou P, T, teremos, respectivamente:

α = ΛV dV + CV dT, (1.2.2.1c)

α = ΛP dP + CP dT. (1.2.2.1d)

1.1. Até a metade do Século XIX, pensava-se que o


calor fosse uma forma fechada, isto é, acreditava-se que existia
uma função C, chamada calórico, representando o “total de
calor em um sistema” tal que:

α = dC. ddC = 0 [Lema de Poincaré (A.3.1c)]

→ dα = 0
7

Acreditava-se, portanto, que o “calórico” em um sis-


tema seria alterado pela quantidade de calor adicionada ao
mesmo. Tal crença levou a uma confusão entre os conceitos
de “calor” e “temperatura”. Assim, os partidários da teo-
ria do “calórico” supunham que a temperatura de um corpo
“refletia o total de calor que ele continha”. Essa mesma
crença levou-os a apresentar o conceito de “calor latente”.
Com efeito, de um modo geral, quando se adiciona calor a um
corpo ele aumenta a sua temperatura. No entanto, existem
situações em que o calor adicionado apenas aumenta o volu-
me ou altera a pressão do sistema considerado, mantendo a
temperatura constante, como acontece, por exemplo, na fusão
do gelo e na vaporização da água. Parecia, portanto, que o
calor estava “latente” ou “escondido”. Em vista disso, histori-
camente, as funções ΛV e ΛP representam, respectivamente,
o calor latente de dilatação (relativo ao volume) e o calor
latente de compressão (relativo à pressão). Registre-se que
o calórico foi proposto pelo quı́mico francês Antoine Laurent
Lavoisier (1743-1794), em 1777.
1.2. As funções CV e CP representam, respectiva-
mente, a capacidade calorı́fica a volume constante e a
capacidade calorı́fica à pressão constante. Quando a ca-
pacidade calorı́fica é referida à unidade de massa ou à de mol,
ela se denomina calor especı́fico c. Essas funções são ligadas
por uma expressão obtida pelo médico alemão Julius Robert
Mayer (1814-1878), em 1842, conhecida como Relação de
Mayer, válida para um gás perfeito:

CP − CV = n R. (1.2.2.2)

1.3. Experimentalmente, observa-se que o calor total


de um sistema depende do tipo de transformação. Portanto,
para um ciclo, teremos:

α 6= 0 ⇐⇒ dα 6= 0.
H
Q(γ) = γ

Esse resultado mostra que α é uma forma não fechada.


8

2. Um reservatório de calor, ou simplesmente re-


servatório, é um sistema tão grande que o ganho ou a perda
de uma certa quantidade de calor não muda sua temperatura.
3. Um sistema é dito isolado termicamente se não
há nenhuma troca de calor entre ele e o ambiente externo.
O isolamento térmico de um sistema pode ser conseguido
envolvendo-o por uma parede adiabática. Assim, qualquer
transformação sofrida por um sistema isolado termicamente
é dita transformação adiabática. Em nosso mundo coti-
diano, o isolamento térmico é aproximadamente conseguido
por uma garrafa de Dewar ou garrafa térmica e, também,
pelo isopor.

Primeira Lei da Termodinâmica

Até aqui, vimos que as 1-formas ω e α não são fechadas.


Contudo, experimentalmente, observou-se que a sua soma é
fechada, isto é:

d(ω + α) = 0.

Em vista do Lema de Poincaré [(A.3.1c)], a ex-


pressão acima pode ser escrita na forma [usando-se a expres-
são (1.2.2.1a)]:

ω + α = dU →

dU - Y1 dX1 − ... − Ym dXm − α = 0, (1.2.2.4a)

onde U é uma função bem definida sobre um sistema ter-


modinâmico (determinada a menos de uma constante aditiva)
conhecida como energia interna. Assim, a Primeira Lei
da Termodinâmica estabelece a existência de uma variável
extensiva de estado e, portanto, o estado termodinâmico fica
totalmente determinado pelas variáveis (Xk , Yk , T, U).
9

Agora, consideremos um sistema termodinâmico que


sofre um determinado processo de transformação que o leva
de um estado (1) a um outro estado (2). Então, as expressões
(1.2.2.1b), (1.2.2.2b), (1.2.2.4a) e o Teorema Fundamental
do Cálculo nos mostram que:
R2

R R
ω + α = 1 dU

U(2) - U(1) - W = Q, (1.2.2.4b)

onde Q representa o calor total fornecido ao sistema pelo


processo e W o trabalho total realizado pelo sistema em
decorrência desse mesmo processo. Contudo, enquanto Q e W
dependem do mecanismo como o sistema é levado do estado
(1) ao estado (2), a expressão (1.2.2.4b) mostra que a variável
de estado U não depende daquele mecanismo. Esse resultado
traduz a Primeira Lei da Termodinâmica:

O conteúdo de calor de um sistema termodinâmico


pode ser mudado.

Observações
1. A expressão (1.2.2.4b) mostra que o calor Q é
uma grandeza fı́sica derivada e não fundamental, conforme
salienta Bamberg e Sternberg,[4] uma vez que ela é calculada
pela diferença entre a energia interna (U) e o trabalho (W).
Contudo, historicamente, o calor Q foi estudado como uma
grandeza fundamental nas célebres experiências realizadas por
Mayer, pelo fı́sico inglês James Prescott Joule (1818-1889) e
pelo fı́sico e fisiologista alemão Hermann Ludwig Ferdinand
von Helmholtz (1821-1894), na década de 1840, para a de-
terminação do equivalente mecânico do calor J. Com
efeito, nessas experiências, eles estudaram o comportamento
adiabático (Q = 0) de um sistema quando recebe uma quan-
tidade externa de trabalho. Assim, tomando-se Q = 0 na
expressão (1.2.2.4b), resultará:
10

W = U(2) - U(1).

Esse resultado significa dizer que se um sistema iso-


lado termicamente é levado de um estado (1) a um outro es-
tado (2) por aplicação de um trabalho externo, o total desse
trabalho é sempre o mesmo não importa como esse trabalho
foi aplicado. Recordemos que Joule estudou a produção de
calor pela passagem da corrente elétrica em um fio condutor,
assim como pela agitação da água colocada em um recipiente,
por intermédio de pás acionadas por um peso suspenso em
uma corda que passava por uma polia. Como resultado de
suas pesquisas, Joule constatou que:

A quantidade de calor capaz de aumentar a


temperatura de uma libra de água de 1o F é
equivalente à força mecânica representada pela
queda de 772 libras pelo espaço de um pé.

2. Quando um gás recebe uma certa quantidade de


calor (α > 0), é realizado um certo trabalho ω sobre o
mesmo, provocando uma variação de sua energia interna U.
Portanto, de acordo com as expressões (1.2.2.1d) e (1.2.2.4a),
para esse sistema termodinâmico, a Primeira Lei da Ter-
modinâmica é escrita na forma:

α = P dV + dU. (1.2.2.4c)

A expressão acima pode ser interpretada como uma


relação entre várias 1-formas em uma variedade bidimensional
cujas coordenadas são (V, U), sobre a qual a equação de
estado, função P = P(V, U), é definida.
2.1. Uma equação de estado se representa por um
sistema de equações:

fj (Xk , Y0 , Yk ) = 0. (1.2.2.4d)
11

onde k = 1, 2, ..., m; j = 1, 2, ..., r < 2m.


3. Sabemos, experimentalmente, que a 1-forma α não
é fechada, ou seja: dα 6= 0. Contudo, vejamos a condição
para que a mesma fosse fechada. Para isso, procuremos uma
1-forma Q, dada pela expressão:

Q = P dV + dU,

tal que: dQ = 0. Portanto, usando-se a expressão acima, o


fato de que P = P(V, U) e a Definição A.3, teremos:

dQ = 0 = dP ∧ dV + ddU =

∂P ∂P
= [( ∂V )U dV + ( ∂U )V dU ] ∧ dV →

∂P ∂P
0 = ( ∂U )V dU ∧ dV → ( ∂U )V = 0.

Portanto, para que Q fosse fechada é necessário que


∂P
( ∂U )V seja sempre nulo, o que, contudo, ainda não foi obser-
vado para nenhum gás.[4]
∂P
3.1. A notação ( ∂U )V usada acima para representar
uma derivada parcial pode parecer redundante, uma vez que
as demais variáveis permanecem constantes. Desse modo, ela
deve ser interpretada da seguinte maneira. Seja uma forma
diferencial exata no Rn , ou seja:
n
P ∂f
df = Ai dxi , (Ai = ∂xi
).
i=1

Agora, considere uma superfı́cie N (variedade) des-


crita pela equação h(xi ) = 0 (i = 1, 2, ... ) tal que ∇h 6= 0
para todo ponto p que satisfaça h(p) = 0. Então df |N é uma
forma diferencial em N, e também exata. O sistema linear
não-homogêneo:
12

n n
P P ∂h
Ai dxi = df, ( ∂xi
) dxi = 0,
i=1 i=1

pode resolver-se para, por exemplo, dxi :


n
∂f
df |N =
P
Bi dxi , Bi = ( ∂xi
)x2 , ..., x̂i , ..., xn ,
i=2

onde x̂i significa que tal variável se omite. O argumento se


generaliza para r equações.[5]
1.2.2.1 Aplicações da 1a. Lei da Termodinâmica
1. Capacidades Calorı́ficas: CV , CP . Para definir
essas grandezas usando-se os resultados anteriores, considere-
mos a energia interna U definida em uma variedade bidimen-
sional cujas coordenadas são (V, T). Então:

∂U
dU = ( ∂V )T dV + ( ∂U ) dT.
∂T V

Levando-se a expressão acima na expressão (2.2.4c),


teremos:

∂U
α = P dV + ( ∂V )T dV + ( ∂U ) dT =
∂T V

= ( ∂U ∂U
) dT + [( ∂V
∂T V
)T + p] dV.

Para o caso de uma transformação em que o volume


V permaneça constante, virá:

(α)V = ( ∂U ) dT.
∂T V

Comparando-se a expressão acima com a expressão


(1.2.2.2c) e usando-se a expressão (1.2.2.4c), verifica-se que:

(α)V = CV dT = ( ∂U ) dT
∂T V

13

CV = ( ∂U )
∂T V
(1.2.2.5a)

(α)V = dU → dU = CV dT (1.2.2.5b)

Consideremos, agora, a energia interna U definida em


uma variedade bidimensional cujas coordenadas são (P, T).
Então:

dU = ( ∂U ) dP + ( ∂U
∂P T
) dT.
∂T P

Levando-se a expressão acima na expressão (1.2.2.4c),


teremos:

α = P dV + ( ∂U ) dP + ( ∂U
∂P T
) dT.
∂T P

Para o caso de uma transformação em que a pressão


P permaneça constante, virá:

(α)P = P dV + ( ∂U ) dT.
∂T P

Diferenciando-se a expressão (1.2.1.1), no caso em que


a pressão P é constante, substituindo-se na expressão acima
e usando-se a transformada de Legendre:

P dV = n R dT - V dP,

virá:

(α)P = n R dT + ( ∂U ) dT = [n R + ( ∂U
∂T P
) ] dT.
∂T P

Comparando-se a expressão acima com a expressão


(1.2.2.2d) e usando-se a expressão (1.2.2.3), verifica-se que:

(α)P = CP dT = (n R + CV ) dT = [n R + ( ∂U ) ] dT →
∂T P
14

CV = ( ∂U )
∂T P
(1.2.2.6a)

Usando-se a expressão (1.2.2.5a) obtém-se:

CV = ( ∂U ) = ( ∂U
∂T V
)
∂T P
(1.2.2.6b)

É oportuno registar que esse resultado indica que a


energia interna U de um gás ideal só depende da temperatura:
U = U(T). Ele foi obtido experimentalmente por Joule, em
uma das experiências que realizou para a determinação do
equivalente mecânico da caloria, conhecida como a expansão
livre de um gás. Nessa experiência, ele mergulhou dois re-
cipientes, ligados por uma válvula, um evacuado e o outro
contendo ar a uma pressão de ∼ 20 atm, num calorı́metro
pequeno, contendo o mı́nimo possı́vel de água e isolado ter-
micamente. Após medir a temperatura inicial (Ti ) da água,
Joule abriu a válvula, produzindo a expansão livre do ar, e
tornou a medir a temperatura final (Tf ) da água. Ele ob-
servou que não houve nenhuma variação da temperatura, ou
seja:

∆T = Tf − Ti = 0.

Ora, como a expansão do ar foi livre, ele não reali-


zou nenhum trabalho externo, ou seja: P dV = 0. Portanto,
considerando-se que o calorı́metro estava isolado adiabatica-
mente (α = 0), a expressão (1.2.2.4c) nos mostra que:

dU = 0 →
U = constante, nas transformações isotérmicas.

Essa mesma conclusão sobre a dependência U(T) foi


obtida por Joule e pelo fı́sico inglês William Thomson (1824-
1907), posteriormente Lord Kelvin (1892), em uma experiência
que realizaram, em 1862, conhecida como experiência do
15

tampão poroso. Nessa experiência, a expansão livre usada


por Joule é substituı́da por uma expansão de um gás, também
adiabática, através de uma parede porosa (tampão), que re-
duz a pressão do gás. Assim, inicialmente, o gás tem um
volume Vi e uma pressão Pi ; depois da expansão ele passa a
ter um volume Vf e uma pressão Pf . Desse modo, o trabalho
total (W) realizado nessa expansão será:

W = Pi (0 − Vi ) + Pf (Vf − 0) = Pf Vf − Pi Vi .

Desse modo, considerando-se que a expansão é adiabá-


tica (α = 0), a expressão (1.2.2.4c) nos mostra que a variação
da energia interna ocorrida na expansão porosa é dada por:

Uf − Ui = − W = Pi Vi − Pf Vf →

Ui + Pi Vi = Uf + Pf Vf = constante.

Essa função foi definida pelo fı́sico-quı́mico norte-ame-


ricano Josiah Williard Gibbs (1839-1903), em 1875, e deno-
minada “função calor sob pressão constante”, e representa a
troca de calor nas reações quı́micas. Seu conceito como uma
função de estado foi introduzido pelo fı́sico-quı́mico alemão
Richard Mollier (1863-1935), em 1902, e o nome entalphia
H para essa função foi cunhado pelo fı́sico holandês Heike
Kamerlingh-Onnes (1853-1926; PNF, 1913). Assim:

H = U + P V. (1.2.2.7a)

Diferenciando-se a expressão acima e usando-se as ex-


pressões (1.2.1.1), (1.2.2.3) e (1.2.2.5b), resultará:

dH = dU + d(PV) = dU + d(n R T) = CV dT + n R dT =

= (CV + n R) dT → dH = CP dT. (1.2.2.7b)


16

2. Calores Latentes: ΛV , ΛP . Consideremos a ener-


gia interna U definida em uma variedade bidimensional cujas
coordenadas são (V, T). Então:

∂U
dU = ( ∂V )T dV + ( ∂U ) dT.
∂T V

Levando-se a expressão acima na expressão (1.2.2.4c),


teremos:

∂U
α = P dV + ( ∂V )T dV + ( ∂U ) dT =
∂T V

= ( ∂U ∂U
) dT + [( ∂V
∂T V
)T + p] dV.

Para o caso de uma transformação em que a tempe-


ratura T permaneça constante, virá:

∂U
(α)T = [( ∂V )T + p] dV .

Comparando-se a expressão acima com a expressão


(1.2.2.2c), teremos:

∂U
(α)T = ΛV dV = [( ∂V )T + p] dV →

∂U
ΛV = ( ∂V )T + P (1.2.2.8a)

Consideremos, agora, a energia interna U definida em


uma variedade bidimensional cujas coordenadas são (P, T).
Então:

dU = ( ∂U ) dP + ( ∂U
∂P T
) dT.
∂T P

Levando-se a expressão acima na expressão (1.2.2.4c),


teremos:

α = P dV + ( ∂U ) dP + ( ∂U
∂P T
) dT.
∂T P
17

Diferenciando-se a expressão (1.2.1.1) e substituindo-se


na expressão acima, virá:

α = n R dT − V dP + ( ∂U ) dP + ( ∂U
∂P T
) dT =
∂T P

= [n R + ( ∂U ) ] dT + [( ∂U
∂T P
) - V] dP.
∂P T

Para o caso de uma transformação em que a tempe-


ratura T permaneça constante, virá:

(α)T = [( ∂U ) − V ] dP .
∂P T

Comparando-se a expressão acima com a expressão


(1.2.2.2d), teremos:

(α)T = ΛP dP = [( ∂U ) − V ] dP
∂P T

ΛP = ( ∂U ) -V
∂P T
(1.2.2.8b)

CP
3. Teorema de Reech: γ = CV
. Diferenciando-se
a expressão (1.2.1.1), virá:
P V
P dV + V dP = n R dT = T
dT →

dV dP dT
V
+ P
= T
. (1.2.2.9a)

Para uma transformação isotérmica (T = constante),


teremos:
dP P
( dV )T = − V
, (1.2.2.9b)

Essa equação diferencial representa a transformação


isotérmica. Para uma transformação adiabática (α = 0),
as expressões (1.2.1.1), (1.2.2.3), (1.2.2.4c) e (1.2.2.5b) nos
mostram que:
18

dV
0 = dU + P dV = CV dT + n R T V
=

dV
= CV dT + (CP − CV ) T V

dT
T
= − ( CP C−V CV ) dV
V
= − (γ − 1) dV
V

Usando-se a expressão (1.2.2.9a), virá:


dV dP dV
V
+ P
= − (γ − 1) V

dP P
( dV )α = − γ V
. (1.2.2.9c)

Essa equação diferencial representa a transformação


adiabática. Dividindo-se as equações (1.2.2.9c) e (1.2.2.9b),
teremos o teorema demonstrado pelo engenheiro naval francês
Ferdinand Reech (1805-1884), em 1844, conhecido como Teo-
rema de Reech:
dP
( dV )α
γ = dP
( dV )T
. (1.2.2.10)

Esse teorema significa que γ é obtido pela relação en-


tre os coeficientes angulares das transformações adiabática e
isotérmica que passam em um mesmo ponto, no diagrama
(P-V).
3.1. Esse teorema resolveu uma questão que ficou
polêmica por muito tempo, qual seja, a do cálculo da veloci-
dade do som no ar. O fı́sico e matemático inglês Sir Isaac
Newton (1642-1727), em 1687, havia afirmado que a veloci-
dade do som c era dada por:

c2 = ( dP ) ,
dρ T
ρ = m
V
, P
ρ
= P V = constante.

No entanto, durante mais de 100 anos, o valor experi-


mental calculado para c era cerca de 15% maior que o dado
19

pela fórmula de Newton. Foi o matemático francês Pierre


Simon, Marquês de Laplace (1749-1827) quem, em 1816, cor-
rigiu esse erro ao mostrar que a propagação do som no ar
é um processo adiabático e não isotérmico, como considerou
Newton e, portanto, o valor de c2 que ele encontrara deveria
ser multiplicado por γ, ou seja:

c2 = ( dP ) = γ ( dP
dρ α
) .
dρ T

Esse resultado
√ concordou com a experiência, pois para

o ar temos: γ = 1, 4 ' 1,18.
1.2.3 Segunda Lei da Termodinâmica
Em 1824, o fı́sico francês Nicolas Sadi Carnot (1796-
1832) propôs uma máquina de calor (máquina ideal, sem
atrito), que realiza um ciclo completo, de modo que a substân-
cia usada - vapor, gás ou outra qualquer - é levada de volta
a seu estado inicial. Esse ciclo completo, reversı́vel,[6] mais
tarde denominado de ciclo de Carnot, é composto de duas
transformações isotérmicas e duas adiabáticas, da seguinte
maneira. Inicialmente, o gás (ideal) encontra-se em um estado
caracterizado por (P1 , V1 , T1 ). Ele então é expandido isoter-
micamente até o estado (P2 , V2 , T1 ), ao receber a quantidade
de calor (Q1 > 0) do exterior. Em seguida, ele é expandido
adiabaticamente até o estado (P3 , V3 , T2 ), sem troca de calor
com o exterior. A partir daı́, ele é comprimido. Primeiro,
isotermicamente, levando-o ao estado (P4 , V4 , T2 ), ocasião
em que ele fornece a quantidade de calor (Q2 < 0) ao exte-
rior e, finalmente, o ciclo é completado com uma compressão
adiabática que o leva ao estado inicial (P1 , V1 , T1 ), sem
troca de calor. Ora, como nas transformações isotérmicas a
energia interna é conservada, segundo as expressões (1.2.1.1),
(1.2.2.2b) e (1.2.2.4c), teremos:
R2
Q1 = 1 P1 dV =
R2 dV V2
= n R T1 1 V = n R T1 `n V1
(1.2.3.1a)
20

R4
Q2 = 3 P3 dV =
R4 dV V4
= n R T2 3 V = n R T2 `n V3
(1.2.3.1b)

Como as transformações (2 → 3) e (4 → 1) são adiabá-


ticas, usando-se as expressões (1.2.1.1) e (1.2.2.9b), virá:

dP P
dV
= −γ V
→ `n (P V γ ) = constante →

− 1
T Vγ = constante

− 1 − 1 − 1 − 1
T1 V2γ = T2 V3γ ; T2 V4γ = T1 V1γ

− 1 − 1
( VV12 )γ = ( VV34 )γ → V2
V1
= V3
V4
(1.2.3.2)

O rendimento η de uma máquina ideal que realiza esse


ciclo reversı́vel será (lembrar que Q2 < 0):
Q1 + Q2
η = Q1
. (1.2.3.4a)

Assim, usando-se as expressões (1.2.3.1a), (1.2.3.1b) e


(1.2.3.2), a expressão (1.2.3.4a) ficará:
V2 V3
n R T1 `n V1
− n R T2 `n V4
η = V2 →
n R T1 `n V1

T1 − T2 T2
η = T1
→ η = 1 − T1
. (1.2.3.4b)

Por outro lado, temos:


Q1 − | Q2 | | Q2 |
η = Q1
→ η = 1 − Q1
. (1.2.3.4c)

Comparando-se as expressões (1.2.3.4b) e (1.2.3.4c),


virá:
21

Q1 Q2
T1
+ T2
= 0. (1.2.3.5)

É oportuno observar que esse rendimento identifica-se


com a potência motriz do fogo referida por Carnot, con-
forme pode-se concluir de suas palavras:

A potência motriz do fogo (calor) é independente


dos agentes empregados para produzi-la; sua
quantidade é determinada somente pelas
temperaturas dos corpos entre os quais, no resultado
final, ocorre a transferência do calórico.

O estudo do ciclo de Carnot visto acima mostra


que para uma certa quantidade de calor ser convertida em
trabalho há necessidade de haver duas fontes: uma quente e
uma fria. Para que esse calor fosse convertido integralmente
em trabalho, a fonte fria não deveria existir, ou seja, sua tem-
peratura deveria ser nula. Foi isso que Kelvin afirmou em
1851:

É impossı́vel realizar um processo (cı́clico) cujo único


efeito seja remover calor de um reservatório térmico
e produzir uma quantidade equivalente de trabalho.

As conseqüências imediatas desse enunciado de Kelvin


são as seguintes:
a) A geração de calor por atrito a partir de
trabalho mecânico é irreversı́vel.
b) A expansão livre de um gás é um processo
irreversı́vel.
Um outro tipo de processo irreversı́vel foi estudado
pelo fı́sico alemão Rudolf Julius Emmanuel Clausius (1822-
1888). Assim, em 1850, ele afirmou que:
22

É impossı́vel realizar um processo (cı́clico) cujo


único efeito seja transferir calor de um corpo mais
frio para um corpo mais quente.

Observe-se que, mais tarde, com o desenvolvimento


da Termodinâmica, mostrou-se que os enunciados de Clau-
sius e de Kelvin são equivalentes e, hoje, são traduzidos pelo
Teorema de Carnot:

a) Nenhuma máquina térmica que opere entre uma


dada fonte quente e uma dada fonte fria pode ter
rendimento superior ao de uma máquina de Carnot:
ηI ≤ ηR .

b) Todas as máquinas de Carnot que operem entre


duas fontes (quente e fria) terão o mesmo
rendimento:
η R = ηR 0 .

Em 1854, Clausius começou a pensar que a trans-


formação de calor em trabalho e a transformação de calor em
alta temperatura para calor em baixa temperatura poderiam
ser equivalentes. Desse modo, Clausius introduziu o conceito
de valor de equivalência de uma transformação térmica,
que era medido pela relação entre a quantidade de calor (∆Q)
e a temperatura (T) na qual ocorre a transformação. Por in-
termédio desse conceito fı́sico, Clausius pôde então fazer a
distinção entre processos reversı́veis e irreversı́veis. Assim,
assumindo arbitrariamente que a transformação de calor de
um corpo quente para um frio tenha um valor de equivalência
positivo, apresentou uma nova versão para o seu enunciado
de 1850:

A soma algébrica de todas as transformações


ocorrendo em um processo circular somente pode ser
positiva.
23

Em 1865, Clausius propôs o termo entropia (do gre-


go, que significa transformação), denotando-o por S, em
lugar do termo valor de equivalência, que havia usado em
1854. Portanto, retomando suas idéias sobre esse novo con-
ceito fı́sico, considerou um ciclo qualquer como constituı́do de
uma sucessão de ciclos infinitesimais de Carnot e chegou ao
célebre Teorema de Clausius. Em notação atual, usando-se
a expressão (1.2.3.1), esse teorema é escrito na forma:

∆Q1 ∆Q2 ∆Qi


T1
+ T2
+ ... + Ti
+ ... =

δQ
dS ≤ 0,
H H
= T
= (1.2.3.6)

onde o sinal de menor (<) ocorre para as transformações ir-


reversı́veis e o de igualdade (=), para as reversı́veis.

Segunda Lei da Termodinâmica

Até aqui, apresentamos o desenvolvimento histórico-


empı́rico da Segunda Lei da Termodinâmica. Agora, ve-
jamos como essa lei foi tratada formalmente, via formas dife-
renciais exteriores, graças aos trabalhos pioneiros de Carathéo-
dory, referido anteriormente, e do fı́sico alemão Max Born
(1882-1970; PNF, 1954), em 1921.
Em 1909, Carathéodory demonstrou o seguinte teo-
rema:
Seja α uma forma diferencial linear com a pro-
priedade de que para qualquer ponto arbitrário P exis-
tem pontos Q, arbitrariamente próximos de P, que
não podem ser ligados a P por intermédio de curvas
nulas de α.[7] Então, localmente, existem funções f e
g, tais que:

α = f dg. (1.2.3.7)
24

Essa expressão, contudo, não determina f e g comple-


tamente.
Esse teorema permitiu ao próprio Carathéodory, as-
sim como, mais tarde, a Born, apresentarem uma formulação
axiomática da Termodinâmica, considerando-se os enuncia-
dos de Clausius e de Kelvin sobre a segunda lei dessa parte
da Fı́sica. Por exemplo, segundo esses enunciados, há certos
tipos de trabalho realizados sobre um sistema termodinâmico
isolado adiabaticamente, tal como um violento movimento,
que não pode ser recuperado por intermédio de uma trans-
formação adiabática reversı́vel. Essa afirmação significa que
essa situação pode ocorrer em pontos próximos do estado de
equilı́brio, que é, exatamente, a situação descrita pelo Teo-
rema de Carathéodory. Ou seja, existem estados ter-
modinâmicos vizinhos que não podem ser ligados por uma
curva reversı́vel nula para a 1-forma α (calor elementar), curva
essa denominada curva adiabática reversı́vel.
Por outro lado, segundo vimos anteriormente, usando
o conceito de entropia S, Clausius havia mostrado que a
variação lı́quida de S em torno de qualquer ciclo é zero. Como
ele definiu ∆S como a relação entre a troca de calor (∆Q) e
a temperatura absoluta (T) numa transformação isotérmica
[vide expressão (1.2.3.6)], Carathéodory identificou f com T,
a temperatura absoluta (variável intensiva), que é sem-
pre positiva, e g com S (variável extensiva), que é determi-
nada a menos de uma constante. Assim, na formulação de
Carathéodory-Born, a Segunda Lei da Termodinâmica
tem o seguinte enunciado:

Na vizinhança de qualquer estado de equilı́brio de


um sistema existem estados de equilı́brio próximos
que não podem ser ligados por curvas adiabáticas
reversı́veis nulas da 1-forma α - calor elementar:

α = T dS. (1.2.3.8)
25

1.2.3.1 Aplicações das Leis da Termodinâmica


1. Funções (Potenciais) Termodinâmicas. O uso
combinado das Primeira e Segunda Leis da Termodinâ-
mica, dadas pelas expressões (1.2.2.4c) e (1.2.3.8), isto é:

T dS = P dV + dU, (1.2.3.9)

permite estudar as transformações do estado de um sistema


termodinâmico como função de duas variáveis independentes,
por intermédio das chamadas Funções (Potenciais) Ter-
modinâmicas: U, H, F, G.
1.1. Variáveis Volume (V) e Entropia (S): Energia
Interna - U. Usando-se a expressão (1.2.3.9) e considerando-se
que U = U(V, S), teremos:

∂U
dU = - P dV + T dS = ( ∂V )S dV + ( ∂U ) dS
∂S V

∂U
P = - ( ∂V )S ; T = ( ∂U ) .
∂S V
(1.2.3.10a,b)

1.2. Variáveis Pressão (P) e Entropia (S): Entalpia


- H. Diferenciando-se a expressão (1.2.2.7a) e usando-se a
expressão (1.2.3.9), teremos:

dH = dU + d(P V) = dU + P dV + V dP →

dH = V dP + T dS (1.2.3.11a)

Considerando-se H = H(P, S), virá:

dH = ( ∂H ) dP + ( ∂H
∂P S
) dS
∂S P

V = ( ∂H ) ;
∂P S
T = ( ∂H ) .
∂S P
(1.2.3.11b,c)
26

1.3. Variáveis Volume (V) e Temperatura (T): Ener-


gia Livre (Função de Helmholtz) - F. Em 1877, Helm-
holtz desenvolveu o conceito de energia livre F, definida
por:

F = U - T S. (1.2.3.12a)

Diferenciando-se a expressão acima, usando-se a ex-


pressão (1.2.3.9) e considerando-se que F = F(V, T), resul-
tará:

dF = dU - d(T S) = dU - T dS - S dT = - P dV - S dT =

∂F
= ( ∂V )T dV + ( ∂F ) dT
∂T V

∂F
P = - ( ∂V )T ; S = - ( ∂F ) .
∂T V
(1.2.3.12b,c)

1.4. Variáveis Pressão (P) e Temperatura (T): En-


talpia Livre (Função de Gibbs) - G. Em 1875, Gibbs
desenvolveu o conceito de entalpia livre G, definida por:

G = H - T S. (1.2.3.13a)

Diferenciando-se a expressão (1.2.3.13a), usando-se as


expressões (1.2.3.9) e (1.2.3.11a), e sendo G = G(P, T), tere-
mos:

dG = dH - d(T S) = dH - T dS - S dT = V dP - S dT =

= ( ∂G ) dP + ( ∂G
∂P T
) dT
∂T P

V = ( ∂G ) ;
∂P T
S = - ( ∂G ) .
∂T P
(1.2.3.13b,c)
27

2. Relações de Maxwell. Em 1870, o fı́sico e mate-


mático escocês James Clerk Maxwell (1831-1879) deduziu rela-
ções entre as variáveis termodinâmicas (P, V, T, S) e suas
derivadas parciais. Vejamos algumas dessas relações. Vamos
partir da expressão (1.2.3.9) e calcular a sua diferenciação
exterior. Usando-se as Definições A.1 e A.3, teremos:

d(T dS) = d(P dV) + d(dU) →

dT ∧ dS = dP ∧ dV. (1.2.3.14)

Supondo-se S = S(P, T) e V = V(P, T), a expressão


(1.2.3.14) ficará:

∂S ∂S
dT ∧ [( ∂P )T dP + ( ∂T )P dT] =

= dP ∧[( ∂V ) dP + ( ∂V
∂P T
) dT ] →
∂T P

∂S
( ∂P )T dT ∧ dP = ( ∂V ) dP ∧ dT
∂T P

∂S
[( ∂P )T + ( ∂V ) ] dP ∧ dT = 0 →
∂T P

∂S
( ∂P )T = − ( ∂V ) ,
∂T P
(1.2.3.15a)

que representa uma Relação de Maxwell.


Agora, considerando-se S = S(T, V) e P = P(T, V),
a expressão (1.2.3.14) ficará:

∂S ∂S
dT ∧ [( ∂T )V dT + ( ∂V )T dV] =

= [( ∂P ∂P
) dT + ( ∂V
∂T V
)T dV ] ∧ dV →

∂S
( ∂V )T dT ∧ dV = ( ∂P ) dT ∧ dV
∂T V

28

∂S
[( ∂V )T − ( ∂P ) ] dT ∧ dV = 0 →
∂T V

∂S
( ∂V )T = ( ∂P ) ,
∂T V
(1.2.3.15b)

que representa outra Relação de Maxwell.


Agora, considerando-se T = T(P, S) e V = V(P, S), a
expressão (1.2.3.14) ficará:

∂T
[( ∂P )S dP + ( ∂T ) dS] ∧ dS =
∂S P

= dP ∧ [( ∂V ) dP + ( ∂V
∂P S
) dS] →
∂S P

∂T
( ∂P )S dP ∧ dS = ( ∂V ) dP ∧ dS
∂S P

∂T
[( ∂P )S − ( ∂V ) ] dP ∧ dS = 0 →
∂S P

∂T
( ∂P )S = ( ∂V ) ,
∂S P
(1.2.3.15c)

que representa, também, uma Relação de Maxwell. Para


a dedução de outras Relações de Maxwell usando-se as
formas diferenciais, ver a Referência [8].
É interessante destacar que, em 1929, Born apresen-
tou um diagrama mnemônico para obter algumas relações de
Maxwell. Esse diagrama consiste de um quadrado com flechas
apontando para cima ao longo das duas diagonais. Os lados
são denominados com os quatro potenciais termodinâmicos
(F, G, H, U), nessa ordem, partindo de F colocado na parte
de cima do quadrado e seguindo a direção dos ponteiros do
relógio. Os dois vértices à esquerda são denominados V e
S, de cima para baixo, e os dois da direita, T e P, também
de cima para baixo. Para usar esse diagrama, consultar a
Referência [1].
29

3. Outras Relações Termodinâmicas. Tomando-se


a expressão (1.2.3.9), dividindo-a por T e calculando a sua
diferenciação exterior (vide Definições A.1; A.3), obteremos:

ddS = d( PT ) dV + d( T1 ) dU →

T dP − P dT 1
0= T2
∧ dV − T2
dT ∧ dU.

Considerando-se U = U(T, V) e P = P(T, V), virá:

1
T
[( ∂P ∂P
) dT + ( ∂V
∂T V
)T dV ] ∧ dV − P
T2
dT ∧ dV -

1
- T2
dT ∧ [( ∂U ∂U
) dT + ( ∂V
∂T V
)T dV ] = 0 →

1
T
[( ∂P ) −
∂T V
P
T
− 1
T
∂U
( ∂V )T ] dT ∧ dV = 0 →

T ( ∂P
∂T V
∂U
) − P = ( ∂V )T . (1.2.3.16)

Agora, vamos obter uma outra relação termodinâmica.


Assim, tomando-se a expressão (1.2.3.9), dividindo-a por P e
calculando a sua diferenciação exterior (vide Definições A.1;
A.3), resultará:

d( PT ) dS = d(dV ) + d( P1 ) dU →

P dT − T dP 1
P2
∧ dS = 0 − P2
dP ∧ dU →

1 1
P
dT ∧ dS = P2
dP ∧ (T dS - dU).

Considerando-se U = U(T, S) e P = P(T, S), resul-


tará:

1 1
P
dT ∧ dS = P2
[( ∂P ) dT +
∂T S
30

+ ( ∂P ) dS] ∧ [T dS − ( ∂U
∂S T
) dT − ( ∂U
∂T S
) dS] =
∂S T

1
= P2
[T ( ∂P ) dT ∧ dS − ( ∂P
∂T S
) ( ∂U ) dT ∧ dS -
∂T S ∂S T

- ( ∂P ) ( ∂U ) dS ∧ dT ] →
∂S T ∂T S
1
P
dT ∧ dS =

1
= P2
[ T ( ∂P ) − ( ∂P
∂T S
) ( ∂U ) + ( ∂P
∂T S ∂S T
) ( ∂U ) ]dT ∧dS →
∂S T ∂T S

T( ∂P ) − P = ( ∂P
∂T S
) ( ∂U ) − ( ∂P
∂T S ∂S T
) ( ∂U ) .
∂S T ∂T S
(1.2.3.17)

Por fim, uma outra relação termodinâmica será obtida


partindo-se do produto exterior dT ∧ dS e considerando-se
T = T(P, S), S = S(T, P) e P = (T, S). Desse modo, teremos:

∂T
dT ∧ dS = [( ∂P )S dP + ( ∂T ) dS] ∧ dS =
∂S P

∂T ∂T ∂S ∂S
= ( ∂P )S dP ∧ dS = ( ∂P )S dP ∧ [( ∂T )P dT + ( ∂P )T dP] =

∂T ∂S
= ( ∂P )S ( ∂T )P dP ∧ dT =

∂T ∂S
= ( ∂P )S ( ∂T )P [( ∂P ) dT + ( ∂P
∂T S
) dS] ∧ dT =
∂S T

∂T ∂S
= ( ∂P )S ( ∂T )P ( ∂P ) dS ∧ dT
∂S T

∂T ∂S
[1 + ( ∂P )S ( ∂T )P ( ∂P ) ] dT ∧ dS
∂S T

∂T ∂S
( ∂P )S ( ∂T )P ( ∂P ) = - 1.
∂S T
(1.2.3.18)

1.2.4 Terceira Lei da Termodinâmica


Vimos que a Segunda Lei da Termodinâmica nos
permite determinar a entropia (S) do estado de um sistema
31

termodinâmico a menos de uma constante aditiva. Em vista


disso, sua definição depende da existência de uma transforma-
ção reversı́vel ligando um estado de referência escolhido arbi-
trariamente ao estado em estudo. Esses dois estados, con-
tudo, devem pertencer à mesma superfı́cie (variedade dife-
renciável) da equação de estado. No entanto, se considerar-
mos dois sistemas termodinâmicos, ou estados meta-estáveis
de um único sistema termodinâmico, a equação de estado cor-
respondente pode não ser representada pela mesma superfı́cie.
Desse modo, a Segunda Lei da Termodinâmica não per-
mite determinar, de maneira unı́voca, a variação de entropia
entre dois estados desses sistemas, pois não existe uma trans-
formação reversı́vel ligando esses estados. Essa univocidade
só poderá ser garantida se houver uma temperatura na qual
a entropia seja uma constante universal. Vejamos como se
chegou a essa temperatura.
Em 1819, os franceses, o quı́mico Pierre Louis Du-
long (1785-1838) e o fı́sico Alexis Thérése Petit (1791-1820),
descobriram que:

Os átomos de todos os corpos simples têm


exatamente a mesma capacidade para o calor.

Essa descoberta, que significa dizer que a capacidade


calorı́fica dos corpos (CP ou CV ) é uma constante, ficou conhe-
cida como a Lei de Dulong-Petit. Porém, com o desenvolvi-
mento da Criogenia, com a qual foram obtidas temperaturas
cada vez mais baixas, verificou-se que CP (CV ) diminuı́a à me-
dida que a temperatura também diminuı́a.

Terceira Lei da Termodinâmica

Em 1905, o fı́sico e quı́mico alemão Walther Hermann


Nernst (1864-1941; PNQ, 1920) demonstrou o hoje famoso
Teorema do Calor de Nernst, segundo o qual a variação
de energia total de um gás com a temperatura tende a zero
na medida em que a temperatura também tende para zero:
32

dU
dT
→ 0 → CV ∝ T (T → 0)

A demonstração desse teorema levou Nernst a apre-


sentar a Terceira Lei da Termodinâmica:

A entropia de um sistema termodinâmico no zero


absoluto (T = 0) é uma constante universal, a qual
pode ser considerada como nula: S(0) = 0.

Observações
1. Em 1910, o fı́sico alemão Max Karl Ernst Planck
(1858-1947; PNF, 1918) afirmou que a capacidade calorı́fica
dos sólidos e lı́quidos tende a zero quando T → 0.
2. Em 1914, Nernst apresentou a hipótese de que a
capacidade calorı́fica a volume constante (CV ) dos gases tende
a zero quando a sua temperatura tende ao zero absoluto. Isso
significava dizer que a Terceira Lei da Termodinâmica
também se aplicava aos gases.
3. O coeficiente de expansão térmica β de qualquer
substância se anula no zero absoluto. Com efeito, tomemos a
definição de β:

1
β≡ V
( ∂V ) .
∂T P
(1.2.4.1)

Usando-se as expressões (1.2.2.2d) e (1.2.3.8), e consi-


derando-se P = cte, teremos:

∂S CP
T dS = ΛP dP + CP dT → ( ∂T )P = T

CP ( dT
R
S= T P
) . (1.2.4.2a,b)

Usando-se as expressões (1.2.3.15a) e (1.2.4.2a), virá:

( ∂C P
∂P T

) = T ( ∂P ∂S
)T ( ∂T ∂
)P = T ( ∂T ∂S
)P ( ∂P )T →
33

2
( ∂C P
∂P T
) = − T ( ∂∂TV2 )P = − T ( ∂T

)P ( ∂V ) .
∂T P
(1.2.4.2c)

Agora, usando-se as expressões (1.2.3.15a), (1.2.4.1) e


(1.2.4.2b,c), teremos:
RT
V β = ( ∂V
∂T P
∂S
) = − ( ∂P ∂
)T = − ( ∂P )T o CP dT
T
=

RT RT
=- o ( ∂C P
∂P T
) dT
T
= o

( ∂T )P ( ∂V ) dT
∂T P

V β = [ ( ∂V ) ] − [ ( ∂V
∂T P T
) ] .
∂T P T =0
(1.2.4.3)

A expressão (1.2.4.3) nos mostra que:

β → 0, se T → 0.

NOTAS E REFERÊNCIAS

1. CALLEN, H. B. Thermodynamics. John Wiley and Sons,


Inc. (1960).

2. NUSSENZVEIG, H. M. Curso de Fı́sica Básica - 2. Edi-


tora Edgard Blücher Ltda. (1983).

3. ZEMANSKY, M. W. Heat and Thermodynamics. Mc-


Graw-Hill Book Company, Inc. (1957).

4. BAMBERG, P. and STERNBERG, S. A Course in Ma-


thematics for Students of Physics 1, 2. Cambridge
University Press (1992).

5. WEINHOLD, F. Metric Geometry of Equilibrium Ther-


modynamics. Journal of Chemical Physics, 63 (6): 2479-
2501 (1975).
34

6. Para Carnot, processo reversı́vel significa uma idealização


de um processo real e pode ser considerado como limite deste
último.[CAMPOS, I. y DE LA PEÑA, L. IN: Ciencias de
la Materia: Génesis y Evolución de sus Conceptos
Fundamentales. Siglo Veintiuno Editores y Centro de In-
vestigaciones Interdisciplinarias en Ciencias y Humanidades
(UNAM), (1998).]

7. Sobre esse tipo de curva, veja-se a Definição A.4.

8. VALENTE, Z. A. Relações de Maxwell da Termodinâ-


mica Através de Formas Diferenciais. Tese de Mes-
trado, DFUFPA (1999).
CAPÍTULO 2

ASPECTOS CONTEMPORÂNEOS DA

MECÂNICA ESTATÍSTICA1

2.1 INTRODUÇÃO
Os livros textos que estudam os fundamentos da Me-
cânica Estatı́stica usam o formalismo da Mecânica Quân-
tica de Schrödinger e/ou o da Mecânica Quântica de
Feynman.[1−4] Neste artigo, vamos usar este último forma-
lismo, porém, ao invés de referirmos aos cálculos dos propa-
gadores de Feynman realizados por intermédio da técnica
das integrais de caminho,[5] referiremos aos obtidos por
intermédio da interpretação hidrodinâmica da equação de
Schrödinger.[6−10] Além de essa escolha ser a motivação prin-
cipal deste artigo, apresentaremos, como motivação adicional
ao mesmo, o tratamento quanto-mecânico-estatı́stico dos sis-
temas dissipativos, representados pelo hamiltoniano de Ba-
teman-Caldirola-Kanai,[11−13] assunto que, em nosso en-
tendimento, é pouco tratado em cursos de graduação de Me-
cânica Estatı́stica.[14]

2.2 HISTÓRICO[1−4]
2.2.1 Entropia e Probabilidade
A Segunda Lei da Termodinâmica, expressa em
termos da entropia S, é traduzida pelo famoso teorema enun-
ciado pelo fı́sico alemão Rudolf Clausius (1822-1888), em 1865:
1
A primeira versão desse artigo foi aceito para publicação na ContactoS, e
assinado por José Maria Filardo Bassalo, Antonio Boulhosa Nassar e Mauro
Sérgio Dorsa Cattani.
36

∆S ≥ 0, (2.2.1.1)

onde o sinal (=) indica processos reversı́veis e (>), proces-


sos irreversı́veis. Contudo, enquanto os processos reversı́veis
são explicados pela Mecânica (lembrar que a equação de
Newton é reversı́vel no tempo), os processos irreversı́veis até
então conhecidos não podem ser explicados mecanicamente.
Por exemplo, consideremos a seguinte experiência idealizada.
Tomemos um recipiente fechado e dividido em duas partes
iguais por uma parede. Num determinado instante, é feito o
vácuo à direita da parede enquanto há um gás em equilı́brio
térmico à esquerda. Ao ser retirada a parede, o gás começa
a se difundir para a direita e, após um tempo razoável, será
atingido novo estado de equilı́brio, com o gás difundido uni-
formemente por todo o recipiente.
O processo visto acima é irreversı́vel, pois, conforme se
sabe experimentalmente, ainda não foi observada a situação
em que o gás, nesse tipo de experiência, volta espontanea-
mente à situação inicial. (Se fosse possı́vel uma reversão desse
tipo, poderı́amos nos sufocar, pois, de repente e espontanea-
mente, poderia ocorrer o vácuo próximo de nós.)
Do ponto de vista microscópico, a difusão gasosa anali-
sada acima ocorre devido a um processo de colisões entre
as moléculas do gás, promovendo uma dada configuração de
posições e velocidades das moléculas numa determinada situa-
ção, como a posição final do processo acima. Ora, como as co-
lisões são regidas pela Mecânica, poderia então ocorrer a in-
versão das velocidades de todas as moléculas naquela posição
e, conseqüentemente, o gás voltaria à situação inicial. Embora
mecanicamente possı́vel em princı́pio, esta é uma situação al-
tamente improvável de acontecer. Desse modo, um novo
tipo de raciocı́nio - o probabilı́stico - deveria ser usado para
descrever os processos irreversı́veis. [É oportuno esclarecer
que esse tipo de paradoxo, conhecido como paradoxo da
irreversibilidade, foi apresentado pelo fı́sico e quı́mico aus-
37

trı́aco Johann Loschmidt (1821-1895), em 1876.]


Foi o fı́sico e matemático escocês James Clerk Maxwell
(1831-1879) quem apresentou, em 1867, uma primeira idéia
probabilı́stica da Segunda Lei da Termodinâmica, através
do seguinte exemplo: seja um recipiente contendo um gás a
uma temperatura fixa; suponhamos que no meio desse reci-
piente exista uma parede contendo uma janela que poderá ser
manejada por um “porteiro muito inteligente e que tem olhos
microscópicos e extremamente rápidos”. Este porteiro [de-
nominado de demônio de Maxwell pelo fı́sico e matemático
escocês William Thomson, Lord Kelvin (1824-1907)] deixava
passar, através dessa janela, partı́culas que tivessem veloci-
dades altas e impediria a passagem das que tivessem veloci-
dades baixas, já que, segundo a lei de distribuição de
velocidades que havia apresentado em 1860, num gás em
equilı́brio, as partı́culas se distribuem com as mais variadas
velocidades. Assim, depois de um certo tempo, um lado do
recipiente estaria mais quente que o outro, mostrando, assim,
que o fluxo de calor poderia ser em dois sentidos, à escolha
do “demônio”, e não em apenas um, conforme indicava a Se-
gunda Lei da Termodinâmica.
O raciocı́nio probabilı́stico ou estatı́stico foi introdu-
zido formalmente na Termodinâmica, em 1877, por intermé-
dio do fı́sico autrı́aco Ludwig Edward Boltzmann (1844-1906),
ao responder ao paradoxo apresentado por Loschmidt, em
1876, conforme veremos mais adiante. Contudo, antes de usar
esse tipo de raciocı́nio, Boltzmann havia tentado explicar a en-
tropia por intermédio da Mecânica. Por exemplo, em 1866,
Boltzmann havia considerado que as partı́culas de um gás se
moviam em órbitas periódicas e, com isso, deduziu uma ex-
pressão analı́tica para a entropia que dependia do perı́odo das
partı́culas em suas órbitas, e que aumentava com o tempo.
Um novo tratamento para a entropia (ainda mecânico)
foi apresentado por Boltzmann, em 1868, ao admitir que em
um gás ideal, composto de um grande número N de moléculas,
38

as interações entre elas podem ser negligenciadas. Isso signifi-


cava considerar que as colisões entre as moléculas são binárias
e supor que suas velocidades são não-correlacionadas [hipótese
essa conhecida como caos molecular (Stosszahlansatz) e
que já havia sido admitida por Maxwell e Clausius]. Assim,
para Boltzmann, a energia total E das N moléculas é cons-
tante e pode ser distribuı́da de diversas maneiras. Por outro
lado, usando o teorema demonstrado pelo matemático francês
Joseph Liouville (1809-1882), em 1838, segundo o qual, em
qualquer região do espaço de fase (p, q) ocupado por um
sistema de partı́culas, este não muda seu volume quando se
movimenta, Boltzmann assumiu que esse volume poderia ser
dividido em pequenas regiões de volume tı́pico ωr , no qual
cada partı́cula poderia ter uma energia r . Portanto, se nr
representa o número de partı́culas ocupando o r-ésimo volu-
me, então o sistema como um todo ocupará o volume, no
espaço de fase, dado por:

V = ω1n1 ω2n2 ... ωrnr . (2.2.1.2)

Como esse modelo não respondia ao paradoxo de


Loschmidt (1876), Boltzmann passou então a considerar o
raciocı́nio probabilı́stico, em 1877, da seguinte maneira. Nesse
modelo, conforme vimos, ele havia considerado que a ener-
gia total E das N moléculas que compõem um gás ideal é
constante e que pode ser distribuı́da de diversas maneiras,
nos chamados microestados. A partir daı́, introduziu uma
hipótese nova, qual seja, a de que todos os microestados [aos
quais denominou de ‘complexions’ (configurações)] têm a mes-
ma probabilidade P. Além disso, chamou de macroestado ao
estado no qual uma molécula especı́fica tem energia r . Desse
modo, concluiu que a probabilidade Pr de um macroestado é
proporcional ao número de microestados nos quais a energia
remanescente E - r é distribuı́da entre as (N - 1) moléculas
restantes, isto é:
r
Pr ∝ exp(- kT
). (2.2.1.3)
39

Para calcular o número de configurações distintas (Ω)


envolvendo as N partı́culas (N = no + n1 + ...), onde no
representa o número de partı́culas com energia 0, n1 repre-
senta o número de partı́culas com energia 1, n2 representa o
número de partı́culas com energia 2 etc, Boltzmann usou um
simples raciocı́nio combinatório, ou seja:

N!
Ω (no , n1 , n2 , ...) = no ! n1 ! ..
. (2.2.1.4)

Assim, usando a hipótese das probabilidades iguais,


Boltzmann escreveu que:

P (no , n1 , n2 , ...) = C Ω (no , n1 , n2 , ... ), (2.2.1.5)

onde P (no , n1 , n2 , ... ) representa a probabilidade de


ocorrência de uma configuração pertencente ao conjunto defi-
nido pelos “números de ocupação” (no , n1 , n2 , ... ), e C
é uma constante. Com essa hipótese, Boltzmann apresentou
então a sua célebre interpretação probabilı́stica da entropia S,
qual seja:

S = k `n Ω, (2.2.1.6)

onde k é uma constante e Ω, conforme já vimos, é o “número


de ‘complexions’ de um macroestado (sistema)”. [É oportuno
observar que, embora a expressão acima esteja gravada no
túmulo de Boltzmann, ela foi escrita dessa maneira e pela
primeira vez, em 1900, pelo fı́sico alemão Max Karl Ernst
Planck (1858-1947; PNF, 1918), ocasião em que denominou k
de constante de Boltzmann.]
Observações
I. A interpretação probabilı́stica da entropia apresen-
tada por Boltzmann nos mostra que o estado de um sistema
termodinâmico é definido como uma medida de probabili-
dade de uma certa espécie e que sua entropia representa:
40

O total de desordem no estado.

II. A linguagem básica da Teoria das Probabili-


dades é a Teoria da Medida, cujos primeiros conceitos
foram desenvolvidos nos trabalhos dos matemáticos, os ale-
mães Carl Friedrich Gauss (1777-1855) e Georg Friedrich Rie-
mann (1826-1866), e o franco-holandês Thomas Jan Stielt-
jes (1856-1894), e sistematizada pelo francês Henri Lebesgue
(1875-1941). Vejamos algumas definições importantes da Teo-
ria da Medida, necessárias para o desenvolvimento da Mecâ-
nica Estatı́stica.[15]
III. Definição 2.2.1.1: Um espaço de medida é
um conjunto M junto com uma coleção α de subconjuntos
de M e uma medida µ que assinala um número não-negativo
µ(A) a cada elemento A ∈ α: (M, α, µ).
Exemplos
a) Se M = R, e α contém todos os intervalos do tipo
[a, b] = { x | a ≤ x ≤ b }, a medida usual (medida de
Lebesgue-Riemann) é dada por:

µ([a, b]) = b - a. (2.2.1.7)

Se f é uma função seccionalmente contı́nua que se anu-


la no infinito, então:
R R+ ∞
f µ = − ∞ f(x) dx. (2.2.1.8)

b) Se M = R, e α contém todos os intervalos [a, b],


a medida de Gauss é dada por:

x2 /2
Rb
µ([a, b]) = √1
2 π a e− dx. (2.2.1.9)

c) Se M = R, e α contém todos os intervalos [a, b], a


medida de Stieltjes é dada por:
41

Rb
µ([a, b]) = a f(x) d[g(x)]. (2.2.1.10)

Destaque-se que quando g(x) = x, a medida de Stielt-


jes se reduz à de Lebesgue-Riemann.
d) Se M é o espaço de fase das coordenadas genera-
lizadas (lagrangeanas) - (q, p) - a medida de Liouville é
dada por:

µ = dq dp. (2.2.1.11)

IV. Definição 2.2.1.2: Para qualquer intervalo [a, b]


∈ R, uma medida de probabilidade - P([a, b]) é definida
por:
Rb
P([a, b]) = a ρ(x) dx, (2.2.1.12)

com:
R+ ∞
− ∞ ρ(x) dx = 1, (2.2.1.13

onde ρ(x) é a densidade de probabilidade.


V. Definição 2.2.1.3: Seja (M, α, µ) um espaço de
medida. Um estado (estatı́stico) desse espaço é uma medida
de probabilidade sobre M dada por:
 
[A ∈ α ⊂ M]
R
ρ µ(A) = A ρ µ. (2.2.1.14)

2.2.2 ‘Ensembles’ Estatı́sticos


Em 1902, o fı́sico norte-americano Josiah Williard
Gibbs (1839-1903) publicou o livro intitulado Princı́pios Ele-
mentares da Mecânica Estatı́stica no qual retomou o
trabalho de Boltzmann de 1877, porém ao invés de tratar
um gás como constituı́do de moléculas em constante colisão,
como fizera Boltzmann, ele partiu do espaço Γ - espaço de
42

fase -, ocupado pelo gás, e trabalhou com uma função ρ de


distribuição de pontos nesse espaço. Assim, num certo ins-
tante de tempo t, cada ponto no espaço Γ corresponde a uma
cópia fiel do sistema estudado, que está sujeito a determinadas
condições macroscópicas. Esta é a idéia de ensemble que, de
certa forma, já havia sido considerada por Boltzmann: Ω.
Desse modo, para Gibbs, essa função ρ satisfazia ao teorema
demonstrado por Liouville, em 1838, ou seja:

dρ ∂ρ
dt
= ∂t
+ {H, ρ }, (2.2.2.1)

onde H é o hamiltoniano (energia) do sistema, e o sı́mbolo


{ } indica o parêntese de Poisson. De posse dessa função
ρ, o valor macroscópico observável de qualquer quantidade Q
- < Q > - é dado por:
R
ρ Q dΓ
<Q> ≡ R ρ dΓ , (2.2.2.2a)

onde:

dΓ = dp1 ... dpN dq1 ... dqN ≡

≡ Medida de Liouville. (2.2.2.2b)

Usando essas equações, Gibbs analisou alguns tipos


de ensembles. Por exemplo, no caso estacionário em que ρ
não depende explicitamente do tempo ( ∂ρ∂t
= 0) e H é man-
tido fixo, teremos {H, ρ } = 0 e, portanto, dρ dt
= 0, o que
significa que ρ é constante. A esse ensemble, Gibbs deu o
nome de micro-canônico, que é um ensemble constituı́do
por sistemas isolados. Por outro lado, no caso em que a
energia pode variar, mantendo no entanto a temperatura T
fixa (termostato), Gibbs denominou de ensemble canônico.
Além desses dois ensembles, Gibbs introduziu o ensemble
grande-canônico que corresponde à situação fı́sica em que
43

um sistema de partı́culas constituı́do de moléculas de várias


espécies (ν1 , ν2 , ..., νr ), e com potencial quı́mico (µi ) cons-
tante, está em contacto com um reservatório térmico de tem-
peratura constante (termostato).
Observações
I. O ensemble micro-canônico é um ‘ensemble’ cons-
tituı́do por sistemas isolados. É o mais básico dos ensembles
pois nele se formula o postulado fundamental da Mecânica
Estatı́stica de Equilı́brio. Entretanto, não é o mais prático,
pois requer a investigação do espectro de energia do hamilto-
niano, que é, em geral, um problema muito complicado.
II. O ensemble canônico é um ‘ensemble’ consti-
tuı́do por sistemas em contato com termostato. Ele é de
grande importância prática pois é muito mais conveniente
para cálculos do que os realizados pelo micro-canônico.
III. O ensemble grande-canônico é um ‘ensemble’
constituı́do por sistemas em contato difuso com termostato
que serve como reservatório tanto de energia quanto de partı́-
culas. Mesmo quando estamos interessados num sistema com
um número fixo de partı́culas, como elétrons num metal, esse
‘ensemble’ é de grande importância pois torna os cálculos mais
simples que os do canônico. Por outro lado, esse ‘ensemble’
grande-canônico também se aplica a sistemas em que é im-
possı́vel fixar o número de partı́culas, como no caso de gases
formados de quase-partı́culas como fônons e magnons, que são
continuamente criados e absorvidos pela matéria.
2.2.3 ‘Ensembles’ Quanto-Estatı́sticos
As expressões envolvendo os ‘ensembles’ estatı́sticos
vistas anteriormente mostram que a função densidade ρ en-
volve o hamiltoniano (energia) do sistema termodinâmico con-
siderado. Na Mecânica Estatı́stica Clássica, o cálculo
dessa função é feito usando a Mecânica Clássica. Con-
tudo, com o advento da Mecânica Quântica (MQ), a par-
44

tir de 1925, observou-se que todos os sistemas na Natureza


obedecem a esse tipo de Mecânica. Desse modo, aquele
cálculo passou a ser feito por intermédio da MQ, e se cons-
titui no principal tema da chamada Mecânica Estatı́stica
Quântica. Vejamos alguns resultados importantes da MQ.
Em Mecânica Quântica um observável de um sis-
tema é associado a um operador hermitiano de um espaço
de Hilbert. Por sua vez, o estado de um sistema é represen-
tado por um vetor | Ψ > nesse mesmo espaço. Se | x > é
um autovetor do operador posição de todas as partı́culas no
sistema, então < x | Ψ > ≡ Ψ(x) é a função de onda do sis-
tema no estado | Ψ >, e ela fornece uma completa descrição
desse estado. Quando um sistema isolado evolui no tempo,
sua função de onda é dada pela expressão:
P
Ψ(x, t) = cn (t) Φn (x), (2.2.3.1)
n

onde Φn (x) são autofunções ortonormadas de um dado opera-


dor dinâmico do sistema, e | cn |2 indica a probabilidade de
encontrar o sistema isolado na posição x.
Ainda de acordo com a MQ, se Ô é um operador
correspondente a um dado observável de um sistema, então o
valor esperado de um grande número de medidas instantâneas
desse observável é dado por:
P
(cn , cm ) (Φn , Ô Φm )
(Ψ, Ô Ψ) n,m
Ove = (Ψ, Ψ)
= P
(cn , cn )
, (2.2.3.2)
n

onde ( , ) representa o produto escalar. Em laboratório, as


várias medidas dos observáveis não são feitas instantanea-
mente, e sim, durante um certo tempo. Então, o valor final
de um observável é obtido pelo valor médio dado por:
P
(cn , cm ) (Φn , Ô Φm )
(Ψ, Ô Ψ) n,m
< O >= (Ψ, Ψ)
= P
(cn , cn )
, (2.2.3.3)
n
45

onde (cn , cm ) é uma média sobre um intervalo de tempo que é


pequeno comparado com o tempo de resolução dos aparelhos
de medida, mas longo comparado com o tempo das colisões
moleculares.
A Mecânica Estatı́stica Quântica sempre trata
com sistemas que interagem com o mundo exterior. Então,
sob o ponto de vista da Mecânica Quântica, o sistema mais
o mundo exterior são considerados como o verdadeiro sis-
tema isolado. Assim, a função de onda Ψ que representa esse
sistema isolado envolve coordenadas (x) tanto do sistema pro-
priamente dito, como as coordenadas (y) do mundo exterior.
Desse modo, se { Φ(x) } representa um conjunto completo
de funções ortonormadas e estacionárias do sistema, então,
de acordo com a expressão (2.2.3.1), cn (y, t) representará a
função de onda do mundo exterior e, portanto, a função de
onda Ψ (x, y, t) do sistema isolado será dada por:
P
Ψ(x, y, t) = cn (y, t) Φn (x). (2.2.3.4)
n

Observações
I. Os postulados da Mecânica Estatı́stica Quântica
(MEQ) são postulados relacionados com os coeficentes
(cn , cm ), quando (2.2.3.3) refere-se a um sistema macroscó-
pico, em equilı́brio termodinâmico. Esse sistema, composto
de N partı́culas e ocupando o volume V, interage tão fraca-
mente com o meio exterior, de modo que sua energia (En )
pode ser considerada aproximadamente constante, isto é, ela
se encontra entre E e E + ∆ (∆  E). Assim, se H for a
hamiltoniana desse sistema, a energia (En ) do sistema será
obtida por intermédio da seguinte equação:

H Φn = En Φn , (< Φn | Φm > = δnm ) (2.2.3.5)

onde Φn é a função de onda do sistema considerado. Desse


modo, os postulados da MEQ são os seguintes:
46

1. Igual Probabilidade a Priori:

(cn , cn ) = 1 ou 0. (1, para E ≤ En ≤ E + ∆)

2. Fases Randômicas:

(cn , cm ) = 0 (n 6= m)

Com esses postulados, as expressões (2.2.3.1) e (2.2.3.3)


são escritas da seguinte maneira:
P
Ψ(x, t) = bn (t) Φn (x), (2.2.3.6)
n

| bn |2 (Φn , Ô Φn )
P
n
< O >= P
| bn |2
, (2.2.3.7)
n

onde:

| bn |2 = 1 ou 0

(1, para E ≤ En ≤ E + ∆). (2.2.3.8)

II. O postulado das fases randômicas implica que o es-


tado de um sistema em equilı́brio pode ser tomado como uma
superposição incoerente de auto-estados do sistema, caracte-
rizando um ‘ensemble’. Ora, segundo a expressão (2.2.3.7), o
valor médio de um observável depende do termo | bn |2 , que
está ligado a esse postulado. No entanto, podemos descrever
um ‘ensemble’ sem mencionar as fases randômicas de seus es-
tados, através do operador densidade ρ̂, definido por:

|Φk > |bk |2 < Φk |, ( |Φk >< Φk | = 1) (2.2.3.9)


P P
ρ̂ =
k k
47

cujos elementos de matriz ρmn , segundo a Mecânica Quân-


tica são dados por:

ρmn ≡ (Φm , ρ Φn ) ≡ < Φm | ρ | Φn > =

< Ψm | Φk > | bk |2 < Φk | Ψn > =


P
=
k

= | bk |2 < Φm | Φn > → ρmn = δmn | bk |2 . (2.2.3.10)

Usando-se as expressões (2.2.3.9) e (2.2.3.10), a ex-


pressão (2.2.3.7) será dada por:
P
(Φn , Ô ρ̂ Φn )
n T r(Ô ρ̂)
< O >= P
(Φn , ρ̂ Φn )
= T r ρ̂
, (2.2.3.11)
n

onde Tr significa o traço do operador correspondente.


III. O ‘Ensemble’ Micro-Canônico Quântico é um
‘ensemble’ para o qual tem-se:

ρmn = δmn | bk |2 , (2.2.3.12)

onde:

| bn |2 = 1 ou 0 (1, para E ≤ En ≤ E + ∆), (2.2.3.13)

| Φn > < Φn |,
P
ρ̂ = (2.2.3.14)
E ≤ En ≤ E + ∆

ρnn ≡ Ω(E),
P
Tr ρ̂ = (2.2.3.15a)
n

S(E, V) = k `n Ω(E). (2.2.3.15b)


48

IV. O ‘Ensemble’ Canônico Quântico é um ‘en-


semble’ para o qual tem-se:

ρmn = δmn e− β En
, (2.2.3.16)

| Φn > e− β En
< Φn | =
P
ρ̂ =
n

= e− β Ĥ
| Φn < Φn | → ρ̂ = e− β Ĥ
P
, (2.2.3.17)
n

e− β En
= Tr e− β Ĥ
P
Z = Tr ρ̂ = , (2.2.3.18)
n

T r (Ô e− β Ĥ )
< O >= Z
, (2.2.3.19)

onde Z é a função partição e, geralmente, a energia asso-


ciada é a energia livre de Helmholtz F. Registre-se que o
Tr é calculado sobre todos os estados do sistema que têm N
partı́culas no volume V.
V. O ‘Ensemble’ Grande-Canônico Quântico é
um ‘ensemble’ para o qual o operador densidade ρ̂ atua so-
bre um espaço de Hilbert com um número indefinido de
partı́culas. Para esse ‘ensemble’, a função grande-partição
- Ξ é dada por:

z N ZN (V, T),
P
Ξ(z, V, T ) = (2.2.3.20)
N = 0

onde ZN é a função partição para N partı́culas, z = eβµ é a


chamada fugacidade, e µ é o potencial quı́mico.

2.3 Cálculo da Matriz Densidade - ρ


Segundo vimos acima, para um ‘ensemble’ quanto-ca-
nônico, o operador densidade é dado pela expressão (2.2.3.17):
49

| Φi > e− β Ei
< Φi |
P
ρ̂ =
i

Vamos calcular esse operador na representação de posi-


ção. Assim, se | x0 > e | x > são autovetores do operador
posição de todas as partı́culas no sistema, então:

ρ(x0 , x) =< x0 |ρ̂|x > = < x0 |Φi > e−βEi < Φi |x > →
P
i

ρ(x0 , x) = Φi (x0 ) Φ∗i (x) e− β Ei


P
. (2.3.1)
i

Agora, vejamos a equação diferencial satisfeita por


esse elemento de matriz. Tomemos a expressão (2.2.3.17) e
derivemos a mesma em relação a β:

∂ ρ̂ ∂ ρ̂
∂β
= − Ĥ e− β Ĥ
→ Ĥ ρ̂ = − ∂β
.

Na representação posição, a equação acima pode ser


escrita na seguinte forma, conhecida na literatura como equa-
ção de Bloch:[15]

∂ρ(x0 , x; β)
Ĥx ρ(x0 , x; β) = − ∂β
, (2.3.2)

onde Ĥx indica que o operador hamiltoniano atua na variável


x e:

ρ(x’, x; 0) = δ(x’ - x). (2.3.3)

Examinando-se a expressão (2.3.2), verifica-se que se


fizermos a seguinte transformação:

t
β = − i h̄
, (2.3.4)

teremos:
50

∂ρ(x0 , x; β)
Ĥx ρ(x0 , x; β) = i h̄ ∂ t
, (2.3.5)

que é uma equação análoga à equação de Schrödinger -


ES.
Observação
No caso do oscilador harmônico amortecido, cujo ha-
miltoniano é o de de Bateman-Caldirola-Kanai,[14−16] a
equação de Bloch é dada por:[17]
h i
h̄2 ∂2
− 2 m
e− λ h̄ β
∂x2
+ 1
2
m ω 2 eλ h̄ β
x2 ρ(x, x0 ; β) =

∂ρ(x0 , x; β)
=- ∂β
. (2.3.6)

Examinando-se a expressão (2.3.6), verifica-se que se


fizermos a transformação indicada pela expressão (2.3.4), as-
sociada com a transformação:

λ → i λ, (2.3.7)

a expressão (2.3.6) ficará:[18,19]


h i
h̄2 ∂2
− 2 m
e− λ t
∂x2
+ 1
2
m ω 2 eλ t x2 ρ(x, x0 ; β) =

∂ρ(x0 , x; β)
= i h̄ ∂t
, (2.3.8)

que é uma equação análoga à ES para o sistema dissipativo


de Bateman-Caldirola-Kanai. Aliás, a quantização desse
sistema é ainda um problema em aberto na Fı́sica, principal-
mente no que se refere em saber qual a ação S que representa
esse sistema.[20−25]
Desse modo, o que vimos acima nos mostra que cal-
cular a matriz densidade para um sistema termodinâmico é
equivalente a resolver a ES. Assim, segundo a Mecânica
Quântica Feynmaniana, teremos:
51

R
ρ(x, x’; β) = Φ[x(u)] Dx(u), (2.3.9)

onde Dx(u) é a medida de Feynman e:


 h i 
1 R βh̄ m 2
Φ[x(u)] = exp − h̄ o 2
ẋ (u) + V [x(u)] du . (2.3.10)

2.4 Cálculo da Função Partição - Z


Segundo vimos acima, para um ‘ensemble’ quanto-
canônico, a função partição é dada pela expressão (2.2.3.18):

Z = e− β F
= T r ρ̂; F = − `n Z
β
, (2.4.1a,b)

onde F é a energia livre ou função de Helmholtz.[1−4]


Na representação posição, a equação acima pode ser
escrita na seguinte forma:

Z = e− β F
R
= T r ρ̂ = ρ(x, x; β) dx. (2.4.2)

Observação
No caso de os observáveis de um sistema fı́sico vari-
arem discretamente, a função partição Z é dada por:

Z = e− β F
e− β En
P
= , (2.4.3)
n

e o valor médio de um observável - < O > - será dado por:

1
On e− β En
P
< O >= Z
. (2.4.4)
n

2.5 Cálculo do Calor Especı́fico CV


Segundo a Termodinâmica,[1−4] o calor especı́fico a
volume constante - CV - de um dado sistema fı́sico é dado por:
52

∂U ∂U ∂β ∂U ∂
CV = ∂T
= ∂β ∂T
= ( 1 )
∂β ∂T k T
= − kβ 2 ∂U
∂β
, (2.5.1)

onde U é a energia interna média do sistema considerado,


cujo valor, usando-se as expressões (2.4.3) e (2.4.4), é dado
por:

1
En e− β En
P
U= Z
. (2.5.2)
n

Derivando-se a expressão (2.4.3) em relação a β, virá:

∂Z
= − En e− β En
P
∂β
. (2.5.3)
n

Porém:

∂Z ∂Z ∂T ∂Z ∂
∂β
= ∂T ∂β
= ∂T ∂β
( k1β ) = − ∂Z
∂T
k T 2. (2.5.4)

Levando-se (2.5.3) e (2.5.4) em (2.5.2), virá:

k T 2 ∂Z ∂ (`n Z)
U= Z ∂T
= k T2 ∂T
. (2.5.5)

De (2.4.3), tem-se:

∂ (`n Z) ∂ (β F )
`n Z = − β F → ∂T
= − ∂T
=

∂ (1/k T ) ∂ F
=-F ∂T
− β ∂T
=

F 1 ∂ F
= k T2
− k T ∂T
. (2.5.6)

Agora, levando-se (2.5.6) em (2.5.5), resultará:

∂ F
U=F-T ∂T
. (2.5.7)

Por outro lado, temos:


53

∂ ∂F ∂F ∂T
∂β
(β F ) = F + β ∂β
= F + β ∂T ∂β
=

∂F ∂(1/k β) ∂F 1
=F+β ∂T ∂β
= F − β ∂T k β 2

∂ ∂ F
∂β
(β F ) = F − T ∂T
. (2.5.8)

Comparando-se as expressões (2.5.7) e (2.5.8), tere-


mos:
∂ F ∂
U=F-T ∂T
= ∂β
(β F ). (2.5.9)

Levando-se a expressão (2.5.9) em (2.5.1), teremos:

∂2
CV = − k β 2 ∂β 2
(β F). (2.5.10)

Agora, vamos escrever CV em termos da função partição


Z. Inicialmente, calculemos a seguinte expressão:
∂Z ∂Z ∂β ∂Z ∂
∂T
= ∂β ∂T
= ∂β ∂T
( k 1T ) = − 1 ∂Z
T 2 k ∂β
. (2.5.11)

Levando-se a expressão (2.5.11) na expressão (2.5.5),


teremos:
1 ∂Z
U=- Z ∂β
. (2.5.12)

Por fim, levando-se a expressão (2.5.12) na expressão


(2.5.1), resultará:
∂ 1 ∂Z
CV = − k β 2 ∂β
(− Z ∂β
) =

∂2Z
= k β 2 [ Z1 ∂β 2
+ ∂Z ∂
∂β ∂β
(Z − 1 )] →

∂2Z
CV = k β 2 [ Z1 ∂β 2
− 1
Z2
( ∂Z
∂β
)2 ]. (2.5.13)
54

2.6 APLICAÇÃO
Neste item, vamos fazer uma aplicação dos resulta-
dos obtidos anteriormente, calculando a matriz densidade (ρ),
a função partição (Z), a função de Helmholtz ou ener-
gia livre F e o calor especı́fico a volume constante (CV )
dos sistemas dissipativos representados pelo hamiltoniano
de Bateman-Caldirola-Kanai, dado pela expressão (2.3.8).
Nos parece relevante fazer essa aplicação, pois, além de os
mesmos não serem devidamente tratados em cursos de gradua-
ção de Mecânica Estatı́stica, obtém-se, através deles, os
casos particulares do oscilador harmônico e da partı́cula livre,
tratados nos textos tradicionais de Mecânica Estatı́stica.
a) Matriz Densidade - ρ
Segundo vimos anteriormente, a matriz densidade é
obtida do propagador de Feynman do sistema fı́sico con-
siderado, fazendo-se as seguintes substituições:

t = - i h̄ β; λ → i λ. (2.6.1a,b)

Inicialmente, vamos tomar o propagador de Feyn-


man para o sistema de Bateman-Caldirola-Kanai:[17,18]
λ t/2
K(x, x’; t) = ( 2 mπ Ωi h̄e sen φ )1/2 ×
h
i m Ω eλ t λ sen φ
× exp 2 h̄ sen φ
(cos φ − 2 Ω
) x2 +
i
λsenφ imΩeλt/2
+ imΩ
2h̄senφ
(cosφ + 2Ω
)x02 − h̄senφ
xx0 , (2.6.2)

onde:
q
λ2
φ = Ω t; Ω = (ω 2 − 4
). (2.6.3a,b)

Usando-se as expressões (2.6.1a,b) e (2.6.2), a matriz


densidade será escrita na forma:
55

h i1/2
m Ω eλ h̄ β/2
ρ(x, x0 ; β) = 2 π i h̄ sen (− i h̄ β Ω)
×

h
m Ω eλ h̄ β
× exp { − 2 h̄ i sen (− i h̄ β Ω)
cos (− i h̄ β Ω) -

i
i λ sen (− i h̄ β Ω) m Ω
- 2 Ω
x2 − 2 h̄ i sen (− i h̄ β Ω)
×

h i
i λ sen (− i h̄ β Ω)
× cos (− i h̄ β Ω) + 2 Ω
x02 +

m Ω eλ h̄ β/2
+ 2 h̄ i sen (− i h̄ β Ω)
2 x x0 }. (2.6.4)

Considerando-se as identidades:

i sen (- i z) = senh (z), cos (- i z) = cosh (z), (2.6.5a,b)

ez − e− z ez + e− z
senh z = 2
, cosh z = 2
, (2.6.6a,b)

e fazendo-se x = x’, a expressão (2.6.4) ficará:


h i1/2
m Ω eλ h̄ β/2
ρ(x, x; β) = 2 π h̄ senh (h̄ β Ω)
×

h
m Ω x2 eλ h̄ β/2
× exp { − h̄ senh (h̄ β Ω)
cosh (h̄ β Ω) cosh ( λ h̄ β
2
) -

i
- λ
2 Ω
senh (h̄ β Ω) senh ( λ h̄ β
2
) − 1 }. (2.6.7)

Casos Particulares
a.1 Oscilador Harmônico Simples
Neste caso, basta fazermos λ = 0 nas expressões (2.6.3b)
e (2.6.7). Desse modo, teremos:
56

h i1/2
m ω
ρOHS (x, x; β) = 2 π h̄ senh (h̄ β ω)
×

h i
m ω x2
× exp { − h̄ senh (h̄ β ω)
cosh (h̄ β ω) − 1 }. (2.6.8)

Considerando-se as identidades:

cosh z - 1 = 2 senh2 ( z2 ); (2.6.9a)

senh z = 2 senh ( z2 ) cosh z2 ), (2.6.9b)

a expressão (2.6.8) ficará:[1−4]


h i1/2

ρOHS (x, x; β) = 2 π h̄ senh (h̄ β ω)
×

h i
mωx2
× exp − h̄
tgh( h̄βω
2
) . (2.6.10)

a.2 Partı́cula Livre


Neste caso, basta fazermos ω = 0 na expressão (2.6.10)
e usarmos a expressão:

senh z
lim z
= 1. (2.6.11)
z → 0

Desse modo, teremos:[1−4]


h i1/2
m
ρP L (x, x; β) = 2 π h̄2 β
. (2.6.12)

b) Função Partição - Z
Usando-se as expressões (2.4.2) e (2.6.7), virá:

R +∞ h i1/2
R +∞ m Ω eλ h̄ β/2
Z= −∞ ρ(x, x; β) dx = −∞ 2 π h̄ senh (h̄ β Ω)
×
57

h
m Ω x2 eλ h̄ β/2
× exp { − h̄ senh (h̄ β Ω)
cosh (h̄ β Ω) cosh ( λ h̄ β
2
) -

!
i
- λ
2 Ω
senh (h̄ β Ω) senh ( λ h̄2 β ) − 1 } dx. (2.6.13)

Usando-se a identidade:
q
a x2
R +∞
−∞ e− dx = π
a
, (2.6.14)

a expressão (2.6.13) ficará:[16]

1
Z= q . (2.6.15)
λsenh(h̄ β Ω)
2[cosh(h̄βΩ)cosh( λh̄β
2
)− 2 Ω
senh ( λh̄β
2
)−1]

Casos Particulares
b.1 Oscilador Harmônico Simples
Para o caso do Oscilador Harmônico Simples, basta
fazermos λ = 0 nas expressões (2.6.3b) e (2.6.15). Desse modo,
teremos:

ZOHS = √ 1
.
2 [cosh (h̄ β ω) − 1]

Usando-se a expressão (2.6.9a), virá:[1−4]

1
ZOHS = 2 senh ( h̄ β ω
)
. (2.6.16)
2

b.2 Partı́cula Livre


Para o caso da partı́cula livre, a expressão (2.3.1) nos
mostra que para calcular o operador ρ̂ precisamos da função
de onda Φ(x). Ora, segundo a Mecânica Quântica, para a
partı́cula livre a normalização dessa função de onda é realizada
58

numa caixa de comprimento L. Portanto, a integral indicada


na expressão (2.4.2) deve ser realizada no intervalo (0, L).
Assim, usando-se esse fato e a expressão (2.6.11), a função
partição Z para a partı́cula livre será:[1−4]
RL q m
ZP L = o 2 π h̄2 β
dx →
q
m
ZP L = L 2 π h̄2 β
. (2.6.17)

c) Função de Helmholtz - F
Usando-se as expressões (2.4.1b) e (2.6.15), teremos:

F= 1
2 β
`n 2 [cosh(h̄ β Ω) cosh ( λ h̄ β
2
) -

!
- λ
2 Ω
senh (h̄ β Ω) senh( λ h̄2 β ) − 1] . (2.6.18)

Casos Particulares
c.1 Oscilador Harmônico Simples
Usando-se as expressões (2.4.1b) e (2.6.16), virá:[1−4]
h i
FOHS = 1
β
`n 2 senh ( h̄ β ω
2
) . (2.6.19)

c.2 Partı́cula Livre


Usando-se as expressões (2.4.1b) e (2.6.17), virá:[1−4]
 q 
1 m
FP L = − β
`n L 2 π h̄2 β
. (2.6.20)

d) Calor Especı́fico a Volume Constante - CV


Usando-se as expressões (2.4.1b), (2.5.10) e (2.6.18),
teremos:
59

k β2 ∂2
 
∂2
CV = − k β 2 ∂β 2
(β F ) = − 2 ∂β 2
`n [A(β)] →

k β2 ∂
h  i

CV = − 2 ∂β ∂β
`n [A(β)] =

k β2 ∂
 
1 ∂
=- 2 ∂β A[β] ∂β
[A(β)] →

k β2 ∂
CV = − 2 ∂β
[B(β)], (2.6.21)

onde:

A(β) = 2 [cosh (h̄ β Ω) cosh ( λ h̄ β


2
) -

- λ
2 Ω
senh (h̄ β Ω) senh ( λ h̄ β
2
) - 1], (2.6.22)

1 ∂
B(β) = A(β) ∂β
A(β). (2.6.23)

Usando-se as expressões (2.6.3b), (2.6.23) e as ex-


pressões definidas abaixo:

d d
dz
senh z = cosh z; dz
cosh z = senh z, (2.6.24a,b)

a expressão (2.6.23) ficará:

2 h̄ ω 2
B(β) = Ω A(β)
cosh ( λ β h̄
2
) senh (h̄ β Ω). (2.6.25)

Levando-se a expressão (2.6.25) na expressão (2.6.21),


teremos:

k h̄ (β ω)2 ∂
h i
CV = − Ω ∂β
1
A(β)
cosh ( λ β h̄
2
) senh (h̄ β Ω) →

k h̄ (β ω)2
CV = − Ω
C(β). (2.6.26)
60

Usando-se as expressões (2.6.22) e (2.6.24a,b), calcule-


mos C(β) indicado na expressão (2.6.26):
h i
C(β) = ∂
∂β
1
A(β)
cosh ( λ β h̄
2
) senh (h̄ β Ω) =


= 1
[A(β)]2
A(β) ∂
∂β
[cosh ( λ β h̄
2
) senh (h̄ β Ω)] -


- [cosh ( λ β h̄
2
) senh (h̄ β Ω)] ∂
∂β
A(β) →

(λ β h̄
 cosh2 )
2 h̄
C(β) = [A(β)]2 Ω
2
[Ω2 cosh2 (h̄ β Ω) -

2
- ω 2 senh2 (h̄ β Ω)] − ( 4λ Ω ) senh2 (h̄ β Ω) senh2 ( λ β h̄
2
) -

- Ω cosh ( λ β h̄
2
) cosh (h̄ β Ω) -

- ( λ2 ) senh ( λ β h̄
2
) senh (h̄ β Ω) . (2.6.27)

Usando-se a expressão (2.6.3b) e a identidade:

cosh2 z - senh2 z = 1, (2.6.28)

a expressão (2.6.27) ficará:


h
λ2
C(β) = 2 h̄
[A(β)]2
Ω cosh2 ( λ β h̄
2
) + 4 Ω
senh2 (h̄ β Ω) -

- Ω cosh ( λ β h̄
2
) cosh (h̄ β Ω) -
i
- ( λ2 ) senh ( λ β h̄
2
) senh (h̄ β Ω) . (2.6.29)

Levando-se a expressão (2.6.29) na expressão (2.6.26)


e generalizando-se para o caso tridimensional, teremos:[17]
61
h
CV = − 3
2 Ω
k (h̄ β ω)2 Ω cosh2 ( λ β h̄
2
) +

λ2
+ 4 Ω
senh2 (h̄ β Ω) − Ω cosh ( λ β h̄
2
) cosh (h̄ β Ω) -

ih
- ( λ2 ) senh ( λ β h̄
2
) senh (h̄ β Ω) cosh(h̄βΩ)cosh( λh̄β
2
)-

i− 2
- λ
2 Ω
senh (h̄β Ω) senh ( λ h̄ β
2
) −1 . (2.6.30)

Casos Particulares
d.1 Oscilador Harmônico Simples
Para o caso do Oscilador Harmônico Simples, basta
fazermos λ = 0 nas expressões (2.6.3b) e (2.6.30). Desse modo,
teremos:
3 (h̄ β ω)2
CV = 2
k cosh (h̄ β ω) − 1
. (2.6.31)

Usando-se as expressões (2.6.7a) e (2.6.10a), a ex-


pressão (2.6.31) ficará:
h̄ ω
ek T
CV = 3 k (h̄ β ω)2 h̄ ω , (6.32)
(e k T − 1)2

que é o resultado obtido por Einstein, em 1906.[26]


d.2 Partı́cula Livre
Para o caso da Partı́cula Livre, basta fazermos ω = 0
na expressão (2.6.32). Desse modo, teremos:
h̄ ω
ω2 e k
CV = 3 k ( k h̄T )2 lim h̄ ω
T
= 0
0
. (2.6.33)
ω → 0 (e k T − 1)2

Para levantarmos essa indeterminação aparente, va-


mos usar o Teorema de l’ Hôpital:
62

h̄ ω h̄ ω

ω2 e k T (ω 2 e k T )
lim h̄ ω = lim ∂ω
h̄ ω =
ω → 0 (e k T − 1)2 ω → 0 ∂
[(e k T − 1)2 ]
∂ω

h̄ ω
h̄ ω 2
ek T (2 ω + )
= lim h̄ ω
k T
h̄ ω =
ω → 0 ek T 2 h̄
(e k T − 1)
k T

∂ ω 2 h̄ ω h̄
(2 ω + ) 1 + 1
= lim ∂ω k T
h̄ ω = lim k T
h̄ ω = ( k h̄T )2
.
ω → 0 2 h̄ ∂
[(e k T − 1)] ω → 0 ( k h̄T )2 e k T
k T ∂ω

Levando-se esse resultado na expressão (2.6.33), re-


sultará:

CV = 3 k, (2.6.34)

que é o resultado obtido por Boltzmann, em 1871,[27] e traduz


a famosa Lei de Dulong-Petit, de 1819.[28]
Observação
Usando-se o mesmo formalismo empregado neste Capı́-
tulo, poderemos obter o calor especı́fico a volume constante
(CV ) de um sistema amortecido que oscila harmonicamente
sob a ação de um campo magnético externo (H). Desse modo,
teremos:[29]
"
h
2 2 1
CV = − k β h̄ α1 (θ1 ,θ2 , θL )
(ωL2 + ω 2 )(cosh θ1 coshθ2 +

λ 1
+ 2 Ω
senh θ1 senh θ2 ) − ωL2 cosh ωL − α1 (θ1 ,θ2 , θL )
×

2 + ω2 ) 2 i
(ωL

× Ω
cosh θ1 senh θ2 − ωL senh θL +


ω2 ω 2 cosh2 θ1 senh2 θ3
+ 2 α2 (θ1 , θ3 )
− Ω23 α2 (θ1 , θ3 )
+ cosh θ1 cosh θ3 +
63
#

2 λω2
+ Ω3
senh θ1 senh θ3 , (2.6.35)

onde:

h̄ λ β
θ1 = 2
, θ2 = Ω h̄ β, θ3 = Ω3 h̄ β, θL = ωL h̄ β,
q q
λ2 λ2 e H
Ω = ω 2 + ωL2 − 4
, Ω3 = ω2 − 4
, ωL = 2 m c
,

α1 (θ1 , θ2 , θL ) = cosh θ1 cosh θ2 -

λ
- cosh θL − 2 Ω
senh θ1 senh θ2 ,

α2 (θ1 , θ3 ) = − 1 + cosh θ1 cosh θ3 -

λ
- 2 Ω3
senh θ1 senh θ3 . (2.6.36a-i)

Pode-se mostrar[29] que as expressões (2.6.30), (2.6.32)


e (2.6.34) são casos particulares da expressão (2.6.35).

NOTAS E REFERÊNCIAS

1. FEYNMAN, R. P. Statistical Mechanics: A Set of Lec-


tures. Addison-Wesley Publishing Company, Inc. (1990).

2. HUANG, K. Statistical Mechanics. John Wiley and Sons


(1987).

3. KUBO, R. Statistical Mechanics. North-Holland Publi-


shing Company (1971).

4. YOKOI, C. Mecânica Estatı́stica. Notas de Aula, IFUSP


(1997).
64

5. FEYNMAN, R. P. and HIBBS, A. R. Quantum Mecha-


nics and Path Integrals. McGraw-Hill Book Company
(1965).

6. BASSALO, J. M. F. Equivalence among the Propaga-


tors of Time-Dependent Quadratic Systems and Free
Particles, by Solving the Schrödinger Equation. Il
Nuovo Cimento 110B, 23-32 (1995).

7. BASSALO, J. M. F. Equivalence among the Propaga-


tors of Three-Dimensional Time-Dependent Quadra-
tic Systems and Free Particles, by Solving the Schrö-
dinger Equation. Il Nuovo Cimento 111B, 793-797 (1996).

8. BASSALO, J. M. F., ALENCAR, P. T. S. and CATTANI,


M. S. D. Equivalence among the Propagators of Three-
Dimensional Time-Dependent Quadratic Systems and
Free Particles. Il Nuovo Cimento 113B, 691-698 (1998).

9. FARINA DE SOUZA, C. and DUTRA, A. S. The Propa-


gator for a Time-Dependent Mass Subject to a Har-
monic Potencial with a Time-Dependent Frequency.
Physics Letters 123A, 297-301 (1987).

10. NASSAR, A. B. Feynman Propagator and the Space-


Time Transformation Technique. Physica 141A, 24-32
(1987).

11. BATEMAN, H. On Dissipative Systems and Related


Variational Principles. Physical Review 38, 815-819 (1931).

12. CALDIROLA, P. Forze non Conservative nella Mecca-


nica Quantistica. Nuovo Cimento 18, 393-400 (1941).

13. KANAI, E. On the Quantization of the Dissipative


Systems. Progress of Theoretical Physics 3, 440-442 (1948).

14. Como este Capı́tulo apresenta aspectos contemporâneos da


Mecânica Estatı́stica, cremos ser oportuno registrar que
Constantino Tsallis, a partir do trabalho intitulado Possible
65

Generalization of Boltzmann-Gibbs Statistics, publi-


cado no Journal of Statistical Physics 52, 479-487, em 1988,
tem procurado desenvolver uma Mecânica Estatı́stica Ge-
neralizada. Contudo, a entropia de Tsallis parece apre-
sentar uma inconsistência formal matemática. Por exem-
plo, vide BOTELHO, L. C. L. A Criticism to the Tsal-
lis Regularizing Entropy Formulae Applied to Lévy
Flights in a Harmonic Potential, Notas de Fı́sica do
Centro Brasileiro de Pesquisas Fı́sicas - CBPF-NF-027/1999,
May 1999.

15. BAMBERG, P. and STERNBERG, S. A Course in Mathe-


matics for Students of Physics, 2. Cambridge University
Press (1992).

16. BLOCH, F. Zur Theorie des Austauschproblems und


der Remanenzerscheinung der Ferromagnetika, Zeits-
chrift für Phyzik 74, 295-335 (1932).

17. JANNUSSIS, A., PAPATHEOU, V. and VLACHOS, K. Sta-


tistical Mechanics and the Quantum Friction. Physics
Letters 77A, 112-114 (1980).

18. BASSALO, J. M. F. O Oscilador Harmônico. Tese de


Professor Titular. DFUFPA (mimeo) (1989).

19. NASSAR, A. B., BASSALO, J. M. F. and ALENCAR, P. T.


S. Nonlinear Superposition Law and Feynman Propa-
gator. Physics Letters 113A, 365-369 (1986).

20. BOTELHO, L. C. and SILVA, E. P. da Feynman path-


integral for the damped Caldirola-Kanai action. Phy-
sical Review 58E, 1141-1143 (1998).

21. CHENG, B. K. Extended Feynman Formula for Dam-


ped Harmonic Oscillator with the Time-Dependent
Perturbative Force. Physics Letters 110A, 347-350 (1985).

22. DENMAN, H. H. On Linear Friction in Lagrange’s


Equation. American Journal Physics 34, 1147-1149 (1966).
66

23. HERRERA, L., NUÑEZ, L., PATIÑO, A. and RAGO, H.


A Variational Principle and the Classival and Quan-
tum Mechanics of the Damped Harmonic Oscillator.
American Journal Physics 54, 273-277 (1986).

24. JAY, J. R. Lagrangians and Systems they Describe


how not to Treat Dissipation in Quantum Mechanics.
American Journal Physics 47, 626-629 (1979).

25. NASSAR, A. B., BASSALO, J. M. F., ALENCAR, P. T.


S., CANCELA, L. S. G. and CATTANI, M. S. D. Wave
Propagator via Quantum Fluid Dynamics. Physical
Review 56E, 1230-1233 (1997).

26. EINSTEIN, A. Die Plancksche Theorie der Strahlung


und die Theorie der spezifischen Wärme. Annalen der
Physik 22, 180-190 (1906).

27. BOLTZMANN, L. Analytischer Beweis des zweiten


Hauptsatzes der mechanischen Wärmetheorie aus
den Sätzen über das Gleichgewicht der lebendigen
Kraft, Sitzungsberichte der Kaiserlichten Akademie der Wis-
senschaften (Wien) 63, 712-732 (1871).

28. DULONG, P. L. et PETIT, A. T. Sur quelques points im-


portants de la théorie de la chaleur, Annales de chimie
et de physique 10, 395-413 (1819).

29. IGNÁCIO, W. P. O calor especı́fico de um sistema


amortecido que oscila harmonicamente sob a ação
de um campo magnético externo. Tese de Mestrado,
DFUFPA (1999).
CAPÍTULO 3

ASPECTOS CONTEMPORÂNEOS DA

ELETRODINÂMICA CLÁSSICA1

3.1 INTRODUÇÃO
As leis da Teoria Eletromagnética (TE) foram sin-
tetizadas pelo fı́sico e matemático escocês James Clerk Max-
well (1831-1879), em quatro equações diferenciais - as famosas
equações de Maxwell -, e apresentadas em seu célebre livro
A Treatise on Electricity and Magnetism, editado em
1873, usando o formalismo dos Quatérnios desenvolvido pelo
matemático irlandês Sir William Ronan Hamilton (1805-1865)
no livro Lectures on Quaternions, de 1853. Contudo, como
a Análise Vetorial apresentava um modo mais conveniente
de trabalhar com a TE do que os quatérnios, o fı́sico e en-
genheiro eletricista Oliver Heaviside (1850-1925) desenvolveu
a TE nessa nova linguagem matemática, em seu livro intitu-
lado Electromagnetic Theory, publicado em 1893.
O desenvolvimento da Teoria da Relatividade Res-
trita decorrente dos clássicos artigos do fı́sico germano-norte-
americano Albert Einstein (1879-1955; Prêmio Nobel de Fı́sica
(PNF), 1921), de 1905,[1] e do matemático alemão Hermann
Minkowski (1864-1909), de 1908,[2] mostrou que a Análise
Tensorial era o formalismo mais conciso e geral para apre-
sentar a Teoria Eletromagnética.[3−8]
Não obstante o uso de vetores (e/ou de tensores) no
estudo da Teoria Eletromagnética, no entanto, sob o ponto
1
A primeira versão desse artigo foi submetida à publicação na Revista
Brasileira de Ensino de Fı́sica e na ContactoS, e assinada por José Maria
Filardo Bassalo e Mauro Sérgio Dorsa Cattani.
68

de vista didático ou mesmo conceitual, certas questões não são


bem entendidas pelos estudiosos dessa Teoria. Por exemplo,
~ ou o campo magnético (H)
por que o campo elétrico (E) ~ po-
dem ser descritos, quer por sua intensidade (por intermédio
de uma integral de linha), quer por sua densidade de fluxo
(por intermédio de uma integral de área)? O objetivo deste
trabalho é o de mostrar que o uso do Cálculo das Formas
Diferenciais (também conhecido como Cálculo Exterior
e cujos principais resultados são apresentados no Apêndice),
ajuda a esclarecer a questão acima e muitas outras que apare-
cem no estudo dos princı́pios da Teoria Eletromagnética.
No começo do Século XX, os fı́sicos-matemáticos, o
francês Jules Henri Poincaré (1854-1912) e o alemão Her-
mann Weyl (1885-1955) foram os primeiros a expressar as
equações de Maxwell usando as formas diferenciais. Es-
tudos mais elaborados sobre as formas diferenciais realiza-
dos na década de 1920, pelo próprio Weyl e pelo matemá-
tico francês Élie Cartan (1869-1951) sobre as formas diferen-
ciais, permitiram sua aplicação na Fı́sica e, principalmente,
na Eletrodinâmica.[9−22] A aplicação didática das formas
diferenciais no estudo da Teoria Eletromagnética é o que
apresentaremos a seguir.

3.2. FORMAS DIFERENCIAIS DA TEORIA


ELETROMAGNÉTICA
3.2.1. Formas Diferenciais da Eletromagnetostática

Definição 3.2.1.1: A Intensidade do Campo Elé-


trico E é uma 1-forma diferencial linear:

E = Ex (x, y, z) dx + Ey (x, y, z) dy +

+ Ez (x, y, z) dz, (3.2.1.1a)

tal que:
69

R R
τ = Γ E = Γ Ex (x, y, z) dx + Ey (x, y, z) dy +

+ Ez (x, y, z) dz, (3.2.1.1b)

onde Γ é uma curva definida por:

Γ : [a, b] ⊂ R → R3 : t ∈ [a, b] → r = Γ(t). (3.2.1.1c)

Observações
1. Na linguagem do Cálculo Vetorial, a expressão
~
(3.2.1.1a) representa o Vetor Campo Elétrico E:

~ r) = Ex x̂ + Ey ŷ + Ez ẑ,
E(~ (3.2.1.1d)

e é interpretado como a força que atua sobre uma carga elétrica


unitária (q = 1), colocada em repouso no ponto ~r.
2. Ainda na linguagem do Cálculo Vetorial, a ex-
~ ao longo de
pressão (3.2.1.1b) significa a circulação de E
Γ e representa o trabalho τ realizado por E ~ sobre a carga
unitária, ao longo de Γ:

τ =
R
E = E|Γ =
R
~ . d~r.
E (3.2.1.1e)
Γ Γ

3. Experimentalmente, observou-se que:


H
Γ E = 0.

Usando-se o Teorema de Stokes Generalizado [vi-


de expressão (T.1.1)], teremos:

E = 0 → dE = 0.
R H
D dE = Γ (3.2.1.1f)

(Nessa expressão, observa-se que na integral de superfı́cie o


E se comporta como uma densidade de fluxo e na integral de
linha, como uma intensidade de campo.)
70

Usando-se o Lema de Poincaré (A.3.1c), a expressão


(3.2.1.1f) permite escrever que:

E = - dV, (3.2.1.1g)

onde V é uma 0-forma denominada potencial elétrico. Usan-


do-se a expressão (A.3.2) e a linguagem do Cálculo Vetorial,
a expressão (3.2.1.1g) é escrita como:

~ = − ∇ V.
E (3.2.1.1h)

É oportuno destacar que o sinal menos (-) deriva do


resultado experimental obtido pelo fı́sico francês Charles Au-
gustin Coulomb (1736-1806), em 1785, conhecido como a lei
de Coulomb. Por exemplo, no vácuo, o campo elétrico E ~
e o respectivo potencial elétrico V, a uma distância ~r, criado
por uma carga elétrica q colocada na origem de um sistema
de eixos ortogonais, são dados, respectivamente, por:

~ =
E q r̂
; V= q 1
. (3.2.1.1i,j)
4 π o r2 4 π o r

3.1. Usando-se a operação (?) (Definição A.2) na ex-


pressão (3.2.1.1f), teremos:

?dE = 0. (3.2.1.1k)

Usando-se a expressão (A.3.3) e a linguagem do Cál-


culo Vetorial, a expressão (3.2.1.1k) é escrita na forma:

~ = 0.
∇×E (3.2.1.1`)

Definição 3.2.1.2: A Densidade de Corrente Elé-


trica J é uma 2-forma diferencial linear:

J = Jx (x, y, z) dy ∧ dz + Jy (x, y, z) dz ∧ dx +
71

+ Jz (x, y, z) dx ∧ dy, (3.2.1.2a)

tal que:

J = J |S= Jx (x, y, z) dy ∧ dz +
R R
I= S S

+ Jy (x, y, z) dz ∧ dx + Jz (x, y, z)dx ∧ dy, (3.2.1.2b)

onde S é uma superfı́cie definida por:

S : [u, v] ⊂R2 → R3 (a ≤ u ≤ b; c ≤ v ≤ d). (3.2.1.2c)

Observações
1. Usando-se a operação (?) (Definição A.2) na ex-
pressão (3.2.1.2a), teremos:

? J = ? [Jx dy ∧ dz + Jy dz ∧ dx + Jz dx ∧ dy] =

= Jx ? (dy ∧ dz) + Jy ? (dz ∧ dx) + Jz ? (dx ∧ dy) →

? J = Jx dx + Jy dy + Jz dz. (3.2.1.2d)

Na linguagem do Cálculo Vetorial, a expressão


(3.2.1.2d) representa o Vetor Densidade de Corrente Elé-
~
trica J:

J~ = ? J = Jx x̂ + Jy ŷ + Jz ẑ. (3.2.1.2e)

2. Ainda na linguagem do Cálculo Vetorial, a ex-


pressão (3.2.1.2b) significa o fluxo de J~ através de uma su-
perfı́cie S e representa a corrente elétrica I em um circuito
elétrico:

J = J |S = J~ . n̂ dS.
R R
I= S S (3.2.1.2f)
72

3. Ao estudar os condutores, em 1825, o fı́sico alemão


Georg Simon Ohm (1787-1854) observou experimentalmente
que:

J~ = σ E,
~ (3.2.1.2g)

onde σ é a condutividade elétrica do condutor, que é, via


de regra, um tensor de ordem 2. Contudo, se o condutor for
homogêneo e isotrópico, então σ = constante.
3.1. Usando-se a operação (?) (Definição A.2) na ex-
pressão (3.2.1.1a), teremos:

? E = ? [Ex dx + Ey dy + Ez dz] →

? E = Ex dy ∧ dz + Ey dz ∧ dx +

+ Ez dx ∧ dy. (3.2.1.2h)

3.2. Para os condutores homogêneos e isotrópicos,


as expressões (3.2.1.2a,e,h) permitem escrever a expressão
(3.2.1.2g), em termos de formas diferenciais, da seguinte manei-
ra:

J = σ̄ ? E, (3.2.1.2i)

onde σ̄ é a 0-forma correspondente à condutividade elétrica


σ.
Definição 3.2.1.3: A Densidade de Carga Elétrica
Q é uma 3-forma diferencial linear:

Q = ρ dx ∧ dy ∧ dz, (3.2.1.3a)

tal que:
73

Q = Q|V = ρ dx ∧ dy ∧ dz.
R R
q= V V (3.2.1.3b)

Observações
1. Usando-se a operação (?) (Definição A.2) na ex-
pressão (3.2.1.3a), teremos:

? Q = ρ ? (dx ∧ dy ∧ dz) → ?Q = ρ. (3.2.1.3c)

2. Na linguagem do Cálculo Vetorial, a expressão


(3.2.1.3b) é dada por:
R
q= V ρ dV, (3.2.1.3d)

e q representa a carga elétrica no interior do volume.


Definição 3.2.1.4: O Deslocamento Dielétrico D é
uma 2-forma diferencial linear:

D = Dx (x, y, z) dy ∧ dz + Dy (x, y, z) dz ∧ dx +

+ Dz (x, y, z) dx ∧ dy, (3.2.1.4a)

tal que:

Q → D | S = Q | V.
R R
S D = V (3.2.1.4b)

Observações
1. Usando-se a operação (?) (Definição A.2) na ex-
pressão (3.2.1.4a), teremos:

? D = ? [Dx dy ∧ dz + Dy dz ∧ dx + Dz dx ∧ dy] =

= Dx ? (dy ∧ dz) + Dy ? (dz ∧ dx) + Dz ? (dx ∧ dy) →


74

? D = Dx dx + Dy dy + Dz dz. (3.2.1.4c)

Usando-se a linguagem do Cálculo Vetorial, a ex-


pressão (3.2.1.4c) representa o Vetor Deslocamento (Indu-
~
ção) Elétrico D:

~ = ? D = Dx x̂ + Dy ŷ + Dz ẑ.
D (3.2.1.4d)

2. Aplicando-se o Teorema de Stokes Genera-


lizado (T.1.1) ao primeiro membro da expressão (3.2.1.4b),
virá:

Q → dD = Q.
R R R
S D = V dD = V (3.2.1.4e)

Calculando-se a diferenciação exterior (Definição A.3)


da expressão (3.2.1.4a), virá:

dD = d[Dx (x, y, z) dy ∧ dz + Dy (x, y, z) dz ∧ dx +

+ Dz (x, y, z) dx ∧ dy] →

∂Dy
dD = ( ∂D
∂x
x
+ ∂y
+ ∂Dz
∂z
) dx ∧ dy ∧ dz.

Usando-se as expressões (3.2.1.3a) e (3.2.1.4e), tere-


mos:
 
∂Dx ∂Dy ∂Dz
dD = ∂x
+ ∂y
+ ∂z
dx ∧ dy ∧dz = ρdx∧dy∧ dz.

Calculando-se a operação (?) (Definição A.2) na ex-


pressão acima e considerando-se a expressão (A.2.5a), virá:
 
∂Dx ∂Dy ∂Dz
?dD = ∂x
+ ∂y
+ ∂z
?(dx ∧ dy ∧ dz) =

= ρ ?(dx ∧ dy ∧ dz) → ?dD = ρ. (3.2.1.4f)


75

Desse modo, considerando-se a expressão (A.2.2a), a


expressão (3.2.1.4f) poderá ser escrita na forma:

(?d?) (?D) = ρ.

Usando-se as expressões (3.2.1.4d) e (A.3.4a) e a lin-


guagem do Cálculo Vetorial, a expressão acima traduz a
primeira equação de Maxwell:

~ = ρ.
∇.D (3.2.1.4g)

3. Do estudo dos materiais dielétricos realizado, prin-


cipalmente, pelo fı́sico e quı́mico inglês Michael Faraday (1791-
1867) a partir de 1831, derivou o seguinte resultado experi-
mental:

~ =  E,
D ~ (3.2.1.4h)

onde  é a permitividade elétrica do dielétrico, que é, via


de regra, um tensor de ordem 2. Contudo, se o dielétrico for
homogêneo e isotrópico, então  = constante.
3.1. Para os dielétricos homogêneos e isotrópicos,
as expressões (3.2.1.2h) e (3.2.1.4a,c) permitem escrever a
expressão (3.2.1.4h), em termos de formas diferenciais, da
seguinte maneira:

D = ¯ ? E, (3.2.1.4i)

onde ¯ é a 0-forma correspondente à permitividade elétrica .


4. Aplicando-se o operador (?) (Definição A.2) à ex-
pressão (3.2.1.1g) e usando-se a expressão (3.2.1.4i), teremos:
D
?E = − ? dV → ¯
= − ? dV.

Calculando-se a diferenciação exterior (Definição A.3)


da expressão acima e usando-se a expressão (3.2.1.4e), virá:
76

1 Q

dD = − d ? dV → ¯
= − d ? dV.

Aplicando-se o operador (?) (Definição A.2) à expres-


são acima e usando-se a expressão (3.2.1.3c), resultará:

? Q

= − ? d ? dV → (? d ? d) V = − ρ¯ .

Usando-se a expressão (A.3.5a) e a linguagem do Cál-


culo Vetorial, a expressão acima traduz a célebre expressão
deduzida, em 1813, pelo matemático francês Siméon Denis
Poisson (1781-1840) e conhecida desde então como equação
de Poisson:

∆V = − ρ . (3.2.1.4j)

Definição 3.2.1.5: A Intensidade do Campo Magné-


tico H é uma 1-forma diferencial linear:

H = Hx (x, y, z) dx + Hy (x, y, z) dy +

+ Hz (x, y, z) dz, (3.2.1.5a)

tal que:
H H
I= Γ H = Γ Hx (x, y, z) dx + Hy (x, y, z) dy +

+ Hz (x, y, z) dz, (3.2.1.5b)

onde Γ e I foram definidos, respectivamente, pelas expressões


(3.2.1.1c) e (3.2.1.2b).
Observações
1. Na linguagem do Cálculo Vetorial, a expressão
(3.2.1.5a) define o Vetor Campo Magnético H:~
77

~ r) = Hx x̂ + Hy ŷ + Hz ẑ.
H(~ (3.2.1.5c)

2. Ainda na linguagem do Cálculo Vetorial, a ex-


~ ao longo de Γ e
pressão (3.2.1.5b) significa a circulação de H
representa a Intensidade de Corrente I que circula através
de uma superfı́cie S limitada por Γ:

I=
H
H = H |Γ =
H
~ . d~r.
H (3.2.1.5d)
Γ Γ

A expressão acima decorre de observações experimen-


tais feitas pelos fı́sicos, o dinamarquês Hans Christiaan Oers-
ted (1777-1851), e os franceses André Marie Ampère (1775-
1836), Dominique François Jean Arago (1786-1853), Jean Bap-
tiste Biot (1774-1862) e Félix Savart (1791-1841), em 1820.
Com efeito, eles observaram que o campo magnético H ~ é cria-
do toda vez que uma corrente I circula em um condutor.
3. Usando-se a expressão (3.2.1.2b) e o Teorema de
Stokes Generalizado (T.1.1) na expressão (3.2.1.5b), virá:

→ dH = J.
H R R
Γ H = S dH = S J (3.2.1.5e)

(Nessa expressão, observa-se que na integral de superfı́cie o


H se comporta como uma densidade de fluxo e na integral de
linha, como uma intensidade de campo.)
3.1. Aplicando-se a operação (?) (Definição A.2) à
expressão acima, resultará:

? dH = ? J. (3.2.1.5f)

Usando-se as expressões (3.2.1.2e) e (A.3.3) e a lin-


guagem do Cálculo Vetorial, a expressão acima traduz a
famosa equação de Ampère:

~ = J.
∇×H ~ (3.2.1.5g)
78

Definição 3.2.1.6: A Indução Magnética B é uma


2-forma diferencial linear:

B = Bx (x, y, z) dy ∧ dz + By (x, y, z) dz ∧ dx +

+ Bz (x, y, z) dx ∧ dy, (3.2.1.6a)

tal que:

B = B|S = Bx (x, y, z) dy ∧ dz +
H H
0= S S

+ By (x, y, z) dz ∧ dx + Bz (x, y, z) dx ∧ dy, (3.2.1.6b)

onde S foi definido pela expressão (3.2.1.2c).


Observações
1. Aplicando-se a operação (?) (Definição A.2) à ex-
pressão (3.2.1.6a) e usando-se as expressões (A.2.4a,b,c), tere-
mos:

? B = ? [Bx dy ∧ dz + By dz ∧ dx + Bz dx ∧ dy] =

= Bx dx + By dy + Bz dz. (3.2.1.6c)

Considerando-se a linguagem do Cálculo Vetorial,


a expressão (3.2.1.6c) representa o Vetor Indução Magné-
~
tica B:

~ = ? B = Bx x̂ + By ŷ + Bz ẑ.
B (3.2.1.6d)

2. Ainda na linguagem do Cálculo Vetorial, a ex-


~ através de uma
pressão (3.2.1.6b) mostra que o fluxo de B
superfı́cie S que limita um determinado volume V é nulo:
79

H
B = B|S =
H
~ . n̂ dS = 0.
B (3.2.1.6e)
S S

A expressão acima significa que as linhas de força de


~
B são fechadas, conforme observaram o erudito francês Petrus
Peregrinus de Maricourt (c.1240- ? ), em 1269, e Faraday,
em 1832.
3. Aplicando-se o Teorema de Stokes Genera-
lizado (T.1.1) à expressão (3.2.1.6e), virá:

dB = 0 → dB = 0.
H R
S B = V (3.2.1.6f)

Calculando-se a operação (?) (Definição A.2) na ex-


pressão acima e usando-se a expressão (A.2.2a), teremos:

(?d?) (?B) = 0.

Usando-se as expressões (3.2.1.6d) e (A.3.4a) e a lin-


guagem do Cálculo Vetorial, a expressão acima traduz a
segunda equação de Maxwell:

~ = 0.
∇.B (3.2.1.6g)

4. Usando-se o Lema de Poincaré (A.3.1c), a ex-


pressão (3.2.1.6f) permite escrever que:

B = dA, (3.2.1.6h)

onde A é uma 1-forma denominada Potencial Vetor definida


por:

A = Ax (x, y, z) dx + Ay (x, y, z) dy +

+ Az (x, y, z) dz, (3.2.1.6i)


80

introduzido por Maxwell, em 1865. Na linguagem do Cálculo


Vetorial, a expressão (3.2.1.6i) representa o Potencial Ve-
~
tor A:

~ = Ax x̂ + Ay ŷ + Az ẑ.
A (3.2.1.6j)

4.1. Aplicando-se a operação (?) (Definição A.2) à


expressão (3.2.1.6h), teremos:

? B = ?dA. (3.2.1.6k)

Usando-se as expressões (3.2.1.6d,j) e (A.3.3) e a lin-


guagem do Cálculo Vetorial, a expressão acima é escrita na
forma:

~ = ∇ × A.
B ~ (3.2.1.6`)

4.2. Em virtude do Lema de Poincaré (A.3.1c),


para qualquer função ψ, a expressão (conhecida como trans-
formação ‘gauge’):

A’ = A + dψ, (3.2.1.6m)

satisfaz a expressão (3.2.1.6h), pois:

B = d(A’ + dψ) = dA0 + ddψ = dA’. (3.2.1.6n)

4.3. Desde que Maxwell apresentou o potencial vetor


~
A, em 1865, este foi considerado apenas como um artifı́cio
matemático, sem interpretação fı́sica. Contudo, em 1959,[23]
Y. Aharonov e David Bohm apresentaram uma interpretação
fı́sica daquele vetor através da Eletrodinâmica Quântica,
hoje conhecida como o efeito Aharonov-Bohm. Nesse ar-
tigo, os autores mostraram que a figura de interferência decor-
rente da difração de um feixe de elétrons que atravessa um
81

anteparo com duas fendas (experiência “tipo Young”), pode


ser deslocada desde que, entre as fendas e por trás delas, se
possa concentrar um campo magnético, de tal modo que o
mesmo seja nulo na região da “trajetória” do feixe de elétrons
depois de difratado pelas duas fendas. Isto pode ser con-
seguido, segundo Aharonov e Bohm, com um solenóide longo
com dimensões transversais microscópicas.
5. Do estudo dos materiais magnéticos realizado, prin-
cipalmente, pelo fı́sico e matemático escocês William Thom-
son (Lord Kelvin) (1824-1907) a partir de 1847, derivou o
seguinte resultado experimental:

~ = µ H,
B ~ (3.2.1.6o)

onde µ é a permitividade magnética do material magnético,


que é, via de regra, um tensor de ordem 2. Contudo, se esse
material for homogêneo e isotrópico, então µ = constante.
5.1. Usando-se a operação (?) (Definição A.2) na ex-
pressão (3.2.1.5a) e usando-se as expressões (A.2.3.a,b,c), tere-
mos:

? H = ? [Hx dx + Hy dy + Hz dz] →

? H = Hx dy ∧ dz + Hy dz ∧ dx +

+ Hz dx ∧ dy. (3.2.1.6p)

5.2. Para os materiais magnéticos homogêneos e iso-


trópicos, as expressões (3.2.1.6a,p) permitem escrever a ex-
pressão (3.2.1.6o), em termos de formas diferenciais, da seguin-
te maneira:

B = µ̄ ? H, (3.2.1.6q)
82

onde µ̄ é a 0-forma correspondente à permitividade magnética


µ.
6. Aplicando-se a expressão (A.3.5b) à 1-forma A e
usando-se a expressão (A.2.2a), resultará:

∆ A = − (d δ + δ d) A =

= - [d(-)(? d ?) A + (?d) (?d A)].

Usando-se as expressões (3.2.1.5f) e (3.2.1.6k,q), virá:

∆ A = d (? d ?) A − (?d) (? B) =

= d (? d ?) A − (?d) (µ̄ H) →

∆ A = d (? d ?) A − µ̄ (? dH) = d (? d ?) A − µ̄ ? J.

Considerando-se o ‘gauge’ de Coulomb:

(? d ?) A = 0, ~ = 0)
(∇ . A (3.2.1.6r,s)

∆ A = − µ̄ ? J. (3.2.1.6t)

Usando-se as expressões (3.2.1.2e), (A.3.5c) e a lin-


guagem do Cálculo Vetorial, teremos:

~ = − µ J.
∆A ~ (3.2.1.6u)

7. Aplicando-se a expressão (A.3.5b) à expressão


(3.2.1.6m) e usando-se o ‘gauge’ de Coulomb:

(? d ?) A0 = (? d ?) A = 0,

resultará:
83

(? d ?) A0 = (? d ?) A + (? d ?) dψ →

(? d ? d) ψ = 0. (3.2.1.6v)

Usando-se a expressão (A.3.5a) e a linguagem do Cál-


culo Vetorial, virá:

∆ ψ = 0. (3.2.1.6x)

3.2.2 Formas Diferenciais da Eletrodinâmica


Definição 3.2.2.1: O Campo-Força Eletromagné-
tico F é uma 2-forma diferencial linear:

F = B + E ∧ dt, (3.2.2.1a)

tal que:

(B + E ∧ dt) = 0,
R R
∂C F = ∂C (3.2.2.1b)

onde:

B = Bx (x, y, z, t) dy ∧ dz + By (x, y, z, t) dz ∧ dx +

+ Bz (x, y, z, t) dx ∧ dy, (3.2.2.1c)

E = Ex (x, y, z, t) dx + Ey (x, y, z, t) dy +

+ Ez (x, y, z, t) dz, (3.2.2.1d)

e ∂C é a fronteira de um cilindro tridimensional C gerado


pelo deslocamento de uma superfı́cie cilı́ndrica bidimensional
S entre dois instantes de tempo (t ∈ [a, b]).
Observações
1. Usando-se o Teorema de Stokes Generalizado
(T.1.1) na expressão (3.2.2.1b), teremos:
84

dF = 0 →
R R
∂C F = C

dF = d(B + E ∧ dt) = 0. (3.2.2.1e)

Usando-se a expressão (3.2.2.1b) e considerando-se


que B (x, y, z, t), a expressão (3.2.2.1e) ficará:

(dB + Ḃ ∧ dt + dE ∧ dt − E ∧ ddt) =

= [dB + (Ḃ + dE) ∧ dt] = 0, (3.2.2.1f)

onde o operador d significa uma diferencial com relação às


variáveis espaciais (x, y, z) e Ḃ é obtido da forma B substituin-
do-se seus coeficientes por suas derivadas em relação à variável
t, isto é:

∂B ∂Bx ∂By
Ḃ = ∂t
= ∂t
dy ∧ dz + ∂t
dz ∧ dx +

∂Bz
+ ∂t
dx ∧ dy. (3.2.2.1g)

2. Partindo-se da expressão (3.2.2.1f), podemos escre-


ver que:

dB = 0, (3.2.2.1h)

dE + ∂t B = dE + Ḃ = 0. (3.2.2.1i)

Assim, calculando-se a operação (?) (Definição A.2),


usando-se a expressão (A.2.2a) e a Definição A.2, as expressões
(3.2.2.1h,i) tomam os seguintes aspectos:

(?d?) (?B) = 0, (3.2.2.1j)

?dE + ∂t (?B) = 0. (3.2.2.1k)


85

[A expressão acima nos mostra, naturalmente, a homogenei-


dade dessa equação matemática, uma vez que a 1-forma E
está relacionada com o dual da 2-forma B. Este dual é uma
1-forma, segundo se vê na expressão (3.2.1.6c).]
Usando-se as expressões (3.2.1.1d), (3.2.1.6d), (A.3.3),
(A.3.4a) e a linguagem do Cálculo Vetorial, as expressões
acima traduzem, respectivamente, a segunda equação de
Maxwell (conforme vimos acima):

~ = 0,
∇.B (3.2.2.1`)

e a terceira equação de Maxwell:

~ + ~
∂B
∇×E ∂t
= 0. (3.2.2.1m)

3. Integrando-se a expressão (3.2.2.1i) através de uma


superfı́cie S de fronteira ∂S = C, usando-se o Teorema de
Stokes Generalizado (T.1.1), teremos:

Ḃ = 0 →
R R
S dE + S

R R
S dE + S ∂t B = 0. (3.2.2.1n)

3.1. Considerando-se S fixa, a expressão acima ficará:


R R
C E + ∂t S B = 0. (3.2.2.1o)

Usando-se as expressões (3.2.2.1c,d), virá:

(Bx dy ∧ dz +
R R
C (Ex dx + Ey dy + Ez dz) + ∂t S

+ By dz ∧ dx + Bz dx ∧ dy) = 0. (3.2.2.1p)
86

Usando-se as expressões (3.2.1.1b,e), (3.2.1.6a,b,e) e


a linguagem do Cálculo Vetorial, a expressão acima traduz
a expressão obtida por Faraday, em 1831, conhecida como a
célebre lei de Faraday:
H
~ . d~` = −
E d R
~ . dS.
B ~ (3.2.2.1q)
C dt S

3.2. Considerando-se que a superfı́cie S se move com


uma velocidade V~ , as expressões (A.7.2) e (3.2.2.1h) nos mos-
tram que:
R R R R
δt S B = S ∂t B + S iV dB + C iV B =


R R
= S ∂t B + C iV B

B −
R R R
S ∂t B = δt S C iV B.

Levando-se a expressão acima na expressão (3.2.2.1n),


resultará:

B − iV B = 0 →
R R R
C E + δt S C

(E − iV B) = 0.
R R
δt S B + C (3.2.2.1r)

Usando-se a expressão (A.4.3a) e a notação do Cál-


culo Vetorial, a expressão acima representa a lei da indu-
ção de Faraday para um circuito móvel:
H
(E ~ d~` = −
~ − V~ × B). d R
~ . dS.
B ~ (3.2.2.1s)
C dt S

3.3. Chamando-se:

~0 = E
E ~ − V~ × B,
~ (3.2.2.1t)
87

a expressão (3.2.2.1s) tomará a seguinte forma:


H
~ 0 . d~` = −
E d R
~ . dS,
B ~
C dt S

que representa a lei de Faraday para um circuito fixo, e o


~ 0 é relativo ao sistema de laboratório. Por
campo elétrico E
outro lado, da expressão (3.2.2.1t), podemos escrever:

~ = E
E ~ 0 + V~ × B.
~ (3.2.2.1u)

A expressão acima nos mostra que quando um circuito


está em movimento, o campo elétrico no laboratório (E ~ 0 ) é
transformado para (E),~ que representa o campo elétrico rela-
tivo ao referencial móvel, isto é, preso ao circuito em movi-
mento. É oportuno registrar que, multiplicando-se essa ex-
pressão pela carga q de uma partı́cula carregada (por exemplo,
o elétron de condução do material do circuito), ela traduz a
expressão obtida pelo fı́sico holandês Hendrik Antoon Lorentz
(1853-1928; PNF, 1902), em 1892, a hoje famosa fórmula de
Lorentz:

F~em = q E
~ = q (E
~ 0 + V~ × B
~ 0 ), (3.2.2.1v)

onde (’) indica o sistema de laboratório.


4. Usando-se o Lema de Poincaré (A.3.1c), a ex-
pressão (3.2.2.1e) permite escrever que:

F = dΦ, (3.2.2.1w)

com Φ dado por:

Φ = A - V dt, (3.2.2.1x)

onde A é a 1-forma (Potencial Vetor) definida pela ex-


pressão (3.2.1.6i) e V (Potencial Elétrico) é a 0-forma vista
na expressão (3.2.1.1g). As expressões acima e mais a ex-
pressão (3.2.2.1a) nos mostram que:
88

F = dΦ = d(A − V dt) = dA + (−dV + Ȧ)∧dt = B + E∧dt →

B = dA, E = - dV + Ȧ. (3.2.2.1y,z)

Usando-se a operação (?) (Definição A.2) na expressão


(3.2.2.1y), usando-se as expressões (3.2.1.6d), (A.3.3), (A.3.2)
e a linguagem do Cálculo Vetorial, as expressões acima são
escritas da seguinte forma:

~ = ∇ × A,
~ ~ = − ∇V − ~
∂A
B E ∂t
. (3.2.2.1aa,ab)

Registre-se que a troca de sinal da 1-forma A para o


vetor A~ mostrada acima decorre do fato de que essas equações
são escritas na linguagem não-relativista. [Lembrar que a
assinatura da métrica quadridimensional (x, y, z, t) (c = 1)
é dada por: (1, 1, 1, - 1).]
Definição 3.2.2.2: O Campo-Fonte Eletromagné-
tico G é uma 2-forma diferencial linear:

G = D - H ∧ dt, (3.2.2.2a)

tal que:

(D − H ∧ dt) =
R R R
∂C G = ∂C C j, (3.2.2.2b)

onde:

D = Dx (x, y, z, t) dy ∧ dz + Dy (x, y, z, t) dz ∧ dx +

+ Dz (x, y, z, t) dx ∧ dy, (3.2.2.2c)

H = Hx (x, y, z, t) dx + Hy (x, y, z, t) dy +

+ Hz (x, y, z, t) dz, (3.2.2.2d)


89

j = Q - J ∧ dt, (3.2.2.2e)

Q = ρ(x, y, z, t) dx ∧ dy ∧ dz, (3.2.2.2f)

J = Jx (x, y, z, t) dy ∧ dz +

+ Jy (x, y, z, t) dz ∧ dx +

+ Jz (x, y, z, t) dx ∧ dy, (3.2.2.2g)

e ∂C e C foram definidos anteriormente.


Observações
1. Usando-se o Teorema de Stokes Generalizado
(T.1.1) e a expressão (3.2.2.2e), a expressão (3.2.2.2b) será
escrita na forma:

d(D − H ∧ dt) =
R R R R
∂C G = C dG = C C j=

(Q − J ∧ dt) → dG = j →
R
= C

d(D - H ∧ dt) = Q − J ∧ dt. (3.2.2.2h)

Usando-se as expressões (A.3.1b), (3.2.2.2f) e conside-


rando-se que D (x, y, z, t), a expressão (3.2.2.2h) ficará:

[dD + (Ḋ − dH) ∧ dt] = Q − J ∧ dt, (3.2.2.2i)

onde o operador d significa uma diferencial com relação às


variáveis espaciais (x, y, z) e Ḋ é obtido da forma D substituin-
do-se seus coeficientes por suas derivadas em relação à variável
t, isto é:

∂D ∂Dx ∂Dy
Ḋ = ∂t
= ∂t
dy ∧ dz + ∂t
dz ∧ dx +
90

∂Dz
+ ∂t
dx ∧ dy. (3.2.2.2j)

2. Partindo-se da expressão (3.2.2.2i), podemos escre-


ver que:

dD = Q, (3.2.2.2k)

dH - ∂t D = dH − Ḋ = J. (3.2.2.2`)

Usando-se a operação (?) (Definição A.2) nas expres-


sões acima e usando-se a expressão (A.2.2a), teremos:

(?d?) (?D) = ? Q, (3.2.2.2m)

?dH − ∂t (?D) = ? J. (3.2.2.2n)

Usando-se as expressões (3.2.1.3c), (3.2.1.2e), (A.3.3),


(A.3.4a), e a linguagem do Cálculo Vetorial, as expressões
acima traduzem, respectivamente, a primeira equação de
Maxwell (conforme vimos acima):

~ = ρ,
∇.D (3.2.2.2o)

e a quarta equação de Maxwell:

~ − ~
∂D ~
∇×H ∂t
= J. (3.2.2.2p)

3. Usando-se o Lema de Poincaré (A.3.1c), a ex-


pressão (3.2.2.2h) permite escrever que:

ddG = dj = d(Q - J ∧ dt) = 0.

Usando-se a expressão (A.3.1b) e considerando-se que


Q = Q (x, y, z, t), a expressão acima ficará:
91

d(Q - J ∧ dt) = dQ + (Q̇ − dJ) ∧ dt = 0, (3.2.2.2q)

onde o operador d, no segundo membro da expressão acima,


significa uma diferencial com relação às variáveis espaciais
(x, y, z) e Q̇ é dado por:
∂ρ
Q̇ = ∂t
dx ∧ dy ∧ dz. (3.2.2.2r)

Considerando-se a expressão (3.2.2.2f), teremos:

dQ = dρ ∧ dx ∧ dy ∧ dz =

∂ρ ∂ρ ∂ρ
= ( ∂x dx + ∂y
dy + ∂z
dz)∧dx∧dy∧ dz = 0. (3.2.2.2s)

Desse modo, a expressão (3.2.2.2q) ficará:

d(Q - J ∧ dt) = (Q̇ − dJ) ∧ dt = 0 →

Q̇ - dJ = 0. (3.2.2.2t)

Calculando-se a operação (?) (Definição A.2) da ex-


pressão acima e considerando-se a expressão (A.2.2a), virá:

(?d?) (?J) − ∂t (?Q) = 0. (3.2.2.2u)

Usando-se as expressões (3.2.1.2e), (3.2.1.3c), (A.3.4a)


e a linguagem do Cálculo Vetorial, a expressão acima traduz
a famosa equação da continuidade:

∇ . J~ + ∂ρ
∂t
= 0. (3.2.2.2v)

Registre-se que a troca de sinal da 3-forma Q para a


função ρ mostrada acima, decorre do fato de que essa equação
é escrita na linguagem não-relativista. [Lembrar que a assi-
natura da métrica quadridimensional (x, y, z, t) (c = 1) é
dada por: (1, 1, 1, - 1).] O resultado visto acima nos mostra
que a equação da continuidade é traduzida pela expressão:
92

dj = 0. (3.2.2.2w)

3.2.3 Forma Diferencial do Teorema de Poynting


Definição 3.2.3.1: O Fluxo-Energia do Campo Eletro-
magnético S é uma 2-forma diferencial linear:

S = E ∧ H = Sx dy ∧ dz + Sy dz ∧ dx +

+ Sz dx ∧ dy, (3.2.3.1a)

onde E e H são dados, respectivamente, pelas expressões


(3.2.2.1d) e (3.2.2.2d).
Observações
1. Usando-se a operação (?) (Definição A.2) na ex-
pressão (3.2.3.1a), virá:

?S = ?(E ∧ H) =

= ?[Sx dy ∧ dz + Sy dz ∧ dx + Sz dx ∧ dy] →

?S = Sx dx + Sy dy + Sz dz = Sx x̂ + Sy ŷ + Sz ẑ.

Na linguagem do Cálculo Vetorial, a expressão acima


traduz o famoso Vetor de Poynting S:~

~ = E
S ~ × H.
~ (3.2.3.1b)

2. Calculando-se a diferencial exterior (Definição A.3)


da expressão (3.2.3.1a), resultará:

dS = d(E ∧ H) = dE ∧ H − E ∧ dH. (3.2.3.1c)

Usando-se as expressões (3.2.2.1i) e (3.2.2.2`), a ex-


pressão (3.2.3.1c) ficará:
93

dS = - Ḃ ∧ H − E ∧ (Ḋ + J) →

Ḃ ∧ H + E ∧ Ḋ + E ∧ J + dS = 0. (3.2.3.1d)

Calculando-se a operação (?) (Definição A.2) na ex-


pressão acima, usando-se a expressão (A.2.2a) (?2 = ?? = 1,
no R3 ), e considerando-se que ? ∂t = ∂t ?, teremos:

˙
?[?(?B)∧H] ˙ + ?[E∧?(?J)] + (?d?)?S = 0.
+ ?[E∧?(?D)]

Usando-se a linguagem do Cálculo Vetorial, a ex-


pressão acima traduz o famoso Teorema da Conservação
da Energia Eletromagnética ou Teorema de Poynting
(apresentado pelo fı́sico inglês John Henry Poynting (1852-
1914), em 1883):

~˙ . H
B ~ + E ~˙ + E
~ .D ~ . J~ + ∇ . S
~ = 0. (3.2.3.1e)

2.1. Usando-se as expressões (3.2.1.4h) e (3.2.1.6o)


e considerando-se que  e µ são constantes no tempo, a ex-
pressão (3.2.3.1e) ficará:

∂uem ~ . J~ + ∇ . S
+ E ~ = 0, (3.2.3.1f)
∂t

onde:

uem = 1 ~2 + µ H
( E ~ 2) =
2

= 1 ~ .D
(E ~ + H
~ . B),
~ (3.2.3.1g)
2

é a densidade de energia do campo eletromagnético,


cuja 3-forma correspondente é dada por:

1
µem = 2
(E ∧ D + H ∧ B), (3.2.3.1h)
94

pois:
 
1
?µem = 2
?[E ∧ ?(?D)] + ?[H ∧ ?(?B)] →

uem = 1 ~ .D
(E ~ + H
~ . B).
~
2

2.2. Integrando-se a expressão (3.2.3.1d) sobre um


volume V limitado por uma superfı́cie A e usando-se o Teo-
rema de Stokes Generalizado (T.1.1), teremos:

∧ H + E ∧ Ḋ) + E∧J +
R R H
V (Ḃ V A S = 0. (3.2.3.1i)

Usando-se a linguagem do Cálculo Vetorial e consi-


derando-se que  e µ são constantes no tempo, a expressão
(3.2.3.1i) ficará:
R ∂uem
dV +
R
~ . J~ dV = − H S~ . dA.
~
V ∂t VE A (3.2.3.1j)

A expressão acima, que representa o Princı́pio da Con-


servação da Energia, é interpretada da seguinte forma: o
primeiro termo do primeiro membro representa a taxa da ener-
gia armazenada no interior de um certo volume V, o segundo
termo dá a taxa de dissipação de energia [efeito Joule (1840)]
sobre as fontes (sem histerese) no interior de V, e o segundo
membro mede o fluxo da potência externa através da fronteira
A que limita V.
3.2.4 Formas Diferenciais da Eletrodinâmica
4-Dimensional
Definição 3.2.4.1: Tensor Campo-Força Eletromag-
nético Fµν . Considerando-se o vácuo (e um sistema particu-
lar de unidades para o qual temos: o = 1; µo = 1;
c = 1) e partindo-se das expressões (3.2.1.4h,i), (3.2.1.6o,q) e
(3.2.2.1a,c,d) podemos escrever que:
95

F = B + E ∧ dt =

= Bx dy ∧ dz + By dz ∧ dx + Bz dx ∧ dy + Ex dx ∧ dt +

+ Ey dy ∧ dt + Ez dz ∧ dt →

F = Hx dy ∧ dz + Hy dz ∧ dx + Hz dx ∧ dy +

+ Ex dx ∧ dt + Ey dy ∧ dt + Ez dz ∧ dt. (3.2.4.1a)

Usando-se a métrica de Minkowski, a expressão


acima será escrita na forma:

1
F= 2
Fµν dxµ ∧ dxν , (3.2.4.1b)

onde o Tensor Campo-Força Eletromagnético Fµν é


dado por:

Hz − Hy Ex
 
0
 − Hz 0 Hx Ey 
Fµν =  . (3.2.4.1c)
 
 Hy − Hx 0 Ez 
− Ex − Ey − Ez 0

Observações
1. Equações de Maxwell no Espaço-Tempo:
Grupo Homogêneo. Esse grupo é dado pela expressão
(3.2.2.1e):

dF = 0. (3.2.4.1d)

Usando-se a expressão (3.2.4.1b) e a Definição A.2.3,


a expressão acima ficará:

dF= d( 12 Fµν dxµ ∧ dxν ) = 1


2
dFµν ∧ dxµ ∧ dxν =
96

1
= 3!
(∂λ Fµν + ∂ν Fλµ + ∂µ Fνλ ) dxλ ∧ dxµ ∧ dxν = 0 →

∂λ Fµν + ∂ν Fλµ + ∂µ Fνλ = 0. (3.2.4.1e)

2. Usando-se o Lema de Poincaré (A.3.1c), a ex-


pressão (3.2.4.1d) permite escrever que [veja-se as expressões
(3.2.2.1w,x)]:

F = dΦ, (3.2.4.1f)

com Φ dado por:

Φ = A - V dt, (3.2.4.1g)

onde A é a 1-forma (tridimensional) definida pela expressão


(3.2.1.6i) (Potencial Vetor) e V é a 0-forma definida pela ex-
pressão (3.2.1.1g) (Potencial Elétrico). Usando-se a métri-
ca de Minkowski, vamos redefinir a 1-forma Φ pela 1-forma
A (quadridimensional):

Φ ≡ A = Aµ dxµ . (3.2.4.1h)

Usando-se a Definição A.2.3 e as expressões (3.2.4.f,h),


teremos:

F = dA = d(Aµ dxµ ) =

= 12 (∂µ Aν − ∂ν Aµ ) dxµ ∧ dxν . (3.2.4.1i)

Comparando-se as expressões (3.2.4.1b,i), virá:

Fµν = ∂µ Aν − ∂ν Aµ . (3.2.4.1j)

É oportuno destacar que as equações homogêneas


de Maxwell decorrem somente da identidade:
97

dF = ddA = 0,

e não de um princı́pio variacional.


Definição 3.2.4.2: Tensor Campo-Fonte Eletromag-
nético Gµν . Considerando-se o vácuo (e um sistema particu-
lar de unidades para o qual temos: o = 1; µo = 1;
c = 1) e partindo-se das expressões (3.2.1.4h,i), (3.2.1.6o,q)
e (3.2.2.2a,c,d) podemos escrever que:

G = D - H ∧ dt =

= Dx dy ∧ dz + Dy dz ∧ dx + Dz dx ∧ dy − Hx dx ∧ dt -

- Hy dy ∧ dt − Hz dz ∧ dt →

G = Ex dy ∧ dz + Ey dz ∧ dx + Ez dx ∧ dy -

- Hx dx ∧ dt − Hy dy ∧ dt − Hz dz ∧ dt. (3.2.4.2a)

Usando-se a métrica de Minkowski, a expressão


acima será escrita na forma:
1
G= 2
Gµν dxµ ∧ dxν , (3.2.4.2b)

onde o Tensor Campo-Fonte Eletromagnético Gµν é dado


por:

Ez − Ey − Hx
 
0
 − Ez 0 Ex − Hy 
Gµν =  . (3.2.4.2c)
 
 Ey − Ex 0 − Hz 
Hx Hy Hz 0

Observações
1. Equações de Maxwell no Espaço-Tempo:
Grupo Não-Homogêneo. Esse grupo é dado pela expressão
(3.2.2.2h):
98

dG = j ⇐⇒ d j = 0. (3.2.4.2d)

Usando-se as expressões (3.2.4c,d), calculemos a opera-


ção (?) (Definição A.2) da expressão (3.2.4.1a):

? F = Hx ? (dy ∧ dz) + Hy ? (dz ∧ dx) +

+ Hz ? (dx ∧ dy) + Ex ? (dx ∧ dt) +

+ Ey ? (dy ∧ dt) + Ez ? (dz ∧ dt) →

?F = − Hx dx ∧ dt − Hy dy ∧ dt − Hz dz ∧ dt +

+ Ex dy ∧ dz + Ey dz ∧ dx + Ez dx ∧ dy.

Comparando-se a expressão acima com a expressão


(3.2.2.2a), usando-se as expressões (3.2.1.4h) e (3.2.4.2d) e
considerando-se o vácuo (e um sistema particular de unidades:
o = 1; µo = 1; c = 1), teremos:

G=?F → d (? F) = j. (3.2.4.2e)

2. Vejamos como se escreve a expressão acima na


forma tensorial. Inicialmente, calculemos ? F. Para isso, use-
mos a Definição A.2 e a expressão (3.2.4.1b). Desse modo,
resultará:

? F = ?( 12 Fµν dxµ ∧ dxν ) = 1 1


(
2 2
ηµνρσ F µν ) dxρ ∧ dxσ ,

com a seguinte convenção para o tensor de Levi-Civita:


η1234 = 1. Agora, calculemos o diferencial da expressão acima
por intermédio da Definição A.3. Assim, teremos:

d (?F ) = d[ 12 ( 12 ηµνρσ F µν ) dxρ ∧ dxσ ] =


99

1
= 2 × 2
µνρσ dF µν ∧ dxρ ∧ dxσ →

1
d (? F ) = 3!
[µνρσ ∂τ F µτ ] dxν ∧ dxρ ∧ dxσ . (3.2.4.2f)

Usando-se as expressões (3.2.2.2e,f,g) podemos escre-


ver a 3-forma j, da seguinte maneira:

1
j= 3!
[µνρσ j µ ] dxν ∧ dxρ ∧ dxσ , (3.2.4.2g)

onde o 4-vetor jµ = (J, ~ − ρ). Portanto, comparando-se as


expressões (3.2.4.2f,g), virá:

∂τ F µτ = j µ . (3.2.4.2h)

3. Usando-se a operação (?) (Definição A.2) na ex-


pressão (3.2.4.2e), teremos:

? d ? F = ? j.

Considerando-se que F é uma 2-forma (p = 2) e usan-


do-se as expressões (A.3.4b) e (3.2.4.1f,h) , a expressão acima
ficará:

δ F = δ dA = ? j, (3.2.4.2i)

que representa uma equação de movimento para A. Escolhen-


do-se, por exemplo, o ‘gauge’ de Lorentz:

δ A = 0, (3.2.4.2j)

e considerando-se as expressões (A.3.5b) e (3.2.4.2i) podemos


escrever que:

(δ d + d δ) A = ? j → 2 A = − ? j. (3.2.4.2k)
100

Definição (3.2.4.3): A Ação Eletromagnética S[A]


é uma 4-forma definida por:

1
F ∧ ? F − j ∧ A),
R
S[A] = (− 2
(3.2.4.3a)

onde F, A e j são dados, respectivamente, pelas expressões


(3.2.4.1b), (3.2.4.1h) e (3.2.4.2g).
Observações
1. Seja a transformação ‘gauge’ dada por:

A’ = A + d Λ.

Considerando-se as expressões (3.2.4.3a), (3.2.4.1i), e


o Lema de Poincaré (A.3.1c), teremos:

1
d(A + d Λ) ∧ ? d(A + d Λ) -
R
S[A’] = S[A + d Λ] = [− 2

- j ∧ (A + d Λ)] = S[A] − j ∧ d Λ.
R
(3.2.4.3b)

Usando-se a Definição A.3 e o Teorema de Stokes


Generalizado (T.1.1), podemos escrever que:

d(j ∧ Λ) = [d j ∧ Λ + (−1)p j ∧ d Λ] = j ∧ Λ.
R R R
D D ∂D

Considerando-se que j (3-forma) se anula na fronteira


∂D e a expressão (3.2.4.2d), teremos:

j ∧ d Λ = 0.
R

Levando-se a expressão acima na expressão (3.2.4.3b),


resultará:

S[A + d Λ] = S[A]. (3.2.4.3c)


101

A expressão acima indica que a S[A] é um invariante


‘gauge’.
2. Considerando-se S como um funcional de A, es-
tudemos a sua variação para A’ = A + a. Assim, usando-se
as expressões (3.2.4.1i), (3.2.4.3a) e mantendo-se somente ter-
mos lineares em a, virá:

1
d(A + a) ∧ ? d(A + a) -
R
S[A + a] - S[A] = [− 2

1
- j ∧ (A + a)] − dA ∧ ? dA − j ∧ A) →
R
(− 2

S[A + a] - S[A] ∼ − [ 12 (dA∧?da + da∧?dA) + j∧ a].


R

Usando-se as expressões (A.2.6e) e o Teorema de


Stokes Generalizado (T.1.1), a expressão acima ficará:

a ∧ ? (− δ dA + ? j).
R
S[A + a] - S[A] = (3.2.4.3d)

Considerando-se S estacionário, isto é:

S[A + a] - S[A] = 0,

e sendo a qualquer, a expressão (3.2.4.3d) dará:

δ dA = ? j,

que reproduz a expressão (3.2.4.2i).

REFERÊNCIAS

1. EINSTEIN, A. Zur Elektrodynamik bewegter Körper,


Annalen der Physik 17 (4): 891-921 (1905).
102

2. MINKOWSKI, H. Die Grundgleichungen für die elek-


tromagnetischen Vorgänge in bewegten Körpern, Na-
chrichten von der Königlich Gesellschaft der Wissenschaften
zu Göttingen: 53-111 (1908).

3. JACKSON, J. D. Classical Electrodynamics, John Wiley


and Sons (1975).

4. LANDAU, L. D. and LIFCHITZ, E. M. The Classical


Theory of Fields, Addison-Wesley Publishing Company,
Incorporation (1971).

5. PANOFSKY, W. K. H. and PHILLIPS. M. Classical Elec-


tricity and Magnetism. Addison-Wesley Publishing Com-
pany, Incorporation (1962).

6. PORTIS, A. M. Electromagnetic Fields: Sources and


Media, John Wiley, 1978.

7. SOMMERFELD, A. Electrodynamics, Academic Press


(1952).

8. WANGNESS, R. K. Electromagnetic Fields, John Wiley,


1979.

9. ALDROVANDI, R. and PEREIRA, J. G. An Introduction


to Geometrical Physics. World Scientific (1995).

10. BAMBERG, P. and STERNBERG, S. A Course in Mathe-


matics for Students of Physics 1, 2. Cambridge Uni-
versity Press (1992).

11. BASSALO, J. M. F. Cálculo Exterior. DFUFPA (mimeo)


(1998).

12. BRESSOUD, D. M. Second Year Calculus. Springer-


Verlag (1991).

13. DESCHAMPS, G. A. Electromagnetics and Differential


Forms, Proceedings of the IEEE, 69 (6): 676-696 (1981).
103

14. —————. Exterior Differential Forms. IN: Mathe-


matics Applied to Physics. Springer-Verlag (1970).

15. FLANDERS, H. Differential Forms with Applications


to the Physical Sciences. Academic Press (1963).

16. GÖCKELER, M. and SCHÜCKER, T. Differential Geo-


metry, Gauge Theories, and Gravity. Cambridge Uni-
versity Press (1995).

17. HSU, H. P. Vector Analysis. Simon and Schuster, Inc.


(1969).

18. PARROTT, S. Relativistic Electrodynamics and Dif-


ferential Geometry, Springer-Verlag, N.Y. (1987)

19. SCHLEIFER, N. Differential Forms as a Basis for Vec-


tor Analysis, with Applications to Electrodynamics,
American Journal of Physics 51 (12): 1139-1145 (1983).

20. SCHUTZ, B. Geometrical Methods of Mathematical


Physics. Cambridge University Press (1995).

21. WARNICK, K. F., SELFRIDGE, R. H. and ARNOLD, D.


V. Teaching Electromagnetic Field Theory Using Dif-
ferential Forms, IEEE Transactions on Education 40 (1):
53-68 (1997).

22. von WESTENHOLZ, C. Differential Forms in Mathe-


matical Physics. North-Holland Publishing Company
(1986).

23. AHARONOV, Y. and BOHM, D. Significance of Electro-


magnetic Potentials in the Quantum Theory, Physical
Review 115: 485-491 (1959).
CAPÍTULO 4

ASPECTOS CONTEMPORÂNEOS DA

MECÂNICA QUÂNTICA1

4.1 INTRODUÇÃO
De um modo geral, os trabalhos de pesquisa em fron-
teira de Fı́sica, publicados em revistas, destinam-se a especia-
listas com experiência (em nı́vel de mestrado, de doutorado,
ou de pós-doutorado) em determinado aspecto da pesquisa
em questão. Dificilmente, alunos de graduação, com conhe-
cimento apenas de Fı́sica Básica, poderão entendê-los. Neste
artigo, vamos dar exemplos de trabalhos publicados nessas
revistas e que, contudo, podem ser estudados por alunos que
tenham feito um curso introdutório de Mecânica Quântica
na graduação,[1] trabalhos esses envolvendo sistemas quânticos
de dois nı́veis, propagadores de Feynman, e evolução tem-
poral do pacote de onda de Schrödinger.
4.2 SISTEMAS QUÂNTICOS DE VÁRIOS NÍVEIS

4.2.1 Formalismo
Quando o hamiltoniano H de um sistema fı́sico é co-
nhecido, é possı́vel prever sua evolução temporal a partir de
condições iniciais dadas, resolvendo a equação de Schrödin-
ger. Se H é um hamiltoniano independente do tempo [H(~r)],
este problema tem uma solução relativamente simples, já que
basta usar a técnica da separação de variáveis para obtermos
a solução daquela equação.
Seja, então, a equação de Schrödinger:
1
Este artigo foi publicado na Revista Brasileira de Ensino de Fı́sica 19 (1):
49-63 (1997) e assinado por José Maria Filardo Bassalo e Mauro Sérgio Dorsa
Cattani.
106

∂Ψ(~
r ,t)
H(~r)Ψ(~r, t) = i h̄ ∂t
. (4.2.1)

Aplicando-se a técnica da separação de variáveis:

Ψ(~r, t) = T (t) ψ(~r), (4.2.2)

a solução de (4.2.1) será dada por:[2]


n=∞ i
cn e− E t
P
Ψ(~r, t) = h̄ n ψn (~r), (4.2.3a)
n=1

ou, usando-se a notação de Dirac:[3]


n=∞ i
| Ψ(~r, t) > = cn e− E t
| ψn (~r) >,
P
h̄ n (4.2.3b)
n=1

onde | ψn (~r) > é solução da seguinte equação de autovalores:

H(~r) | ψn (~r) > = En | ψn (~r) >. (4.2.4)

Nessa expressão (4.2.4), En é a energia do sistema e


cn é calculado conhecendo-se Ψ(~r, to ), através de:
i
cn = < ψ(~r) | Ψ(~r, to ) > e− E t
h̄ n o , (4.2.5)

onde < α | β > indica o produto escalar entre as funções α e


β consideradas.[4]
Via de regra, mesmo sendo H independente do tempo,
ele é um operador complicado e, por isso, soluções rigorosas
de (4.2.4) só poderão ser encontradas em casos especiais.[5]
Por outro lado, se H é dependente do tempo, a solução da
equação de Schrödinger (4.2.1) não poderá mais obede-
cer ao esquema indicado acima. Para tanto, é necessário
usar a Teoria da Perturbação Dependente do Tempo -
TPDT.[6] Vejamos como.
Seja H, o hamiltoniano de um sistema fı́sico:[7]
107

H(t) = Ho + V(t), (4.2.6)

onde, conforme já dissemos, Ho descreve o sistema não-pertur-


bado e V(t) é o potencial perturbativo dependente do tempo.
A idéia básica da TPDT reside no seguinte. Primeiro, se a
perturbação V está ausente (V = 0), a solução de (4.2.1) (com
H = Ho ) será:
n=∞ i (o)
| Ψ(t) > = cn e− E t
| Ψ(o)
P
n ) >, (4.2.7)
h̄ n
n=1

onde | Ψ(o)
n ) > é solução da seguinte equação de autovalores:

Ho | Ψ(o) (o) (o)


n > = En | Ψn >. (4.2.8)

Segundo, se a perturbação V(t) está presente, a solu-


ção de (4.2.1) será análoga à equação (4.2.7), sendo que, agora,
os coeficientes cn são dependentes do tempo, ou seja:
n=∞ i (o)
| Ψ(t) > = cn (t) e− E t
| Ψ(o)
P
n ) >. (4.2.9)
h̄ n
n=1

Para obtermos o valor de cn (t) (que representa a am-


plitude de probabilidade de encontrar o sistema no n-estado
não perturbado), teremos de substituir (4.2.9) em (4.2.1).
Desse modo, teremos:
n=∞
dck 1
≡ c˙k = Vkn (t) cn (t) eωkn t ,
P
dt ih̄
(4.2.10)
n=1

onde:
(o) (o)
Ek − En
ωkn = h̄
, (4.2.11)

e:
(o)
Vkn = < Ψk | V | Ψ(o)
n >. (4.2.12)
108

A equação (4.2.10) representa um sistema simultâneo


de equações diferenciais lineares ordinárias, cuja solução de-
pende da forma de V(t) e das condições iniciais de cn . Alguns
exemplos de solução da equação referida acima encontram-se
em textos introdutórios de Mecânica Quântica.[8]
4.2.2 Sistemas Quânticos de Dois Nı́veis
Neste tópico, vamos estudar o caso particular de pro-
blemas fı́sicos envolvendo apenas sistemas de dois nı́veis, isto
é, em que o hamiltoniano Ho tem somente dois estados não-
perturbados, caracterizado pelas autofunções | ψα > e | ψβ >,
com os respectivos autovalores de energia Eα e Eβ . Desse
modo, as equações (4.2.9) e (4.2.10) serão escritas da seguinte
maneira:
i
| Ψ(t) > = cα (t) | ψα > e− E t
h̄ α +

i
+ cβ (t) | ψβ > e− E t
h̄ β , (4.2.13)

1
ċα = h̄
[cα (t) Vαα (t) + cβ (t) Vαβ (t) eiωαβ t ], (4.2.14a)

ċβ = 1

[cα (t) Vβα (t) e− iωαβ t
+ cβ (t) Vββ (t)], (4.2.14b)

onde:

Eα − Eβ
ωαβ = h̄
,

e os elementos de matriz Vn,k (com n, k = α eβ) são dados


por:

Vkn = < ψn | V (t) | ψk >. (4.2.15)

Geralmente, não é fácil resolver o sistema de equações


(4.2.14 a,b). No entanto, em algumas situações fı́sicas, é
109

possı́vel encontrar soluções para esse sistema. Vejamos dois


exemplos.[9]
4.2.2.1 Auto-alargamento das linhas de inver-
são da amônia
A molécula de amônia (NH3 ) tem a forma de uma
pirâmide, com os três átomos de hidrogênio (H) situados nos
vértices de um triângulo equilátero, formando uma base trian-
gular, e o átomo de nitrogênio (N) situa-se no vértice oposto a
essa base. Essa molécula, semelhantemente a qualquer outra,
tem uma infinidade de estados: pode girar em torno de qual-
quer eixo; pode se mover em qualquer direção; pode vibrar,
etc. Destes estados, vamos considerar somente aqueles que
decorrem da rotação em torno de seu eixo de simetria (reta que
passa pelo N e é perpendicular ao plano dos H), que são apenas
dois, e que representam a inversão do átomo N em relação
à base dos H. Essa inversão pode ocorrer por movimento
vibracional[10] ou por colisões moleculares. Neste último caso,
a inversão pode ser devida a colisões entre moléculas de amônia
e outras moléculas do gás em estudo. Quando tratamos de
amônia pura, teremos, então, o caso de auto-inversão que,
por sinal, é objeto de nosso estudo neste item.
Desde que B. Bleaney e R. D. Penrose mediram, em
1947,[11] a auto-inversão, por colisão, da linha da amônia (co-
nhecido desde então como auto-alargamento), muitos mode-
los teóricos têm sido desenvolvidos para poder explicar esse re-
sultado experimental,[12] com um razoável acordo entre teoria
e experiência. Até 1965, esses modelos consideravam a amônia
como um sistema de muitos-nı́veis. No entanto, nesse mesmo
ano, R. L. Legan, J. A. Roberts, E. A. Rinehart e C. C. Lin,[13]
procurando melhorar o acordo entre teoria e experiência, apre-
sentaram um modelo no qual consideraram que a molécula de
amônia é um sistema de dois-nı́veis com a mesma energia.
Considerando-se contribuições do efeito de ressonância rota-
cional, esse modelo mostrou um bom acordo com os resultados
experimentais para as linhas em que J (= K) assume valores
110

baixos. No entanto, quando J aumenta, esse acordo começa


a falhar.
Para contornar a dificuldade apontada acima, M. Cat-
tani e Y. Yamamoto, em 1982,[14] e Cattani, em 1985 e 1989,[15]
consideraram que a amônia é um sistema fı́sico descrito por
um hamiltoniano Ho com dois estados estacionários com as
funções de onda | ψα > e | ψβ >, e as respectivas energias
Eα e Eβ . Assim, quando uma perturbação dependente do
tempo V(t) é introduzida, ocorrerão transições entre aqueles
estados, de modo que a função de onda do sistema é agora
representada pela expressão (4.2.13):
i i
| Ψ(t) > = cα (t) | ψα > e− E t
h̄ α + cβ (t) | ψβ > e− E t
h̄ β ,

onde os coeficientes cα e cβ satisfazem as expressões (4.2.14a,b):

1
ċα (t) = ih̄
[cα (t) Vαα (t) + cβ (t) Vαβ (t) eiωαβ t ],

ċβ (t) = 1
ih̄
[cα (t) Vβα (t) e− iωαβ t
+ cβ (t) Vββ (t)],

E − Eβ
com ωαβ = α h̄ e Vn,k (com n, k = α eβ) definido pela
expressão (4.2.15).
Se V(t) representa a interação dipolo-dipolo entre as
moléculas de amônia, teremos que Vαα = Vββ e Vαβ = Vβα
é uma função real.[16] Desse modo, as expressões (4.2.14 a,b)
serão dadas por:

1
ċα (t) = ih̄
[cβ (t) Vαβ (t) eiωαβ t ], (4.2.16a)

ċβ (t) = 1
ih̄
[cα (t) Vβα (t) e− iωαβ t
]. (4.2.16b)

Para resolvermos esse sistema de equações diferen-


ciais ordinárias, vamos usar a aproximação de impacto en-
tre as colisões das moléculas de amônia, dada pela condição:
111

2ωαβ τ  1, em que τ é o tempo entre essas colisões. Essa


condição resulta em:

Vαβ (t) 2 2iωαβ t


lim [ h̄
] [e − 1] = 0, (4.2.17)
t→τ

pois as interações Vαβ (t) têm durações extremamente curtas.


Levando-se (4.2.17) em (4.2.16a,b), virá:

ih̄ dcdt
α (t)
= cβ (t) Vαβ (t) eiωαβ t , (4.2.18a)

dcβ (t)
ih̄ dt
= cα (t) Vαβ (t) eωαβ t ]. (4.2.18b)

Somando-se as expressões (4.2.18a) e (4.2.18b), tere-


mos:

d[cα (t) + cβ (t)]


ih̄ dt
= Vαβ (t) eiωαβ t [cα (t) + cβ (t)]. (4.2.19)

Integrando-se a expressão (4.2.19), resultará:

iωαβ t
i
R
− Vαβ (t) e dt
cα (t) + cβ (t) = A e h̄ . (4.2.20)

Para determinarmos a constante de integração A, va-


mos considerar que inicialmente (t = - ∞) a molécula da
amônia está no estado | ψα >. Em vista disso, a equação
(4.2.13) nos mostra que cα (− ∞) = 1 e cβ (− ∞) = 0 e,
portanto, a (4.2.20) tomará o seguinte aspecto:

iωαβ t0
i
Rt
− Vαβ (t0 ) e dt0
cα (t) + cβ (t) = e h̄ − ∞ . (4.2.21)

Usando-se a fórmula de Euler:

ei α
= cos α + i senα,
112

é fácil ver que:


Rt 0
cα (t) = ( h̄1 ) cos [ − ∞ Vαβ (t0 ) eiωαβ t dt0 ], (4.2.22a)

e:
Rt 0
cβ (t) = ( −i

) sen [ − ∞ Vαβ (t0 ) eiωαβ t dt0 ], (4.2.22b)

satisfazem as expressões (4.2.18a,b).


Para calcularmos as integrais indicadas nas expressões
(4.2.22a,b), bastará seguir a teoria do impacto apresentada
por Anderson,[17] e suas versões modificadas, conhecidas como
teorias de cut-off, desenvolvidas por C. J. Tsao e B. Cur-
nutte, em 1962,[18] Cattani, em 1968 e 1971,[19] e B. S. Frost,
em 1976.[20]
4.2.2.2 Racemização
Em 1844, o quı́mico alemão Eilhardt Mitscherlich
(1794-1863) observou que enquanto o ácido tartárico (C4 H6 O6 )
apresentava atividade óptica, o mesmo não acontecia com o
ácido racêmico, apesar de ser isômero do tartárico. Tais resul-
tados se constituı́am num enigma, uma vez que esses ácidos
além de apresentarem composições quı́micas idênticas tinham
a mesma estrutura, isto é, eram isômeros (hoje, denominamos
de enanciômeros[21] ).
Esse enigma foi resolvido pelo quı́mico francês Louis
Pasteur (1822-1895), em experiências realizadas entre 1848 e
1850, nas quais observou que a inatividade óptica do ácido
racêmico decorria do fato de que o mesmo era formado por
dois tipos de cristais (na mesma quantidade) que giravam o
plano de polarização da luz em sentido horário e anti-horário,
respectivamente; observou mais ainda que um desses tipos
era a imagem em espelho (especular) do outro. Em vista
disso, classificou as moléculas que compunham esses cristais
em dois tipos: mão-direita (levógira) e mão-esquerda
113

(dextrógira). Pasteur observou, também, que uma das for-


mas do ácido racêmico era idêntica ao ácido tartárico.
A continuação do estudo da assimetria molecular
descoberta por Pasteur demonstrou que a atividade óptica de
um material opticamente ativo muda com o tempo.[22] As-
sim, uma amostra desse material que contém predominante-
mente um tipo de enanciômero (por exemplo, L-enanciômero)
pode transformar-se em D-enanciômero e, depois de um certo
tempo, a amostra torna-se uma mistura com igual quantidade
de cada enanciômero. Esse processo de relaxação é denomi-
nado de racemização, e depende da interação da molécula
ativa com o meio em que se encontra.
Muitos modelos, dinâmicos e estáticos, têm sido pro-
postos para descrever aquela interação, conforme se pode ver
em P. Claverie e G. Jona-Lasinio.[23] Contudo, nesse trabalho
de 1986, eles mostraram que tais modelos não são completa-
mente satisfatórios, já que os mesmos envolvem parâmetros
fenomenológicos cuja identificação não é imediata. Em vista
disso, propõem um outro modelo estático que poderia ser ca-
paz de explicar o fato de que moléculas opticamente ativas
exibem configurações simétricas que poderiam ser localizadas
em uma delas.
Desde 1991,[24] Cattani vem desenvolvendo um novo
modelo para explicar a racemização usando um formalismo
quanto-mecânico de dois-nı́veis. É justamente esse modelo
que vamos apresentar a seguir.
Como se sabe,[25] a atividade óptica ocorre quando a
molécula tem duas distintas configurações: esquerda | E > e
direita | D >, as quais são degeneradas pelo operador pari-
dade, isto é: P(x)| E > = | D > e P(x)| D > = | E >.
Esse enanciorismo direita-esquerda pode ser visto em termos
de um poço duplo de potencial simétrico,[26] e os estados | E >
e | D > podem ser considerados como configurações molecu-
lares que estão concentradas à esquerda e à direita do poço
114

de potencial, respectivamente. Esse poço duplo de potencial


simétrico é assumido apresentar a forma de dois potenciais
harmônicos sobrepostos com os dois pontos mı́nimos situa-
dos, respectivamente, nos pontos x = - a e x = a. A coorde-
nada x que envolve o operador paridade P, conectando esses
dois pontos mı́nimos do potencial, pode representar a posição
de um átomo, uma rotação de um grupo em torno de uma
ligação, alguma coordenada, ou uma coordenada coletiva de
uma molécula. Indicaremos por ω a freqüência fundamen-
tal de cada oscilador harmônico e por µ a massa reduzida
das partı́culas vibrando entre os pontos mı́nimos do potencial
considerado.[27]
Seja H o hamiltoniano do poço duplo de potencial,
incluindo a interação fraca que viola a paridade. Se a paridade
é violada, os lados direito e esquerdo desse poço duplo não são
mais exatamente simétricos. Nessas condições, temos:

< E| H | E > = EE = Eo - ,

< D | H | D > = ED = Eo + ,

< E | H | D > = < D | H | E > = δ,

devido à pequena superposição entre as funções de onda | E >


e | D > no interior da barreira de potencial separando os seus
dois pontos mı́nimos. Eo é a energia dos estados fundamentais
(E e D) na ausência das correntes fracas neutras e 2 é a
diferença de energia entre as configurações (D e E) devido às
interações de violação de paridade. Por sua vez, o parâmetro
δ, responsável pelo tunelamento natural, é dado por δ = h Λ,
onde Λ, medido em hertz, é escrito como:

λ = (2/π)3/2 ω (µ ω a2 /h̄)1/2 exp(− µ ω a2 /h̄), (4.2.23)

1 [28]
sendo o tempo de tunelamento natural τ dado por: τ = Λ
.
115

Para explicar a racemização dessa molécula optica-


mente ativa, admitiremos que o processo de relaxação é pro-
duzido essencialmente por transições entre os dois estados vi-
bracionais | E > e | D >, e mais ainda, que o potencial
de interação dessa molécula com o ambiente será represen-
tado por U(t). Nesse caso, a função de estado | ψ(t) > da
molécula opticamente ativa será dada por:
i
| ψ(t) > = e− E t
h̄ E [ cE (t) | E > ] +

i
+ e− E t
h̄ D [ cD (t) | D >] , (4.2.24a)

obedecendo à equação:

∂|ψ(t)>
ih̄ ∂t
= [ H + U(t) ] | ψ(t) >. (4.2.24b)

Usando-se o modelo de dois-nı́veis desenvolvido no


item (4.2.2), vê-se que os coeficientes cE (t) e cD (t) satisfazem
as seguintes equações diferenciais:

1
ċE (t) = ih̄
[ cE (t) (EE + UEE ) +

+ cD (t) (δ + UED ) ], (4.2.25a)

1
ċD (t) = ih̄
[ cD (t) (ED + UDD ) +

+ cE (t) (δ + UDE ) ], (4.2.25b)

onde os elementos de matriz Unk , com n, k = D e E, são


dados pela expressão Unk = < n | U (t) | k >.
Para simplificar um pouco o sistema de equações dife-
renciais dado por (4.2.25a,b), vamos considerar a seguinte fun-
ção:
116

bn (t) = cn (t) e(i/h̄)[En t + αn (t)]


, (4.2.26a)

Rt
αn (t) = o Unn (t’) dt’, (4.2.26b)

onde n = E, D. Com isso, o sistema (4.2.25a,b) ficará:

1 2 t+(αE −αD )]
ḃE (t) = b (t)(δ
ih̄ D
+ UED (t))e(i/h̄)[− , (4.2.27a)

ḃD (t) = 1
b (t)(δ
ih̄ E
+ UDE (t))e(i/h̄)[2t+(αD −αE )] . (4.2.27b)

Em virtude da pequena diferença entre os estados


| E > e | D >, podemos considerar que UDE (t) = UED (t).
Por outro lado, quando enanciômeros interagem com molécu-
las aquirais (que não discriminam os enanciômeros), como as
moléculas H2 O, NaOH, HC`, C`e , NH3 e H2 , tem-se UDD (t) =
UEE (t). Por outro lado, quando consideramos a interação
de enanciômeros com moléculas quirais, tem-se, em média,
UDD (t) ' UEE (t) e, portanto, podemos assumir, em primeira
aproximação, que UEE (t) = UDD (t). Nessas condições, as
expressões (4.2.26a,b) tomarão as formas:

2 i  t
ḃE (t) = 1
ih̄
bD (t) (δ + UDE (t)) e− h̄ , (4.2.28a)

1 2 i  t
ḃD (t) = ih̄
bE (t) (δ + UDE (t)) e h̄ . (4.2.28b)

De um modo geral, as expressões (4.2.28a,b) não po-


dem ser exatamente integradas para qualquer UDE (t). Em
trabalhos recentes,[29] Cattani e Bassalo resolveram essas equa-
ções para dois casos limites: quando UDE (t) é constante e
quando UDE (t) varia rapidamente com o tempo.
4.3 PROPAGADORES DE FEYNMAN
4.3.1 Formalismo
117

Segundo afirma o postulado fundamental da Mecâni-


ca Quântica,[30] o estado de um sistema fı́sico em um instante
t é completamente especificado pelo vetor estado | ψ(t) >.
Por outro lado, a questão básica da Dinâmica Quântica é a
de saber como evolui um sistema quântico entre um instante
inicial to e um instante final t, isto é, como obter | ψ(t) >
a partir de | ψ(to ) >. A afirmação de que | ψ(to ) > deter-
mina | ψ(t) > é a forma quanto-mecânica do Princı́pio da
Causalidade, que admitiremos ser verdadeiro. Desse modo,
consideremos, então, que o estado | ψ(t) > pode ser obtido
de | ψ(to ) > por intermédio de um operador linear - o ope-
rador evolução temporal U (t,to ) - definido por:[31]

| ψ(t) > = U (t, to ) | ψ(to ) >. (4.3.1)

Da equação (4.3.1), segue imediatamente que:

| ψ(t2 ) > = U (t2 , t1 ) | ψ(t1 ) ¿ =

= U(t2 , t1 )U (t1 , to ) | ψ(to ) > = U (t2 , to ) | ψ(to ) >, (4.3.2)

onde:

U(t2 , to ) = U (t2 , t1 )U (t1 , to ). (4.3.3)

Por outro lado, de (4.3.1) tem-se:

U(t,t) = 1. (4.3.4)

Agora, vamos definir o operador H(t) da seguinte


maneira:

i
U(t + , t) = 1 − h̄
H(t), (  1). (4.3.5)

Usando-se (4.3.3) em (4.3.5), virá:


118

U(t + , to ) = U (t + , t) U (t, to ). (4.3.6)

Agora, usando-se a expressão (4.3.6), calculemos a


equação diferencial satisfeita por U(t,to ):

dU (t,to ) U (t + ,to ) − U (t,to )


dt
= lim
→o 
=

U (t + ,t)U (t,to ) − U (t,to )


= lim 
=
→o

[U (t + ,t) − 1] U (t,to ) i
= lim
→o 
= − h̄
H(t) U (t, to ),

ou:

dU (t,to )
ih̄ dt
= H(t)U (t, to ), (4.3.7)

com a condição inicial de que U(to , to ) = 1, conforme (4.3.4).


O operador H(t) definido acima é caracterı́stico do
sistema fı́sico que estamos considerando, e é análogo à função
hamiltoniana da Mecânica Clássica, razão pela qual, em
Mecânica Quântica, ele é denominado de operador hamil-
toniano.
Se H não depende explicitamente do tempo, a inte-
gração de (4.3.7) pode ser feita sem dificuldades, e seu resul-
tado será dado por:

i
U(t,to ) = e− h̄
H(t − to )
, (4.3.8)

expressão essa que nos permite, sem restrição de generalidade,


tomar to = 0. Portanto, a equação (4.3.8) poderá ser escrita
da seguinte forma:

i
U(t) = e− h̄
Ht
. (4.3.9)
119

Para obtermos a representação espectral discreta de


U(t) dado por (4.3.9), vamos considerar um conjunto ortonor-
mado completo de estados estacionários | ψn > de H, isto é:

H | ψn > = En | ψn >, (4.3.10a)

conjunto esse que satisfaz as seguintes condições:[32]

< ψm | ψn > = δmn , | ψi >< ψi | = 1. (4.3.10b,c)


P
i

Agora, usando-se as expressões (4.3.10a,b,c) na ex-


pressão (4.3.9), resultará:
i
| ψm >< ψm | e− Ht
| ψn >< ψn | =
P
U(t) = h̄
m,n

i
| ψm >< ψm | ψn > e− En t
< ψn | =
P
= h̄
m,n

i
δmn e− E t
| ψm >< ψn |,
P
= h̄ n
m,n

ou:
i
e− E t
| ψn >< ψn |,
P
U(t) = h̄ n (4.3.11)
n

expressão essa que é a representação espectral discreta


de U.
Agora, vamos definir o propagador de Feynman
para o sistema fı́sico considerado. Para isso, suponhamos que
o mesmo seja descrito no espaço das configurações pelas co-
ordenadas ~q ≡ (q1 , q2 , ..., q` ), onde ` é o número de graus de
liberdade. Assim, se o sistema está no ponto ~qo e no instante
to = 0, representado pelo estado | ~qo >, a probabilidade de
que esteja entre os estados | ~q > e | ~q + d~q > no instante t
è, por definição,[33] dada por:
120

P(~q, ~qo ; t) d~q = |< ~q | U (t) | ~qo >|2 d~q ≡

≡ | K(~q, ~qo ; t) |2 d~q, (4.3.12)

onde:

K(~q, ~qo ; t) ≡ < ~q | U (t) | ~qo >, (4.3.13)

define o propagador de Feynman de (~qo , to = 0) a (~q,t).


Esse propagador representa uma amplitude de probabili-
dade para ir de um estado a outro.
Usando-se a notação de Dirac[34] para a função de
onda no espaço das configurações, isto é:

ψ(~q) = < ~q | ψ >, ψ ∗ (~q) = < ψ | ~q >, (4.3.14 a,b)

onde (*) indica o complexo conjugado, a expressão (4.3.1)


tomará a forma:

ψ(~q, t) = < ~q | U (t, to ) | ψ(to ) >, (4.3.15)

Inserindo-se a relação de completeza dada pela ex-


pressão (4.3.10 d) em (4.3.15), virá:

< ~q | U (t, to ) | ~qo >< ~qo | ψ(to ) > d~qo , (4.3.16)


R
ψ(~q, t) =

ou, usando-se as expressões (4.3.13) e (4.3.14a), a expressão


(4.3.16) tomará a forma:
R
ψ(~q, t) = K(~q, ~qo , t) ψ(~qo ) d~qo . (4.3.17)

A expressão (4.3.17) mostra que o propagador de


Feynman K é, também, uma função de Green depen-
dente do tempo.
Por fim, para obtermos a representação espectral
de K bastará inserir a expressão (4.3.11) em (4.3.13). Desse
modo, teremos:
121

i
K(~q, ~qo ; t) = < ~q | e− E t
| ψn >< ψn | ~qo >,
P
h̄ n
n

ou, usando-se as expressões (4.3.14a,b), virá:


i
ψn (~q)ψn∗ (~qo ) e− E t
P
K(~q, ~qo ; t) = h̄ n . (4.3.18)
n

4.3.1.1 Propagador da Partı́cula Livre


Para a partı́cula livre, o hamiltoniano é dado por:

~2
p
Ho = 2m
, p~ = − i h̄ ∇. (4.3.19a,b)

Nesse caso, é mais simples resolver esse problema no


espaço dos momentos (| p~ >), no qual se tem:

| p~ >< p~ | d~p = 1,
R
(4.3.20a)

| p~o >< p~o | d~po = 1.


R
(4.3.20b)

Inserindo-se as expressões (4.3.20a,b) em (4.3.13), re-


sultará em:

< ~q | p~ > < p~ | Uo (t) | p~o > ×


RR
Ko (~q, ~qo ; t) =

× < p~o | ~qo > d~p d~po . (4.3.21)

No caso da partı́cula livre, tem-se:[35]

p~ = p~o , p~2 | p~ > = p2 | p~ >, (4.3.22a,b)

< p~ | p~o > = δ(~p − p~o ). (4.3.22c)

Para efetuarmos a integral indicada na expressão


(4.3.21), calculemos < p~ | Uo (t) | p~o >. Para isso, usemos as
expressões (4.3.9) e (4.3.22a,b,c). Desse modo, teremos:
122

i
< p~ | Uo (t) | p~o > = < p~ | e− H t
h̄ o | p~o > =

i ~2
p
= < p~ | e− h̄ 2m
t
| p~o > =

i p2 i p2
= e− h̄ 2m
t
< p~ | p~o > = e− h̄ 2m
t
δ (~p − p~o ). (4.3.23)

Por outro lado, sabemos que:[36]

1 i
p
~.~
q
< ~q | p~ > = ` e h̄ , (4.3.24a)
(2πh̄) 2

1 i
p
~o .~
qo
< p~o | ~qo > = ` e h̄ , (4.3.24b)
(2πh̄) 2

onde ~q representa a coordenada cartesiana da partı́cula, e ` a


dimensão do espaço.
Substituindo-se as expressões (4.3.23) e (4.3.24a,b) em
(4.3.21), virá:

p 2
i
1
e− [ 2m t − p q − q~o )]
~.(~
R
Ko (~q, ~qo ; t) = (2πh̄)`
h̄ d~p. (4.3.25)

Usando-se a seguinte integral:[37]

b2
q
e−
R∞ 2 iπ i
− ∞ e[i(ax + bx)]
dx = a
4a2 , (4.3.26)

na expressão (4.3.25), obteremos o procurado propagador


de Feynman da partı́cula livre:
` im
m q − q~o )2 ]
Ko (~q, ~qo ; t) = ( 2πih̄t ) 2 e[ 2h̄t (~
. (4.3.27)

Usando-se a expressão:[38]

q − q
(~ ~o )2
1 1
δ(~q − ~qo ) = ` lim
→o
{ ` e[− 
]
}, (4.3.28)
π2 ε2
123

é fácil ver que:

lim Ko (~q, ~qo ; t) → δ(~q − ~qo ). (4.3.29)


t→o

4.3.1.2 Propagador de um Sistema Quadrático


Dependente do Tempo
Neste item, vamos calcular o propagador para um sis-
tema quadrático dependente do tempo, em função do propa-
gador da partı́cula livre, resolvendo diretamente a equa-
ção de Schrödinger correspondente, usando, para isso, uma
adequada transformação espaço-temporal.
Comecemos escrevendo o lagrangiano para o nosso sis-
tema, da seguinte forma:[39]

1
L= 2
[a(t) q̇ 2 − b(t) q 2 ] + c(t) q. (4.3.30)

Desse modo, a equação de Schrödinger correspon-


dente ficará (tomando-se h̄ = 1):

∂ 2 ψ(q, t)
i ∂ψ(q,
∂t
t)
= − 1
2a(t) ∂q 2
+

+ [ 21 b(t) q 2 − c(t) q] ψ(q,t). (4.3.31)

Agora, vamos usar a seguinte transformação espaço-


temporal:[40]

q = s(τ ) q̄ + p(τ ), (4.3.32a)

onde a função τ é dada por:


Rt
τ = µ(t0 ) dt0 , dτ
dt
= µ(t). (4.3.32b,c)

Considerando-se o ansatz:[41]
124

φ(q̄, τ ) = ei f (q̄,τ )
χ(q̄, τ ) (4.3.33)

vemos que, em termos das novas variáveis q̄ e τ , a expressão


(4.3.31) tomará a seguinte forma:[42]

∂ 1 ∂2 ∂χ p0 s0 1 ∂f
[i µ ∂τ
+ 2 a s2 ∂ q̄ 2
] χ − i ∂ q̄
[µ s
+ q̄ µ s
− as2 ∂ q̄
]+

2 p0 ∂f

+ 1
2 a s2
[i ∂∂ q̄f2 − ( ∂f
∂ q̄
)2 ] + µ s ∂ q̄
+

s0 ∂f ∂f 1
+ q̄ µ s ∂ q̄
-µ ∂τ
− 2
b s2 q̄ 2 -


- b s p q̄ + c s q̄ + c p χ = 0. (4.3.34)

Escolhendo-se adequadamente a função f, e impondo-se


condições sobre as funções s, p e µ, isto é:[43]

1 √ 1
f= 2
a s ṡ q̄ 2 + a s ṗ q̄ + i`n s + 2
a p ṗ +

Rt
+ 1
2
c(t0 ) p(t0 ) dt0 , (4.3.35)

ȧ b
s̈ + a
ṡ + a
s = 0, (4.3.36)

ȧ b c
p̈ + a
ṗ + a
p = a
, (4.3.37)

a µ s 2 = Mo , (Mo = constante) (4.3.38a)

ṡ ȧ µ̇
2 s
+ a
+ µ
= 0, (4.3.38b)

a expressão (4.3.31) transformar-se-á na equação de Schrö-


dinger para a partı́cula livre:
125

1 ∂ 2 χ(q̄,τ ) ∂χ(q̄,τ )
2 Mo ∂ q̄ 2
+ i ∂τ
= 0, (4.3.39)

Portanto, a solução dessa equação será dada pela ex-


pressão (4.3.17):
R∞
χ(q̄, τ ) = − ∞ Klivre (q̄f , q̄o ; τ, τo ) χ(q̄o , τo ) dq̄o , (4.3.40)

onde Klivre (q̄f , q̄o ; τ, τo ) é dado por (4.3.27):

Mo 1
Klivre (q̄f , q̄o ; τ, τo ) = [ 2 π i h̄ (τ − τo )
]2 ×

2
i Mo (q̄f − q̄o )
h i
× exp 2h̄ (τ − τo )
, (4.3.41)

com h̄ trazido de volta.


Usando-se esses resultados, o propagador será dado
[44]
por:
h i
K(qf , qo ; tf , to ) = exp i f (q̄f , τ ) Klivre (q̄f , q̄o ; τ, τo ) ×

h i
× exp − i f ∗ (q̄o , τo ) , (4.3.42)

onde (*) significa complexo conjugado.


Por fim, substituindo-se as expressões (4.3.35) e (4.4.41)
em (4.3.42), obteremos o propagador de Feynman procu-
rado:

Mo 1
K(qf , qo ; tf , to ) = [ 2 π i h̄ sf so (τ − τo )
]2 ×


i
× exp h̄
[ 12 (af sf ṡf q̄f2 − ao so ṡo q̄o2 ) +


+ (af sf ṗf q̄f − ao so ṗo q̄o ) + 12 (af pf ṗf − ao po ṗo )] ×
126

i R tf
× exp h̄
[ 12 to c(t) p(t) dt +


Mo
+ 2(τ − τo )
(q̄f − q̄o )2 ] , (4.3.43)

onde:

xy ≡ x(ty ); ẋy ≡ ẋ(ty ),

com:

dx
x = a ou s ou p; y = f ou o; ẋ = dt
.

A expressão (4.3.43) engloba todos os casos especiais


tratados na literatura, casos esses estudados por intermédio da
técnica da integral de caminho de Feynman ou por in-
termédio da representação hidrodinâmica da Mecânica
Quântica.[45]
4.4 PACOTE DE ONDA DE SCHRÖDINGER
4.4.1 Pacote de onda dispersivo e não-acelerado
Neste item, vamos estudar a evolução temporal do
pacote de onda livre unidimensional | ψ(x, t) |2 , obtido
através da solução da equação de Schrödinger.
Para o caso unidimensional que estamos considerando,
o hamiltoniano vale:

~2
p h̄2 ∂ 2
Ho = 2m
= − 2m ∂x2
, (4.4.1)

e a equação de Schrödinger correspondente terá o seguinte


aspecto:

∂ψ(x, t) h̄2 ∂ 2 ψ(x, t)


i h̄ ∂x
= 2m ∂x2
. (4.4.2)
127

A solução dessa equação é dada pela expressão (4.3.17)


que, ajustada para o caso unidimensional considerado, tomará
a forma:
R∞
ψ(x, t) = − ∞ K(x, x0 ; t) ψ(x0 , 0) dx0 . (4.4.3)

A expressão (4.3) mostra que para obtermos ψ(x,t)


precisamos conhecer o propagador de Feynman K(x, x’;t).
Para obtê-lo, vamos usar a equação (3.27) na versão unidimen-
sional, ou seja:
1 m
(x − x0 )2 ]
Ko (x, x0 ; t) = ( 2πh̄t
m 2 [−
) e 2ih̄t . (4.4.4)

De posse das expressões (4.4.3) e (4.4.4), podemos es-


tudar o movimento de um pacote de onda livre em uma
dimensão. Inicialmente, consideremos que o sistema fı́sico está
representado pelo pacote de onda de incerteza mı́nimo:[46]

1 (x − a)2
ψ(x, 0) = [2πσ 2 ]− 4 e[− 4σ 2
]
, (4.4.5a)

(x − a)2
| ψ(x, 0) |2 = √1
σ 2π
e[− 2σ 2
]
, (4.4.5b)

onde σ ≡ (∆x)o é a largura inicial do pacote gaussiano


considerado.
Levando-se as expressões (4.4.4) e (4.4.5) em (4.4.3),
demonstra-se que:[47]

(x − a)2
2 1√ [− ]
| ψ(x, t) | = σ(t) 2π
e 2σ 2 (t) , (4.4.6a)

onde:

h̄2 t2 12
σ(t) = (σ 2 + 4m2 σ 2
) . (4.4.6b)
128

A expressão (4.4.6a) é da mesma forma que a ex-


pressão (4.4.5b), exceto que σ 2 [≡ (∆x)2o ] é substituı́do por
σ 2 (t) [≡ (∆x)2t ], isto é:

(∆p)2o t2
(∆x)2t = (∆x)2o + m2
. (4.4.7)

A expressão (4.4.7) mostra que o centro do pacote


permanece em x = 0 enquanto a largura do pacote aumenta
com o tempo t, desde o passado até o futuro, isto é, o pacote
de onda inicial dispersa sem, contudo, acelerar-se.
4.4.2 Pacote de onda acelerado e não-dispersivo
No item anterior, vimos que uma função de onda dis-
persiva e evoluindo uniformemente no tempo parecia ser a
única solução da equação de Schrödinger para a partı́cula
livre. No entanto, M. V. Berry e N. L. Balazs descobriram, em
1979,[48] que se em vez de se considerar um pacote de onda ini-
cial tipo gaussiano [vide expressão (4.4.5a)], for considerado
um pacote de onda airyano, isto é:

ψ(x, 0) = Ai( B 2x ), (4.4.8)


h̄ 3

onde B é uma constante e Ai denota a função de Airy,[49] a


solução da equação de Schrödinger para a partı́cula livre
[vide expressão (4.4.2)] é dada por:
3
B t B 3 t2
B 3 t2 (x −
ψ(x, t) = Ai[ B2 (x − 4m2
)] ei [ 2mh̄
6m2
)]
. (4.4.9)
h̄ 3

A análise da expressão (4.4.9) mostra um resultado


aparentemente surpreendente: 1) o pacote de onda airyano
3
não é dispersivo; 2) acelera (com aceleração a = 2Bm2 ) mesmo
sem força atuando. Berry e Balazs explicaram esse aspecto
contraditório do Teorema de Ehrenfest[50] (segundo o qual
o centro de gravidade de um pacote no espaço livre move-se
com velocidade constante), dizendo que o pacote de Airy
129

não tem um centro de gravidade definido, porque a função de


Airy não é de quadrado integrável, de modo que ela não pode
representar a densidade de probabilidade para uma partı́cula
isolada. Ao invés disso, ela corresponde a um número infinito
de partı́culas, do mesmo modo como acontece com a onda
plana e outras funções de onda na teoria do espalhamento.
Ainda nesse trabalho, Berry e Balazs examinaram o
caso em que o pacote de Airy se move em um potencial
linear do tipo:

V = - F(t).x. (4.4.10)

Neste caso, a equação de Schrödinger dependente


do tempo será dada por:

∂ψ(x,t) h̄2 ∂ 2 ψ(x,t)


i h̄ ∂t
= 2m ∂x2
− F (t)x ψ(x, t), (4.4.11)

e, com auxı́lio da transformação:


1 Rt
x’ = x - m o F (τ ) (t − τ ) dτ , (4.4.12)

Berry e Balazs encontraram a seguinte solução para o pacote


de onda correspondente à expressão (4.4.11):

B 3 t2
| ψ(x, t) |2 = Ai2 { B2 [x − 4 m2
-
h̄ 3

1 Rt
- m o F (τ ) (t − τ ) dτ ] }. (4.4.13)

Examinando-se o pacote de Airy dado pela expressão


(4.4.13), verifica-se que o mesmo é ainda não-dispersivo, porém
3
continua acelerado. No entanto, se fizermos F(t) = - 2Bm ,
observa-se que essa força é suficiente para evitar a tendência
do pacote a se acelerar, porém, sua natureza não-dispersiva
permanece. Esses resultados foram re-obtidos e re-interpreta-
dos em uma variedade de contextos por outros autores.[51,52]
130

4.4.3 Pacote de onda acelerado e dispersivo


No item anterior, vimos que a evolução de um pa-
cote de onda airyano, no espaço livre, se acelera uniforme-
mente, sem, contudo, dispersar. Por outro lado, quando esse
pacote evolui numa região de potencial linear, a força corres-
pondente a esse potencial é capaz de anular essa aceleração,
porém, mantendo o caráter não-dispersivo do mesmo. Neste
item, vamos mostrar que mesmo um pacote airyano perde
seu caráter acelerado e não-dispersivo quando evolui em um
potencial quadrático e dependente do tempo.
Consideremos a seguinte equação de Schrödinger
dependente do tempo:

∂ψ(x, t) h̄2 ∂ 2 ψ(x, t)


i h̄ ∂t
= 2m ∂x2
+ V (x, t) ψ(x, t), (4.4.14)

onde:

V(x, t) = g2 (t)x2 + g1 (t)x, (4.4.15)

com g2 (t) e g1 (t) consideradas como funções arbitrárias.


Para resolvermos a expressão (4.4.15), vamos usar as
seguintes transformações:[53]

ψ(x, t) = β(t) ei φ(t)


ψ1 (x’, t’), (4.4.16a)

x’ = x
γ(t)
+ α(t), t0 = η(t). (4.4.16b,c)

Substituindo-se as expressões (4.4.16a,b,c) na expres-


são (4.4.15), considerando-se ainda que esta expressão deve
ser invariante sob aquelas expressões, e impondo-se condições
sobre as funções arbitrárias γ(t) e α(t), teremos:[54]
2
φ(x, t) = m

[ γ̇2 xγ − α̇ γ x + f(t)], (4.4.17)
131

η̇ γ 2 = 1, β = √1 , (4.4.18a,b)
γ

2 g2 2 α̇ γ̇ g1
γ̈ + m
γ = 0, α̈ + γ
− m γ
= 0, (4.4.19a,b)

∂ψ1 (x0 ,t0 ) h̄2 ∂ 2 ψ1 (x0 ,t0 )


i h̄ ∂t0
= 2m ∂x02
+ F (t0 ) ψ1 (x0 , t0 ), (4.4.20)

onde:

F= m
2
γ 4 α̇2 + m γ 2 f˙. (4.4.21)

Realizando-se a mudança de fase indicada abaixo:

i
R t0
0 0 0 0 [− F (t00 ) dt00 ]
ψ1 (x , t ) = ψ2 (x , t ) e h̄ o , (4.4.22)

a expressão (4.4.20) tomará a seguinte forma:

∂ψ2 (x0 , t0 ) h̄2 ∂ 2 ψ2 (x0 , t0 )


i h̄ ∂t0
= 2m ∂x02
. (4.4.23)

A expressão (4.4.23) acima representa a equação de


Schrödinger para a partı́cula livre. Assim, usando-se a
solução tipo pacote de Airy para essa equação, e consideran-
do-se as expressões (4.4.16a,b,c), (4.4.17), (4.4.18a,b),
(4.4.19a,b), (4.4.21) e (4.4.22), o pacote de onda corresponden-
te da equação de Schrödinger, representada pela expressão
(4.4.14), será dado por:[55]

1 B x B 3 t2 Rt dτ 2
| ψ(x, t) |2 = γ
Ai2 2 [ γ(t)
− 4 m2
( o γ 2 (t) ) +
h̄ 3

g1 (τ 0 )
Rt Rτ 
+ o

γ 2 (τ ) o m
γ(τ 0 ) dτ 0 ] . (4.4.24)

correspondendo ao potencial dependente do tempo:


mγ̈(t)
V(x, t) = - 2γ(t)
x2 + g1 (t) x. (4.4.25)
132

Observe-se que a expressão (4.4.24) representa a solu-


ção da equação de Schrödinger para potenciais quadráticos
dependentes do tempo em termos do pacote de Airy. O ex-
ame dessa equação mostra que esse pacote pode acelerar-se,
assim como pode esticar-se ou comprimir-se no tempo. Obser-
ve-se, ainda, que essa equação não pode ser obtida pelos
métodos de transformação usados nos trabalhos mencionados
nas notas [48], [51] e [52].
Por fim, a expressão (4.4.24) nos permite estudar dois
casos particulares:
B3
Caso 1: γ = 1 e g1 = m
.
Neste caso, obtém-se o pacote não-acelerado e não-
dispersivo descoberto por Berry e Balazs, isto é:

| ψ(x, t) |2 = Ai2 [ B2 x]. (4.4.26)


h̄ 3

B3
Caso 2: g1 (t) = 2 m γ 3 (t)
.
Neste caso, integrando-se a expressão (4.4.24), obtém-
[56]
se:

1
| ψ(x, t) |2 = γ(t)
Ai2 [ B2 x
]. (4.4.28)
h̄ 3 γ(t)

que representa um pacote de Airy estacionário, porém dis-


persivo.

NOTAS E REFERÊNCIAS

1. Como texto introdutório de Mecânica Quântica, o leitor


poderá consultar os seguintes livros: LANDAU, L. y LIF-
SHITZ, E. Curso Abreviado de Fı́sica Teórica: Mecáni-
ca Quántica. Editorial Mir (1974); MERZBACHER, E.
Quantum Mechanics. John Wiley and Sons, Inc. (1961);
133

SCHIFF, L. I. Quantum Mechanics. McGraw-Hill Book


Company Inc. (1955).
2. MERZBACHER, op. cit.
3. DIRAC, P. A. M. The Principles of Quantum Mecha-
nics. Oxford Press (1962).
4. O produto escalar entre funções no espaço de Hilbert é
definido por (cf. MERZBACHER, op. cit.):
R∞
<α|β>= − ∞ α∗ (x) β(x) dx,

onde (*) significa complexo conjugado.


5. Geralmente, o hamiltoniano de um sistema fı́sico é dado pela
expressão: H = Ho + V, onde Ho descreve esse sistema não-
perturbado e V é o potencial perturbativo que pode depen-
der (ou não) explicitamente do tempo. Os casos especiais
referidos relacionam-se aos potenciais V não dependentes
do tempo como os que ocorrem, por exemplo, no átomo
de hidrogênio, no oscilador harmônico simples e no espa-
lhamento de partı́culas. Para o estudo desses casos, vejam-se
os textos indicados na nota [1].
6. Esse método foi proposto por Dirac, no artigo intitulado
On the Theory of Quantum Mechanics e publicado nos
Proceedings of the Royal Society of London A112: 661-677
(1926).
7. A partir de agora, vamos representar as grandezas envolvi-
das nas equações como apenas dependentes do tempo, es-
tando implı́cita a dependência na posição ~r. Por exemplo:
H(~r, t) ≡ H(t).
8. LANDAU y LIFSHITZ, op. cit.; MERZBACHER, op. cit.;
SCHIFF, op. cit.
9. Para outros exemplos sobre sistemas de dois nı́veis, veja-se:
FEYNMAN, R. P., LEIGHTON, R. B. and SANDS, M. The
Feynman: Lectures on Physics, Volume III. Addison-
Wesley Publishing Company Inc. (1966).
134

10. A inversão de N por movimento vibracional ocorre por efeito


tunel, uma vez que, como a freqüência (ν) de vibração de
N situa-se na região de microondas (' 0.8cm−1 , unidade
em que a velocidade da luz (c) é considerada unitária, pois
c = λ ν, sendo λ o comprimento de onda), ela é muito menor
do que a barreira de potencial existente entre os poços de
potenciais em que se situam os N em relação ao plano dos
H: acima ou abaixo, se esse plano for horizontal, ou à di-
reita ou à esquerda, se esse plano for vertical. Esse poten-
cial é conhecido como poço duplo de potencial. Para
maiores detalhes sobre a amônia, veja-se: TOWNES, C.
H. and SCHAWLOW, A. L. Microwave Spectroscopy.
McGraw-Hill Book Company Inc. (1955).

11. BLEANEY, B. and PENROSE, R. P. The Inversion Spec-


trum of Ammonia at Centimetre Wave-Lenghts, Pro-
ceedings of the Royal Society of London A189: 358-371
(1947).

12. Para um estudo mais detalhado desses modelos, consulte:


TOWNES and SCHAWLOW, op. cit. e as referências nele
indicadas.

13. LEGAN, R. L., ROBERTS, J. A., RINEHART, E. A. and


LIN, C. C. Linewidths of the Microwave Inversion
Spectrum of Ammonia, Journal of Chemical Physics 43:
4337-4345 (1965).

14. CATTANI, M. and YAMAMOTO, Y. Self-Broadening of


the Ammonia Inversion Lines, Journal of Quantitative
Spectroscopy Radiative Transfer 27: 563-567 (1982).

15. CATTANI, M. Self-Broadening of the Ammonia In-


version Spectrum, Journal of Quantitative Spectroscopy
Radiative Transfer 34: 453-454 (1985); ———-. The Two-
Level Approximation for the Ammonia Self-Broade-
ning, Journal of Quantitative Spectroscopy Radiative Trans-
fer 42: 83-84 (1989).
135

16. ANDERSON, P. W. Pressure Broadening in the Mi-


crowave and Infra-Red Regions, Physical Review 76:
647-661 (1949).

17. ANDERSON, op. cit.

18. TSAO, C. J. and CURNUTTE, B. Line-Widths of the


Pressure-Broadened Spectral Lines, Journal of Quan-
titative Spectroscopy Radiative Transfer 2: 41-91 (1962).

19. CATTANI, M. Tratamento Quântico do Alargamento


e do Deslocamento de Linhas Espectrais na Região
das Micro-Ondas, PhD Thesis, USP (1968); ——–. Pres-
sure Broadening and Shift in Microwave and Far
Infra-Red Regions, Anais da Academia Brasileira de Ciên-
cias 43: 51-56 (1971).

20. FROST, B. S. A Theory of Microwave Lineshifts, Jour-


nal of Physics B9: 1001-1020 (1976).

21. BASSALO, J. M. F. e CATTANI, M. A Interação Fraca


e a Bioquı́mica Quiral, Revista Brasileira de Ensino de
Fı́sica 17: 224-232 (1995); ——-. La Interacción Electro-
débil y la Bioquı́mica Quiral, ContactoS 10: 20-23 (1995).

22. MASON, S. F. Molecular Optical and the Chiral Dis-


criminations, Cambridge University Press (1982).

23. CLAVERIE, P. and JONA-LASINIO, G. Instability of


Tunneling and the Concept of Molecular Structure
in Quantum Mechanics: the Case of Pyramidal Mole-
cules and the Enantiomer Problem, Physical Review
A33: 2245-2253 (1986).

24. CATTANI, M. Environment Racemization: a Two-


Level Approach, Journal of Quantitative Spectroscopy Ra-
diative Transfer 46: 507-511 (1991); ———-. Collisional
Racemization and Weak Inversion Spectrum, Journal
of Quantitative Spectroscopy Radiative Transfer 49: 325-326
(1993).
136

25. MASON, op. cit.


26. HARRIS, R. A. and STODOLSKY, L. Quantum Beats in
Optical Activity and Weak Interractions, Physics Let-
ters B78: 313-317 (1978); ———-. On the Time Depen-
dence of Optical Activity, Journal of Chemical Physics
74: 2145-2155 (1981); ———-. Two State Systems in
Media and “Turing’s Paradox”, Physics Letters B116:
464-468 (1982).
27. CATTANI (1993), op. cit.
28. Essa freqüência deve-se à oscilação da molécula entre os es-
tados | E > e | D >, e o tempo dessa oscilação τ = 2ωπ
pode ser estimado em termos da taxa de tunelamento através
da barreira Vo (x) [HARRIS and STODOLSKY (1978), op.
cit.]. Levando-se em conta o “range” dos parâmetros mole-
culares (MASON, op. cit.), vemos que τ pode ser da ordem
de segundos, minutos, horas, anos ou até bilhões de anos.
Para a alanina, por exemplo, τ ∼ 109 anos [HUND, F. Zur
Deutung der Molekelspektrn. III, Zeitschrift für Physik
43: 805-826 (1927)].
29. CATTANI, M. and BASSALO, J. M. F. Weak Interac-
tions and the Stability of Optical Activity: a Two-
Level Approach, Il Nuovo Cimento 19D: 977-981 (1997);
———-. Weak Interactions and the Tunneling Race-
mization, Chirality 10: 519-521 (1998); ———-. On the
Stability of Optical Activity: a Two-Level Approach,
Journal of Quantitative Spectroscopy Radiative Transfer 61:
299-302 (1999).
30. MERZBACHER, op. cit.
31. MERZBACHER, op. cit.
32. Quando o conjunto ortonormado depende de uma variável
contı́nua, essas expressões tomam a forma (MERZBACHER,
op. cit.):

< ~q | ~qo > = δ(~q − ~qo ), (4.3.10c)


137

R R
| ~q >< ~q | d~q = 1, | ~qo >< ~qo | d~qo = 1. (4.3.10d)

33. HOLSTEIN, B. R. Topics in Advanced Quantum


Mechanics. Addison-Wesley Publishing Company (1992);
NUSSENZVEIG, H. M. Integrais de Trajetória. Anais
da Escola de Verão Jorge André Swieca, Volume 1: 127-173
(1981).

34. DIRAC (1962), op. cit.

35. GUTZWILLER, M. C., INOMATA, A., KLAUDER, J. R.


and STREIT, L. (Editors). Path Integrals from meV to
MeV. World Scientific Publishing Company (1986).

36. KURSUNOG̃LU, B. Modern Quantum Theory. W. H.


Freeman and Company (1962); HOLSTEIN, op. cit.; NUS-
SENZVEIG, op. cit.

37. HOLSTEIN, op. cit.; NUSSENZVEIG, op. cit.

38. MERZBACHER, op. cit.

39. KHANDEKAR, D. C. and LAWANDE, S. V. Feynman


Path Integrals: Some Exact Results and Applica-
tions, Physics Reports 137: 116-229 (1986).

40. RAY, J. R. and REID, J. L. Ermakov Systems, Velocity


Dependent Potentials, and Nonlinear Superposition,
Journal of Mathematical Physics 22: 91-95 (1981).

41. FARINA DE SOUZA, C. and DUTRA, A. S. The Propa-


gator for a Time-Dependent Mass Subject to a Har-
monic Potential with a Time-Dependent Frequency,
Physics Letters A123: 297-301 (1987).

42. BASSALO, J. M. F. Equivalence among the Propaga-


tors of Time-Dependent Quadratic Systems and Free
Particles, by Solving the Schrödinger Equation, Il
Nuovo Cimento 110B: 23-32 (1995). Registre-se que o trata-
mento tridimensional desse problema encontra-se em: BAS-
SALO, J. M. F. Equivalence among the Propagators of
138

Three-Dimensional Time-Dependent Quadratic Sys-


tems and Free Particles, by Solving the Schrödinger
Equation, Il Nuovo Cimento 111B: 793-797 (1996); BAS-
SALO, J. M. F., ALENCAR, P. T. S. and CATTANI, M.
S. D. Equivalence among the Propagators of Three-
Dimensional Time-Dependent Quadratic Systems, Il
Nuovo Cimento 113B: 691-698 (1998).
43. BASSALO (1995), op. cit.
44. FARINA DE SOUZA and DUTRA, op. cit.
45. BASSALO, J. M. F. e ALENCAR, P. T. S. Equivalência
entre os Propagadores de Feynman para Sistemas
Quadráticos Dependentes do Tempo e as Partı́culas
Livres, Revista Brasileira de Ensino de Fı́sica 15: 28-33
(1993).
46. HOLSTEIN, op. cit.; MERZBACHER, op. cit.; SCHIFF,
op. cit.
47. BERRY, M. V. and BALAZS, N. L. Nonspreading Wave
Packets, American of Journal Physics 47: 264-267 (1979).
48. ABRAMOWITZ, M. and STEGUN, I. A. Handbook of
Mathematical Functions. Dover Publications Inc. (1968).
49. EHRENFHEST, P. Bemerkung Über die Angenäherte
Gültigkeit der Klassischen Mechanik Innerhalb der
Quantenmechanik, Zeitschrift für Physik 45: 455-457
(1927).
50. GREENBERGER, D. M. Comment on “Nospreading
Wave Packets”, American of Journal Physics 48: 256
(1980).
51. BESIERIS, I. M., SHAARAWI, A. M. and ZIOLKOWSKI,
R. W. Nondispersive Accelerating Wave Packets, Ame-
rican of Journal Physics 62: 519-525 (1994).
52. RAY, J. R. Physical Review A26: 729-733 (1982); ———-.
Physical Review A28: 2603-2605 (1983).
139

53. NASSAR, A. B., BASSALO, J. M. F. and ALENCAR, P. T.


S. Dispersive Airy Packets, American of Journal Physics
63: 849-852 (1995).

54. NASSAR, BASSALO and ALENCAR (1995), op. cit.

55. NASSAR, BASSALO and ALENCAR (1995), op. cit.


CAPÍTULO 5

ASPECTOS CONTEMPORÂNEOS DA

TEORIA DA GRAVITAÇÃO1

5.1 A GEOMETRIA DO ESPAÇO-TEMPO


Em 1972, o famoso astrofı́sico indiano Subrahmanyan
Chandrasekhar (1910-1995; PNF, 1983) publicou um exce-
lente artigo na revista americana American Journal Physics,[1]
mostrando como deduzir as equações básicas da Teoria da
Gravitação formulada pelo fı́sico germano-suı́ço-norte-ameri-
cano Albert Einstein (1987-1955; PNF, 1921), em 1915, tam-
bém denominada de Teoria da Relatividade Geral (R.G.).
A dedução das equações é feita usando uma combinação de
argumentos fisicamente razoáveis e simplicidade matemática.
Esse artigo, entretanto, por ser sucinto demais em algumas
partes, fica um pouco difı́cil de ser entendido por alunos do
curso de graduação. A nossa intenção é de, seguindo os passos
de Chandrasekhar, fazer uma tentativa de deduzir as referi-
das equações de tal modo que os alunos de graduação, que
conheçam a Relatividade Restrita (R.R.) e um pouco de
cálculo tensorial consigam entender os aspectos fundamentais
da Teoria da Gravitação de Einstein.[1,7]
A Fı́sica deste século tem mostrado, de modo dramá-
tico, como são ilusórios e limitados todos os conceitos que
os homens criam para analisar e explicar os fenômenos natu-
rais. Cada palavra, conceito ou imagem, apesar de parecerem
muito precisos e claros, são somente descrições aproximadas
1
Este artigo teve a primeira versão publicada na Revista Brasileira de En-
sino de Fı́sica 20 (1): 27-37 (1998), e foi escrito por Mauro Sérgio Dorsa
Cattani.
142

da realidade. Apesar disso, a nossa tendência é sempre acre-


ditar que as criações de nossa mente representam a realidade
propriamente dita. Como é extremamente difı́cil termos uma
idéia exata das limitações dos conceitos gerados por nossa
mente, tendemos a confundi-los com a realidade. Um dos nos-
sos objetivos é o de buscar superar tal confusão. Isto é possı́vel
à medida que as nossas técnicas experimentais vão evoluindo.
Ampliando o horizonte de experiências, as restrições de nossa
mente racional tornam-se mais claras, levando-nos a aban-
donar, ou modificar, alguns conceitos estabelecidos.[8]
Acreditamos que, dentre os conceitos criados para des-
crever a natureza, o espaço e o tempo são os mais importantes.
Eles são de vital importância para a Ciência, filosofia e nossa
vida cotidiana: eles servem para ordenar eventos e objetos
no ambiente que nos cerca. Como praticamente todas as leis
da fı́sica são formuladas usando as noções de espaço e tempo,
uma das maiores revoluções da história da fı́sica foi a profunda
modificação dessas noções fundamentais, gerada pela Teoria
da Relatividade.[1−7]
Até o inı́cio deste século os fı́sicos acreditavam na
existência de um espaço absoluto tridimensional Euclideano,
independente dos objetos materiais que são contidos por ele.
Admitiam também que o tempo era uma dimensão separada,
igualmente absoluto, fluindo de modo uniforme, independen-
temente do mundo material. Essas concepções, pelo menos
no mundo ocidental, estavam tão profundamente arraigadas
nas mentes dos filósofos e cientistas que eram tidas como pro-
priedades genuı́nas e indubitáveis da natureza.
Devemos aos gregos a idéia de que a geometria Eucli-
deana é a expressão exata da natureza. Essa crença, que
surgiu com o aparecimento do texto Elementos, do matemáti-
co grego Euclides de Alexandria (323-285), perdurou por mais
de dois mil anos. Somente nos primórdios do século XX
os fı́sicos, graças a técnicas experimentais mais sofisticadas,
começaram a desconfiar dessa concepção geométrica, divina
143

e exata do mundo. Assim, o matemático alemão Hermann


Minkowski (1864-1909), combinando a eletrodinâmica de
Faraday-Maxwell com o princı́pio da Relatividade Res-
trita, descobriu que a geometria do espaço-tempo é pseudo-
Euclideana (ou de Minkowski). Esta descoberta fundamen-
tal foi comunicada pelo próprio Minkowski numa famosa con-
ferência pronunciada em 1908, com as seguintes palavras: “As
concepções de espaço e tempo que desejo apresentar aos se-
nhores emergiram do solo da Fı́sica Experimental e nisto
reside o poderio das novas idéias. Essas concepções são radi-
cais. Daqui em diante, o espaço por si mesmo está condenado
a desaparecer como simples sombras e só uma espécie de união
entre ambos preservará uma realidade independente”.
A Relatividade Restrita e também a Relativi-
dade Geral, como veremos nessas Notas, mudaram radical-
mente as nossas noções sobre espaço e tempo. O espaço dos
eventos fı́sicos não pode ser considerado como tridimensional.
Espaço e tempo aparecem ı́ntima e inseparavelmente conecta-
dos, constituindo um sistema mais complexo: um continuum
quadridimensional denominado “espaço-tempo”. Os dois não
podem ser separados: o que é espaço para um observador pode
ser uma mistura de espaço e tempo para outro. Dentro desse
contexto não faz sentido indagarmos acerca do comprimento
“real” de um objeto ou de um intervalo de tempo “real” de
um acontecimento. Isto seria equivalente a perguntarmos qual
o comprimento real da sombra de uma pessoa. A sombra é
uma projeção de pontos de um espaço tridimensional sobre
uma superfı́cie bidimensional e terá comprimentos diferentes
conforme os diferentes ângulos de projeção sobre a referida
superfı́cie.[8] De um modo análogo o comprimento de um ob-
jeto ou o intervalo de tempo de um acontecimento serão as
projeções de pontos do espaço-tempo quadridimensional so-
bre uma superfı́cie tridimensional.
Foi com o aparecimento da R.R. que começamos a
perceber que o espaço e o tempo, assim como deve ocorrer com
144

outros conceitos, são construções de nossa mente e, por con-


seguinte, devem ser considerados como algo relativo, ilusório
e limitado. Com essa nova teoria aprendemos que um sistema
de coordenadas não possui um significado objetivo; as coor-
denadas do espaço-tempo são apenas elementos de uma lin-
guagem que um observador utiliza para descrever o seu meio
ambiente.
Através do estudo das propriedades fı́sicas de um dado
campo de forças seria possı́vel, em princı́pio, determinar a
métrica do espaço-tempo associada ao referido campo. Até
o presente momento, acredita-se que uma geometria pseudo-
Euclideana esteja associada às interações forte, fraca e eletro-
magnética. A afirmação de que processos fı́sicos ocorrem num
espaço pseudo-Euclideano é muito mais rica do que o princı́pio
da relatividade. Corresponde a generalizar tal princı́pio tor-
nando possı́vel a utilização tanto de referenciais inerciais como
não inerciais para o estudo das leis da Fı́sica. Neste sen-
tido, devemos notar que encontramos freqüentemente na lite-
ratura afirmações que a R.R. trata somente da descrição de
fenômenos em sistemas inerciais, enquanto a descrição dos
fenômenos em referenciais não inerciais é uma prerrogativa
da R.G.. Estas afirmações estão erradas. Segue, de modo
trivial e depois da descoberta de Minkowski, que podemos
usar qualquer sistema de referência, inercial ou não inercial,
para descrever os fenômenos fı́sicos.[6]
A R.R., que teve inı́cio devido a conflitos entre resul-
tados experimentais e as previsões da Fı́sica Newtoniana,
construiu uma estrutura comum para a eletrodinâmica de
Faraday-Maxwell e a Mecânica de Newton, bem como
unificou e completou a Fı́sica Clássica.
Veremos nessas Notas, por intermédio do estudo da
Teoria da Gravitação de Einstein ou R.G., como é a
métrica do espaço-tempo na presença de um campo gravi-
tacional. É importante salientar que, quando a R.G. foi
formulada,[1,2] em 1915, não havia nenhum conflito sério en-
145

tre as predições da Teoria Newtoniana da Gravitação


(T.N.G) e os resultados experimentais. O que levou Ein-
stein a modificar a teoria clássica da gravitação foi o fato de
uma interação gravitacional instantânea estar em desacordo
com a R.R.. Notemos que a R.G. não é uma simples gene-
ralização da T.N.G usando a R.R. (todas as tentativas neste
sentido não tiveram muito sucesso!).
Analisaremos, na próxima secção, a equivalência, na
T.N.G, entre a massa inercial e a gravitacional. Este fato
é de fundamental importância, pois ele é a pedra angular da
R.G..
5.2 MASSA INERCIAL E MASSA GRAVI-
TACIONAL
As experiências legendárias do fı́sico italiano Galileo
Galilei (1564-1642) na torre de Pisa mostraram que a acele-
ração que um corpo adquire num campo gravitacional uni-
forme independe de sua massa. Desse resultado o fı́sico inglês
Sir Isaac Newton (1642-1727) inferiu a igualdade entre a massa
inercial e a massa gravitacional. O conceito de massa é in-
troduzido na teoria de duas maneiras logicamente distintas e
estas são agora postuladas como sendo iguais numericamente.
Este é um aspecto surpreendente, possuindo algo de mágico
até hoje ainda não esclarecido.
O conceito de massa foi introduzido por intermédio
da segunda lei de Newton: Força = m(I) × aceleração.
Esta massa m(I) é a inercial, que é uma medida da resistência
oferecida pelo corpo a uma mudança de velocidade. Esse
mesmo corpo interage com outro gravitacionalmente, segundo
a T.G.N., conforme a lei G m(g) M (g) /R2 , sendo R a distân-
cia entre eles. As grandezas m(g) e M (g) são as “cargas” ou
massas gravitacionais dos dois corpos em interação. De acordo
com a segunda lei de Newton, a aceleração γ que o corpo
de massa m(g) sofre é:
146

γ = (m(g) /m(I) ) G M (g) /R2 . (5.2.1)

De acordo com Galileo, todos os corpos localizados a mesma


distância R de M(g) têm a mesma aceleração. Isto implicaria
que m(g) /m(I) deveria ser uma constante universal. Sem perda
de generalidade poderı́amos assumir que m(g) fosse idêntica a
m(I) . Notemos que este resultado foi deduzido apelando para
a experiência. Desde Newton, experiências têm sido feitas
com o intuito de verificar até que ponto as duas massas são
exatamente iguais. Uma conseqüência imediata dessa igual-
dade é que o perı́odo de um pêndulo simples não depende
nem da massa nem da constituição da bolinha. O matemático
alemão Friedrich Wilhelm Bessel (1784-1846) concluiu, após
uma longa série de medidas, que a independência do perı́odo
com a massa e a constituição da bolinha podia ser estabele-
cida com uma precisão de uma parte em 105 . Por seu lado,
o fı́sico húngaro Lorand Eötvös von Vásárosnamény (1848-
1919), usando técnicas mais sofisticadas e estudando desvios
de um fio de prumo, mostrou que a igualdade das massas
era válida de uma precisão de um por 109 . Recentemente,
o fı́sico norte-americano Robert Henry Dicke (1916-1997)[9,10]
com técnicas muito refinadas mostrou que ela é válida com
uma precisão de uma parte em 1011 .
Até hoje não sabemos explicar por que as massas são
iguais e isto é aceito como um fato da natureza. Esta igual-
dade é denominada Princı́pio de Equivalência de New-
ton. Uma conseqüência deste princı́pio é a seguinte:

Um sistema que está estacionário em um campo


gravitacional uniforme com intensidade ~g é
fisicamente equivalente a um sistema que está
acelerado com aceleração γ = − ~g .

Isso corresponde a dizer que realizando experiências


nos referidos sistemas é impossı́vel distinguir entre os efeitos
147

de uma aceleração uniforme e um campo gravitacional uni-


forme. Outra conseqüência é a seguinte:

Para um observador no interior de um sistema em


queda livre num campo gravitacional uniforme, num
dado instante t, é como se o espaço fosse livre de um
campo de forças.

Antes de continuarmos nossa análise, é importante no-


tar que o conceito de campo gravitacional uniforme em todo
o espaço não é válido: se fosse válido, um corpo poderia ser
acelerado indefinidamente até adquirir momento infinito. É
um conceito apenas aproximado: podemos admitir tal fato
somente em pequenas regiões do espaço.
5.3 UMA ESTIMATIVA DA MÉTRICA DO
ESPAÇO-TEMPO DEVIDO À GRAVITAÇÃO
Veremos agora como estimar a métrica do espaço-
tempo, levando em conta a equivalência entre m(I) e m(g) ,
devido à presença de um campo gravitacional. Com este
intuito, consideremos um campo gravitacional esfericamente
simétrico gerado, por exemplo, por uma estrela de massa M,
suposta em repouso[11] num sistema S. Seja S0 um sistema
(uma caixa) que cai em queda livre radialmente em direção
ao centro da estrela. As coordenadas no sistema S0 serão indi-
cadas por x0 (longitudinal, isto é, na direção do movimento),
y0 , z0 (transversal) e t0 . Como num determinado instante de
tempo t0 no interior do sistema S0 , que cai em queda livre, o
espaço-tempo pode ser considerado como o de Minkowski, o
elemento de linha ds2 é dado por:

ds2 = c2 dt20 − (dx20 + dy02 + dz02 ). (5.3.1)

Supondo que a caixa chega, num instante t, a uma distância


r da estrela com velocidade v; r e v são medidas no sistema S
da estrela, onde temos as coordenadas (r, ϑ, φ) e t. Através
de uma transformação de Lorentz entre S e S0 obtemos:
148
√ √
dx0 = dr/ 1 − β 2 , dt0 = dt 1 − β 2, (5.3.2a,b)

dy0 = r dϑ, dz0 = r sen ϑ dϑ dφ. (5.3.2c,d)

Desse modo, o elemento de linha ds2 pode ser escrito na


forma:

dr2
ds2 = c2 dt2 (1 − β 2 ) − (1−β 2 )
− r2 (dϑ2 + sen2 ϑdφ2 ). (5.3.3)

A fim de escrevermos o fator 1 - β 2 em termos do


potencial gravitacional Φ(r) = − G rM , onde M é a massa
da estrela, consideremos a equação da conservação da energia
de um corpo no sistema
√ S. Sendo m0 a massa de repouso do
corpo e m = m0 / 1 − β 2 , temos:

(m - m0 ) c2 + m Φ(r) = 0, (5.3.4)

onde, à esquerda, escrevemos a soma da energia cinética e


potencial. A energia constante, à direita, é tomada igual a
zero, pois, quando r → ∞, temos m → m0 . Dividindo a
expressão (5.3.4) por m c2 , obtemos:

1- 1 − β 2 = − Φ(r)/c2 . (5.3.5)

Se a estrela for semelhante ao Sol, G M/c2 ' 1 Km,


podemos fazer a seguinte aproximação, 1 - β 2 ' 1 + 2 Φ(r)/c2 .
Assim, ds2 torna-se:

dr2
ds2 = c2 [1 + 2Φ(r)/c2 ] dt2 − [1 + 2φ(r)/c2 ]
-

- r2 (dϑ2 + sen2 ϑ dφ2 ). (5.3.6)

Assim, partindo da igualdade m(I) = m(g) , usando a


T.N.G. e a R.R., mostramos que a métrica do espaço de
149

Minkowski é alterada devido à presença de um campo gravi-


tacional. Naturalmente, devido às aproximações envolvidas
na obtenção da expressão (5.3.6), não podemos ter uma idéia,
no momento, de qual é a precisão dos nossos resultados. Com
certeza, podemos dizer que a geometria do espaço-tempo não
é a mesma que a adotada na R.R.; a geometria, conforme
veremos na próxima secção, é a de Riemann.
Porém, antes de passarmos a estudar a geometria Rie-
manniana, analisemos a expressão (5.3.6). Ora, se dt é o in-
tervalo de tempo entre dois “tics” de um relógio onde não há
campo gravitacional, então para o mesmo relógio localizado
no ponto r onde há um campo gravitacional, o intervalo dtr
entre dois “tics” será dado por dtr = [1 + Φ(r)/c2 ] dt. Con-
siderando dois pontos A e B separados por uma distância
h = rA − rB , a razão entre os intervalos de tempo nesses
dois pontos será dada por:

dtA 1 + Φ(rA )/c2 )


dtB
= (1 + Φ(rB )/c2 )
= 1 + g h/c2 , (5.3.7)

onde g = G M/R2 e R é o raio do astro suposto muito maior


do que h. Esse efeito foi comprovado, com boa precisão, por
Hafele e Keating,[12,13] utilizando relógios de césio e realizando
viagens de circunavegação da Terra em jatos comerciais.
5.4 ELEMENTOS DE GEOMETRIA
Nesta secção, iremos recordar algumas noções sobre
espaço, tensores, métrica e introduzir alguns conceitos básicos
da geometria Riemanniana.[1−7,14] Veremos o mı́nimo neces-
sário para que se possa ter uma idéia razoável da formulação
matemática da R.G..
Seja x1 , x2 , x3 , ..., xN ≡{ xµ } (µ = 1, 2, ..., N) um
conjunto de variáveis contı́nuas independentes, que implica
∂xµ
∂xν
= δνµ . Denominamos de espaço ao conjunto de todos
os pontos representados por essas variáveis. Suponhamos que
seja posssı́vel descrever o espaço em questão por um novo con-
150

junto de variáveis x ’ν que sejam funções das antigas, ou seja:


x’ν = x0ν (xµ ). Se essa descrição é, sob todos os aspectos,
equivalente à antiga, nós devemos ser capazes de obter xµ
como funções das novas variáveis, isto é: x ’ν : xµ = xµ (x 0ν ).
Desse modo, nada é perdido quando efetuamos a transforma-
ção xµ → x 0ν . Se quisermos, podemos recuperar tudo por
uma transformação inversa x ’ν → xµ . Tais transformações
denominam-se biunı́vocas ou um a um. A descrição de um
espaço e o conjunto de todas as suas transformações recebe
o nome de GEOMETRIA. Os conjuntos de coordenadas
xµ e x 0ν são chamados de sistemas de coordenadas S e
S’, respectivamente.
Como x ’ν = x 0ν (xµ ), os incrementos dx’ ν e dxµ
µ
estão relacionados por dx ’ν = ∂x ∂xν
dxµ . Como assumi-
mos que a transformação de coordenadas é reversı́vel, os dxµ
podem ser obtidos usando a expressão acima, de onde re-
sulta que o determinante dos coeficientes não deve se anular:
µ
det | ∂x
∂xν
|6= 0.
Qualquer conjunto de N elementos Uν que se trans-
forma de um sistema S para outro S’, como dxν , é denomi-
µ
nado vetor contravariante: U ’ν = ∂x ∂xν
U µ . Por outro lado,
o conjunto de elementos Vν que se transforma segundo a lei
µ
V ’ν = ∂x ∂xν
Vµ é chamado de vetor covariante. Embora, de
modo geral, não haja nenhuma relação entre um vetor cova-
riante e um contravariante, podemos definir uma relação en-
tre eles que é um invariante, ou seja, que é independente do
sistema de coordenadas. Tal relação, chamada de produto
interno, é definida por Vµ Uµ . Assim:

0ν ∂xα ∂x 0µ
V ’µ U = ∂x 0µ ∂xβ
Vα U β =

∂xα
= ∂xβ
Vα U β = δβα Vα U β , (5.4.1)


de onde vemos que V ’µ U = Vα U α = invariante.
151

O conjunto de grandezas, com dois ı́ndices, Uµν que


∂xα ∂xβ
se transforma como U ’µν = ∂x 0µ ∂x 0ν Uαβ é denominado

tensor covariante de segunda ordem. Generalizando essa


idéia para contravariantes e com mais ı́ndices, temos tensores
do tipo:
∂x 0τ ∂xα ∂xβ γ...
U ’τ...
µν... = ∂xγ ∂x 0µ ∂x 0ν
... Uαβ... , (5.4.2)

que representa um tensor misto com variâncias µν... e con-


travariâncias τ ... . O número total de ı́ndices dá a ordem do
tensor:
U: tensor de ordem zero (escalar),
Uµ : tensor de 1a ordem (vetor),
Uµν : tensor de 2a ordem,
Uαµν : tensor de 3a ordem, etc..
Um espaço no qual vetores covariantes e contravari-
antes existem separadamente é denominado de espaço afim.
Num espaço afim não existe o conceito de vetor. Há somente
vetores covariantes e contravariantes sem qualquer vı́nculo en-
tre eles. Há espaços nos quais vetores covariantes e contravari-
antes não existem independentemente, podendo ser conver-
tidos uns nos outros pela seguinte maneira: Uµ = gµν Uν e
Uν = gνµ Uµ . Tais espaços são ditos métricos. O tensor
gµν é definido como sendo o tensor métrico do espaço em
questão e gµν , a sua forma contravariante. Nesses espaços, as
grandezas Uµ e Uµ são equivalentes, sendo representadas pelo
ente U~ denominado, simplesmente, de vetor. Combinando as
duas equações vistas acima, temos, Uµ = gµν g µα Uα , o que re-
sulta na seguinte expressão gµν g να = δµα . Em outras palavras,
gµν é o inverso de gµν e vice-versa, isto é gµν = Mµν /g, onde
g é o determinante de gµν e Mµν é o determinante menor do
componente gµν . Do mesmo modo que os ı́ndices dos vetores
são abaixados e levantados, os ı́ndices de um tensor podem ser
submetidos ao mesmo processo, com auxı́lio do tensor métrico.
152

Por exemplo, Uντ


µ = gαµ U
αντ
e Uµντ = gαµ Uντ
α . O tensor
gmuν funciona como um operador, para tensores de qualquer
ordem, para elevar e abaixar ı́ndices.
Em um espaço afim, o tensor gµν não pode ser definido.
A equivalência das descrições covariante e contravariante é
uma propriedade da geometria métrica ditada por gµν . Com o
auxı́lio deste tensor podemos definir elemento de linha, distân-
cia, comprimento, ângulo, perpendicularidade e muitos outros
conceitos geométricos que nos são familiares. Em um espaço
afim, essas grandezas não são definidas.
O quadrado de um vetor é definido pelo seguinte pro-
duto interno:

~ 2 = Uµ U µ = gµν Uµ Uν = gαβ Uα Uβ .
U

De modo análogo, podemos definir o quadrado do


~
diferencial dx:

~ 2 = gµν dx µ dxν = ds2 .


dx

A grandeza ds é denominada de elemento de linha


do espaço métrico e a equação que define ds2 é chamada
forma quadrática fundamental. Ela é a equação mais
importante das geometrias métricas pois define a grandeza
básica de uma geometria métrica, que é a distância ds.
Em um espaço tridimensional Euclideano, os tensores
gµν em coordenadas Cartesianas e esféricas são dados, res-
pectivamente, por:

gµν ≡ (1, 1, 1), g ’µν ≡ (1, r2 , r2 sen2 ϕ), (5.4.3a,b)

lembrando que todos os termos não diagonais são nulos. Do


mesmo modo, no espaço de Minkowsky (x, y, z, ct), temos
gµν ≡ (-1, -1, -1, 1). O tensor métrico é diagonal somente
153

quando as coordenadas forem ortogonais entre si. Quando o


sistema de coordenadas for oblı́quo, gµν não é diagonal. É o
caso, por exemplo, de dois eixos x1 = x e x2 = y que formam
um ângulo ϕ entre si. Nesse caso:

ds2 = dx2 + 2 cos ϕ dx dy + dy 2 ,

de onde vemos que g11 = g22 = 1 e g12 = g21 = cos ϕ.


Notemos que quando as linhas das coordenadas são
retas os gµν são constantes, ou seja, não dependem das coor-
denadas. Por outro lado, quando as linhas das coordenadas
forem curvas, como no caso das coordenadas esféricas, os gµν
são funções de xµ . As coordenadas são denominadas, nesses
dois casos, de retilı́neas e curvilı́neas, respectivamente. Se
um espaço pode ser descrito por coordenadas retilı́neas, ele é
considerado um espaço plano. São os casos considerados nos
exemplos anteriores. Quando um espaço não pode nunca ser
descrito por coordenadas retilı́neas, ele é um espaço curvo
ou Riemanniano. Como exemplo, temos a superfı́cie esférica
onde r = a e as variáveis são x1 = ϕ e x2 = φ. Daı́, tiramos:

ds2 = a2 dϕ2 + a2 sen2 ϕ dφ2 ,

ou seja, g11 = a2 , g22 = a2 sen2 ϕ e g12 = g21 = 0.


O elemento de arco ds não pode nunca ser escrito em termos
de coordenadas retilı́neas. Isto ocorre, essencialmente, porque
não podemos desenhar linhas retas sobre a esfera. O mesmo
ocorre nas superfı́cies parabolóides, hiperbolóides, toros, etc.,
que são exemplos de espaços curvos. A geometria de espaços
curvos é conhecida como Geometria Riemanniana.
Com o intuito de formularmos, mais adiante, o princı́-
pio da covariância, é de fundamental importância observarmos
que a transformação de qualquer tensor de S para S ’ é li-
near. É o caso, por exemplo, de Tµν , que se transforma em
∂xα ∂xβ
T ’µν = ∂x 0µ ∂x 0ν Tαβ . Assim, se as componentes de um
154

tensor são nulas em um sistema, elas serão nulas em qualquer


outro sistema. Desse modo, se em S temos Uµν = Vµν , nós
escrevemos Gµν = Uµν − Vµν que em S ’ é dada por:

0 0 ∂xα ∂xβ
G ’µν = U µν − V µν = ∂x 0µ ∂x 0ν
(Uµν − Vµν ).

De onde concluı́mos, como uma conseqüência imediata do


caráter tensorial, que U ’µν = V 0µν .
5.4.1 Análise Tensorial
Através da diferenciação ordinária de um vetor covari-
ante Uµ , por exemplo, obtemos:

dUµ = d(gµν U ν ) = dgµν U ν + gµν dU ν

mostrando que em coordenadas curvilı́neas e, portanto, tam-


bém em espaços curvos, a diferenciação ordinária destrói o
caráter vetorial de dUµ , pois, em geral, dgµν 6= 0. O mesmo
ocorre com um vetor contravariante ou com qualquer outro
tensor de ordem superior. A fim de manter o caráter tenso-
rial com a operação de diferenciação, precisamos generalizar
o conceito de diferenciação. Com este intuito, é introduzida a
diferenciação absoluta que é indicada pelo sı́mbolo D. Ela
é definida por DUµ = D(gµν U ν ) = gµν DU ν . Assim, numa
diferenciação absoluta, temos Dgµν = Dg µν = 0.
Considerando agora o produto escalar Uµ U µ , que é
um invariante, devemos ter:

D(Uµ U µ ) = d(Uµ U µ ) →

DUµ U µ + Uµ DU µ = dUµ U µ + Uµ dU µ , (5.4.4)

que está satisfeita se assumirmos que:

DUµ = dU µ + Γµαν U α dxν ,


155

DUµ = dUµ − Γαµν U α dxν , (5.4.5a,b)

onde Γαµν são coeficientes chamados de sı́mbolos de Christof-


fel. Partindo desta definição de diferenciação absoluta, vemos
facilmente que a diferenciação de um tensor covariante Aµ Bν
é dada por:

D(Aµ Bν ) = DAµ Bν + Aµ DBν =

d(Aµ Bν ) − Γναλ Aµ Bα dxλ − Γµαλ Aα Bν dxλ . (5.4.6)

De onde podemos concluir que para o tensor covari-


ante gµν temos:

Dgµν = dgµν − (gµα Γναλ + gαν Γµαλ ) dxλ . (5.4.7)

Permutando ciclicamente os ı́ndices (µ, ν, λ) e so-


mando as três equações resultantes, obtemos, lembrando que
gµν g µα = δνα ,

Γαµν = (g αλ /2) (∂ν gλµ + ∂µ gλν − ∂λ gµν ). (5.4.8)

Sendo Γαµν dada pela expressão (5.4.8), vemos que


Γαµν = Γανµ e que Γα,µν = Γα, νµ , onde:

Γα, µν = gαλ Γλµν . (5.4.9)

Como DUµ e DUµ podem ser escritas como:

DUµ + (∂ν U µ + Γµαν U α ) dxν ,


DUµ + (∂ν Uµ − Γµαν Uα ) dxν ,

podemos verificar que a derivada covariante, definida por:

Uµ;ν ≡Dν U ν = ∂ν U µ + Γµαν U α , (5.4.10a)


156

Uµ;ν ≡Dν Uν = ∂ν Uµ − Γµαν Uα , (5.4.10b)

gera um novo tensor e é considerada como a generalização


da derivada parcial ordinária.
Como Dν Uµ − Dµ Uν = ∂ν Uµ − ∂µ Uν , constatamos
que o operador rotacional ordinário é ainda um tensor em
coordenadas curvilı́neas, não precisando ser generalizado. Por
outro lado, a generalização do operador divergente é feita da
seguinte maneira:

Dµ U µ = U;µµ = ∂µ U µ + Γµαµ U α , (5.4.11)

que é um escalar. O Laplaciano generalizado de um escalar


f é definido por:

Dµ Dµ f = f;; µ
µ = ∂µ (g µν ∂ν f ) + Γµαµ g αν ∂ν f. (5.4.12)

Observe-se que o divergente e o Laplaciano podem ser


escritos, de modo mais compacto, com o auxı́lio da diferen-
ciação do determinante g:

∂α g = M µν ∂α gµν = g g µν ∂α gµν , (5.4.13)

o que nos permite escrever que:

Γµαµ = (g µν /2) ∂α gµν =


= ( 12 g) ∂α g = ∂α log g. (5.4.14)

Desse modo, o divergente e o Laplaciano são escritos,


respectivamente, da seguinte forma:
√ √
Uµ;µ = (1/ g)∂µ ( gU µ ), (5.4.15a)
157

√ √ µν
f;µ
;µ = (1/ g)∂µ ( g g ∂ν ) f. (5.4.15b)

A generalização do invariante quadrivolume dΩ é dada



por g dΩ e o teorema de Gauss fica escrito como:

µ √ √

R H
U;µ g dΩ = g dSµ , (5.4.16)

onde dSµ é o elemento de área da hipersuperfı́cie que envolve


o hipervolume.
Em um espaço plano, a derivada segunda ∂µ ∂ν Uσ é
igual a ∂ν ∂µ Uσ . Num espaço curvo, Dµ Dν Uσ não é, em
geral, igual a Dν Dµ Uσ . Subtraindo estas duas derivadas,
temos a seguinte igualdade:

λ
Dµ Dν Uσ − Dν Dµ Uσ = Rσµν Uλ , (5.4.17)

onde:

Rλσµν = ∂ν Γλµν − ∂µ Γλνσ + Γλαν Γαµσ − Γλαµ Γασν , (5.4.18)

é conhecido como tensor de curvatura ou tensor de Rie-


mann-Christoffel.[15] Ele dá uma indicação da curvatura do
espaço pois depende somente dos Γαβγ e de suas derivadas.
De fato, se o espaço for plano, os componentes de gµν , sendo
escritos em coordenadas retilı́neas, são constantes, anulando
os Γαβγ . Conseqüentemente, Rλσµν = 0 em qualquer sistema de
coordenadas.
Através de uma contração em Rλσµν , obtemos o tensor
de Ricci:

Rσλµσ = Rλµ = Rµλ =

= ∂µ Γσλσ − ∂σ Γσλµ + Γτλσ Γσµτ − Γτλµ Γστσ . (5.4.19)


158

Por meio de uma outra contração, resulta o escalar


R = gλσ Rσλ , conhecido como curvatura escalar ou inva-
riante de curvatura. O nome curvatura provém do fato de
ele medir uma propriedade do espaço que é análoga à cur-
vatura de uma superfı́cie bidimensional. Isto é simples de
verificar, analisando o caso de uma superfı́cie esférica de raio
a, na qual a métrica é dada por:

g11 = a2 , g22 = a2 sen2 ϕ, g12 = g21 = 0,

de onde vemos que:

g11 = a− 2 , g22 = (a sen ϕ)− 2


e g = a4 sen2 ϕ.

Assim, usando a expressão (5.4.8), verificamos que os únicos


Γαβγ que não se anulam são:

Γ122 = - sen (2 ϕ)/2, Γ221 = Γ212 = cotg ϕ.

Desse modo temos os tensores de Ricci:

R11 = - 1 e R22 = sen2 ϕ

que geram a curvatura:

R = g11 R11 + g 22 R22 = 2/a2 .

Ou seja, R é proporcional à curvatura Gaussiana de uma es-


fera de raio a que é dada por 1/a2 . A analogia entre o tensor
de curvatura e a curvatura Gaussiana é razoável somente no
caso de superfı́cies bidimensionais; para espaços de maior di-
mensão a relação entre eles é remota.
Se, em um determinado espaço Riemanniano, for pos-
sı́vel encontrar um sistema de coordenadas, cobrindo todos os
pontos desse espaço, no qual os gµν são constantes, os Γαµν , os
159

tensores Rσλµν , Rµν e o escalar R se anulam. Se isto ocorrer,


tal espaço se denomina plano. Se o espaço for plano, o tensor
de curvatura é nulo e esse caráter não pode ser mudado por
nenhuma transformação de coordenadas. Um espaço Rieman-
niano que não é plano é chamado de curvo. A “curvatura” de
um espaço é uma propriedade intrı́nseca dele e não depende de
um particular sistema de coordenadas no qual a métrica possa
ser expressa. A fim de não queimar os neurônios, não devemos
ficar imaginando como é um espaço curvo. Um espaço curvo,
para o propósito dessas Notas, é simplesmente aquele no qual
o tensor Rσλµν não se anula em, pelo menos, um ponto no
espaço em questão. Pode-se mostrar que, num espaço curvo,
é sempre possı́vel, nas vizinhanças de um ponto P, encontrar
um sistema de coordenadas no qual o espaço é localmente
plano.
Para terminar essa secção, vamos definir o seguinte
tensor:

Gµν = Rµν − gµν R/2, (5.4.20)

conhecido como tensor de Einstein, que possui as seguintes


propriedades:
a) Tem um caráter puramente geométrico, pois de-
pende somente de gµν e de suas derivadas.
b) É um tensor simétrico de segunda ordem, ou seja:
Gµν = Gνµ .
c) A sua derivada covariante é nula: Dµ Gµν = 0.
Estas propriedades, como veremos na secção 5.6, são
fundamentais para a formulação das equações de campo da
gravitação.
5.4.2 Geodésica
Consideremos, num espaço Riemanniano, dois pontos
P1 e P2 pertencentes a uma curva γ. O comprimento de arco
160

s12 entre os pontos P1 e P2 é dado por:

R2 R2 q
s12 = 1 ds = 1 gµν dxµ dxν , (5.4.21)

onde a integral é feita ao longo de γ. Pelos pontos P1 e P2


podemos passar uma infinidade de curvas; denominamos de
geodésica a curva que extremiza a integral s12 , ou seja, tal
que δ s12 = 0. A fim de deduzir as equações diferenciais de
uma geodésica, levemos em conta que:

δ (ds2 ) = δ (gµν dxµ dxν ) = 2 ds δ (ds) =

= dxµ dxν (∂σ gµν ) δ xσ + 2 gµν dxµ δ (dxν ). (5.4.22)

Usando este resultado, é fácil ver que:[3]


R2 h 1 dxµ dxν
δ s12 = 1 2 ds ds
(∂σ gµν ) δ xσ +

dxµ δ (dxν )
i
= gµν ds ds
ds. (5.4.23)

Integrando o segundo termo por partes, virá:


R2 dxµ δ (dxν )
1 gµν ds ds
ds =

h   i2 h i
dxµ R2 d dxµ
= (δ xν ) gµν ds
− 1 ds gµν ds
δ xν ds.
1

Considerando que o primeiro termo do segundo mem-


bro da expressão acima é nulo, o termo restante levado na
expressão (5.4.23) dará para δ s12 o seguinte valor:

R2  1 dxµ dxν
δ s12 = 1 2 ds ds
(∂σ gµν ) -
161
h i
d dxµ
- ds
gµσ ds
δ xσ = 0. (5.4.24)

Como os δ xσ são arbitrários, a expressão (5.4.24) nos


mostra que:
h i
1 dxµ dxν d dxµ
2 ds ds
(∂σ gµν ) = ds
gµσ ds
.

Desenvolvendo o segundo termo da expressão acima,


teremos:
h i
d dxµ d2 xµ dxµ d
ds
gµσ ds
= gµν ds2 ds
. ds
(gµν ) =

dv µ
= gµν ds
+ v µ (∂τ gµν ) v τ ,

dxα
onde definimos vα = ds
. Desse modo, obtemos:

1 dv µ
2
v µ v ν (∂σ gµν ) − gµσ ds
− v µ v τ (∂τ gµσ ) = 0.

Notando que o último termo da expressão acima pode


ser escrito como:

1
v µ v τ (∂τ gµσ ) = 2
v µ v τ (∂τ gµσ + ∂µ gτ σ ),

resulta:

dv µ
gµσ ds
+ Γσ,τ µ v µ v τ = 0, (5.4.25)

onde:

1
Γσ,τ µ = 2
(∂τ gµσ + ∂µ gτ σ − ∂σ gµτ ). (5.4.26)

Multiplicando, pela esquerda, a expressão (5.4.25) por


ασ
g , teremos:
162

dv µ dv α
gασ gµσ ds
+ g ασ Γσ, τ µ vµ vτ = ds
+ Γατµ v µ v τ = 0.

Finalmente, usando a definição de vα e de derivada


absoluta, podemos escrever as equações de uma geodésica
na seguinte forma:

d2 xα µ dxτ Dv α
ds2
+ Γατµ dx
ds ds
= Ds
= 0 (α, µ, τ = 1, 2, ..., N). (5.4.27)

α
Ao longo de uma geodésica, Dv Ds
= 0, o vetor veloci-
α dxα
dade v = ds , que é tangente à curva em cada ponto,
é constante. Num espaço Euclideano, como os sı́mbolos de
2 α
Christoffel são nulos, teremos, simplesmente, ddsx2 = 0, que
integradas geram as retas xα − xα0 = v α s onde xα0 e vα
são constantes de integração. As geodésicas, num espaço Eu-
clideano, sendo retas, dão as distâncias mais curtas entre dois
pontos. Um outro exemplo interessante é o que se obtém
em uma superfı́cie esférica de raio a. Lembrando que x1 = ϕ
e x2 = φ e, usando os valores do tensor métrico vistos na
secção (5.4.1), as equações da geodésica [expressão (5.4.27)]
se reduzem ao par:
   2
d dϕ dφ
ds
a2 ds
− a2 sen ϕ cos ϕ ds
= 0, (5.4.28a)

 
d dϕ
ds
a2 sen2 ϕ ds
= 0. (5.4.28b)

As soluções particulares dessas equações são:

φ = constante e a ϕ = s ou a ϕ = π/2 e a φ = s,

correspondendo aos meridianos e equador de uma esfera, res-


pectivamente. Assim, os grandes cı́rculos são geodésicas em
uma superfı́cie esférica. Como sabemos, a distância mı́nima
entre dois pontos nesse espaço é dada pelo comprimento de
arco de um grande cı́rculo, que passa pelos referidos pontos.
163

Ao deduzirmos as equações da geodésica, admitimos


µ dxν
que o intervalo ds 6= 0, o que implica gµν dxds ds
= 1. Existe
um outro tipo de geodésica, chamada de geodésica nula, que
é obtida assumindo que o intervalo entre dois pontos sobre a
curva é zero. Definindo por λ um parâmetro escalar não nulo
variando sobre a geodésica, então, para essa espécie de curva,
é válida a equação:
ds 2 dxµ dxν
( dλ ) = gµν dλ dλ
= 0.

Usando o parâmetro λ na integral que deve ser variada, pode-


mos mostrar,[14] de modo análogo ao caso anterior, que, para
uma geodésica nula, as seguintes equações diferenciais são
obedecidas:
d2 xα µ dxτ
dλ2
+ Γατµ dx
dλ dλ
= 0 (α, µ, τ = 1, 2, ..., N). (5.4.29)

Vejamos como interpretar uma geodésica nula num


espaço de Minkowski onde:

xα ≡ (x4 , ~x) = (ct, ~x), ds2 = (dx4 )2 − (d~x)2 .

Assim, se ds = 0, teremos ( d~ x 2
dt
) = v 2 = c2 . Por outro
lado, integrando as equações da geodésica, obtemos linhas re-
tas. Desses resultados, vemos que, num espaço de Minkowski,
uma geodésica nula pode ser interpretada fisicamente como a
história do movimento de um raio de luz. Esta mesma inter-
pretação se mantém quando um fóton se movimenta em um
campo gravitacional.
5.5 AS HIPÓTESES BÁSICAS DA TEORIA
DA GRAVITAÇÃO
Conforme vimos antes, o espaço dos eventos fı́sicos da
R.R., denominado de espaço de Minkowski, é um espaço Rie-
manniano quadridimensional plano com uma métrica pseudo-
Euclideana. Entretanto, como mostramos na secção 1, a geo-
metria de Minkowski é alterada devido à presença de um
164

campo gravitacional. Einstein usou este fato como ponto de


partida para generalizar a teoria Newtoniana da gravitação.
Ele assumiu que o espaço-tempo, devido à interação gravita-
cional, fosse um espaço curvo quadridimensional Rie-
manniano. Assim, um elemento de linha desse espaço seria
dado genericamente por:

ds2 = gµν (x) dxµ dxν (µ, ν = 1, 2, 3, 4).

Há, porém, uma condição subsidiária a ser obedecida: se em


um determinado ponto desse espaço estabelecermos um sis-
tema localmente plano, o elemento ds2 deve ser escrito, neste
ponto, na forma ds2 = (dx4 )2 − (d~x)2 . Em outras palavras,
o espaço-tempo devido à gravitação deve ser localmente re-
dutı́vel ao de Minkowski. Este tipo de espaço é denominado
de quasi-Riemanniano.
Adota-se também a hipótese da covariância que ex-
pressa a idéia de não existir um sistema preferencial de coor-
denadas, deixando o observador livre para escolher qualquer
sistema de coordenadas. De acordo com o que foi analisado
na secção 5.4, essa condição está satisfeita, do ponto de vista
matemático, escrevendo as leis fı́sicas usando tensores e equa-
ções tensoriais, pois assim elas se transformam de modo co-
variante ao passar de um sistema para o outro.
Uma vez estabelecido que a gravitação encurva o espa-
ço-tempo, e que esta curva é dada através de gµν , não pre-
cisamos, de certo modo, nos preocupar com a interação gravi-
tacional. Podemos agora supor que as partı́culas se movem
livremente num espaço curvo onde os fenômenos fı́sicos devi-
dos à gravidade podem ser medidos com régua e relógio.
Nos domı́nios de validade da R.R., admitirmos que
a trajetória de uma partı́cula é uma geodésica implica que
ela seja livre. De fato, como neste caso é sempre possı́vel
encontrar um sistema de coordenadas Cartesianas no qual
os coeficientes Γαµν se anulem, da expressão (5.4.27) conclui-
165

2 α α
se que ddsx2 = dvds = 0. Ou seja, nesse sistema a acel-
α
eração dvds é nula e, conseqüentemente, a velocidade vα = con-
stante. Obviamente, num sistema de coodenadas curvilı́neas
os Γαµν não se anulam e a partı́cula, apesar de não estar sob a
ação de nenhuma interação, possui acelerações inerciais. Em
R.G., numa generalização óbvia da R.R., postula-se que uma
α
partı́cula livre descreve uma geodésica. Como Dv Ds
= 0, temos,
como conseqüência, a constância absoluta da velocidade vα .
A hipótese de que partı́culas livres descrevem geodésicas é de-
nominada de princı́pio geodésico e corresponde a uma ex-
tensão do princı́pio da inércia de Galileo. Assim, unificando
inércia e gravitação, eliminamos o conceito de força externa
transformando a teoria da gravitação em geometria pura.
Para terminar essa secção, vale a pena notar que ape-
sar de muitos anos de trabalho com a teoria da relatividade,
cujo formalismo matemático é muito bonito e elegante, senti-
mos grande dificuldade com os conceitos relativı́sticos, tanto
no nı́vel da intuição como na linguagem usual. A familiari-
zação com o formalismo, que nos fez apreciá-lo, não ajudou
muito a nossa intuição. Não possuı́mos experiência sensorial
direta do espaço-tempo quadridimensional ou de quaisquer
outros conceitos usados pela teoria.[1,2]
5.6 GRAVITAÇÃO E MATÉRIA
Vimos na secção 5.5 como uma parte das leis da gravi-
tação pode ser formulada postulando que o espaço-tempo é
uma variedade Riemanniana e que todas as acelerações devi-
das a forças gravitacionais e inerciais têm uma origem métrica.
Agora vamos relacionar o campo gravitacional com a matéria
que o gera. Queremos, novamente, chamar a atenção para
o fato de que os argumentos que usaremos para obter essas
equações, como também os utilizados na secção anterior, não
podem ser considerados rigorosos. Eles parecem ser os mais
simples, e de certo modo os mais razoáveis, que sabemos for-
mular.
166

Indicando por Φ o potencial escalar da teoria Newto-


niana da gravitação, podemos dizer que:
(1) Não há campo gravitacional presente para Φ = 0.
(2) Numa região em que há matéria presente, como
densidade ρ, vale a equação ∇2 Φ = − 4 π Φ G ρ.
Vejamos como generalizar essas leis Newtonianas. Ora,
conforme discutimos antes, na ausência de gravitação a cur-
vatura do espaço-tempo deve se anular. Pode-se mostrar,
usando a geometria diferencial, que a condição necessária e
suficiente para que isso ocorra é que o tensor de Riemann-
Christoffel se anule, Rλµνσ = 0. A fim de obtermos a corres-
pondente condição (2), vamos considerar, apenas para sim-
plificar a análise, a matéria como sendo um fluido ideal. Na
R.R., o tensor energia momento Tµν para um fluido ideal é
dado por:

Tµν = (ρ + p/c2 ) v µ v ν − g µν p/c2 , (5.6.1)

onde ρ é a densidade escalar, p a pressão escalar e o quadrive-


tor vµ obedece à condição gµν v µ v ν = vµ v ν = 1. A equação
indicada pela expressão abaixo:
∂T µν
Tµν
,ν = ∂xν
= 0, (5.6.2)

que está satisfeita para o tensor Tµν , expressa as leis de con-


servação de energia e de momento para o fluido. Na R.G.,
o tensor Tµν possui a mesma forma, porém, como os coefi-
cientes gµν da métrica não são mais constantes, ao invés de
termos Tµν ,ν = 0, a condição que ele obedece é dada por:

Dν T µν = T;νµν = 0, (5.6.3)

que não exprime nenhuma lei de conservação.[4,7] Nesse Capı́tulo


o tensor energia momento Tµν é encarado como o ente que en-
globa todas as propriedades fı́sicas da distribuição de matéria.
167

De alguma maneira as propriedades geométricas do espaço-


tempo devem ser deduzidas a partir das propriedades fı́sicas
dadas por Tµν . Poderı́amos tentar escrever a seguinte equação
tensorial:

Gµν = k T µν , (5.6.4)

onde o tensor Gµν deve depender somente das propriedades


geométricas do espaço quasi-Riemanniano e k é uma cons-
tante a determinar. Além disso, o tensor Gµν deve obedecer
às seguintes propriedades:
(a) Ele deve ser simétrico em µν, pois Tµν é simétrico.
(b) Dν Gµν = 0, pois Dν T µν = 0.
Ora, como vimos na secção (5.4.1), só existe um tensor
de segunda ordem que obedece a essas propriedades e que é
linear nas derivadas de segunda ordem de gµν . Esse tensor é
o de Einstein, definido por:

Gµν = Rµν − R g µν /2. (5.6.5)

Deste modo, as equações de campo de gravitação se-


riam dadas pelas equações de Einstein:
1
Rµν − 2
R g µν = k T µν . (5.6.6)

Resta agora determinar a constante k. Com o intuito


de determiná-la, impomos que no limite de c → ∞ a teoria de
Einstein se reduz à de Newton. Precisamos mostrar que no
limite de c → ∞ as equações de Einstein, com uma escolha
apropriada de k, se reduzem à equação de Poisson:

∇2 Φ = − 4 π G ρ.

Ora, é fácil vermos que quando c →∞ a única componente


não nula do tensor Tµν é T44 ' ρ c2 e que Tµµ = T ' ρ c2 .
168

Nestas mesmas condições, as componentes do tensor métrico


gµν , conforme a expressão (5.3.6), são dadas por:

g44 = 1 + 2 Φ/c2 , g11 = − 1 − 2 Φ/c2 , g22 = g33 = - 1.

Calculando Rµν em termos dos gµν , usando o que foi visto na


secção (5.4.1), obtemos R44 = − (1/4 c2 ) ∇2 Φ. Por outro
lado, levando em conta que a equação de Einstein pode ser es-
crita na forma Rµν = k (T µν − g µν T/2), chegamos à seguinte
igualdade,

(1/4 c2 ) ∇2 Φ = k [ρ c2 − (1 + 2 Φ/c2 ) ρ c2 /2] =

= k ρ c2 /2 − k Φ ρ ' k ρ c2 /2, (5.6.7)

de onde deduzimos que a constante k deve ser k = - 8 π G/c4 .


Com a determinação da constante k completamos a
“derivação” da equação de Einstein que é, então, dada por:

Rµν − R g µν /2 = − (8 π G/c2 ) T µν . (5.6.8)

Esta equação constitui, de fato, um sistema de equa-


ções de derivadas parciais de segunda ordem. São dez equa-
ções de campo pois os tensores gµν e Tµν são simétricos. En-
tretanto, como as coordenadas xµ podem ser submetidas a
uma transformação arbitrária, é posssı́vel escolher arbitraria-
mente quatro das dez componentes de gµν . Como as qua-
tro componentes de vν , que comparecem em Tµν , são ligadas
pela relação gµν v µ vν = vµ v µ = 1, somente três delas são inde-
pendentes. Desse modo, as dez equações do campo gravita-
cional são efetivamente constituı́das por dez grandezas des-
conhecidas: seis componentes de gµν , três componentes de
vν e a densidade de matéria ρ (ou a pressão p). Lembrando
que temos de conhecer de antemão a equação de estado da
matéria, que relaciona p a ρ, pois essa não pode ser determi-
nada através da expressão (5.6.8).
169

Como as equações definidas pela expressão (5.6.8) não


são lineares, o princı́pio da superposição não é válido para os
campos gravitacionais (a não ser para campos fracos), con-
trariamente ao que ocorre para os campos eletromagnéticos
da R.R..
No caso do eletromagnetismo a distribuição e o movi-
mento das cargas podem ser arbitrários, desde que a carga
total se conserve. Uma dada distribuição de cargas deter-
mina, através das equações de Maxwell, o campo que elas
criam. No caso da gravitação, a distribuição e o movimento da
matéria que geram o campo não podem ser tomados arbitraria-
mente, muito pelo contrário, eles, ao mesmo tempo que o
campo criado pela matéria, são determinados por intermédio
da expressão (5.6.8), dadas as condições iniciais.
Apesar de muitas crı́ticas[7] e de várias tentativas para
desenvolver uma teoria da gravitação diferente da de Einstein,
é esta que, até o presente momento, melhor explica os resul-
tados experimentais.[10]
Do ponto de vista histórico, é importante notar que
resultados semelhantes aos de Einstein foram obtidos, por
Lorentz e Hilbert, antes do próprio Einstein, conforme ele
mesmo cita em seu famoso artigo de 1916 (vide Referência 2,
pág. 167).
Para finalizar, vale a pena observar que, dentro do
esquema da R.G., sempre que existir matéria, existirá um
campo gravitacional que se manifestará através da curvatura
do espaço circunvizinho àquela matéria. Não devemos pen-
sar, contudo, que o campo preenche o espaço e o “curva”,
pois não podemos diferenciar os dois conceitos: o campo é
o espaço curvo. O campo gravitacional e a estrutura (geo-
metria) do espaço-tempo são idênticos, e são representados
na expressão (5.6.8) por uma única grandeza matemática. Na
teoria de Einstein, a matéria não pode ser separada de seu
campo gravitacional e este não pode ser separado do espaço
curvo. Matéria e espaço devem, pois, ser encarados como
170

partes inseparáveis e interdependentes de um único todo.[8]

NOTAS E REFERÊNCIAS

1) CHANDRASEKHAR, S. On the “Derivation” of


Einstein’s Field Equation, American of Journal Physics 40,
224-234 (1972).
2) EINSTEIN, A., LORENTZ, H. A., WEYL, H. and
MINKOWSKY, H. The Principle of Relativity, Dover Pu-
blications, Inc. (1923)
3) YILMAZ, H. Introduction to the Theory of Rela-
tivity and the Principles of the Modern Physics, Blaisdell
Publishing Company (1965).
4) LANDAU, L. D. e LIFSCHITZ, E. Teoria dos Cam-
pos, Hemus, Livraria Editora Ltda. (1974).
5) MISNER, C. W., THORNE, K. S. and WHEELER, J.
A. Gravitation, W. H. Freeman and Company (1973).
6) MÖLLER, W. Theory of Relativity, Oxford Univer-
sity Press (1952).
7) LOGUNOV, A. A. Gravitation and Elementary
Particles Physics, Mir Publishers (1983).
8) CAPRA, F. O Tao da Fı́sica, Editora Cultrix (1983).
9) DICKE, R. H. The Theoretical Significance of Ex-
perimental Relativity, Gordon and Breach (1965).
10) WILL, C. M. A Confrontation between General
Relativity and Experiment: an Update, Physics Report 113,
345-422 (1984).
11) SOMMERFELD, A. Electrodynamis, Academic
Press (1952).
12) CHERKI, M. Paradoxe des Jumeaux: la Réponse
des Horloges Atomiques, La Recherche 28, 978-979 (1972).
171

13) HAFELE, J. C. Relativistic Time for Terrestrial


Circumnavigations, American Journal of Physics 40, 81-85
(1972).
14) McVITTIE, G. C. General Relativity and Cos-
mology, Chapman and Hall Ltd. (1965).
15) Registre-se que o cálculo dos coeficientes do tensor de
Riemann-Christoffel pode ser drasticamente reduzido por in-
termédio das formas diferenciais de Cartan. Para um primeiro
contato do uso dessas formas nos espaços curvos (espaço da Gravi-
tação), o leitor poderá consultar, além da Referência (5), o seguinte
texto: DAMIÃO SOARES, I. O Cálculo de Formas Diferen-
ciais e a Equação de Dirac em espaços Curvos, IN: II Es-
cola de Cosmologia e Gravitação do Centro Brasileiro de Pesquisas
Fı́sicas, Volume I: 479-546 (1980).

Você também pode gostar