• Non ci sono risultati.

Appunti di Struttura della Materia Parte II

N/A
N/A
Protected

Academic year: 2021

Condividi "Appunti di Struttura della Materia Parte II"

Copied!
131
0
0

Testo completo

(1)

Appunti di Struttura della Materia Parte II

Giovanni Moruzzi

4 giugno 2009

(2)
(3)

Indice

Premessa . . . . 6

1 Informazione mancante 7 1.1 Impostazione del problema . . . . 7

1.2 Informazione mancante per un numero finito di scelte equiprobabili . . . . 7

1.3 Scelta tra possibilit`a con probabilit`a note . . . . 8

1.4 Informazione mancante per una scelta nel continuo . . . . 10

2 Meccanica statistica 13 2.1 Statistica classica . . . . 13

2.1.1 Stato di un sistema classico e grandezze fisiche . . . . 13

2.1.2 Trasformazioni attive e passive . . . . 13

2.1.3 Evoluzione temporale . . . . 14

2.1.4 Trattamento statistico . . . . 15

2.1.5 Rappresentazione di Schr¨odinger . . . . 16

2.1.6 Rappresentazione di Heisenberg . . . . 16

2.2 Statistica quantistica . . . . 17

2.2.1 Stato di un sistema quantistico e grandezze fisiche . . . . 17

2.2.2 Evoluzione temporale . . . . 17

2.2.3 Trattamento statistico e matrice densit`a . . . . 18

3 Scelta della probabilit` a 19 3.1 I postulato: probabilit`a a priori . . . . 19

3.2 Informazione disponibile (utilizzabile) . . . . 20

3.3 II postulato: massimo condizionato dell’informazione mancante . . . . 20

3.4 Massimi condizionati: metodo dei moltiplicatori di Lagrange . . . . 21

3.5 Statistica classica: determinazione di f (q, p) dall’informazione disponibile . . . . 22

3.6 Particelle identiche in fisica classica . . . . 23

3.7 Statistica quantistica: determinazione della matrice densit`a dall’informazione disponibile 25 3.8 Particelle identiche in meccanica quantistica . . . . 26

3.9 Funzione di partizione . . . . 26

4 Gas perfetto classico e corrispondenza tra entropia e informazione mancante 27 4.1 Costanti del moto . . . . 27

4.2 Gas perfetto . . . . 27

3

(4)

5 Insieme gran canonico 31

5.1 Introduzione . . . . 31

5.2 Caso classico . . . . 31

5.2.1 Numero non noto, o variabile, di particelle identiche . . . . 31

5.2.2 La grandezza “Numero delle particelle” . . . . 32

5.2.3 Entropia . . . . 32

5.2.4 Gas perfetto monoatomico classico nell’insieme gran canonico . . . . 34

5.3 Caso quantistico . . . . 35

5.3.1 Impostazione del problema, gas perfetto quantistico . . . . 35

5.3.2 Potenziale chimico . . . . 37

5.3.3 Numeri di occupazione . . . . 37

6 Fluttuazioni delle grandezze statistiche 39 6.1 Ampiezza delle fluttuazioni . . . . 39

6.2 Fluttuazioni dei numeri di occupazione . . . . 40

7 Interazione radiazione-materia, I 43 7.1 Derivazione della formula di Planck da parte di Einstein . . . . 43

7.2 Propagazione di un fascio di radiazione in un mezzo materiale . . . . 45

7.3 Equazioni di bilancio per l’effetto laser . . . . 47

7.3.1 Inversione di popolazione . . . . 47

7.3.2 Equazioni di bilancio per i fotoni . . . . 48

7.3.3 Equazioni di bilancio per le densit`a di popolazione dei livelli . . . . 50

7.3.4 Altri possibili schemi di pompaggio . . . . 51

7.4 Laser a semiconduttore . . . . 52

8 Fluttuazioni della radiazione e interferenza 57 8.1 Instaurazione del regime oscillatorio . . . . 57

8.2 Formalismo dei campi complessi . . . . 58

8.3 Interferenza . . . . 60

8.4 Interferometro di Michelson e coerenza temporale . . . . 61

8.5 Interferometro di Young e coerenza spaziale . . . . 63

8.6 Volume di coerenza . . . . 65

9 Processi stocastici 67 9.1 Introduzione . . . . 67

9.2 Medie sull’ensemble . . . . 69

9.3 Autocorrelazione e densit`a spettrale . . . . 69

9.3.1 Definizioni matematiche . . . . 69

9.3.2 Processi stocastici stazionari . . . . 70

9.3.3 Shot noise . . . . 73

9.3.4 Rumore 1/f . . . . 75

9.3.5 Fotoconteggi . . . . 75

9.4 Equazione di Fokker-Planck . . . . 77

9.5 Moto browniano . . . . 79

(5)

INDICE 5

10 Interazione radiazione-materia, II 83

10.1 Perturbazioni dipendenti dal tempo . . . . 83

10.1.1 Introduzione . . . . 83

10.1.2 Probabilit`a di transizione . . . . 83

10.1.3 Perturbazioni costanti . . . . 85

10.1.4 Perturbazioni periodiche . . . . 87

10.1.5 Transizioni in uno spettro continuo . . . . 88

10.1.6 Regola d’oro di Fermi . . . . 89

10.2 Perturbazioni periodiche al secondo ordine . . . . 91

10.3 Transizioni di dipolo elettrico . . . . 94

10.4 Assorbimento, emissione stimolata e spontanea . . . . 95

10.5 Interazione con campo forte . . . . 99

11 Matrice densit` a 105 11.1 Rate equations e bilancio dettagliato . . . 105

11.2 Matrice densit`a . . . 106

11.3 Modello di Feynman-Vernon-Hellwarth . . . 109

11.4 Rilassamento e equazioni di Bloch ottiche . . . 111

11.5 Indice di rifrazione e coefficiente di assorbimento . . . 115

11.6 Equazioni di rate e forme di riga . . . 118

11.7 Accoppiamento atomo-bagno termico . . . 119

11.8 Allargamento omogeneo . . . 121

11.9 Allargamento disomogeneo: effetto Doppler . . . 122

12 Regole di selezione 123 12.1 Considerazioni di simmetria . . . 123

12.2 Transizioni di dipolo elettrico . . . 125

Bibliografia 127

(6)

Premessa

Allo stato attuale questi appunti sono solo in fase di prima stesura, quindi non sono assolutamente completi, e vengono scritti prevalentemente per aiutare me stesso a preparare le lezioni del corso. Il loro scopo non `e sostituire il libro di testo, ma, eventualmente, integrarlo in qualche punto.

Alcune parti possono essere scritte in modo non chiaro e comunque migliorabili, e sicuramente sono presenti numerosi errori, in particolare errori di battitura. Sar`o grato a chi suggerir`a correzioni o miglioramenti.

Pisa, 4 giugno 2009

Giovanni Moruzzi

(7)

Capitolo 1

Informazione mancante

1.1 Impostazione del problema

Consideriamo un sistema fisico costituito da N

p

particelle.

Se il sistema pu`o essere descritto mediante la dinamica classica, in un certo istante il suo stato `e completamente determinato se conosciamo le coordinate q

1(i)

. . . q

(i)f

di ogni particella che compone il sistema, oltre ai corrispondenti momenti coniugati p

(i)1

. . . p

(i)f

, dove i `e l’indice della particella ed f il numero dei suoi gradi di libert`a. Questo equivale a conoscere con precisione il punto dello spazio delle fasi Γ che rappresenta il nostro sistema. Se le N

p

particelle hanno tutte lo stesso numero di gradi di libert`a, lo spazio delle fasi avr`a 2N

P

f dimensioni.

Analogamente, se il nostro sistema di N

p

particelle deve essere descritto quantisticamente, in un certo istante `e completamente determinato se conosciamo la sua funzione d’onda

ψ 

q

1(1)

, . . . , q

(1)f

, q

1(2)

, . . . , q

(2)f

, . . . , q

1(Np)

. . . q

f(Np)

 , o, in altra notazione, lo stato |ψi in cui il sistema stesso si trova.

In ambedue i casi, la conoscenza dell’hamiltoniana classica H(q, p), o dell’hamiltoniana quantistica H ci permette di calcolare l’evoluzione temporale del sistema. ˆ

Per un sistema macroscopico, N

p

`e dell’ordine del numero di Avogadro (N

A

= 6.022 × 10

23

), e questo esclude ogni possibilit`a di arrivare a determinare il punto dello spazio delle fasi che lo rappresenta nel caso classico, o la sua funzione d’onda nel caso quantistico. Non ci resta che tentare di descrivere il sistema, e la sua evoluzione temporale, utilizzando invece che parametri microscopici, come le coordinate e i momenti delle singole particelle, parametri macroscopici come, per esempio, pressione, volume, temperatura . . . Questo corrisponde a usare una quantit`a di informazione molto minore di quella necessaria per una descrizione dinamica. Ci troveremo cos`ı a lavorare in presenza di un difetto di informazione, o informazione mancante. Nei paragrafi seguenti cercheremo di definire il concetto, appunto, di informazione mancante.

1.2 Informazione mancante per un numero finito di scelte equiprobabili

Cominciamo considerando un sistema che possa trovarsi in un numero finito di stati. Un esempio pu`o essere lo spin di una particella. Supponiamo che il numero degli stati possibili sia W . Supponiamo poi di non sapere in quale stato si trovi il sistema, ma solo che il sistema ha la stessa probabilit`a 1/W

7

(8)

di trovarsi in uno qualunque degli stati possibili. Quanta informazione ci manca per sapere lo stato del sistema? La stessa informazione che ci mancherebbe se volessimo trovare una pallina nascosta in una di W scatole chiuse, esternamente tutte uguali. Consideriamo prima il caso in cui W `e una potenza di 2.

A B

B A

A B

A B

A

Figura 1.1: Informazione mancante per la localizzazione di una pallina nascosta in una di 16 scatole.

Definiamo quantitativamente l’infor- mazione mancante I come il minimo nu- mero di domande, a cui `e permesso rispon- dere solo con un s`ı o con un no, che dob- biamo fare per arrivare a sapere in quale scatola si trovi la pallina. E’ quindi proibi- ta la domanda “in quale scatola si trova la pallina?”. Dobbiamo scegliere una strate- gia. Per esempio, `e vero che una domanda del tipo “la pallina si trova nella scatola iesima?” mi permetterebbe di arrivare al- la soluzione in un colpo solo nel caso pi` u fortunato, ma mi porterebbe a fare W do- mande nel caso meno fortunato. In media, ci porterebbe a fare (W + 1)/2 domande.

Si pu`o fare di meglio. La migliore strategia `e dividere le scatole in due insiemi A e B, ognuno di W/2 scatole, e poi chiedere, come prima domanda, “la pallina si trova nell’insieme A?”. Sia che la risposta sia s`ı, o che sia no, abbiamo dimezzato il numero delle scatole in cui la pallina pu`o trovarsi.

Cio`e abbiamo diminuito l’informazione mancante. Iterando il procedimento arriviamo a trovare la pallina con log

2

W domande. Notate che, se il numero di scatole raddoppia, il numero di domande da fare aumenta solo di una. Data la corrispondenza tra una risposta del tipo s`ı/no ed un bit di informazione, l’informazione mancante I del problema, misurata in bit, `e

I = log

2

W. (1.1)

Nel caso generale, il numero delle scatole W non sar`a una potenza di 2, quindi log

2

W non sar`a un numero intero. Se ripetiamo l’esperimento pi` u volte, arriveremo sempre a trovare la pallina con un numero intero di iterazioni, ma, in ogni esperimento, in alcune di queste iterazioni ci troveremo di fronte ad un numero W

r

dispari di scatole residue, che non potremo dividere in parti uguali, ma solo in una parte contenente (W

r

+ 1)/2 scatole, e l’altra (W

r

− 1)/2. Come conseguenza, il numero di domande necessarie per trovare la pallina varier`a da esperimento a esperimento, a seconda di come dividiamo le scatole ad ogni iterazione. Ma si pu`o dimostrare che, in media, il numero di domande sar`a log

2

W .

1.3 Scelta tra possibilit` a con probabilit` a note

Supponiamo adesso di avere ancora una pallina nascosta in una di W scatole, ma di avere un po’

di informazione in pi` u. Ogni scatola ha una probabilit`a diversa P

i

di contenere la pallina, e noi conosciamo queste probabilit`a. Ovviamente sar`a

X

W i=1

P

i

= 1. (1.2)

(9)

1.3. SCELTA TRA POSSIBILIT ` A CON PROBABILIT ` A NOTE 9 Prima di procedere ci conviene riscrivere l’equazione (1.1) sotto la forma

I = log

2

W = r

2

log W. (1.3)

dove log indica il logaritmo naturale, e abbiamo posto r

2

= log

2

e = 1/ log 2.

La legge dei grandi numeri ci dice che, se il numero degli esperimenti N

E

tende all’infinito, il numero degli esperimenti in cui troveremo la pallina nella scatola i-esima tender`a a N

E

P

i

. Ma non sappiamo ancora in che ordine si presentano i risultati degli N

E

esperimenti. Quali degli N

E

sono gli N

E

P

i

esperimenti in cui la pallina si trova nella scatola i? I risultati degli esperimenti si possono presentare in qualunque ordine con uguale probabilit`a. Il numero di modi di ordinare gli esperimenti vale N

E

!/ Q

W

i=1

(N

E

P

i

)!, poich´e, per ogni i, tutti gli esperimenti in cui la pallina si trova nella scatola i sono equivalenti. Una volta specificato l’ordine dei risultati degli esperimenti, non ci manca pi` u informazione. L’informazione mancante I

NE

relativa a N

E

esperimenti `e cos`ı

I

NE

= r

2

log N

E

! Q

W

i=1

(N

E

P

i

)! = r

2

"

log N

E

! − X

W

i=1

log(N

E

P

i

)!

#

(1.4)

Volendo applicare la legge dei grandi numeri, I

NE

ci interessa solo al limite N

E

→ ∞, quindi possiamo usare l’approssimazione di Stirling

log N! ≈ N log N − N (1.5)

per ottenere

I

NE

≈ r

2

"

N

E

log N

E

− N

E

− X

W

i=1

N

E

P

i

(log N

E

+ log P

i

) + X

W

i=1

N

E

P

i

#

= −N

E

r

2

X

W i=1

P

i

log P

i

. (1.6)

L’informazione mancante complessiva `e cos`ı proporzionale al numero N

E

degli esperimenti, e l’infor- mazione mancante per ogni esperimento `e

I = lim

NE→∞

1 N

E

I

NE

= − r

2

X

W i=1

P

i

log P

i

. (1.7)

Se tutti i casi sono equiprobabili, abbiamo P

i

= 1/W per ogni i, e l’eq. (1.7) coincide con la (1.3).

Passiamo adesso ad un numero di scatole che tende all’infinito. Se tutte le scatole hanno la stessa probabilit`a di contenere la pallina, l’informazione mancante sar`a

I = lim

W →∞

r

2

log W = + ∞. (1.8)

Cio`e, l’informazione che ci manca per scegliere tra infinite possibilit`a equiprobabili `e infinita. Ma se `e data una distribuzione di probabilit`a non uniforme, l’equazione (1.7) ci d`a per l’informazione mancante

I = − r

2

X

i=1

P

i

log P

i

, (1.9)

che pu`o essere tranquillamente finita.

(10)

1.4 Informazione mancante per una scelta nel continuo

Adesso il nostro compito non `e pi` u individuare una pallina nascosta in una scatola, ma individuare la coordinata x di un punto nell’intervallo a ≤ x ≤ b. Supponiamo anche di conoscere una funzione di distribuzione della probabilit`a P (ξ) tale che la probabilit`a che x si trovi tra x

1

e x

2

, con a ≤ x

1

≤ x

2

≤ b sia data da

W (x

1

, x

2

) = Z

x2

x1

P (ξ)dξ, con P (ξ) > 0 e Z

b

a

P (ξ)dξ = 1. (1.10) Per calcolare l’informazione mancante in questo caso possiamo partire dai risultati precedenti per il caso discreto, e fare un passaggio al limite. Dividiamo il segmento [a, b] in W celle uguali, e calcoliamo quanta informazione ci manca per sapere in quale cella si trova il nostro punto. La cella i-esima avr`a estremi

a

i

(W ) = a + i − 1

W (b − a) e b

i

(W ) = a + i

W (b − a), (1.11)

e la probabilit`a che contenga la nostra x sar`a P

i

(W ) =

Z

bi(W ) ai(W )

P (ξ)dξ. (1.12)

L’informazione mancante per determinare la cella in cui si trova la x vale cos`ı

I(W ) = −r

2

X

W

i=1

P

i

(W ) log P

i

(W ) = −r

2

X

W

i=1

Z

bi(W ) ai(W )

P (ξ)dξ · log

Z

bi(W ) ai(W )

P (ξ)dξ. (1.13)

Per passare al caso continuo dobbiamo far tendere W all’infinito e, contemporaneamente, l’ampiezza delle singole celle a zero. Possiamo quindi scrivere per la probabilit`a di trovare x nella cella i-esima

P

i

(W ) =

Z

bi(W ) ai(W )

P (ξ)dξ = P

i

b − a

W , (1.14)

dove P

i

`e un valore che P (ξ) assume all’interno dell’i-esima cella. Sostituendo la (1.14) nella (1.13) otteniamo

I(W ) = −r

2

X

W i=1

P

i

b − a W log



P

i

b − a W



= −r

2

X

W i=1

b − a

W P

i

log P

i

− r

2

log b − a

W . (1.15)

L’ultimo termine a destra si ottiene ricordando che X

W

i=1

b − a

W P

i

= 1.

Se adesso facciamo separatamente il limite per W → ∞ dei due addendi dell’ultimo membro della (1.15) otteniamo

W →∞

lim −r

2

X

W i=1

b − a

W P

i

log P

i

= −r

2

Z

b a

P (ξ) log P (ξ) dξ e lim

W →∞

−r

2

log b − a

W = + ∞. (1.16)

(11)

1.4. INFORMAZIONE MANCANTE PER UNA SCELTA NEL CONTINUO 11 Quindi, l’informazione mancante per individuare un punto in un intervallo continuo `e infinita. Ma il termine che diverge nella (1.16) dipende solo dalla dimensione della cella, ed `e del tutto indipendente da come `e fatta la distribuzione di probabilit`a. Per cui la differenza di informazione mancante tra due distribuzioni di probabilit`a diverse P

1

(ξ) e P

2

(ξ) conserva un significato e vale

∆I = −r

2

Z

b a

P

1

(ξ) log P

1

(ξ) dξ + r

2

Z

b

a

P

2

(ξ) log P

2

(ξ) dξ

Possiamo quindi rinormalizzare l’informazione mancante per la scelta nel continuo sottraendo la costante infinita

W →∞

lim −r

2

log b − a W e definire

I = −r

2

Z

b a

P (ξ) log P (ξ) dξ. (1.17)

Vedremo che questa rinormalizzazione ci permetter`a di trattare in maniera perfettamente coerente la fisica statistica classica. Ci sono per`o due prezzi da pagare

1. L’informazione mancante non `e nulla, come dovrebbe, se la risposta `e nota. Se sappiamo che la risposta `e x

0

, P (ξ) tende a δ(ξ − x

0

), che sostituita nella (1.17) porta a I → −∞.

2. L’integrale al secondo membro della (1.17) contiene il logaritmo di P (ξ), che non `e un numero puro, ma ha dimensioni [ξ

−1

]. A parte l’aspetto matematicamente poco elegante, questo ha una conseguenza pi` u seria. La risposta al nostro problema di scelta sul continuo avrebbe potuto essere scritta, invece che in termini della variabile ξ, in termini della variabile η = η(ξ), con η(ξ) continua e monotona nell’intervallo tra η(a) e η(b). La distribuzione di probabilit`a da usare sarebbe stata P (η) = P [ξ(η)](dξ/dη). Ma in questo caso, a seconda della funzione η = η(ξ), a celle uguali in η non corrispondono necessariamente celle uguali in ξ, e a celle equiprobabili in η non corrispondono necessariamente celle equiprobabili in ξ, come si pu`o facilmente controllare.

Vedremo in seguito che, per il caso continuo, dovremo scegliere una variabile per la quale celle

di estensione uguale possano essere considerate equiprobabili a priori, cio`e equiprobabili quando

non abbiamo alcuna informazione sul sistema.

(12)
(13)

Capitolo 2

Meccanica statistica

2.1 Statistica classica

2.1.1 Stato di un sistema classico e grandezze fisiche

In meccanica classica lo stato di un sistema `e completamente specificato da un insieme di coordinate generalizzate q

i

e dall’insieme dei corrispondenti momenti coniugati p

i

, con 1 ≤ i ≤ N

f

, dove N

f

`e il numero di gradi di libert`a del sistema. L’esempio pi` u semplice `e costituito da un sistema di N punti materiali, per il quale le coordinate canoniche {q

i

} sono

q

1

, q

2

, q

3

, q

4

, q

5

, q

6

, . . . , q

3j−2

, q

3j−1

, q

3j

, . . . , q

3N −2

, q

3N −1

, q

3N

=

x

(1)

, y

(1)

, z

(1)

, x

(2)

, y

(2)

, z

(2)

, . . . , x

(j)

, y

(j)

, z

(j)

, . . . , x

(N )

, y

(N )

, z

(N )

, (2.1) ed i corrispondenti momenti coniugati {p

i

} sono

p

1

, p

2

, p

3

, p

4

, p

5

, p

6

, . . . , p

3j−2

, p

3j−1

, p

3j

, . . . , p

3N −2

, p

3N −1

, p

3N

=

m

(1)

˙x

(1)

, m

(1)

˙y

(1)

, m

(1)

˙z

(1)

, m

(2)

˙x

(2)

, m

(2)

˙y

(2)

, m

(2)

˙z

(2)

, . . . , (2.2) m

(j)

˙x

(j)

, m

(j)

˙y

(j)

, m

(j)

˙z

(j)

, . . . , m

(N )

˙x

(N )

, m

(N )

˙y

(N )

, m

(N )

˙z

(N )

,

dove l’indice (j) corre su tutte le particelle che compongono il nostro sistema, ed i gradi di libert`a sono N

f

= 3N. L’insieme delle coordinate e dei momenti (q, p) = (q

1

, . . . , q

Nf

, p

1

, . . . , p

Nf

) determina un vettore posizione in uno spazio delle fasi a 2N

f

dimensioni. In altre parole, ad ogni possibile stato del sistema corrisponde un punto (o vettore posizione) nello spazio delle fasi.

Ricordiamo che le coordinate e i momenti obbediscono alle equazioni del moto canoniche

˙q

i

= ∂H

∂p

i

, ˙p

i

= − ∂H

∂q

i

, (2.3)

dove H `e l’hamiltoniana del sistema.

Ogni grandezza fisica relativa al nostro sistema sar`a rappresentata da una funzione delle coordi- nate canoniche e dei momenti del tipo G(q, p). Per esempio, la quantit`a di moto totale sar`a scritta P = ~ P

N

j=1

~p

j

, e la sua componente P

x

sar`a P

x

= P

N

j=1

p

3j−2

, dove l’indice j corre su tutte le particelle.

2.1.2 Trasformazioni attive e passive

Nel seguito incontereremo i concetti di trasformazione attiva e trasformazione passiva in uno spazio vettoriale. Ne diamo una rapida definizione in questo paragrafo. Per semplicit`a, consideriamo un

13

(14)

a) b) c)

v

y

~v

x ϑ

v

x

x

y

y

v

y

v

x

x

v ~

= ~v

ϑ x

y

v

y

v

x

x

y y ϑ

~v

v

x′′

~v

v

′′ y

α

Figura 2.1: a) Situazione iniziale. b) Trasformazione passiva. c) Trasformazione attiva.

vettore ~v in R

2

, come in figura 2.1a). Prendiamo {ˆx, ˆy} come base ortonormale iniziale (con l’accento circonflesso indichiamo i versori degli assi). Su questa base ~v ha componenti v

x

= ~v · ˆx = v cos α e v

y

= ~v · ˆy = v sin α, dove α `e l’angolo che ~v forma con l’asse ˆx. Come esempio di trasformazione prendiamo una rotazione antioraria di un angolo ϑ attorno all’origine, data da

R =

 cos ϑ − sin ϑ sin ϑ cos ϑ

 .

Una trasformazione passiva lascia invariato il vettore ~v, mentre ruota la base di ϑ, trasformandola in { ˆ x

, ˆ y

}, come in figura 2.1b). L’angolo che ~v

= ~v forma con il nuovo versore di base ˆ x

vale α

= α − ϑ. Quindi le componenti di ~v relative alla nuova base sono

v

x

= ~v · ˆ x

= v

x

cos ϑ + v

y

sin ϑ, v

y

= ~v · ˆ y

= −v

x

sin ϑ + v

y

cos ϑ,

Poich´e in una trasformazione passiva ~v resta fisso, mentre la base subisce la rotazione generata da R le componenti di ~v subiscono una rotazione generata da R

−1

.

In una trasformazione attiva, invece, la trasformazione R ruota sia ~v che la base, come in figura 2.1c). Cambia cos`ı effettivamente lo stato fisico del sistema, ma le componenti di ~v non cambiano passando dalla vecchia base alla nuova: v

x

= v

x

, v

y

= v

y

. Il vettore trasformato forma quindi con l’asse x originario un angolo α + ϑ, e le sue componenti rispetto alla base originaria diventano

v

x′′

= ~ v

· ˆx = v

x

cos ϑ − v

y

sin ϑ, v

y′′

= ~ v

· ˆy = v

x

sin ϑ + v

y

cos ϑ, subendo la rotazione generata da R.

2.1.3 Evoluzione temporale

q p

(q0, p0)

(q(t), p(t))

Le equazioni del moto (2.3) possono essere integrate, ottenendo delle soluzioni del tipo q

i

(q

0

, p

0

, t), p

i

(q

0

, p

0

, t), che soddisfano le condizioni iniziali

q

i

(q

0

, p

0

, 0) = q

0i

, p

i

(q

0

, p

0

, 0) = p

0i

. (2.4)

(15)

2.1. STATISTICA CLASSICA 15 La legge secondo cui il valore di una generica grandezza fisica

G(q, p) varia al passare del tempo si scrive d

dt G(q, p) =

Nf

X

i=1



˙q

i

∂G

∂q

i

+ ˙p

i

∂G

∂p

i



=

Nf

X

i=1

 ∂H

∂p

i

∂G

∂q

i

− ∂H

∂q

i

∂G

∂p

i



= {G, H} , (2.5)

dove il termine {G, H} indica la parentesi di Poisson dell’hamiltoniana del sistema con la gran- dezza G(q, p). In altre parole, il punto dello spazio delle fasi che rappresenta il nostro sistema descrive una certa traiettoria al passare del tempo, come in figura, e il valore della nostra gran- dezza G `e dato, istante per istante, dal valore che l’espressione analitica G(q, p) assume nel punto (q

i

(q

0

, p

0

, t), p

i

(q

0

, p

0

, t)).

L’Eq. (2.5) rappresenta una trasformazione attiva della grandezza G: durante l’evoluzione tem- porale manteniamo immutata la dipendenza analitica dalle coordinate dello spazio delle fasi espressa da G = G(q, p), senza cio`e introdurre alcuna dipendenza esplicita di G da t.

2.1.4 Trattamento statistico

Abbiamo gi`a detto che una trattazione dinamica di un sistema composto da un numero di particelle dell’ordine del numero di Avogadro, implicando la conoscenza esatta del punto rappresentativo nello spazio delle fasi, richiede la disponibilit`a di una quantit`a di informazione non realisticamente pensa- bile. Descriveremo quindi il sistema, e la sua evoluzione temporale, mediante variabili macroscopiche come il volume, la pressione, la temperatra . . . anzich´e variabili microscopiche come le posizioni e i momenti delle singole particelle. Lavoreremo quindi disponendo di una quantit`a di informazione in- feriore a quella necessaria per una trattazione dinamica, trovandoci cos`ı in presenza di informazione mancante.

Supponiamo che l’informazione a nostra disposizione si limiti alla conoscenza non del punto rappresentativo, ma solo di una funzione di distribuzione f (q, p) che ci dia, punto per punto dello spazio delle fasi, la densit`a di probabilit`a che quello sia effettivamente il nostro punto rappresentativo.

In altre parole, la probabilit`a che il punto rappresentativo stia all’interno di un elemento di volume τ dello spazio delle fasi vale

W (τ ) = Z

τ

f (q, p) dq dp = Z

τ

f (q

1

, . . . , q

Nf

, p

1

. . . , p

Nf

) dq

1

dq

2

. . . dq

Nf

dp

1

dp

2

. . . dp

Nf

(2.6) con le condizioni

Z

tutto lo spazio delle fasi

f (q, p) dq dp = 1, f (q, p) ≥ 0 ∀ q

i

, p

i

. (2.7) L’informazione contenuta nella funzione di distribuzione di probabilit`a f (p, q) ci permette di calcolare, per ogni grandezza fisica G(q, p), non pi` u il “valore esatto”, ma solo una media statistica, o valore di aspettazione,

hGi = Z

G(q, p)f (q, p) dq dp (2.8)

con l’integrale esteso a tutto lo spazio delle fasi.

Le equazioni del moto canoniche (2.3) impongono un’evoluzione temporale al valore d’aspettazione

hGi della (2.8). Questa pu`o essere trattata secondo due rappresentazioni equivalenti, descritte nei

paragrafi seguenti.

(16)

2.1.5 Rappresentazione di Schr¨ odinger

Se all’istante t = 0 il punto rappresentativo del nostro sistema fosse stato sicuramente (q

0

, p

0

), all’istante t sarebbe sicuramente (q(q

0

, p

0

, t), p(q

0

, p

0

, t)), dopo aver descritto una traiettoria nello spazio delle fasi del tipo schematizzato in Figura 2.2.

Se la probabilit`a che a t = 0 il punto rappresentativo fosse in un piccolo elemento di volume dello spazio delle fasi τ (0) attorno a (q

0

, p

0

) era W = f (q

0

, p

0

, 0)τ (0), all’istante t avremo che W sar`a ancora la probabilit`a che il punto rappresentativo si trovi nell’elemento di volume τ (t) attorno a (q(q

0

, p

0

, t), p(q

0

, p

0

, t)), dove ogni punto di τ (0) `e stato portato in un punto di τ (t) dall’evoluzione temporale. Avremo cos`ı

W = f (q

0

, p

0

, 0)τ (0) = f (q(q

0

, p

0

, t), p(q

0

, p

0

, t))τ (t). (2.9) Ma le trasformazioni canoniche conservano gli elementi di volume dello spazio delle fasi, ed avremo quindi τ (t) = τ (0), da cui segue immediatamente che

f (q(q

0

, p

0

, t), p(q

0

, p

0

, t)) = f (q

0

, p

0

, 0) ∀t. (2.10) Dovremo quindi avere

df dt = ∂f

∂t +

Nf

X

i=1



˙q

i

∂f

∂q

i

+ ˙p

i

∂f

∂p

i



= ∂f

∂t +

Nf

X

i=1

 ∂H

∂p

i

∂f

∂q

i

− ∂H

∂q

i

∂f

∂p

i



= 0, (2.11)

da cui segue

∂f

∂t = −

Nf

X

i=1

 ∂H

∂p

i

∂f

∂q

i

− ∂H

∂q

i

∂f

∂p

i



= −{H, f}. (2.12)

L’evoluzione temporale della nostra distribuzione di probabilit`a `e quindi descritta da una trasforma- zione passiva, che pu`o essere usata per ottenere l’evoluzione temporale del valore di aspettazione di una grandezza fisica attraverso la relazione

hG(t)i = Z

G(q, p)f (q, p, t)dqdp. (2.13)

2.1.6 Rappresentazione di Heisenberg

L’alternativa `e trasferire la dipendenza temporale dalla distribuzione di probabilit`a f alla grandezza fisica G. Se a t = 0 avevamo una probabilit`a dW = f (q

0

, p

0

)dτ che il nostro punto rappresentativo fosse nell’intorno dτ di (q

0

, p

0

), questo corrispondeva a una probabilit`a dW che il valore della gran- dezza fosse G(q

0

, p

0

). Dopo un tempo t avremo la stessa probabilit`a dW che il valore della grandezza sia diventato G(q(q

0

, p

0

, t), p(q

0

, p

0

, t)). Per il valore di aspettazione avremo quindi

hG(t)i = Z

G(q(q

0

, p

0

, t), p(q

0

, p

0

, t))f (q

0

, p

0

)dq

0

dp

0

, (2.14)

dove G subisce la trasformazione attiva ottenuta integrando la (2.5).

(17)

2.2. STATISTICA QUANTISTICA 17

2.2 Statistica quantistica

2.2.1 Stato di un sistema quantistico e grandezze fisiche

In meccanica quantistica lo stato di un sistema `e completamente specificato da un vettore |ψi in uno spazio di Hilbert, normalizzato in modo che

hψ|ψi = 1. (2.15)

Alle grandezze fisiche osservabili corrispondono operatori ˆ G che operano su questo spazio. Il valore di aspettazione di un grandezza ˆ G quando il sistema si trova nello stato |ψi `e

h ˆ G i = hψ| ˆ G |ψi. (2.16)

La grandezza assume un valore definito G

i

(autovalore) solo se il sistema si trova in un autostato |ii di ˆ G

G ˆ |ii = G

i

|ii. (2.17)

Se un sistema `e confinato in un volume finito, gli autostati di ogni grandezza fisica costituiscono un insieme normalmente infinito, ma discreto. Autostati corrispondenti ad autovalori diversi sono ortogonali tra loro. In presenza di autovalori degeneri, `e comunque possibile scegliere gli autostati in modo che formino un insieme ortonormale completo. Questo significa che hi|ji = δ

ij

e che l’operatore identit`a ˆ E pu`o essere scritto

E = ˆ X

i

|iihi|. (2.18)

2.2.2 Evoluzione temporale

L’evoluzione temporale dello stato |ψi di un sistema quantistico `e data dall’equazione di Schr¨odinger dipendente dal tempo

d

dt |ψi = − i

~ H ˆ |ψi, (2.19)

dove ˆ H `e l’hamiltoniana (operatore hamiltoniano) del sistema. L’equazione (2.19) pu`o essere inte- grata formalmente per dare

|ψ(t)i = e

~iHtˆ

|ψ(0)i. (2.20)

Nella (2.20) per esponenziale di un operatore ˆ A si intende e

Aˆ

= ˆ E + ˆ A + 1

2 A ˆ

2

+ 1

6 A ˆ

3

+ . . . + 1

n! A ˆ

n

+ . . . (2.21)

dove ˆ E `e, come al solito, l’operatore identit`a.

L’evoluzione temporale del valore di aspettazione di una grandezza fisica ˆ G pu`o cos`ı essere scritta

h ˆ G(t) i = hψ(t)| ˆ G |ψ(t)i, (2.22)

questa `e la rappresentazione di Schr¨odinger, in cui l’operatore ˆ G viene considerato costante nel tempo mentre evolve lo stato |ψ(t)i.

D’altra parte, inserendo la (2.20) nella (2.22) otteniamo

h ˆ G(t) i = hψ(0)|e

+~iHtˆ

Ge ˆ

~iHtˆ

|ψ(0)i = hψ(0)| ˆ G(t) |ψ(0)i. (2.23)

(18)

Questa `e la rappresentazione di Heisenberg, in cui i vettori dello spazio di Hilbert sono considerati costanti nel tempo, mentre gli operatori rappresentanti le osservabili fisiche evolvono secondo la legge G(t) = e ˆ

+~iHtˆ

G(0)e ˆ

~iHtˆ

. (2.24) Calcolando la derivata temporale della (2.24) otteniamo

d

dt G(t) = ˆ i

~

h H, ˆ ˆ G(t) i

. (2.25)

Sia che usiamo la rappresentazione di Schr¨odinger, sia che usiamo quella di Heisenberg, l’evoluzione temporale del valore di aspettazione di ˆ G rimane ovviamente la stessa.

2.2.3 Trattamento statistico e matrice densit` a

Quando abbiamo a che fare con un sistema quantistico composto da un grande numero di particelle diventa impossibile determinare esattamente in quale stato |ψi il sistema si trovi. Anche qui ci troviamo quindi ad operare in assenza di un’informazione completa. L’ipotesi che faremo sar`a quella di avere una base ortonormale completa {|ii} dello spazio di Hilbert, per ogni vettore |ii della quale sia nota la probabilit`a W

i

che esso corrisponda allo stato del sistema. Dovr`a essere P

i

W

i

= 1 e W

i

≥ 0 ∀i. Tenendo presente che se fossimo sicuri che il sistema si trova nello stato |ii il valore d’aspettazione dell’osservabile ˆ G sarebbe hi| ˆ G |ii, la stima migliore che possiamo fare per il risultato di una misura di ˆ G `e

h ˆ G i = X

i

W

i

hi| ˆ G |ii. (2.26)

Se costruiamo un operatore ˆ ρ diagonale sulla base {|ii} definito dalla relazione

hi|ˆρ|ji = W

i

δ

ij

(2.27)

l’equazione (2.26) pu`o essere riscritta h ˆ G i = X

i

hi|ˆρ|iihi| ˆ G |ii = X

i

hi|ˆρ ˆ G |ii = Tr  ˆ ρ ˆ G 

(2.28)

E’ da notare che, se le W

i

non sono tutte uguali tra loro e cambiamo base, ˆ ρ non rimane necessaria- mente diagonale. Per`o l’operazione conserva il valore della traccia, quindi la relazione h ˆ G i = Tr 

ˆ ρ ˆ G  rimane valida indipendentemente dalla base scelta.

Per quel che riguarda l’evoluzione temporale del valore di aspettazione, la rappresentazione di Schr¨odinger considera l’operatore ˆ G costante nel tempo, mentre fa evolvere l’operatore ˆ ρ, detto matrice densit`a. E’ da notare che, nella base in cui `e diagonale, ˆ ρ(t) pu`o essere scritto

ˆ

ρ(t) = X

i

|i(t)iW

i

hi(t)|, da cui ˆρ(t) = X

i

e

~iHtˆ

|iiW

i

hi|e

+~iHtˆ

= e

~iHtˆ

ρ(0)e ˆ

+~iHtˆ

. (2.29)

La rappresentazione di Heisenberg, invece, considera la matrice densit`a costante nel tempo, facendo

evolvere l’operatore ˆ G(t) secondo la relazione (2.24). E’ da notare che, rispetto alla (2.24), la (2.29)

fa evolvere la matrice densit`a “all’indietro nel tempo”.

(19)

Capitolo 3

Scelta della probabilit` a

3.1 I postulato: probabilit` a a priori

Per lavorare utilizzando una quantit`a di informazione molto inferiore a quella necessaria ad una trat- tazione dinamica del problema, dobbiamo introdurre due principi, o postulati, relativi all’infrmazione mancante. Questi postulati riguardano i criteri di scelta della funzione di distribuzione di probabilit`a sullo spazio delle fasi nel caso classico, e della matrice densit`a nel caso quantistico. Come tutti i postulati della fisica non sono ricavabili da principi preesistenti, ma saranno ritenuti giustificati a posteriori se porteranno a risultati in accordo con l’esperienza.

Nel caso della statistica classica il primo postulato assegna uguale probabilit`a a priori - cio`e in assenza di altra informazione sul sistema - a uguali volumi dello spazio delle fasi. E’ da notare che questa scelta, nel caso di un sistema fisico costituito da particelle non identiche, privilegia una trattazione hamiltoniana rispetto, per esempio, ad una trattazione lagrangiana. Infatti, in una trattazione hamiltoniana le variabili sono le q

i

e le p

i

, in una trattazione lagrangiana le variabili sono le q

i

e le ˙q

i

. Se le particelle del sistema sono tutte identiche, a uguali volumi nello spazio qp corrispondono uguali volumi nell spazio q ˙q, essendo p

i

= m ˙q

i

, ma se il sistema contiene particelle di massa diversa questo non `e pi` u vero. La funzione di distribuzione f (q, p) deve quindi avere la

propriet`a Z

τ1

f (q, p) dqdp = Z

τ2

f (q, p) dqdp, (3.1)

dove τ

1

e τ

2

sono diversi domini dello spazio delle fasi aventi lo stesso volume. L’informazione mancante sar`a

I = −r

2

Z

f (q, p) log f (q, p) dqdp. (3.2)

Nel caso della statistica quantistica il primo postulato assegna uguale probabilit`a a priori a tutti gli stati di un insieme che formi una base ortonormale completa. Se gli stati di questa base sono N, e li etichettiamo |ii, con 1 ≤ i ≤ N, avremo W

i

= 1/N ∀i. Questo corrisponde ad una matrice densit`a diagonale

ˆ ρ = 1

N E, ˆ (3.3)

dove ˆ E `e la matrice identit`a, indipendentemente dalla base scelta.

Per quel che riguarda l’informazione mancante nel caso quantistico, usando la base dello spazio di Hilbert su cui ˆ ρ `e diagonale abbiamo

I = −r

2

X

i

W

i

log W

i

= −r

2

X

i

ρ

ii

log ρ

ii

= −r

2

Tr (ˆ ρ log ˆ ρ) . (3.4)

19

(20)

3.2 Informazione disponibile (utilizzabile)

Una volta stabilito che, in totale assenza di informazione disponibile, vogliamo che

i) nel caso classico la nostra funzione di distribuzione f (q, p) attribuisca uguali probabilit`a ad uguali volumi dello spazio delle fasi,

ii) nel caso quantistico la nostra matrice densit`a ˆ ρ attribuisca la stessa probabilit`a a tutti gli elementi di una base ortonormale completa dello spazio di Hilbert,

dobbiamo decidere che cosa richiediamo a f (q, p) e ˆ ρ quando invece disponiamo di informazione sul sistema che vogliamo descrivere.

La prima richiesta ovvia `e che, se esistono n grandezza fisiche il cui valore `e noto, i loro valori di aspettazione coincidano con questi valori noti. Se nel caso classico abbiamo n grandezze fisiche G

i

(q, p) di ognuna delle quali conosciamo con certezza il valore g

i

, la f (q, p) dovr`a essere tale che

hG

i

i = Z

G

i

(q, p)f (q, p) dqdp = g

i

∀i. (3.5) Analogamente, se nel caso quantistico abbiamo n osservabili ˆ G

i

di ognuna delle quali conosciamo con certezza il valore g

i

, la matrice densit`a ˆ ρ dovr`a essere tale che

hG

i

i = Tr  G ˆ

i

ρ ˆ 

= g

i

∀i. (3.6)

3.3 II postulato: massimo condizionato dell’informazione mancante

La condizione del paragrafo precedente ci lascia ancora molta libert`a. Consideriamo, nel caso classico, due funzioni di distribuzione f

1

(q, p) e f

2

(q, p) che riproducano ambedue, come valori di aspettazione, gli n valori noti sperimentalmente g

i

delle n grandezze fisiche G

i

(q, p)

hG

i

i = Z

G

i

(q, p)f

1

(q, p) dqdp = Z

G

i

(q, p)f

2

(q, p) dqdp = g

i

∀i. (3.7) In base a quale criterio preferiremo f

1

rispetto a f

2

, o vice versa? Diamo un’occhiata alle informazioni mancanti relative alle due distribuzioni:

I

1

= −r

2

Z

f

1

(q, p) log f

1

(q, p) dqdp, I

2

= −r

2

Z

f

2

(q, p) log f

2

(q, p) dqdp, (3.8) e supponiamo che sia I

1

> I

2

. Tutte e due le funzioni di distribuzione riproducono l’informazione che vogliamo, cio`e i valori di aspettazione delle grandezze note, ma f

2

, avendo un’informazione mancante minore, contiene una quantit`a di informazione maggiore. Questo eccesso di informazione non ha niente a che fare con l’informazione disponibile sperimentalmente. Quindi, preferiremo f

1

, che ci riproduce tutti i dati sperimentali inventandosi meno cose.

Arriviamo cos`ı al nostro secondo postulato:

in statistica classica sceglieremo la funzione di distribuzione di probabilit`a sullo spazio delle fasi f (q, p)

in modo che massimizzi l’informazione mancante con la condizione di riprodurre tutta l’informazione

sperimentale a noi nota. In statistica quantistica sceglieremo la matrice densit`a ˆ ρ che massimizzi

l’informazione mancante, sempre con la condizione di riprodurre tutta l’informazione sperimentale a

noi nota.

(21)

3.4. MASSIMI CONDIZIONATI: METODO DEI MOLTIPLICATORI DI LAGRANGE 21

3.4 Massimi condizionati: metodo dei moltiplicatori di La- grange

Per semplicit`a, supponiamo di dover cercare il massimo di una funzione di due variabili f (x, y) soggetto alla condizione g(x, y) = k. L’equazione g(x, y) = k rappresenta una linea sul piano, indicata dalla linea continua in figura 3.1, e noi dobbiamo cercare gli estremi di f (x, y) su questa linea. Le equazioni del tipo f (x, y) = h, con h costante, rappresentano, per diversi valori di h, un famiglia di curve sul piano, del tipo delle linee tratteggiate in figura 3.1. Alcune di queste non incontrano mai la curva g(x, y) = k, come la f (x, y) = h

1

, alcune la intersecano, come le f (x, y) = h

3

, f (x, y) = h

4

e f (x, y) = h

5

, e alcune le possono essere tangenti, come la f (x, y) = h

2

nel punto P

4

. Se noi percorriamo la curva g(x, y) = k punto per punto o intersechiamo delle linee del tipo f (x, y) = h, come in P

1

, P

2

, P

3

, P

5

, P

6

e P

7

, o ci troviamo in un punto in cui la curva `e tangente ad una linea del tipo f (x, y) = h, come in P

4

. Gli estremi di f (x, y) soggetti alla condizione g(x, y) = k possono trovarsi solo in punti del tipo P

4

.

f (x, y) =h2 f (x, y) =h4

f (x, y) =h5

f (x, y) =h1

P2

P1

P6

P7

g(x,y)=k

P4

f (x, y) =h3

P3

P5

∇f(x, y)~

~ g(x, y)

Figura 3.1: Ricerca di estremo condizionato.

Infatti, nei punti P

3

e P

5

la funzione f (x, y) assu- me lo stesso valore h

3

, mentre nel punto intermedio P

4

ha un valore diverso h

2

. Ci troveremo quindi in presenza di un massimo condizionato se h

2

> h

3

, o di un minimo condizionato se h

2

< h

3

. Il problema di trovare estermi condizionati di f (x, y) soggetti al vin- colo g(x, y) = k si risolve quindi individuando i punti in cui una curva del tipo f (x, y) = h `e tangente alla curva g(x, y) = k.

Il gradiente di f (x, y) `e un vettore ~ ∇f(x, y) sempre perpendicolare alle curve f (x, y) = h, mentre ~ ∇g(x, y)

`e sempre perpendicolare alla curva g(x, y) = k. Quin- di, nei punti in cui f (x, y) = h e g(x, y) = k sono tangenti, i vettori ~ ∇f(x, y) e ~∇g(x, y) sono paralle- li. Questo implica ~ ∇f(x, y) = λ~∇g(x, y), dove λ `e un valore opportuno.

Introduciamo una nuova funzione F (x, y, λ) = f (x, y) − λ [g(x, y) − k]. Cerchiamo adesso i punti in cui F (x, y, λ) ha estremi incondizionati. In questi punti le sue derivate parziali rispetto a x, y e λ sono tutte nulle:

∂F (x, y, λ)

∂x = ∂f (x, y)

∂x − λ ∂g(x, y)

∂x = 0, da cui ∂f (x, y)

∂x = λ ∂g(x, y)

∂x

∂F (x, y, λ)

∂y = ∂f (x, y)

∂y − λ ∂g(x, y)

∂y = 0, da cui ∂f (x, y)

∂y = λ ∂g(x, y)

∂y (3.9)

∂F (x, y, λ)

∂λ = −[g(x, y) − k] = 0, da cui g(x, y) = k,

ci troviamo quindi in punti in cui i gradienti di f (x, y) e g(x, y) sono paralleli, ed `e soddisfatta la condizione g(x, y) = k.

La ricerca degli estremi condizionati della funzione di due variabili f (x, y) con il vincolo g(x, y) = k

si riduce quindi alla ricerca degli estremi incondizionati della funzione di tre variabili F (x, y, λ). Al

parametro λ si d`a il nome di moltiplicatore di Lagrange. Ma attenzione, i punti cos`ı trovati sono punti

stazionari di F , non necessariamente estremi: potrebbero essere punti di sella. Quindi, in generale,

bisogner`a controllare che corrispondano effettivamente a estremi condizionati di f .

(22)

Consideriamo adesso la ricerca degli estremi di un funzione di n variabili f (x

1

, x

2

, . . . x

n

) sotto- posti ad m vincoli (con, ovviamente, m < n) g

1

(x

1

, x

2

, . . . x

n

) = 0, g

2

(x

1

, x

2

, . . . x

n

) = 0

. . . g

m

(x

1

, x

2

, . . . x

n

) = 0. Si pu`o dimostrare che il problema pu`o essere risolto cercando gli estremi incondizionati della nuova funzione di n + m variabili

F (x

1

, x

2

, . . . x

n

, λ

1

, λ

2

, . . . λ

m

) = f (x

1

, x

2

, . . . x

n

) − X

m

k=1

k

g

k

(x

1

, x

2

, . . . x

n

),

dove i λ

k

sono moltiplicatori di Lagrange.

3.5 Statistica classica: determinazione di f (q, p) dall’infor- mazione disponibile

Dobbiamo massimizzare l’informazione mancante I = −r

2

R f (q, p) log f (q, p) dqdp con i vincoli R f (q, p) dqdp − 1 = 0 (condizione di normalizzazione di f) e R

f (q, p)G

i

(q, p) dqdp − g

i

= 0 con i = 1, . . . n, dove G

1

. . . G

n

sono le grandezze fisiche di cui conosciamo il valore. Introduciamo quin- di gli n + 1 moltiplicatori di Lagrange −r

2

(Ω + 1) e r

2

λ

i

per i = 1, . . . n, e cerchiamo la funzione di distribuzione di probabilit`a f (q, p) che dia il massimo della funzione

I

= I + r

2

(Ω + 1)

Z

f (q, p) dqdp − 1



− r

2

X

n

i=1

λ

i

Z

f (q, p)G

i

(q, p) dqdp − g

i



= −r

2

Z

f (q, p) log f (q, p) dqdp + r

2

(Ω + 1)

Z

f (q, p) dqdp − 1



−r

2

X

n

i=1

λ

i

Z

f (q, p)G

i

(q, p) dqdp − g

i



= −r

2

Z

f (q, p)

"

log f (q, p) − Ω − 1 + X

n

i=1

λ

i

G

i

(q, p)

#

dqdp + r

2

Ω + 1 − X

n

i=1

λ

i

g

i

! ,(3.10)

senza vincoli per l’espressione analitica di f . I valori dei moltiplicatori di Lagrange verranno poi determinati in modo da imporre le condizioni sulla normalizzazione di f e sui valori di aspettazione delle grandezze note. Per la variazione di I

abbiamo, tenendo presente che la variazione dell’ultimo termine tra parentesi tonda della (3.10) `e nulla perch´e indipendente da f (q, p)

δI

= −r

2

Z

δf (q, p)

"

log f (q, p) − Ω − 1 + X

n

i=1

λ

i

G

i

(q, p)

#

dqdp − r

2

Z

f (q, p) δf (q, p) f (q, p) dqdp

= −r

2

Z

δf (q, p)

"

log f (q, p) − Ω + X

n

i=1

λ

i

G

i

(q, p)

#

dqdp, (3.11)

dove δf (q, p) `e una varizione infinitesima arbitraria di f (q, p). Poich´e δI

deve essere nulla per δf arbitraria, deve essere

log f (q, p) = Ω − X

n

i=1

λ

i

G

i

(q, p), ovvero f (q, p) = e

Ω−Pni=1λiGi(q,p)

. (3.12)

(23)

3.6. PARTICELLE IDENTICHE IN FISICA CLASSICA 23 Questa soluzione soddisfa la condizione f (q, p) > 0. Adesso determiniamo i moltiplicatori di Lagran- ge. La condizine di normalizzazione impone

1 = Z

f (q, p) dqdp = Z

e

Ω−Pni=1λiGi(q,p)

dqdp = e

Z

e

− Pni=1λiGi(q,p)

dqdp da cui otteniamo

Ω = − log Z

e

Pni=1λiGi(q,p)

dqdp. (3.13)

Dagli altri vincoli otteniamo

g

i

= Z

f (q, p)G

i

(q, p) dqdp = Z

e

Ω−Pni=1λiGi(q,p)

G

i

(q, p) dqdp = Z

e

Pni=1λiGi(q,p)

G

i

(q, p) dqdp Z

e

Pni=1λiGi(q,p)

dqdp , (3.14) che, guardando la (3.13), pu`o essere riscritta nella forma

∂Ω

∂λ

i

= g

i

, i = 1, . . . n. (3.15)

Le equazioni (3.13) e (3.15) ci permettono di ottenere Ω e gli altri moltiplicatori di Lagrange λ

i

in funzione dei valori noti delle grandezze fisiche g

i

e delle espressioni analitiche delle grandezze G

i

(q, p).

Per quel che riguarda l’informazione mancante abbiamo

I = −r

2

Z

f (q, p) log f (q, p) dqdp = −r

2

Z

e

Ω−Pni λiGi(q,p)

"

Ω − X

n

i

λ

i

G

i

(q, p)

# dqdp

= −r

2

Ω + r

2

Z X

n

i

λ

i

G

i

(q, p) e

Ω−Pni λiGi(q,p)

dqdp = −r

2

Ω + r

2

X

n i

λ

i

g

i

. (3.16)

Nel caso importante in cui l’unica grandezza fisica di cui conosciamo il valore `e l’energia, chia- mando β il moltiplicatore di Lagrange relativo all’hamiltoniana H(q, p), ed U il valore dell’energia stesso, abbiamo

f (q, p) = e

Ω−βH(q,p)

, Ω = − log Z

e

−βH(q,p)

dqdp, I = −r

2

Ω + r

2

βU (3.17)

3.6 Particelle identiche in fisica classica

Finora abbiamo trattato le particelle come distinguibili. Questo non vuole solo dire attribuire ad ogni singola particella i la sua posizione ~q

i

ed il suo momento coniugato ~p

i

. Questo vuole anche dire considerare come distinti due punti dello spazio delle fasi che si ottengono scambiando tra loro simultaneamente le posizioni e i momenti di una o pi` u coppie di particelle.

Ma in natura particelle dello stesso tipo (cio`e, per esempio, due atomi di

4

He, ma non un atomo

di

4

He e uno di

3

He) sono indistiguibili. Non esiste un esperimento che permetta di distinguere

un atomo di

4

He dall’altro. Questo non `e solo un limite alle nostre capacit`a, ma ha un significato

pi` u profondo. Questo implica anche che punti diversi dello spazio delle fasi che si trasformano l’uno

Riferimenti

Documenti correlati

Siete FORTEMENTE INVITATI a NON far uso della nozione di determinante, come di tutte le nozioni e risultati ad essa collegati (ad esempio: Teorema di Cramer, Teorema degli

Si supponga che il tempo medio che un ragazzo passa su Facebook sia distribuito come una variabile normale con una deviazione standard di

Dunque tutti i concetti definiti per uno spazio vettoriale qualsiasi si possono dare anche per questo spazio vettoriale, cos`ı si potr` a parlare di combinazioni lineari di funzioni,

A differenza del caso discreto, nel caso di sistemi continui la funzione di transizione Φ(t) `e

In un’urna sono contenute dieci palline: su sei di queste `e stampato il numero 1, su tre il numero 2 e su una il

Esercizio 1. In una scatola nera sono contenuti due mazzi di carte. Senza guardare, un bambino sceglie in maniera equiprobabile un maz- zo dalla scatola, ed estrae una carta dal

Conviene dunque passare dalla descrizione degli stati in termini degli autostati di singola particella in campo centrale, i cosiddetti orbitali, che sono identificati appunto dai

L’occorrenza di un nuovo evento puo’ essere considerato un esperimento tipo Bernoulli che genera solo due eventi incompatibili, tipo successo – insuccesso. (1-p) = probabilità di