• Non ci sono risultati.

Elementi di Meccanica Statistica Appunti del corso A.A. 2008-09

N/A
N/A
Protected

Academic year: 2021

Condividi "Elementi di Meccanica Statistica Appunti del corso A.A. 2008-09"

Copied!
97
0
0

Testo completo

(1)

Elementi di

Meccanica Statistica

Appunti del corso A.A. 2008-09

Roberto Raimondi Dipartimento di Fisica

Universit`a Roma Tre

5 gennaio 2009

(2)

� Questa opera `e pubblicata sotto una Licenza Creative Commons. c

http://creativecommons.org/licenses/by-n/c-nd/2.5/it/

(3)

Indice

1 Ensembles statistici 5

1.1 Introduzione . . . . 5

1.2 Formulazione del problema . . . . 6

1.3 Medie temporali e medie sull’ensemble . . . . 7

1.4 Teorema di Liouville . . . . 9

1.4.1 Invarianza della misura rispetto al moto hamiltoniano . 11 2 L’ensemble microcanonico 13 2.1 La funzione di distribuzione per un sistema isolato . . . 13

2.2 La definizione dell’entropia . . . 14

2.3 Condizioni di equilibrio e primo principio della termodinamica 19 3 Il gas perfetto 21 3.1 Ensemble microcanonico per il gas perfetto . . . 21

3.2 Propriet`a della funzione gamma . . . 22

3.3 Termodinamica del gas perfetto . . . 23

3.4 Il corretto conteggio di Boltzmann . . . 27

3.5 Connessione con il limite quantistico . . . 30

4 L’ensemble canonico 33 4.1 Distribuzione di Boltzmann . . . 33

4.2 La definizione dell’energia libera . . . 35

4.3 Il gas perfetto . . . 36

4.4 Distribuzione di Maxwell per le velocit`a . . . 37

4.5 Formula di Gibbs per l’entropia . . . 38

5 L’ensemble grancanonico 41 5.1 La funzione di distribuzione grancanonica . . . 41

5.2 Il granpotenziale . . . 42

5.3 Il gas perfetto . . . 44

3

(4)

6 Teorema di equipartizione e fluttuazioni 45

6.1 Il teorema di equipartizione . . . 45

6.2 Fluttuazioni di energia . . . 46

6.3 Fluttuazioni del numero di particelle . . . 48

7 La meccanica statistica quantistica 51 7.1 Ensembles quantistici . . . 51

7.1.1 Ensemble microcanonico . . . 52

7.1.2 Ensemble canonico . . . 52

7.1.3 Ensemble grancanonico . . . 53

7.2 Statistiche quantistiche: gas perfetti . . . 53

7.3 Il limite classico . . . 56

8 Il metodo della distribuzione pi` u probabile 59 8.1 Il caso classico . . . 59

8.2 Bosoni . . . 61

8.3 Fermioni . . . 63

8.4 A proposito del corretto conteggio di Boltzmann . . . 63

9 Il gas di Fermi 67 9.1 Lo stato fondamentale . . . 68

9.2 Regime di basse temperature e sviluppo di Sommerfeld . . . . 69

10 Il gas di Bose 73 10.1 La condensazione di Bose-Einstein . . . 73

10.2 Equazione di Clapeyron . . . 78

10.3 Alcune utili relazioni . . . 79

11 Teoria della radiazione di corpo nero 81 11.1 Introduzione . . . 81

11.1.1 Situazione sperimentale . . . 82

11.1.2 Situazione teorica . . . 82

11.2 Teoria quantistica della radiazione di corpo nero . . . 83

12 Calori specifici 85 12.1 Calori specifici nei gas . . . 85

12.1.1 Moto di una particella su una sfera . . . 88

12.2 Calori specifici nei solidi . . . 88

A Potenziali termodinamici 93

(5)

Capitolo 1

Ensembles statistici

1.1 Introduzione

Lo sviluppo scientifico e tecnologico del XX secolo, che ha visto la scoper- ta e lo sfruttamento dell’energia atomica, ha, in qualche modo, reso tutti familiari con l’idea che la materia abbia una struttura intrinsecamente di- screta. Tale idea risale al filosofo greco Democrito, secondo cui gli atomi, entit`a indivisibili di materia e non percepibili ai nostri sensi, sono responsa- bili, attraverso un effetto collettivo, dei fenomeni che sperimentiamo a livello dei nostri sensi. Agli albori della scienza moderna, l’idea democritea degli atomi fu ripresa dai fondatori della teoria cinetica, i quali potevano contare sugli sviluppi della meccanica, del calcolo infinitesimale e delle indagini spe- rimentali sui gas. Nel 1747 Daniel Bernoulli propose che un gas sia formato da molecole in continuo moto e soggette alle leggi della meccanica. La pres- sione esercitata dal gas sulle pareti del recipiente che lo contiene `e dovuta all’effetto degli urti delle molecole con le pareti stesse. Inoltre, il confronto con l’equazione di stato dei gas perfetti, stabilisce una connessione diretta tra energia cinetica media e temperatura assoluta del gas. In questo contesto la scoperta dell’equivalente meccanico del calore da parte di Joule conferma la validit`a della riduzione meccanica dei fenomeni termici. La meccanica sta- tistica, che si sviluppa a partire dalla teoria cinetica, fornisce un insieme di concetti e metodi per sviluppare sistematicamente l’idea che il comportamen- to di fenomeni complessi possa essere spiegato in termini del comportamento di elementi semplici soggetti a ben determinate leggi.

5

(6)

1.2 Formulazione del problema

Un sistema termodinamico isolato, cio`e una data quantit`a di materia, `e co- stituito da N costituenti elementari, che assumiamo essere soggetti alle leggi della dinamica. Chiamiamo tali costituenti particelle. Chiaramente lo stato del sistema `e definito dai valori che assumono le coordinate, q

i

e gli impulsi delle particelle, p

i

, dove i = 1, . . . , N. La dinamica di un sistema meccanico `e governata dalla hamiltoniana, che `e funzione di tutte le coordinate ed impulsi delle particelle

H( {q}, {p}), (1.1)

dove {q} indica l’insieme di tutte le coordinate delle N particelle e similmente per gli impulsi. L’evoluzione dinamica si ottiene dalle equazioni di Hamilton

q ˙

i

= ∂H

∂p

i

, p ˙

i

= − ∂H

∂q

i

. (1.2)

Ad ogni istante di tempo, lo stato del sistema pu`o essere rappresentato geometricamente come un punto in uno spazio 6N -dimensionale. Tale spazio delle fasi `e comunemente indicato come lo spazio Γ. Durante l’evoluzione di- namica del sistema meccanico, il punto rappresentativo del sistema percorre una traiettoria nello spazio Γ. La conoscenza di tale traiettoria rappresenta dunque una caratterizzazione completa del sistema. In generale, il numero delle particelle costituenti il sistema `e molto grande e ed `e dell’ordine del numero di Avogadro, cio`e N ≈ 10

23

. Di fatto `e praticamente impossibi- le risolvere analiticamente le equazioni di Hamilton. Ma anche se ci`o fosse possibile, sarebbe comunque molto difficile afferrare il significato complessi- vo della soluzione. L’esperienza ci dice che un sistema termodinamico pu`o essere descritto in termini di un numero limitato di parametri, che sono ap- punto detti termodinamici. Ad esempio, lo stato di un gas `e caratterizzato da temperatura, pressione e volume. Quindi un approccio efficiente deve essere in grado di fornirci un metodo per ricavare i valori degli osservabili macroscopici a partire dalla funzione hamiltoniana del sistema di particelle.

E utile distinguere tra microstato e macrostato del sistema. Un microstato `

corrisponde ad un punto nello spazio Γ, cio`e a valori determinati di tutte le

coordinate ed impulsi delle particelle. Un macrostato `e individuato da un

insieme di valori dei parametri termodinamici. In generale un microstato de-

termina univocamente un macrostato, ma non viceversa. Parecchi microstati

possono corrispondere allo stesso macrostato. Indichiamo con M un partico-

lare macrostato e con Γ

M

il volume dello spazio Γ che racchiude tutti i punti

corrispondenti ai microstati che producono il macrostato M . Quando un si-

stema meccanico percorre la sua traiettoria nello spazio Γ passa attraverso

(7)

1.3. MEDIE TEMPORALI E MEDIE SULL’ENSEMBLE 7 una successione di microstati diversi e se la sua traiettoria resta confinata attraverso un volume Γ

M

, allora il sistema rimane nello stesso macrostato M . Possiamo immaginare di dividere lo spazio Γ in tante regioni, ognuna corrispondente ad un macrostato. Allora quando la traiettoria passa da una regione all’altra, si ha un cambiamento di macrostato a livello macroscopico.

Il problema fondamentale che, a questo punto, deve affronatare la meccanica statistica `e di conciliare la reversibilit`a del moto a livello microscopico con la tendenza all’equilibrio propria del secondo principio della termodinamica.

La soluzione di questo problema si basa su due ingredienti tipici della mec- canica statistica: i) i sistemi meccanici considerati hanno un elevato numero di gradi di libert`a; ii) l’uso di argomenti probabilistici.

Dati due macrostati M e M

, il confronto dei loro volumi corrispondenti Γ

M

e Γ

M

fornisce una misura del peso statistico relativo dei due macrosta- ti. Se Γ

M

> Γ

M

, una traiettoria nello spazio Γ avr`a maggiore probabilit`a di trovarsi nel volume Γ

M

piuttosto che in Γ

M

. Dal punto di vista macro- scopico, ci`o implica che misurando i parametri termodinamici sar`a maggiore la probabilit`a di trovare un valore per essi corrispondente al macrostato M . Un macrostato di equilibrio `e quello per cui il volume corrispondente Γ

M

`e massimo, in modo che una misura dei parametri termodinamici, con grande probabilit`a produrr`a un valore corrispondente al macrostato di equilibrio.

Inoltre, quando il numero di gradi di libert`a aumenta, il volume del macro- stato di equilibrio tende ad occupare la maggior parte dello spazio Γ. Quindi, se inizialmente un sistema si trova in un macrostato non di equilibrio, l’evo- luzione dinamica porter`a la sua traiettoria nello spazio Γ fuori della regione corrispondente a tale macrostato iniziale e lo condurr`a attraverso regioni corrispondenti a macrostati diversi e con grande probabilit`a si trover`a nella regione corrispondente al macrostato di equilibrio. In altre parole l’evolu- zione, a livello macroscopico, verso uno stato di non equilibrio, `e altamente improbabile.

1.3 Medie temporali e medie sull’ensemble

Il valore di un osservabile fisico macroscopico dipende dallo stato microsco-

pico del sistema e deve quindi essere una funzione di tutte le coordinate ed

impulsi. Tale funzione, che indichiamo con f , dipende dal tempo attraverso

la dipendenza temporale delle coordinate ed impulsi. La misura dell’osserva-

bile richiede, inoltre, un tempo finito. Tale tempo `e determinato dal tempo

di rilassamento necessario affinch´e il sistema fisico da misurare si equilibri

con l’apparato di misura. Durante questo tempo, a livello microscopico, il

sistema passa attraverso un gran numero di microstati, per cui la misura

(8)

dell’osservabile produce una media temporale, f = 1

T

T

0

dtf ( {q(t)}, {p(t)}). (1.3) Il tempo T sul quale si effettua la media deve essere necessariamente superiore al tempo di rilassamento necessario per la misura. Allora, in linea di prin- cipio, per dedurre il comportamento macroscopico di un sistema dovremmo essere in grado di effettuare la media temporale (1.3).

Gibbs ha proposto di sostituire la media temporale (1.3) con una media statistica nel modo seguente. Nella sua evoluzione temporale, un sistema meccanico passa attraverso una successione di microstati, corrispondenti a punti dello spazio Γ. Immaginiamo ora di avere una collezione di sistemi identici a quello cui siamo interessati e che ognuno di questi sistemi si trovi in uno stato dinamico microscopico corrispondente allo stato microscopico in cui si trova il sistema originario ad un dato istante di tempo. Allora, l’insieme di questi sistemi identici, rappresenta, in modo simultaneo, l’evoluzione dina- mica del sistema originario. Tale insieme di sistemi identici `e detto ensemble statistico. L’informazione riguardo un particolare ensemble statistico `e data dalla funzione di distribuzione, che descrive la densit`a dei sistemi identici nello spazio Γ. Infatti, la densit`a dei sistemi identici `e diversa da zero solo in quei punti dello spazio Γ, dove effettivamente passa la traiettoria del sistema originario. In termini matematici, la quantit`a

ρ( {q}, {p}, t)d

3N

qd

3N

p (1.4) rappresenta il numero di sistemi identici contenuti nell’elemento di volume dello spazio Γ, d

3N

qd

3N

p, centrato intorno al punto ( {q}, {p}) al tempo t. In termini della funzione di distribuzione, la media statistica o media sull’ensemble `e definita da

�f� =

Γ

d

3N

qd

3N

pρ( {q}, {p}, t)f({q(t)}, {p(t)})

Γ

d

3N

qd

3N

pρ( {q}, {p}, t) . (1.5)

In generale `e tutt’altro che ovvio che la media statisitica (1.5) sia equi-

valente alla media temporale (1.3), anche se naturalmente `e plausibile. Lo

studio delle condizioni sotto le quali tale equivalenza `e effettivamente vera

costituisce l’argomento del cosidetto problema ergodico. L’ipotesi dell’equi-

valenza delle medie temporali e statistiche `e quindi detta ipotesi ergodica. In

generale, dato un sistema meccanico arbitrario, `e molto difficile dimostrare

la validit`a dell’ipotesi ergodica, o detto altrimenti, dimostrare che un siste-

ma meccanico `e ergodico. Seguendo una prassi ben consolidata, prendiamo

come assunzione di base la validit`a dell’ipotesi ergodica, in modo che il pro-

blema della meccanica statistica diventa quello di determinare la funzione di

(9)

1.4. TEOREMA DI LIOUVILLE 9 distribuzione dell’ensemble per un dato sistema meccanico. In base a que- sto atteggiamento euristico la possibilit`a di ottenere risultati in accordo con l’esperienza decider`a della validit`a di tale assunzione. ` E chiaro altres`ı che il problema ergodico resta comunque un problema fondamentale e di grande fascino intellettuale.

Nei paragrafi successivi andremo a sviluppare i metodi generali della mec- canica statistica, cio`e i metodi che ci permettono di derivare la forma gene- rale della funzione di distribuzione dell’ensemble. Prima di ci`o `e opportuno richiamare un teorema importante riguardante l’evoluzione dinamica di un sistema hamiltoniano come quello in (1.2).

1.4 Teorema di Liouville

Il teorema di Liouville afferma l’invarianza della misura dello spazio Γ rispet- to al moto hamiltoniano generato dalle equazioni (1.2). Tale fatto ha una conseguenza importante per l’evoluzione temporale della funzione di distri- buzione. Vediamo perch´e. In virt` u dell’evoluzione temporale determinata dalle equazioni di Hamilton, un determinato punto P

0

dello spazio Γ al tem- po t

0

evolver`a in un punto P

t

al tempo t secondo quanto dettato dalla forma della traiettoria. La soluzione delle equazioni del moto `e dunque equivalente ad una legge di trasformazione dello spazio Γ in se stesso. Consideriamo ora, al tempo t

0

, un dominio D

0

dello spazio Γ, cio`e un insieme di punti. Al tempo t ogni punto del dominio D

0

sar`a evoluto in un altro punto. L’insieme dei punti che sono le evoluzioni dei punti del dominio D

0

costituiscono il dominio D

t

, evoluto di D

0

. L’invarianza della misura significa che i volumi di D

0

e D

t

sono uguali, anche se la loro forma pu`o essere alquanto diversa.

In un sottoparagrafo alla fine di questo paragrafo daremo una dimostrazione formale di questo fatto. Per adesso notiamo che l’invarianza della misura esprime il fatto che ogni punto dello spazio Γ evolve in altro punto di Γ uni- vocamente determinato. ` E chiaro quindi che il numero dei sistemi identici che costituiscono l’ensemble statistico deve conservarsi.

La conservazione del numero dei sistemi identici o punti rappresentativi implica un’equazione di continuit`a per la funzione di distribuzione. Infatti consideriamo il tasso di decremento di sistemi identici in un volume V dello spazio Γ

d dt

V

d

3N

q d

3N

p ρ( {q}, {p}, t).

Tale decremento deve essere di segno opposto al flusso uscente dal volume V

S

n · vρ({q}, {p}, t),

(10)

dove S `e la superficie che racchiude il volume V ed n il versore normale alla superficie orientato verso l’esterno. La velocit`a di fase `e definita da

v = ( ˙ q

1

, . . . , ˙ q

N

, ˙ p

1

, . . . , ˙ p

N

). (1.6) Se applichiamo il teorema della divergenza all’integrale di superficie, ottenia- mo

− d dt

V

d

3N

q d

3N

p ρ( {q}, {p}, t) =

V

d

3N

q d

3N

p ∇ · (vρ({q}, {p}, t)), (1.7) da cu segue l’equazione di continuit`a

∂ρ

∂t + ∇ · (vρ) = 0. (1.8)

Notiamo che l’operazione di divergenza deve essere presa nello spazio 6N - dimensionale. In virt` u delle equazioni del moto, la velocit`a di fase `e un vettore a divergenza nulla

∇ · v ≡

N i=1

� ∂

∂q

i

q ˙

i

+ ∂

∂p

i

p ˙

i

=

N i=1

� ∂

2

H

∂q

i

∂p

i

− ∂

2

H

∂p

i

∂q

i

= 0. (1.9) La divergenza nell’equazione di continuit`a pu`o quindi essere riscritta

∇ · (vρ) = (∇ · v)ρ + v · ∇ρ

= v · ∇ρ, (1.10)

da cui segue

∂ρ

∂t + v · ∇ρ ≡ dρ

dt = 0. (1.11)

Quest’ultima equazione `e la forma che assume il teorema di Liouville in meccanica statistica. Essa afferma che la derivata totale rispetto al tem- po della funzione di distribuzione dell’ensemble statistico `e nulla. Quindi la eventuale dipendenza esplicita dal tempo della funzione di distribuzione deve esattamente compensare la dipendenza attraverso le coordinate e gli impulsi. D’altro canto se la funzione di distribuzione deve descrivere un ensemble di equilibrio non pu`o avere una dipendenza esplicita dal tempo.

Quindi la funzione di distribuzione pu`o dipendere dalle coordinate e dagli impulsi solo attraverso una combinazione di questi costante. In altre parole, la funzione di distribuzione deve dipendere solo da integrali primi del moto.

In un sistema isolato in quiete, l’energia `e, in generale, l’unico integrale pri-

mo e quindi la funzione di distribuzione deve dipendere dalle coordinate ed

impulsi attraverso H( {q}, {p}).

(11)

1.4. TEOREMA DI LIOUVILLE 11

1.4.1 Invarianza della misura rispetto al moto hamil- toniano

Per comodit`a introduciamo 6N variabili x

i

, in modo che le prime 3N corri- spondano alle coordinate delle N particelle e le altre 3N agli impulsi. For- malmente la soluzione delle equazioni del moto pu`o essere vista come una trasformazione di coordinate

x

i

= x

i

(y

1

, . . . , y

6N

; t) (1.12) con il tempo agente come un parametro. Consideriamo, al tempo t, la misura del dominio D

t

M

Dt

=

Dt

d

6N

x.

Effettuiamo un cambio di variabili usando la trasformazione (1.12)

Dt

d

6N

x =

D0

J d

6N

y,

dove J `e lo jacobiano per la trasformazione di coordinate J = ∂(x

1

, . . . , x

6N

)

∂(y

1

, . . . , y

6N

) .

Il punto chiave della dimostrazione `e mostrare che lo jacobiano non dipende dal tempo. Deriviamo lo jacobiano rispetto al tempo ed otteniamo

∂J

∂t =

6N i=1

∂(x

1

, . . . , x

i−1

, ˙x

i

, x

i+1

, . . . x

6N

)

∂(y

1

, . . . , y

6N

) . In quest’espressione comparir`a il termine

∂ ˙x

i

∂y

k

=

6N l=1

∂ ˙x

i

∂x

l

∂x

l

∂y

k

che produce nella derivata dello jacobiano

∂J

∂t =

6N i=1

6N l=1

∂ ˙x

i

∂x

l

∂(x

1

, . . . , x

i−1

, x

l

, x

i+1

, . . . x

6N

)

∂(y

1

, . . . , y

6N

) .

Ora lo jacobiano che compare nell’espressione sopra si annulla sempre tranne quando l = i e quindi si ottiene in definitiva

∂J

∂t = J

6N i=1

∂ ˙x

i

∂x

i

≡ J∇ · v = 0

in virt` u di quanto visto precedentemente. Poich´e dunque lo jacobiano non

dipende dal tempo e per t → 0 deve tendere a uno, segue che lo jacobiano `e

pari a uno sempre. Ci`o dimostra l’invarianza della misura.

(12)
(13)

Capitolo 2

L’ensemble microcanonico

2.1 La funzione di distribuzione per un siste- ma isolato

L’ensemble microcanonico descrive un sistema isolato, per il quale l’energia e il numero di particelle sono costanti. In equilibrio, anche il volume `e costante.

In una situazione di non equlibrio il volume pu`o aumentare. Per determinare la funzione di distribuzione partiamo dalle considerazioni fatte nella dimo- strazione del teorema di Liouville, cio`e che la funzione di distribuzione deve essere una funzione dell’energia.

Per procedere `e necessario fare una qualche assunzione. Assumiamo il postulato dell’uguale probabilit`a a priori, cio`e la funzione di distribuzione `e

ρ = costante, H( {q}, {p}) = E

0, altrimenti. (2.1)

Il significato della (2.1) `e il seguente: tutti i punti dello spazio Γ corrispon- denti ad uno stato del sistema con energia E sono da prendere con lo stesso peso nel fare una media sull’ensemble. Dal punto di vista matematico la (2.1) non `e per`o soddisfacente. Infatti la condizione H( {q}, {p}) = E determina una ipersuperficie 6N −1-dimensionale. Un integrale di volume sullo spazio Γ ristretto ad una tale ipersuperficie ha ovviamente misura nulla. Quindi sulla ipersuperficie H( {q}, {p}) = E la funzione di distribuzione non solo deve essere diversa da zero, ma deve essere infinita. In altre parole, la funzione di distribuzione deve essere della forma

ρ = C δ(E − H({q}, {p})), (2.2)

13

(14)

dove δ(x) `e la funzione di Dirac. Per i nostri scopi δ(x) pu`o essere definita nel modo seguente

δ(x) = ∞, x = 0 0, x �= 0 ,

−∞

dxδ(x) = 1. (2.3)

La δ(x) pu`o essere pensata come il limite di una successione di funzioni δ

(x) definite da

δ

(x) =

1

, 0 < x < ∆

0 altrimenti. (2.4)

E facile verificare che `

−∞

dxδ

(x) = 1

per ogni valore di ∆. La funzione di distribuzione pu`o quindi essere scritta nella forma equivalente

ρ = C, E < H( {q}, {p}) < E + ∆

0, altrimenti. (2.5)

La costante C nella definizione (2.5) deve essere scelta in modo che sia soddisfatta la condizione di normalizzazione, cio`e

C

−1

=

E<H<E+∆

d

3N

q d

3N

p. (2.6) Notiamo che la definizione (2.5) `e inoltre compatibile con il fatto che in un sistema l’energia pu`o essere determinata solo con una certa precisione. Il parametro ∆ pu`o allora essere associato a questa incertezza. ` E ovvio, d’al- tronde, che tutti i risultati che andremo a ricavare non devono dipendere dal parametro ∆. Dal punto di vista matematico cio`o significa che richiediamo la possibilit`a di prendere il limite ∆ → 0.

2.2 La definizione dell’entropia

Dobbiamo adesso esaminare le conseguenze della scelta del postulato del- l’uguale probabilit`a a priori. Poich´e il nostro scopo `e quello di derivare la termodinamica, dobbiamo decidere come definire la connessione tra le gran- dezze termodinamiche e quelle calcolate sull’ensemble. Dalla termodinamica sappiamo che lo stato di equilibrio di un sistema isolato `e quello per cui l’en- tropia `e massima. L’estensione del dominio dove la funzione di distribuzione

`e diversa da zero misura il peso dello stato macroscopico del sistema isolato.

(15)

2.2. LA DEFINIZIONE DELL’ENTROPIA 15 Quindi `e ragionevole associare tale peso all’entropia. Definiamo quindi il vo- lume dello spazio delle fasi corrispondente ad un sistema isolato con energia E

Γ(E, V, N ) =

V,E<H<E+∆

d

3N

q d

3N

p (2.7) dove V `e il volume che contiene il sistema ed N il numero di particelle. La derivazione della termodinamica deriva dall’assumere

S = k ln Γ (2.8)

dove k `e la costante di Boltzmann ed il suo valore dipende dalle unit`a scelte per l’entropia. In unit`a MKSA, si ha k = 1, 3807 · 10

−23

J K

−1

.

Notiamo che l’argomento del logaritmo ha le dimensioni di un’azione.

Sarebbe preferibile che tale argomento fosse un numero puro. Ci`o potreb- be essere ottenuto dividendo il volume dello spazio Γ per una costante delle dimensioni di un’azione. Tale costante avrebbe allora, apparentemente, il si- gnificato di un quanto di azione. Classicamente la definizione di tale costante

`e del tutto arbitraria e corrisponde al fatto che l’entropia `e definita a meno di una costante. A livello della fisica classica per fissare l’entropia possia- mo solo invocare il terzo principio della termodinamica, introdotto da Nerst, secondo cui l’entropia di ogni sistema tende a zero allo zero assoluto della temperatura. Tale principio non `e introdotto teoricamente, ma sintetizza i risultati degli esperimenti. Come vedremo pi` u avanti in queste pagine (cf.

paragrafo 7.3) la meccanica quantistica fornisce il quanto di azione in termini della costante di Planck e quindi permette di interpretare il peso statistico come il numero di stati accessibili al sistema. Affinch`e la definizione dell’en- tropia come il logaritmo del numero di stati accessibili sia compatibile con il terzo principio, `e necessario che tale numero tenda a uno allo zero assoluto.

A tale proposito si rimanda alla discussione del paragrafo 4.5.

Nel caso in considerazione di un numero virtualmente infinito di particelle,

`e possibile definire l’entropia in modo alternativo. Infatti definiamo Σ(E, V, N ) =

V,H<E

d

3N

q d

3N

p =

θ(E − H)d

3N

q d

3N

p, (2.9) con θ(x) la funzione a gradino di Heavside. Allora `e facile vedere che

Γ(E) = Σ(E + ∆) − Σ(E), (2.10)

dove per semplicit`a abbiamo solo indicato la dipendenza dall’energia. Pos- siamo infine definire la densit`a degli stati

ω(E) = ∂Σ

∂E =

δ(E − H)d

3N

q d

3N

p. (2.11)

(16)

In termini di ω(E) si ha

Γ(E) ≈ ω(E)∆. (2.12)

Nel limite termodinamico possiamo definire l’entropia alternativamente

S = k ln Σ (2.13)

oppure

S = k ln ω. (2.14)

Infatti le definizioni (2.8, 2.13, 2.14) differiscono per termini di ordine ln N e quindi sono indistinguibili nel limite termodinamico.

E importante sottolineare che la (2.8) (ed ovviamente anche le (2.13,2.14)) `

`e postulata. La sua giustificazione pu`o essere fatta solo a posteriori verifi- cando che le sue conseguenze sono in accordo con i fatti sperimentali, cio`e con i principi della termodinamica.

Cominciamo col verificare se la (2.8) `e una buona definizione di entropia, cio`e se soddisfa la propriet`a di:

• a) essere estensiva

• b) aumentare per un sistema isolato fuori dall’equilibrio.

Per dimostrare la sussistenza di queste due propriet`a, dobbiamo usare esplicitamente e per la prima volta la circostanza che abbiamo a che fare con sistemi con un numero enorme di gradi di libert`a, tale cio`e che possiamo assumere N → ∞. Pi`u precisamente assumeremo il cosidetto limite termodi- namico secondo il quale N, V → ∞, ma il rapporto N/V tende ad un valore costante.

Supponiamo che il sistema in studio sia diviso in due sottosistemi, che indichiamo con indici 1 e 2. Immaginiamo che le N particelle siano ripartite tra i due sottosistemi in modo che N

1

+ N

2

= N . Tra i due sottosistemi non pu`o esserci scambio di particelle. Inoltre immaginiamo che i sottosistemi siano confinati nei volumi V

1

e V

2

, rispettivamente. Ci`o `e possibile per un sistema non gassoso. Il caso dei sistemi gassosi sar`a discusso nel prossimo capitolo. Se i due sottosistemi sono macroscopici, il rapporto della superficie di contatto e il volume `e trascurabile. Se le interazioni tra le particelle sono a corto raggio, le interazioni tra i due sottosistemi sono limitate alla regione della superficie di contatto e quindi sono trascurabili rispetto alle interazioni tra le particelle all’interno del volume di ciascun sottosistema. Quindi in buona approssimazione i due sottosistemi sono indipendenti e la funzione hamiltoniona del sistema intero pu`o essere scritta come una somma delle funzioni hamiltoniane dei due sottosistemi

H = H

1

+ H

2

. (2.15)

(17)

2.2. LA DEFINIZIONE DELL’ENTROPIA 17 Separando le variabili d’integrazione relative ai due sottosistemi, possiamo quindi scrivere che la densit`a degli stati nello spazio Γ del sistema intero `e

ω(E) =

d

3N1

q d

3N1

p d

3N2

q d

3N2

p δ(E − H

1

− H

2

). (2.16) Introduciamo nell’integrando il fattore

1 =

E

0

dE

1

δ(E

1

− H

1

) e riscriviamo la (2.16)

ω(E) =

E 0

dE

1

d

3N1

q d

3N1

p δ(E

1

− H

1

)

d

3N2

q d

3N2

p δ(E − E

1

− H

2

)

=

E

0

d E

1

ω(E

1

) ω(E − E

1

), (2.17)

dove, in accordo con la definizione (2.11) abbiamo introdotto le densit`a degli stati dei due sottosistemi

ω(E

1

) =

d

3N1

qd

3N1

p δ(E

1

− H

1

) e

ω(E − E

1

) =

d

3N2

qd

3N2

p δ(E − E

1

− H

2

).

Usando la definizione di entropia (2.14) otteniamo S = k ln

E

0

d E

1

ω(E

1

) ω(E − E

1

). (2.18) Poich´e l’integrale sull’energia E

1

si estende su un intervallo finito, possia- mo considerare il valore ¯ E

1

per cui l’integrando `e massimo ed ottenere la disuguaglianza

k ln ω(E

1

)ω(E − E

1

) + k ln � ≤ S(E) ≤ k ln ω(E

1

)ω(E − E

1

) + k ln E, dove � definisce l’ampiezza dell’intervallo (E

1

− �/2, E

1

+ �/2). Per dimostare la disuguaglianza, notiamo che per il teorema della media possiamo scrivere

E

0

d E

1

ω(E

1

) ω(E − E

1

) = Eω(E

1

) ω(E − E

1

) ≤ Eω(E

1

) ω(E − E

1

),

dove E

1

`e un opportuno valore appartenente all’intervallo (0, E). Ci`o dimo-

stra la maggiorazione. Per dimostrare la minorazione, osserviamo che essa `e

equivalente a dimostrare che

(18)

E1−�/2

0

dE

1

ω(E

1

) ω(E − E

1

) +

E

E1+�/2

dE

1

ω(E

1

) ω(E − E

1

) −

E1+�/2

E1−�/2

dE

1

� ω(E

1

) ω(E − E

1

) − ω(E

1

) ω(E − E

1

) > 0.

E ora facile convincersi che prendendo � sufficientemente piccolo, la disugua- ` glianza `e soddisfatta.

Se definiamo le entropie dei due sottosistemi

S

1

= k ln ω(E

1

), S

2

= k ln ω(E

2

) (2.19) con la condizione E = E

1

+ E

2

, allora otteniamo

S(E

1

) + S(E

2

) + k ln � ≤ S(E) ≤ S(E

1

) + S(E

2

) + k ln E. (2.20) Se un sistema `e composto di N particelle, ci aspettiamo che il volume dello spazio delle fasi accessibile dipenda esponenzialmente da N , cio`e

ω ∼ e

N

.

Ci`o implica che il logaritmo del volume dello spazio delle fasi dipenda linear- mente da N . Poich´e E ∝ N ed � < E, i termini k ln E e k ln � della (2.20) dipendono da N al pi` u logaritmicamente e diventano trascurabili, nel limite termodinamico. Quindi otteniamo

S(E) = S(E

1

) + S(E

2

), (2.21) che dimostra l’estensivit`a dell’entropia. Infatti se, ad esempio, immaginiamo che N

1

= N

2

= N/2, la (2.21) mostra come l’entropia raddoppi se raddop- piamo il numero di particelle. Come vedremo pi` u avanti il fatto che l’addi- tivit`a dell’entropia valga per le entropie dei sottosistemi calcolate ai valori che rendono massimo il prodotto delle densit`a degli stati degli spazi Γ dei sottosistemi esprime la condizione di equilibrio termico tra i due sottosistemi.

Per dimostrare che l’entropia aumenta se il sistema si trova fuori dal- l’equilibrio, e quindi `e soddisfatto il secondo principio della termodinamica, osserviamo innanzi tutto che in un sistema isolato pu`o variare solo il volume in quanto energia e numero di particelle sono fissati. Affinch`e il volume dimi- nuisca `e necessario comprimere il sistema, cio`e bisogna rompere l’isolamento.

Ne segue che il volume pu`o solo aumentare. Resta quindi da far vedere che

l’entropia `e una funzione non decrescente del volume. Ci`o pu`o essere visto

considerando la definizione (2.13) di entropia. La (2.13) `e chiaramente una

funzione non decrescente di V .

(19)

2.3. CONDIZIONI DI EQUILIBRIO E PRIMO PRINCIPIO DELLA TERMODINAMICA19

2.3 Condizioni di equilibrio e primo principio della termodinamica

Torniamo ora al significato dei valori dell’energia E

1

ed E

2

che rendono massi- mo il prodotto ω(E

1

)ω(E − E

1

). Per trovare il massimo di ω(E

1

)ω(E − E

1

), facciamo variare E

1

ed E

2

e imponiamo che la variazione del prodotto sia nulla insieme alla condizione che E = E

1

+ E

2

. Otteniamo

0 = δ(ω(E

1

)ω(E

2

)) = ∂ω(E

1

)

∂E

1

δE

1

ω(E

2

) + ∂ω(E

2

)

∂E

2

δE

2

ω(E

1

) da cui, usando δE

1

= −δE

2

,

∂ω(E

1

)

∂E

1

ω(E

2

) = ∂ω(E

2

)

∂E

2

ω(E

1

) o anche

1 ω(E

1

)

∂ω(E

1

)

∂E

1

= 1

ω(E

2

)

∂ω(E

2

)

∂E

2

che quindi, usando la (2.19), pu`o essere scritta

� ∂S

1

∂E

1

E1=E1

=

� ∂S

2

∂E

2

E2=E2

. (2.22)

Se a questo punto definiamo la temperatura 1

T ≡

� ∂S

∂E

V

, (2.23)

la (2.22) esprime la condizione di equilibrio termico, T

1

= T

2

, tra i due sottosistemi.

Se il sistema isolato viene perturbato in modo da variare la sua energia e il suo volume, e se la variazione avviene in modo sufficientemente lento affinch´e ad ogni istante il sistema si trovi in equilibrio, allora l’insieme dei punti dello spazio Γ si deforma lentamente ed ad ogni istante `e definito un ensemble microcanonico. La variazione di entropia risulta quindi

dS = 1 T dE +

� ∂S

∂V

E

dV. (2.24)

Si noti che manteniamo costante il numero di particelle. Usando la regola degli jacobiani, possiamo scrivere

� ∂S

∂V

E

= ∂(S, E)

∂(V, E)

∂(V, S)

∂(V, S) = −

� ∂S

∂E

V

� ∂E

∂V

S

= P

T ,

(20)

dove l’ultima uguaglianza segue dall’identificazione dell’energia E con l’ener- gia interna termodinamica U e dalla relazione

P = −

� ∂U

∂V

S

.

La (2.24) coincide quindi con il primo principio della termodinamica e con- duce alla definizione della pressione nel microcanonico

P = T

� ∂S

∂V

E

. (2.25)

Tale definizione di pressione `e inoltre in accordo con il fatto che la deriva- ta dell’entropia rispetto al volume controlla l’equilibrio meccanico tra i due sottosistemi. Infatti, se ammettiamo che i due sottosistemi, oltre a scambiare energia, possono variare la frazione di volume occupato da ciascuno di essi, pur rimanendo invariato il volume totale, si ottiene una formula simile alla (2.22) con i volumi al posto delle energie

� ∂S

1

∂V

1

V1=V1

=

� ∂S

2

∂V

2

V2=V2

. (2.26)

Con la definizione di pressione (2.25), la (2.26) esprime la condizione di equilibrio meccanico P

1

= P

2

.

A questo punto potrebbe sorgere la domanda circa la possibilit`a di per- mettere ai due sottosistemi di scambiare anche particelle, come ad esempio, in un gas. Tale situazione sar`a considerata nel prossimo capitolo dedicato al caso importante del gas perfetto. Per`o `e utile fare da subito la seguente osservazione. Se indichiamo con S

micro

ed S

termo

l’entropia definita a partire dall’ensemble microcanonico e l’entropia standard della termodinamica, la discussione dalla (2.24) alla (2.26) dimostra che

dS

micro

= dS

termo

, (2.27)

cio`e che le due entropie differiscono a meno di una costante. Poich`e entrambi

i differenziali sono presi tenendo costante il numero di particelle, la (2.27) non

pu`o dire nulla a proposito della dipendenza dell’entropia del microcanonico

o dell’entropia termodinamica dal numero di particelle. Questo significa che

la definizione di entropia (2.8) `e valida a meno di una funzione del numero

di particelle.

(21)

Capitolo 3

Il gas perfetto

3.1 Ensemble microcanonico per il gas per- fetto

Il gas perfetto oltre a costituire il modello corretto di comportamento per i gas reali ad alta temperatura e bassa pressione, costituisce forse il paradigma pi` u importante della termodinamica e della teoria cinetica. ` E dunque naturale dedicare un’analisi approfondita nel contesto dell’ensemble microcanonico.

Nel caso del gas perfetto la funzione hamiltoniana si riduce alla sola energia cinetica

H =

N i=1

p

2i

2m . (3.1)

Per calcolare l’entropia usiamo la formula (2.14). L’integrazione sulle coor- dinate `e immediata

ω =

δ(E − H)d

3N

q d

3N

p = V

N

∂E

θ(E − H) d

3N

p. (3.2) Per l’integrazione sugli impulsi definiamo il seguente integrale

I(n, �) =

x21+...x2n<�

d

n

x ≡

θ(� − (x

21

+ . . . x

2n

)) d

n

x. (3.3) Poich´e I `e definito all’interno di un’ipersfera, introduciamo coordinate sferiche generalizzate e riscriviamo

I(n, �) = Ω

n

0

r

n−1

dr = Ω

n

n/2

n ,

dove r `e il raggio ed Ω

n

`e l’angolo solido n-dimensionale. Per calcolare Ω

n

, consideriamo la seguente identit`a basata sull’iterazione dell’integrale

21

(22)

gaussiano

−∞

dx

1

e

−x21

. . .

−∞

dx

n

e

−x2n

= π

n/2

che d’altronde pu`o essere riscritto

−∞

. . .

−∞

d

n

xe

−(x21+...+x2n)

= Ω

n

0

e

−r2

r

n−1

dr = 1

2 Ω

n

Γ(n/2)

dove si `e introdotta la funzione gamma di Eulero definita da (Cf. paragrafo (3.2) per le sue principali propriet`a)

Γ(z) =

0

e

−t

t

z−1

dt. (3.4)

Deve quindi valere la relazione

n

= 2π

n/2

Γ(n/2) . (3.5)

Quindi otteniamo

I(n, �) = 2π

n/2

n/2

nΓ(n/2) = π

n/2

n/2

Γ(n/2 + 1) . (3.6)

Per l’entropia del gas perfetto otteniamo quindi S(E, V, N ) = k ln

V

N

3N π

3N/2

(2mE)

3N/2−1

2Γ(3N/2 + 1)

. (3.7)

3.2 Propriet` a della funzione gamma

Integrando per parti si ottiene la formula di ricorrenza Γ(z) = t

z−1

e

−t

|

0−∞

+ (z − 1)

0

dte

−t

t

z−2

= (z − 1)Γ(z − 1). (3.8)

Per z = n intero, la funzione gamma si riduce al fattoriale

Γ(n) = (n − 1)Γ(n − 1) = . . . = (n − 1)!. (3.9) Nel caso di z semintero, `e utile conoscere il caso z = 1/2

Γ(1/2) =

0

dt e

−t

√ t

= 2

0

dxe

−x2

= √

π (3.10)

(23)

3.3. TERMODINAMICA DEL GAS PERFETTO 23 Per z grande si pu`o ottenere una formula approssimata mediante uno sviluppo dell’integrale di (12.4) con il metodo del punto di sella. Riscriviamo la funzione gamma nel modo seguente

Γ(z) =

0

dt e

−f(t,z)

dove

f (t, z) = t − (z − 1) ln t.

La funzione f (t, z) ha un minimo in t

= z − 1. Infatti f

(t, z) = 1 − z − 1

t , f

��

(t, z) = z − 1 t

2

dove l’apice indica la derivata rispetto a t. La funzione gamma pu`o quindi essere scritta

Γ(z) =

0

dt e

−f(t,z)−(1/2)f��(t,z)(t−t)2

= e

−(z−1)+(z−1) ln(z−1)

0

dte

−(t−t)2/(2(z−1))

≈ (z − 1)

−z+1

e

z−1

−∞

dte

−(t−t)2/(2(z−1))

= (z − 1)

z−1

e

−z+1

2π(z − 1)

≈ z

z

e

−z

2πz. (3.11)

E interessante notare come nella (12.13), il fattore sotto radice rappresenta il ` contributo delle deviazioni del valore della funzione f (t, z) intorno al minimo, mentre gli altri fattori provengono dalla stima dell’integrale considerando solo il valore in cui f (t, z) `e minima, cio`e in cui l’integrando `e massimo.

E evidente che per z ` → ∞, le correzioni gaussiane sono piccole rispetto al primo termine. Ulteriori correzioni oltre i termini quadratici saranno ancora pi` u piccole. Quindi l’approccio all’integrale con il metodo del punto di sella

`e giustificato. Nel caso di z intero e grande, la (12.13) produce la formula di Stirling

n! ≈ √

2πnn

n

e

−n

, n → ∞. (3.12)

3.3 Termodinamica del gas perfetto

Se usiamo la formula di Stirling, l’entropia (3.7) diventa, a meno di termini ln N ,

S(E, V, N ) = N k ln

V

� 4πmE 3N

3/2

+ 3

2 N k. (3.13)

(24)

Risolvendo rispetto all’energia, otteniamo E ≡ U(S, V, N) = 3N

4πmV

2/3

exp

� 2S 3N k − 1

. (3.14)

Derivando rispetto a S otteniamo la temperatura T =

� ∂U

∂S

V,N

= 2 3

U

N k (3.15)

e derivando rispetto a V otteniamo la pressione P = −

� ∂U

∂V

S,N

= 2 3

U

V . (3.16)

La (3.15) riproduce il noto fatto che l’energia del gas perfetto `e fun- zione della sola temperatura. Inserendo la (3.15) nella (3.16) otteniamo la l’equazione di stato del gas perfetto

P = N kT

V . (3.17)

Consideriamo adesso un contenitore di volume V diviso in due parti da un setto rimovibile. Le due parti hanno volumi V

1

e V

2

, rispettivamente.

Consideriamo ora due gas diversi composti di N

1

e N

2

molecole, rispettiva- mente. Il primo gas si trova nel volume V

1

e il secondo in V

2

. Immaginiamo che i due gas si trovino alla stessa temperatura, T

1

= T

2

= T , e pressione, P

1

= P

2

= P . Ci`o implica che i due gas abbiano la stessa densit`a

P

T = k N

1

V

1

= k N

2

V

2

. Le energie dei due gas sono naturalmente

E

1

= 3

2 N

1

kT, E

2

= 3 2 N

2

kT.

Se rimuoviamo il setto separatore, i due gas si mescolano. Come `e noto questo

`e un processo irreversibile che comporta un aumento di entropia. Prima di rimuovere il setto separatore, l’entropia del sistema `e la somma di quella dei due gas, cio`e

S

prima

= N

1

k ln V

1

(2πm

1

T )

3/2

+ 3

2 N

1

k + N

2

k ln V

2

(2πm

2

T )

3/2

+ 3 2 N

2

k.

(3.18)

(25)

3.3. TERMODINAMICA DEL GAS PERFETTO 25 Dopo la rimozione del setto separatore, ogni gas ha a disposizione l’intero volume V , per cui l’entropia diventa

S

dopo

= N

1

k ln V (2πm

1

T )

3/2

+ 3

2 N

1

k + N

2

k ln V (2πm

2

T )

3/2

+ 3 2 N

2

k.

(3.19) La variazione di entropia `e dunque

∆S = N

1

k ln V V

1

+ N

2

k ln V V

2

. (3.20)

Tale variazione di entropia `e positiva come ci si aspetta per un mescolamen- to irreversibile. La variazione di entropia inoltre non dipende dalla natura dei due gas (le masse m

1

e m

2

non compaiono), ma solo dal fatto che i due gas sono diversi. L’aumento di entropia dovuta al mescolamento `e dovuto all’aumento di entropia di ciascun gas che in seguito alla rimozione del setto separatore ha a disposizione un volume maggiore. Se ora immaginiamo di ripetere questo processo di mescolamento con due gas identici otteniamo un risultato paradossale, in quanto se calcoliamo la variazione di entropia, que- sta coincide con quella relativa al mescolamento di due gas identici. Se per`o abbiamo lo stesso gas in entrambi i volumi, la rimozione del setto non produce di fatto nessun mescolamento e non ci dovrebbe essere nessuna variazione di entropia. Infatti, cos`ı come abbiamo rimosso il setto separatore, potremmo rimetterlo al suo posto e otterremmo nuovamente uno stato termodinamica- mente identico a quello iniziale. Il fatto che la formula dell’entropia del gas perfetto ricavata nell’ensemble microcanonico non sia in grado di descrivere una variazione di entropia nulla quando mescoliamo due gas uguali, costi- tuisce il cosidetto paradosso di Gibbs. Gibbs stesso not`o che tale problema viene rimosso dividendo il volume dello spazio Γ per N !, di modo da ottenere per l’entropia la formula di Sackur-Tetrode

S(E, V, N ) = N k ln

� V N

� 4πmE 3N

3/2

+ 5

2 N k. (3.21) A differenza della formula (12.15), l’espressione (3.21) `e estensiva, cio`e l’en- tropia di un sistema composto `e sempre scrivibile come la somma delle parti che compongono il sistema. In tal modo il mescolamento di due gas identici non produce nessuna variazione di entropia. Questo fatto si pu`o facilmente verificare. In base alla formula modificata (3.21), l’entropia iniziale, per gas uguali, `e

S

prima

= N

1

k ln

� V

1

N

1

(2πmT )

3/2

+ 5

2 N

1

k + N

2

k ln

� V

2

N

2

(2πmT )

3/2

+ 5 2 N

2

k,

(3.22)

(26)

e quella finale `e

S

dopo

= N k ln

� V

N (2πmT )

3/2

+ 5

2 N k. (3.23)

Quest’ultima equazione pu`o essere riscritta osservando che N = N

1

+ N

2

come

S

dopo

= N

1

k ln

� V

N (2πmT )

3/2

+ 5

2 N

1

k + N

2

k ln

� V

N (2πmT )

3/2

+ 5 2 N

2

k.

(3.24) La variazione di entropia risulta quindi

∆S = N

1

k ln V N

N

1

V

1

+ N

2

k ln V N

N

2

V

2

= 0, (3.25)

in quanto la densit`a prima e dopo il mescolamento non `e cambiata. Se avessimo considerato gas diversi con la formula modificata la variazione di entropia risulterebbe, come `e facile verificare

∆S = N

1

k ln V N

1

N

1

V

1

+ N

2

k ln V N

2

N

2

V

2

e coincide con il risultato (3.20)

Notiamo che la divisione per N ! del volume dello spazio delle fasi `e equi- valente a modificare l’entropia con una costante, che in realt`a `e funzione di N . Tale funzione di N `e quella che avevamo lasciato indeterminata alla fine del precedente capitolo. Il calcolo esplicito del gas perfetto ci ha indicato quale debba essere tale funzione di N affinch`e l’entropia sia estensiva ed ab- bia il giusto comportamento nel mescolamento di due gas, uguali o diversi che siano. Per inciso, nel caso del mescolamento di due gas uguali, l’estensi- vit`a `e proprio la propriet`a che determina che la variazione di entropia debba essere nulla. Infatti, nel caso di gas uguali, da un punto di vista termodi- namico la rimozione del setto separatore o la sua reinserzione non produce nessun cambiamento che possa essere misurato per mezzo di parametri ter- modinamici. Quindi la richiesta di estensivit`a, cio`e che l’entropia totale del gas (senza setto separatore) sia uguale alla somma delle parti (in presenza del setto separatore), implica una variazione nulla.

Da quanto detto risulta chiaro che la divisione per N ! equivale a richiedere

l’estensivit`a dell’entropia. ` E altres`ı chiaro che tale divisione non `e necessaria

se le molecole sono localizzate rigidamente nei due volumi V

1

e V

2

. Questo

corrisponde alla situazione che abbiamo discusso nel capitolo precedente.

(27)

3.4. IL CORRETTO CONTEGGIO DI BOLTZMANN 27

3.4 Il corretto conteggio di Boltzmann

La divisione per il fattore N ! viene comunemente indicata come il corretto conteggio di Boltzmann. Nel paragrafo precedente tale conteggio `e stato intro- dotto ad hoc in modo da ottenere un comportamento estensivo per l’entropia del gas perfetto. In questo paragrafo intendiamo discutere tale conteggio in modo pi` u generale.

Prima di addentrarci nella discussione di questo punto nell’ambito della meccanica statistica, pu`o essere utile richiamare l’analisi che Pauli ha fatto a proposito dell’estensivit`a dell’entropia in ambito termodinamico, a partire dalla definizione di Clausius dell’entropia

dS = δQ

T , (3.26)

dove il differenziale deve essere preso lungo una trasformazione reversibile.

Per un gas perfetto (monoatomico) , il differenziale dell’entropia `e dS = N k

� 3 2

dT T + dV

V

, (3.27)

che implica un’entropia della forma S(T, V, N ) = N k

ln V + 3 2 ln T

+ kf (N ), (3.28) dove f (N ) `e una costante d’integrazione, che dipende dal numero di particelle che viene tenuto costante durante la trasformazione reversibile. L’osservazio- ne di Pauli `e che l’estensivit`a dell’entropia non `e implicita nella definizione di Clausius, ma richiede una condizione sulla forma della funzione f (N ).

Richiedere l’estensivit`a significa richiedere che

S(T, qV, qN ) = qS(T, V, N ), (3.29) dove q `e un numero positivo. Imporre la (3.29) conduce per f (N ) all’equa- zione funzionale

f (qN ) = −qN ln q + qf(N). (3.30) Ponendo N = 1 si ottiene

f (q) = −q ln q + qf(1), (3.31)

che conduce, in quanto q `e arbitrario positivo e quindi pu`o essere anche un intero, alla soluzione

f (N ) = −N ln N + Nf(1), (3.32)

(28)

dove f (1) `e una costante d’integrazione. Scegliendo tale costante della forma f (1) = (3/2) ln(2πmk) + (5/2) si ritrova l’equazione di Sackur-Tetrode.

Ritorniamo alla meccanica statistica. Riprendiamo la discussione iniziata nel capitolo precedente riguardo alle condizioni di equilibrio tra due sottosi- stemi. Nel caso presente, rispetto a quanto fatto in precedenza, concediamo ai due sottosistemi di poter scambiare particelle. Immaginiamo quindi di dividere un sistema isolato di energia totale E, volume V e numero di parti- celle N in due sottosistemi. Ad esempio immaginiamo un contenitore diviso in due da un setto separatore. Il setto `e fisso e quindi i volumi V

1

e V

2

dei due sottosistemi sono tenuti costanti, ma nel setto `e praticato un foro attra- verso il quale i due sottosistemi possono scambiare particelle. Lo scambio di energia `e anche permesso come gi`a discusso nel capitolo precedente. I due sottosistemi hanno energia e numero di particelle E

1

, E

2

ed N

1

, N

2

, rispet- tivamente, con le condizioni E

1

+ E

2

= E ed N

1

+ N

2

= N . In analogia alla (2.17) dobbiamo scrivere

ω(E, N ) = N ! N

1

!N

2

!

dE

1

ω(E

1

, N

1

) ω(E − E

1

). (3.33) Il coefficiente binomiale che appare a membro di destra della (3.33) tiene conto del fatto che se nel sottosistema 1 si trovano N

1

particelle e nel sot- tosistema 2 si trovano N

2

particelle, esistono N !/(N

1

!N

2

!) modi di realizzare tale situazione microscopica. Infatti bisogna considerare il numero di modi in cui posso scegliere le N

1

particelle da mettere nel sottosistema 1. Tale conteggio si basa sul fatto che le particelle classiche sono distinguibili. Ab- biamo visto che per quanto riguarda lo scambio di energia, la situazione di equilibrio `e quella corrispondente ad un valore di E

1

ed E

2

che rende mas- simo l’integrando della (3.33). Da qui abbiamo introdotto la temperatura come derivata dell’entropia rispetto all’energia. Vogliamo ora discutere quali siano i valori di N

1

ed N

2

che rendono massimo l’integrando della (3.33).

Definiamo

ω

1

= ω(E

1

, N

1

)

N

1

! , ω

2

= ω(E

2

, N

2

)

N

2

! . (3.34)

La condizione di massimo diventa allora

∂ ln ω

1

∂E

1

= ∂ ln ω

2

∂E

2

∂ ln ω

1

∂N

1

= ∂ ln ω

2

∂N

2

(3.35) Risulta quindi naturale definire l’entropia di ogni sottosistema come

S

i

= k ln ω

i

≡ k ln ω

i

N

i

! (3.36)

(29)

3.4. IL CORRETTO CONTEGGIO DI BOLTZMANN 29 in modo che la (3.35) diventa

� ∂S

1

∂E

1

E1=E1

=

� ∂S

2

∂E

2

E2=E2

,

� ∂S

1

∂N

1

N1=N1

=

� ∂S

2

∂N

2

N2=N2

. (3.37)

Introducendo l’entropia del sistema totale come S = k ln ω

≡ k ln ω(E, N )

N ! , (3.38)

la (3.33) indica chiaramente l’estensivit`a dell’entropia. In tal modo abbiamo giustificato la divisione per N ! introdotta nella formula dell’entropia del gas perfetto. Nella presente discussione, inoltre, oltre a tener conto del gas per- fetto, sono considerati anche i gas reali per i quali la funzione hamiltoniana contiene anche un termine di energia potenziale. La forma della funzione hamiltoniana `e comunque ininfluente.

Notiamo ancora che la deduzione della termodinamica fatta nel capitolo precedente (cf. eq.(2.24)) resta valida, in quanto effettuata a numero di par- ticelle costante. Consideriamo ora una trasformazione lenta che vari energia, volume e numero di particelle. La (2.24) diventa

dS = 1

T dS + P T dV +

� ∂S

∂N

E,V

dN. (3.39)

La derivata parziale a membro di destra pu`o essere riscritta

� ∂S

∂N

E,V

= ∂(S, E, V )

∂(N, E, V )

∂(S, N, V )

∂(S, N, V ) = − 1 T

� ∂E

∂N

S,V

= − µ T ,

dove l’ultima uguaglianza segue dall’aver identificato l’energia E con l’energia interna termodinamica U dalla definizione di potenziale chimico

µ =

� ∂U

∂N

S,V

. (3.40)

Nell’ensemble microcanonico il potenziale chimico `e quindi dato da µ ≡ −T

� ∂S

∂N

E,N

. (3.41)

e la condizione di equilibrio termico e chimico (3.37) diventa T

1

= T

2

e

µ

1

= µ

2

. Il segno meno nella (3.41) `e dovuto al fatto che il sottosistema

a potenziale chimico maggiore tende a cedere particelle al sottosistema a

(30)

potenziale chimico minore. Infatti immaginiamo la (3.39) scritta per il ca- so in cui si abbiano due sottosistemi che possono scambiare particelle, ma temperatura e pressione sono tenute costanti

T dS = −µ

1

dN

1

+ µ

2

dN

2

= −(µ

1

− µ

2

)dN

1

. (3.42) Poich´e dS > 0 in un processo irreversibile, se dN

1

> 0, allora deve essere µ

2

> µ

1

.

3.5 Connessione con il limite quantistico

Desideriamo fare alcune osservazioni circa la rilevanza del limite quantistico in merito al paradosso di Gibbs e alla divisione per N !. In molti libri di testo si dice che la divisione per N ! pu`o essere compresa solo nell’ambito della teoria quantistica, poich`e il fattore N ! tiene conto della indistinguibilit`a delle particelle in meccanica quantistica. Come abbiamo visto nel paragrafo precedente, tale affermazione non `e corretta. L’affermazione corretta `e che la divisione per N ! pu`o essere ottenuta sia ragionando classicamente (co- me abbiamo fatto) sia considerando il limite semiclassico del trattamento quantistico (come faremo in seguito nel paragrafo (8.4)). La distinguibilit`a o indistingubilit`a delle particelle `e irrilevante dal punto di vista della divisione per N !. Ci`o che `e essenziale nel ragionamento classico `e come si costrui- sce l’entropia per un sistema composto a partire dalle entropie delle parti componenti.

Pu`o essere utile dare due tipi di argomenti ad ulteriore rafforzamento del ragionamento classico. Il primo ragionamento consiste nell’osservare che `e ormai possibile simulare al computer il comportamento di un gas a partire dalla dinamica microscopica delle particelle costituenti il gas. In tale simula- zione si usa la meccanica classica. Se la divisione per N ! non potesse essere dedotta nell’ambito della meccanica statistica classica, ci`o implicherebbe che i risultati delle simulazioni dovrebbero essere corretti per essere in accordo con i dati sperimentali. Ma ci`o non avviene e le simulazioni numeriche di sistemi classici sono perfettamente in accordo con risultati sperimentali di sistemi che si trovano in un regime classico.

Un secondo tipo di argomenti riguarda il fatto se esistono sistemi per i

quali vale strettamente la meccanica statistica classica. Infatti nel caso dei

gas dove abbiamo a che fare con atomi e molecole, uno potrebbe dire che

in ultima analisi le particelle seguono la meccanica quantistica e solo nel-

l’ambito di quest’ultima `e possibile un trattamento rigoroso e pienamente

coerente. In realt`a sistemi come i colloidi sono classici nel senso che le parti-

celle costituenti, bench`e piccole, hanno tuttavia una struttura complessa che

(31)

3.5. CONNESSIONE CON IL LIMITE QUANTISTICO 31 le rende distinguibili. Per tali sistemi la meccanica statistica classica deve essere autosufficiente.

Infine `e bene sottolineare che usare il limite semiclassico della meccanica

statistica quantistica `e sicuramente corretto e nel caso di sistemi di particelle

quantistiche rappresenta forse il metodo pi` u rapido. Come gi`a detto, daremo

questo trattamento in seguito. Tra l’altro nel fare il limite semiclassico del

trattamento quantistico troveremo nell’espressione dell’entropia la costan-

te di Planck h, che `e impossibile da introdurre in un contesto puramente

classico. A questo proposito si rimanda al paragrafo (7.3).

(32)
(33)

Capitolo 4

L’ensemble canonico

4.1 Distribuzione di Boltzmann

Quando abbiamo considerato la propriet`a estensiva dell’entropia, si `e visto che il valore delll’entropia per un sistema composto di due sottosistemi di energia E

1

ed E

2

con E

1

+ E

2

= E fissata `e dominato dalla ripartizione di energie E

1

ed E

2

tali che il prodotto ω(E

1

)ω(E

2

) `e massimo. Si `e anche visto che la condizione di massimo corrisponde alla situazione di equilibrio termico, in cui i due sottosistemi si trovano alla stessa temperatura. Immaginiamo ora che uno dei due sottosistemi, ad esempio il sottosistema 2, sia molto pi` u grande dell’altro sottosistema, cio`e il sottosistema 1. Il sottosistema 2 `e detto reservoir. Da ora in poi quindi abbandoniamo la dizione di sottosistemi 1 e 2 e adottiamo quella di sistema e reservoir coll’ipotesi che il reservoir sia molto pi` u grande del sistema. L’energia totale `e conservata, mentre il sistema ed il reservoir possono scambiare energia

E = E

r

+ E

s

, (4.1)

dove i suffissi r ed s si riferiscono al reservoir ed al sistema, rispettivamente.

La condizione di reservoir implica che E

r

≈ E, cio`e gli scambi di energia tra sistema e reservoir alterano poco lo stato del reservoir, mentre possono variare molto lo stato del sistema. Lo stato di quest’ultimo dipender`a quindi dalla ripartizione energetica tra sistema e reservoir. Il nostro scopo `e di determinare come lo stato del sistema dipende dalla ripartizione energetica.

Ci chiediamo allora quale sar`a la funzione di distribuzione del sistema con energia E

s

a prescindere dallo stato del reservoir. Se indichiamo con {q

s

, p

s

} e {q

r

, p

r

} le coordinate ed impulsi del sottosistema e del reservoir, siamo interessati alla funzione di distribuzione definita nello spazio Γ relativo al sistema, indipendentemente dalla posizione del reservoir nel suo spazio Γ.

33

Riferimenti

Documenti correlati

L’equazione del moto del pendolo si può scrivere immediatamente in coordinate polari scrivendo ~ F = m ~ a per la componente tangenziale alla traiettoria.. Per calcolare il

• la molla (il dinamometro) può essere usata per misurare le forze previa calibrazione ed entro il limite di elasticità (limite dato dalla validità della legge di Hooke): una

• la molla (il dinamometro) può essere usata per misurare le forze previa calibrazione ed entro il limite di elasticità (limite dato dalla validità della legge di Hooke): una

una risultante non nulla è causa di una variazione nel moto di traslazione; un momento risultante non nullo causa le rotazioni.. Centro di gravità

• la molla (il dinamometro) può essere usata per misurare le forze previa calibrazione ed entro il limite di elasticità (limite dato dalla validità della legge di Hooke): una

Successivamente Joe Moyal e Hilbrand Groenewold, indipendentemente l’uno dall’al- tro, riuscirono a trasportare la struttura algebrica (di Lie) quantistica non commutativa

È una vera e propria rivoluzione se si pensa che fino ad un recente passato la concentrazione delle attività nei grandi poli territoriali, la crescita

D’altra parte, non ´ e difficile convincersi che esistono sistemi isolati che sicuramente non hanno questa propriet` a e cio´ e, le medie temporali di alcune funzioni di fase non