• Non ci sono risultati.

LEZIONI DI ARCHEOMETRIA

N/A
N/A
Protected

Academic year: 2021

Condividi "LEZIONI DI ARCHEOMETRIA"

Copied!
368
0
0

Testo completo

(1)

ODDONE MASSIMO

LEZIONI DI ARCHEOMETRIA

CORSO DI LAUREA IN SCIENZE DEI BENI ARCHEOLOGICI E STORICO-

ARTISTICI

FACOLTÀ DI LETTERE E FILOSOFIA

Anno Accademico 2001-2002

(2)

INTRODUZIONE

Archeometria è il termine sintetico che indica quelle cose antiche o fenomeni ad esse collegate che devono essere misurate e quantificate.

La necessità di tale trattamento quantitativo è ovvio, se immaginiamo le domande poste dagli storici o/e dagli archeologi, che devono valutare la vestigia dei materiali del passato.

Credo che ognuno di noi davanti ad un reperto archeologico, nel senso più ampio del termine, si sia posto la domanda: che cos’è?

Nel caso di manufatti: com'è stato fatto? È stato prodotto localmente o è giunto nel sito tramite commercio? Addirittura, se si discute di un’opera d’arte di una cultura ben nota, chi l’ha fatta?

L’Archeometria è certamente più vecchia del suo nome. Il termine “Archeometria” deve essere di poco anteriore al 1958, quando ad Oxford fu battezzata con questo nome una rivista.

Se si deve dare una risposta chiara alla domanda: “Di che cosa si parla in un Corso di Archeometria?”

Non è nient’altro che l’applicazione di tutte le conoscenze scientifiche, sia qualitative che quantitative, su dei materiali di interesse storico. Ovvero l’Archeometria, secondo una logica reciproca, può anche essere definita come le Scienze Naturali forniscono dei metodi alle Scienze Umanistiche, cioè la biunivocità tra numero e lettera.

Nelle Scienze Naturali, la Chimica è una disciplina giovane, anche se, come abbiamo affermato che l’Archeometria è ancora più giovane quindi le prime investigazioni scientifiche che furono fatte su materiali archeologici erano di natura squisitamente chimica.

Il primo significante risultato pubblicato nella letteratura scientifica ha dovuto a KLAPROTH M.M. nel 1796. Egli fu un vero pioniere nel campo archeometrico, con un metodo chimico classico determinò la composizione di monete greche e romane e dei vetri.

Altri chimici che si cimentarono con delle analisi su materiali archeologici furono DAVY H. (1815, 1817), BERZELIUS J.J. (1836) e BERTHELOT M. (1906) ed altri ancora. Uno di questi GOBEL C.C.T.F. (1842) fu il primo a suggerire che i risultati scientifici su materiali archeologici potessero essere utilizzati nell’ARCHEOLOGIA. Il ponte della cooperazione tra scienziati e umanisti era gettato, nel 1853 apparve il primo lavoro comune, con un’appendice che riportava alcuni dati chimici, che descrivevano le analisi di alcuni reperti rinvenuti in uno scavo, LAYARD, 1853. Potevano

Con questa pubblicazione si dimostrò che gli archeologi illuminati potevano e possono trarre molte informazioni su delle indagini scientifiche.

(3)

Il primo che dimostrò che le Scienze Naturali erano correlate con l’Archeologia per studi di provenienza fu WOCEL J.E. (1853, 1859) e dimostrò anche che gli oggetti metallici potevano essere datati attraverso la loro composizione quantitativa.

Gli scavi archeologici alla fine del 800 iniziarono ad essere condotti in un modo sistematico, quindi le indagini scientifiche erano molto richieste. Accanto ai lavori archeologici, appendice, cominciarono ad essere riportati i risultati delle indagini scientifiche e addirittura le indagini scientifiche erano pubblicate da sole sulle riviste archeologiche (SCHLIEMANN, 1878).

I metodi fisici fecero il loro ingresso nel campo archeologico quando nel 1896 RÖNTGEN W. scopri e utilizzo i RAGGI X per studiare i pigmenti di Piombo nei dipinti. Il grande scienziato tedesco capì che i raggi X potevano essere impiagati per scoprire i falsi, in quanto tra i campioni di pigmento che aveva analizzato vi era un dipinto del DÜRER.

Nello stesso anno lo scienziato italiano FALGHERAINER misurò i momenti magnetici in alcuni campioni di ceramiche provenienti da ceramiche etrusche. Solo pochi anni più tardi, 1907, Stonehenge fu fotografata mediate l’uso di una macchina fotografica posta su un aeroplano a fini di documentazione, forse anche di prospezione. Durante la I Guerra Mondiale un pilota di aeroplani russo affermò di aver visto l’Arca di Noé sulle pendici del Monte Arat, al confine tra la Turchia e la Persia (Iran).

La prospezione archeologica faceva uso delle tracce nelle coltivazioni, dello scioglimento delle brine e di altri fenomeni naturali, fu costantemente sviluppata trai due grandi conflitti mondiali.

La II Guerra Mondiale portò dei notevoli miglioramenti nei mezzi della ricognizione aerea, che ora sono impiegati nel campo dell’archeologico. Lo stesso vale per il periodo della “Guerra Fredda” tra gli Stati Uniti d’America e l'ex - Unione Sovietica, quando tra gli anni Sessanta e Settanta divennero disponibili pellicole e rivelatori all’infrarosso. L’ultimo passo importante è stato il trattamento delle immagini all’elaboratore elettronico, pionieristicamente applicato all’archeologia sin dal 1976 da SCOLLAR. Oltre ad ottenere una sostanziale riduzione del tempo per la valutazione, possono essere eliminati i disturbi dovuti ai movimenti dell'aeroplano causate da turbolenze, l’immagine “obliqua” è rettificata, e può essere utilizzata come mappa topografica ed inoltre il contrasto può essere aumentato con metodi digitali.

A terra i rivelatori di mine della II Guerra Mondiale furono di scarsa utilità. La prima ricognizione per mezzo della resistività fu condotta nell'Oxfordshire da ATKINSON nel 1946.

LE BORGNE lavorava sul magnetismo del suolo alla metà degli anni Cinquanta e più tardi nel 1958.

AITKEN intraprese la prima prospezione con un magnetometro a protoni. Il radar per l’analisi del suolo fu introdotto nei primi anni Settanta.

La prospezione sottomarina, quando fa uso delle tecniche di terraferma rimane distanziata per le necessarie modifiche dell’equipaggiamento. I metodi acustici specifici con penetrazione del fondo marino furono applicati alla fine degli anni Settanta, sebbene le tecniche sonar convenzionali con riflesso

(4)

La tecnica della determinazione dell'età di un oggetto più vecchia è l’archeo-magnetismo, pionieristicamente sperimentato da THELLIER dal 1936 in poi. I tardi anni Quaranta videro l’inizio di numerosi metodi, di cui alcuni molto utili ad esempio la datazione con il Radiocarbonio, le prime tecniche di datazione Potassio - Argon e anche i metodi basati sull’analisi del Fluoro e dell’Azoto.

La datazione con la Termoluminescenza fu sviluppata nel 1953, ma i procedimenti precisi furono sviluppati nel 1970.

La Racemizzazione degli Amminoacidi e l’Idratazione dell’Ossidiana risalgono al 1955 e al 1960. La datazione con il metodo delle Tracce di Fissione fu introdotto nel 1960.

Con l’avvento dell'acceleratore di particelle per la Spettrometria di Massa intorno al 1980 ha sicuramente migliorato il metodo del Radiocarbonio. Allo stesso tempo questa tecnica, tramite i dati di dendrocronologia, sebbene la necessità della calibrazione fosse stata riconosciuta da SUESS, da VRIES ed altri.

Da queste premesse sembra di ricavare l’impressione che dalla prospezione e dalla datazione, che sono metodi fisici danno dei contributi sostanziali ai problemi archeologici, ma è vero anche per i metodi di caratterizzazione, quali l'analisi degli elementi in tracce e degli isotopi, ad eccezione forse delle tecniche a microscopia ottica e a raggi X.

La ragione potrebbe risiedere nel fatto che le tecniche devono esistere come metodi maturi in ambiti scientifici diversi dall'archeometria, prima che si possa pensare alla loro utilizzazione in archeologia.

Questo provoca dei deprecabili ritardi.

Che questo non avvenga necessariamente, lo dimostra lo sviluppo mirato e quindi precoce degli strumenti per la prospezione magnetica, Gli scienziati impegnati in archeologia furono i primi ad applicare il principio; essi poterono approfittarne non appena l'equipaggiamento fu funzionante.

Per riassumere, si può affermare che gli storici dovrebbero avere maggiori conoscenze sugli aiuti o addirittura delle potenzialità nascoste dei metodi scientifici; d'altra parte, gli uomini di scienza dovrebbero avere più famigliarità con le necessità dello storico per ricavare delle informazioni ad hoc sui materiali di interesse comune.

LA MATERIA

I nostri sensi, più o meno integrati da opportuni mezzi di osservazione, mettono in rapporto, attraverso il sistema nervoso, i fenomeni del mondo esterno con il nostro cervello, dove la molteplicità degli aspetti fenomenologici dell’Universo dà luogo a percezioni della nostra mente. In corrispondenza con la grandissima molteplicità dei fenomeni, sta la molteplicità delle nostre sensazioni e percezioni, a proposito delle quali riusciamo a stabilire - nella maggioranza dei casi - che esse coincidono per tutti gli individui i quali contemporaneamente osservino nelle stesse condizioni l'ambiente che li circonda.

(5)

Quando questo non avviene ed uno degli osservatori afferma di avere delle percezioni che non si producono nello stesso tempo nella mente degli altri, si dice volgarmente che egli sogna ad occhi aperti o che è vittima di un'allucinazione; con maggiore esattezza si afferma che, in questi casi eccezionali, si ha da fare con impressioni particolari le quali dipendono essenzialmente dal soggetto che le risente.

All'infuori di questi casi eccezionali si ritiene che le percezioni, in quanto comuni a tutti gli osservatori come sopra definiti, hanno carattere oggettivo, cioè dipendono da oggetti esterni (un flore, un frutto, un quadro, un mobile, un utensile, ecc.) i quali oggetti sono tutti percepiti in conseguenza di un complesso di fenomeni di cui essi sono sede e che colpiscono i nostri sensi.

Considerando ad esempio una pesca matura, noi ne percepiamo i bei colori, la forma armoniosa, il gradevole profumo, il tatto vellutato e colui che la mangia ne percepisce il gusto squisito. In corrispondenza con queste diverse sensazioni si attribuiscono agli oggetti una serie di proprietà: la forma, il colore, l'odore, il sapore, la consistenza, il grado di levigatezza, il peso, ecc., le cui combinazioni caratterizzano e differenziano gli oggetti stessi.

Attraverso la discriminazione delle sue proprietà, la pesca sarà diversa dalla coppa che eventualmente la contenga, dal coltello con il quale si sbuccia, dal tavolo su cui il tutto può essere poggiato.

Quando la luce - naturale od artificiale - viene a mancare nell'ambiente dove l'osservatore si trova, molte delle percezioni vengono meno, ma egli potrà ancora individuare al tatto l'esistenza dei vari oggetti circostanti, sentirà di dover compiere uno sforzo più o meno grande per muovere ognuno di loro, li potrà prendere e soppesare, e se, brancolando nel buio, qualcuno dei suoi organi tenderà ad occupare il posto di uno degli oggetti che prima vedeva, egli avrà la sensazione di urto in quanto il suo corpo risentirà delle variazioni di quantità di moto, quindi la Materia possiede una forma di Energia.

L'osservatore, educato con una lunga precedente serie di esperienze potrà ancora riconoscere uno per uno tali oggetti ed associare le nuove sensazioni puramente tattili al complesso di quelle più svariate che gli oggetti gli procuravano prima: ma in ogni caso egli potrà sempre riconoscere muovendosi, che ci sono genericamente degli oggetti intorno a lui.

Segue da ciò che è possibile di astrarre da molte delle proprietà, la cui presenza e caratteristica dei singoli oggetti (il colore, l'odore. la forma, le dimensioni, ecc.), dopo di che ne restano alcune altre che si possono considerare comuni a tutti gli oggetti e cioè: l'inerzia, l'impenetrabilità, il peso.

Si forma così nella nostra mente il concetto astratto di qualcosa che è comune a tutti gli svariati oggetti che ci circondano ed in cui quindi probabilmente risiede, in ultima analisi, la proprietà di essere sede dei fenomeni che colpiscono i nostri sensi.

Dei singoli mobili di una camera - diversissimi per forma, grandezza e colore - noi isoliamo un concetto comune che è quello relativo al legno di cui sono costituiti; e parimenti da tutti gli utensili di una batteria da cucina noi separiamo il concetto comune del metallo (rame, alluminio...) col quale sono stati

(6)

Attraverso la generalizzazione di simili procedimenti si differenzia, da quelli numerosissimi relativi ai singoli oggetti che ci circondano, un concetto unico riguardante la sostanza di cui sono costituiti: ciò che noi diciamo materia.

STATI DI AGGREGAZIONE DELLA MATERIA

Fenomeni fisici e fenomeni chimici

Di sommo interesse è che la materia può presentarsi - nelle condizioni ordinarie delle nostre indagini - sotto diversi stati di aggregazione: solido, liquido gassoso. Il primo è caratterizzato dalla costanza di forma e di volume; il secondo è caratterizzato dalla sola costanza di volume in quanto la materia allo stato liquido assume la forma del recipiente in cui essa è contenuta; il terzo stato invece è caratteristico di sostanze che assumono la forma ed occupano tutto il volume messo a loro disposizione nel recipiente che le contiene.

Vedremo in seguito che si possono avere ulteriori suddivisioni: ma, limitandoci per il momento alla classificazione più semplice, fermeremo la nostra attenzione sul fatto che lo stato di aggregazione di una sostanza può variate al cambiare della pressione e della temperatura.

Aumentando la temperatura, a pressione costante, si può passare dallo stato solido allo stato liquido (Fusione) o dallo stato liquido allo stato gassoso (Vaporizzazione); né mancano casi nei quali si ha il passaggio diretto dallo stato solido allo stato gassoso (Sublimazione).

A temperatura costante, la diminuzione della pressione provoca sempre il passaggio dallo stato liquido, e rispettivamente dallo stato solido, a quello di vapore, mentre passaggi inversi si hanno al crescere della pressione.

Ma nei riguardi del passaggio da solido a liquido, la pressione può agire in senso diverso secondo la sostanza sulla quale si opera. Così, per esempio, il ghiaccio, che si trovi poco al di sotto del punto di fusione, fonde per aumento di pressione; mentre lo zolfo liquido, che si trovi ad una temperatura di poco più alta di quella di fusione, si solidifica quando cresce la pressione cui è sottoposto.

Tutti questi passaggi dall'uno all'altro stato di aggregazione sono invertibili, intendendosi di dire con questa espressione che una data sostanza, partendo da certe condizioni iniziali di pressione e di temperatura, può subire un cambiamento dello stato di aggregazione quando si varino i detti fattori di azione; ma ritorna allo stato iniziale quando si ristabiliscono le condizioni di partenza. Una certa quantità di naftalina, posta in un recipiente di porcellana riscaldata, fonde e passa allo stato di vapore.

Se il recipiente è coperto con una campana di vetro, i vapori emessi, venendo a contatto con le pareti fredde della campana, si condensano di nuovo sotto forma di scaglie bianche, lucenti, eguali a quelle del prodotto di partenza.

(7)

Non mancano però i casi in cui l'intervento dei citati fattori di azione può produrre nella materia cambiamenti diversi dal semplice passaggio dall'uno all'altro stato di aggregazione, e questi cambiamenti possono talvolta avere carattere permanente, cioè non ammettere il ritorno allo stato iniziale quando si ripristinino le condizioni iniziali.

Un filo di platino, posto nella parte esterna, meno luminosa, della fiamma a gas, diventa incandescente ed emette luce per proprio conto così da apparire luminoso sul fondo della fiamma. Tale stato particolare di eccitazione del filo cessa quando esso è allontanato dalla fiamma e ritorna alla temperatura ambiente, alla quale riprende l'aspetto e le proprietà che aveva all'inizio.

Eventi del tutto diversi accadono se, invece del filo di platino, si pone nella fiamma un filo di magnesio:

si manifesterà del pari un fenomeno luminoso, che è anzi molto più intenso, ma al tempo stesso il filo metallico scompare trasformandosi in una polvere bianca e resta tale anche quando sia portata fuori della fiamma.

Le trasformazioni del filo di platino dovute al riscaldamento sono invertibili, a differenza di quelle subite dal filo di magnesio.

Fenomeni del pari non invertibili si manifestano quando il legno secco sia riscaldato fuori del contatto dell'aria: si nota. una modificazione profonda, per la quale si ha abbondante sviluppo di vapori infiammabili mentre resta un residuo solido di aspetto carbonioso. Col ritorno alle condizioni iniziali, i prodotti gassosi in parte rimangono tali ed in parte si condensano sotto forma liquida; ma, anche mescolando queste due frazioni con il residuo solido carbonioso, non si può ripristinare affatto un sistema che abbia quelle proprietà che caratterizzavano il materiale di partenza e cioè il legno.

Molto più ricca è la fenomenologia che si osserva per l'intervento di altri fattori di azione, come il campo elettrico e magnetico, le forze capillari, la luce, ecc. Anche in questi casi però si possono avere cambiamenti di stato transitori, invertibili col ritorno alle condizioni di partenza, oppure sostanziali cambiamenti permanenti della materia su cui si opera.

Consideriamo un circuito elettrico nel quale siano inseriti una lampada ad incandescenza ed un voltametro contenente acqua acidulata con acido solforico.

Nella sua forma più semplice il voltametro è costituito da un recipiente cilindrico di vetro chiuso nella parte superiore e munito da un tubo laterale di svolgimento. Nell'interno del recipiente sono inserite due laminette di platino, le quali comunicano con l'esterno per mezzo di fili anch'essi di platino, saldati nel vetro e destinati a stabilire le connessioni elettriche del circuito. Le due laminette servono di via al passaggio dell'elettricità nella soluzione e perciò prendono il nome di elettrodi (dal greco via): quello che si trova a potenziale più alto (polo positivo) si dice anodo (dal greco sopra) e quello che si trova a potenziale più basso si dice catodo (dal greco in giù).

Quando si fa passare la corrente elettrica nel circuito dove sono inseriti la lampada ed il voltametro, si

(8)

Il filamento della lampada si riscalda e può giungere fino all'incandescenza. ma ritorna nelle condizioni iniziali quando cessa il passaggio della corrente. Nel voltametro invece si ha un moderato riscaldamento e si nota che ai due elettrodi si sviluppano dei prodotti gassosi, i quali passano nella parte superiore del recipiente e si possono raccogliere, attraverso il tubo di svolgimento, in una campanella opportunamente disposta in un bagno pneumatico. Si osserva però che in questo sistema, al cessare della corrente, non si ripristina lo stato iniziale, ed un'indagine più accurata ci assicurerebbe che la formazione di gas si accompagna ad una scomparsa di una certa quantità di acqua.

Il gas raccolto nella campanella rimane tale e non subisce alcuna trasformazione apprezzabile alla temperatura ordinaria; solo quando sia messo a contatto con un corpo incandescente si ha una detonazione in seguito alla quale si forma di nuovo acqua.

Al posto dell'ordinario voltametro, si può usare un apparecchio di forma più complicata, detto voltametro di Hoffman, nel qual è possibile di raccogliere separatamente i prodotti gassosi ce si svolgono ai due elettrodi. Tale apparecchio è costituito da un tubo principale di vetro, forgiato ad U con le estremità chiuse da due rubinetti anch'essi di vetro. Nel gomito del tubo principale viene a sboccare un tubo, di diametro minore, che mette in comunicazione con un serbatoio aperto ì di forma sferica. Nei rami verticali del tubo ad U sono inserite due laminette di platino, che funzionano da elettrodi.

L'apparecchio è pieno della stessa soluzione acquosa di acido solforico.

I prodotti gassosi che si svolgono agli elettrodi si raccolgono separatamente nei due rami verticali del tubo, mentre il liquido spostato si riversa nel serbatoio, opportunamente proporzionato. La graduazione tracciata sul tubo permette la misura dei volumi occupati dai due gas, i quali possono essere estratti attraverso i rubinetti.

Anche con quest'apparecchio si osserva che, dopo il passaggio della corrente, non si ripristina lo stato iniziale quando si ritorna nelle condizioni iniziali.

I due gas hanno proprietà diverse da quelle del miscuglio tonante, che si raccoglie nel voltametro semplice.

Uno di loro, e precisamente quello che si svolge al catodo, portato a contatto con un corpo incandescente, si accende e brucia tranquillamente all'aria; l'altro, portato a contatto di un fuscellino di legno, che conservi un punto di ignizione, ne ravviva la combustione. Il primo di loro si svolge in un volume doppio del secondo e, mescolandoli nello stesso rapporto, si riproduce il miscuglio tonante del voltametro semplice.

Possiamo concludere quindi che - a differenza di quanto avviene per il filo della lampada ad incandescenza - l'elettricità produce, nell'acqua dei voltametri, trasformazioni che non sono spontaneamente invertibili.

Citeremo infine qualche esempio relativo all'azione della luce.

(9)

Una soluzione di fluoresceina, illuminata in una determinata direzione, emette per proprio conto in tutte le direzioni una luce di fluerescenza diversa da quell'eccitatrice; ma quando questa viene a mancare ritorna nelle condizioni iniziali.

Viceversa, una miscela a volumi eguali di idrogeno e di cloro, esposta alla luce, subisce una profonda trasformazione, la quale può avere un andamento esplosivo. Al cessare della luce eccitatrice, si trova che le proprietà delle sostanze di partenza si sono profondamente e permanentemente alterate: prodotto della reazione è un nuovo gas, incolore e completamente solubile nell'acqua, capace di arrossare la tintura azzurra di tornasole che sia in lei disciolta.

Queste differenze di comportamento suggeriscono di separare almeno in linea di principio, lo studio delle trasformazioni facilmente invertibili da quello delle trasformazioni non invertibili, che i fattori di azione provocano nei sistemi materiali.

Le prime si classificano come fenomeni fisici ed il loro studio forma l'oggetto della Fisica, la quale quindi, per quanto abbiamo detto, si può definire come la scienza che si occupa degli stati e dei cambiamenti di stato della materia.

Le trasformazioni, che conducono a sostanziali cambiamenti della materia sulla quale si opera, prendono il nome di fenomeni chimici ed il loro studio forma l'oggetto della Chimica, la quale può definirsi la scienza della materia e delle sue trasformazioni.

L'ulteriore svolgimento dei nostri studi ci porterà a considerate che il criterio discriminativo, posto a base di questa classificazione, e cioè il carattere di invertibilità o meno delle trasformazioni, non è quello che in ultima analisi permette di differenziare i fenomeni chimici dai fenomeni fisici.

Vedremo infatti che la mancata invertibilità delle più comuni trasformazioni chimiche è puramente accidentale e dipende dal fatto che lo stato iniziale preso in considerazione non è uno stato di equilibrio stabile, bensì uno stato di falso equilibrio, e che perciò esso non si ripristina quando si ristabiliscono le condizioni di partenza.

Per questo motivo, accanto al criterio dell'invertibilità, abbiamo messo in evidenza che la chimica si occupa della materia e delle sue trasformazioni, mentre la fisica si occupa degli stati e delle trasformazioni di stato della materia riservandoci di chiarire meglio questi concetti quando saremo venuti in possesso di ulteriori cognizioni capaci di aiutarci raggiungere una più precisa definizione dei fenomeni.

CLASSIFICAZIONE DELLA MATERIA

La molteplicità degli aspetti sotto di cui la materia si presenta rende opportune di procedere nello studio della chimica con il sussidio di una conveniente classificazione.

(10)

Per molto tempo il criterio posto a base della classificazione si fondava sul fenomeno della vita e quindi si divideva la materia in materia organica e materia inorganica secondo che si trattasse o no di sostanze provenienti dagli organismi viventi. Si riteneva che le sostanze appartenenti alla prima categoria avessero dovute all'esplicazione dell'attività vitale. Rientravano nella seconda categoria le rocce, i minerali e le sostanze che ne derivano e si dicevano quindi inorganiche sostanze come il granito, il marmo, lo zolfo, il cinabro, l'acido solforico, ecc.

La materia organica si suddivideva poi in materia organizzata e materia non organizzata, rientrando nel primo gruppo le sostanze che - come il legno, la carne, le pelli le fibre naturali, ecc. - presentano la struttura cellulare propria degli organismi viventi; mentre nel secondo gruppo rimanevano le altre sostanze di origine animale o vegetale prive di struttura come, ad esempio, i grassi, gli zuccheri, gli alcoli, taluni coloranti, ecc.

Infine si teneva conto del fatto che la materia organizzata può essere vivente o morta come sono rispettivamente un albero in vegetazione ed una tavola di legno.

Nei tempi più recenti, la base di questa classificazione è venuta a mancare, in quanto i processi di sintesi più svariati hanno permesso di preparare, all'infuori degli organismi viventi e partendo dai prodotti inorganici, un numero sempre maggiore di sostanze che prima si consideravano esclusivamente dovute all'attività vitale. Tuttavia si è anche dimostrato che le sostanze organiche, in numero grandissimo, contengono tutte il carbonio, che ha portato la nascita della Chimica Organica. Perciò appare tuttora conveniente di farne una trattazione distinta pur riconoscendo ogni giorno di più che non c'è alcuna differenza di comportamento tra le sostanze del mondo inorganico e quelle del mondo organico e che nessuna difficoltà di principio esiste a passare dalle une alle altre.

Lo studio della chimica si divide tuttora, per queste sole condizioni di opportunità, in due branche:

chimica inorganica che si occupa delle sostanze formate con tutti gli elementi e chimica organica che si occupa in modo speciale delle sostanze, nella composizione delle quali entra il carbonio. Ma la classificazione della materia deve farsi ormai in modo unitario, indipendentemente dall'origine dei corpi che essa costituisce, avendo soltanto di mira di isolare, dai complessi corpi naturali, alcune sostanze tipicamente definibili - e cioè le sostanze pure e le sostanze semplici - delle quali è possibile di fare uno studio sistematico.

SISTEMI OMOGENEI E SISTEMI ETEROGENEI: FASI

L'esame della materia, della quale sono costituiti i corpi, ci porta subito a considerate un carattere, il quale si dimostra di particolare importanza per decidere se la materia di cui trattasi ha oppure no costituzione unitaria.

(11)

Ci sono, infatti, corpi o sistemi dei quali è possibile isolare in ogni caso degli elementi di volume piccoli a piacere e costatare che la materia contenutavi mostra sempre le stesse proprietà (colore, densità, durezza, compressibilità, velocità di propagazione della luce, ecc.). Diciamo allora che si ha da fare con materia omogenea ed isotropa: tale è il caso dell'acqua, del vetro, dello zolfo, ecc. Può talvolta avvenire che le proprietà considerate risultino coincidenti per due elementi di volume in ogni modo scelti, a patto però che si faccia compiere un'opportuna rotazione dell'uno rispetto all'altro. Ciò accade non perché le proprietà considerate siano diverse da punto a punto, ma perché esse cambiano in uno stesso punto al cambiare della direzione che si considera: in questi casi si afferma che si ha da fare con materia omogenea anisotropa (dal greco α privativo, ed eguale rivolgimento).

Molte volte invece, anche all'esame macroscopico, è possibile discernere nella sostanza di un oggetto tanti gruppi distinti di elementi di volume che occupano la materia con caratteri del tutto diversi per ogni gruppo. Si dice allora che la materia dell'oggetto forma un sistema eterogeneo.

Per esempio un pezzo di lava vesuviana trovato a Pompei, se esaminato a occhio nudo, appare già costituito da un gran numero di cristalli bianchi più o meno grandi (leucite) disseminati in una matrice di colore grigio ferro. Lo stesso si verifica per il granito, nel quale si distinguono pure ad occhio nudo particelle bianche, dure e trasparenti (quarzo) frammiste con altre di colore rossastro e di minore durezza (feldspato) oppure di splendore argenteo o di facile sfaldabilità (mica). Ognuna di queste particelle sembra costituita di materia omogenea.

Non va mai dimenticato che però che il carattere di omogeneità deve essere controllato su elementi di volume piccoli a piacere e quindi, se nel caso, con l'aiuto di opportuni metodi di indagine, accade allora che delle sostanze giudicate omogenee risultino come tali, mentre altre appaiono nettamente eterogenee.

I sistemi omogenei che entrano a far parte di un sistema eterogeneo, possono essere continui oppure suddivisi in un numero più o meno grande di elementi di volume. L'insieme di tutti gli elementi di volume occupati dall'identica materia omogenea costituisce una fase del sistema e s'intende che l'identità deve essere estesa anche allo stato di aggregazione, per esempio l'acqua allo stato solido (ghiaccio), allo stato liquido e il vapore d'acqua sono fasi distinte.

I sistemi eterogenei si dicono anche miscugli. In essi è sempre possibile, con metodi fisici, realizzare la separazione diversi costituenti (fasi).

I costituenti di una fase hanno composizione costante e non si possono frazionare e si dicono individui chimici. Gli individui chimici si distinguono in due grandi categorie: la prima comprende 103 sostanze; la seconda tutte le altre, in un numero che si arricchisce continuamente di nuove sostanze preparate dall'uomo e ammonta certamente ad alcune centinaia di migliaia.

Tutte le sostanze della seconda categoria in determinate condizioni sono suscettibili di decomporsi, vale a dire a scindersi, e ciascuna delle quali ha un peso inferiore a quello della sostanza di partenza,

(12)

idrogeno e ossigeno, tanto l'uno che l'altro hanno peso inferiore dell'acqua da cui si era partiti. Le sostanze di questa categoria si dicono composti chimici o molecole.

Decomposizione od analisi si dice il processo di separazione nei costituenti, combinazione o sintesi quello inverso per il quale due o più sostanze si uniscono per formarne una di peso uguale alla somma dei costituenti da cui si era partiti.

Le sostanze della prima categoria sottoposte alle operazioni chimiche comuni (almeno quelle che il chimico sapeva fare, fino al secolo scorso, a sua volontà) rimangono inalterate o ne danno altre a peso superiore, per somma di altre sostanze: esse si chiamano elementi chimici.

La definizione di elemento quale sostanza indecomponibile cade in difetto quando intervengono fenomeni di radioattività, esistendo elementi, quali il Torio, l'Uranio, che si decompongono spontaneamente trasformandosi in altri elementi: prodotto costante di questo processo e un elemento allo stato gassoso: l'Elio. Alcuni elementi, sotto l'azione di radiazioni esterne, si trasformano in altri.

Infine è riconosciuto ce la maggior parte degli elementi che si trovano in natura non sono costituiti da particelle tutte identiche fra di loro, ma sono un miscuglio, in proporzioni generalmente costanti, di particelle che hanno proprietà chimiche identiche, ma alcune proprietà fisiche (per esempio la massa) differenti entro limiti ristretti, si dicono isotopi.

Questa constatazione sull'intima costituzione degli elementi non invalida il concetto di elemento quale interviene in tutta quella grandiosa serie di trasformazioni della materia.

La domanda spontanea che ci si pone è quella: come è fatto un atomo?

Ma prima di rispondere a questa domanda, dobbiamo analizzare il comportamento macroscopico della materia, per poi entrare nel mondo microscopico atomico e subatomico.

Cariche elettriche

Nel VII secolo a.C. venne per la prima volta osservata, o almeno ne vennero trascritte le osservazioni a riguardo, la proprietà dell’ambra, dell’ebanite e di altri materiali che, strofinati con un panno di lana, acquistano il potere di attirare corpuscoli leggeri come pagliuzze, pezzetti di carta, ecc.

Queste osservazioni rimasero inalterate fino al XVI secolo, quando W. Gilbert catalogò un vasto insieme di materiali che avevano proprietà simili.

Gilbert chiamò elettrizzati tutti quei materiali che acquistavano la proprietà di attirare i corpuscoli:

avvicinando questi materiali alla carta, ad esempio, questa comincia a muoversi, evidenziando la presenza di una forza che la attira. Gilbert chiamò questa forza "elettrica" (dal termine "electron", il nome greco dell’ambra).

Dalle osservazioni svolte sui materiali elettrizzati per strofinio possiamo dedurre quanto segue:

(13)

In natura esistono due tipi di materiali, quelli che si elettrizzano per strofinio e gli altri;

chiameremo i primi isolanti ed i secondi conduttori.

L’insieme dei materiali isolanti si divide a sua volta in due specie: quelli che si comportano come il vetro e quelli che si comportano come la bachelite.

Tra due elementi elettrizzati della stessa specie, come il vetro o la bachelite, si manifesta sempre una forza che tende a farli allontanare tra loro (forza repulsiva).

Tra due elementi di due specie diverse, ad esempio uno di vetro e l’altro di bachelite, si manifesta sempre una forza che tende a farli avvicinare (forza attrattiva).

Una forza attrattiva si manifesta sempre quando il materiale isolante elettrizzato si avvicina al panno con cui è stato elettrizzato.

Come possiamo spiegare tutto questo?

Possiamo spiegare questi effetti supponendo che la forza elettrica si eserciti tra alcuni oggetti, che chiamiamo particelle. Non tutte le particelle risentono però della forza elettrica: quelle che ne risentono le chiameremo elettricamente cariche, le altre elettricamente neutre.

(14)

Dai fatti sperimentali si deduce che esistono due tipi di cariche elettriche, una legata all’ebanite e l’altra al vetro. Chiameremo positiva la carica che compare sulla superficie delle sostanze tipo vetro quando vengono elettrizzate, e negativa l’altra. Risulta quindi che particelle con carica dello stesso segno si respingono, mentre particelle con cariche di segno diverso si attraggono.

Come si spiega allora, che solo strofinando alcuni oggetti si elettrizzano?

Questo avviene poiché nella materia, prima dell’azione di strofinamento, ci sono tante particelle cariche negativamente, quante cariche positivamente e quindi la materia appare come neutra. Strofinando il vetro, ad esempio, alcune cariche elettriche negative gli vengono strappate e rimangono sul panno di lana. Per questo il vetro si carica positivamente e si attrae con il panno.

Questa spiegazione, che può sembrare costruita ad hoc per chiarire quanto visto, è, invece, una descrizione semplificata, ma corretta, di ciò che realmente accade.

Sappiamo infatti che la materia è formata da atomi. Questi sono composti da un numero uguale di particelle cariche negativamente (gli elettroni) e positivamente (i protoni), più un certo numero di particelle neutre, cioè prive di carica, (i neutroni). Ogni atomo è neutro, avendo un uguale numero di cariche positive e negative, ma quando viene strofinato il vetro con la lana, questa porta via alcuni elettroni, lasciandolo carico positivamente.

Nel caso della bachelite, invece, la lana rilascia alcuni elettroni caricandola quindi negativamente (gli elettroni sono molto più leggeri dei protoni e quindi possono essere portati via con molta più facilità).

Esiste un’importante legge della fisica: qualsiasi oggetto elettricamente carico possiede una carica elettrica che è multipla intera della carica dell’elettrone (segno a parte); elettrone e protone hanno carica elettrica uguale, ma di segno opposto, per questo sono necessari un ugual numero dell’uno e dell’altro per avere l’atomo elettricamente neutro.

La forza elettrica tra due cariche può essere espressa dalla legge di Coulomb, dal nome del fisico che per primo la enunciò, ricavandola dai dati sperimentali:

2 2 1

r q k q F =

dove k è una costante, q1 e q2 sono le cariche, r è la distanza tra le cariche.

(15)

Come si vede questa forza è tanto più intensa quanto più le cariche sono vicine.

Spesso si parla di forze coulombiane invece di forze elettriche proprio in onore di Coulomb.

Poli magnetici

La proprietà di alcuni materiali, come la magnetite, di attirare a sé la limatura di ferro, era nota già dal VII secolo a.C. e fu denominata "magnetismo". I nomi "magnetite" e "magnetismo" derivano da quello della città di Magnesia, in Asia Minore, dove veniva estratto il materiale.

Nel XVI secolo W. Gilbert compì una serie di esperimenti con la magnetite al fine di osservare in dettaglio le proprietà del magnetismo e comprenderne l'origine. A questo scopo preparò dei piccoli cilindri di magnetite, detti "magneti", ed osservò che la proprietà di attirare la limatura di ferro si concentrava solo alle estremità del cilindro, che chiamò poli magnetici.

Le principali proprietà del magnetismo osservate sono le seguenti:

Il magnete ha sempre le due estremità magnetizzate.

Avvicinando due poli, questi si possono respingere o attirare (forza magnetica, simile a quella delle cariche elettriche). Ai poli viene dato il nome di Nord e Sud (in analogia con i poli magnetici terrestri).

Ogni magnete possiede un polo Nord ed un polo Sud; anche dividendolo a metà, le due parti rimangono

(16)

Avvicinando al polo di un magnete una bacchetta di ferro, questa acquista la proprietà di attirare la limatura di ferro.

Esistono delle profonde similitudini tra la forza magnetica e quella elettrica, in particolare, la presenza dei poli magnetici fa supporre la presenza di cariche magnetiche responsabili dell'attrazione e della repulsione tra i poli.

Questa descrizione non risulta però soddisfacente in quanto, mentre ogni carica elettrica è portata da una particella e quindi può essere isolata dalle altre, nel caso dei poli magnetici, invece, ogni magnete, per quanto piccolo, possiede sempre due poli distinti ed opposti. Non è quindi possibile parlare di carica magnetica nello stesso senso utilizzato per quelle elettriche. Per questo si chiamano poli le parti in cui si manifesta la proprietà della magnetizzazione.

In ogni caso la forza esercitata tra due poli magnetici ha una forma molto simile a quella esercitata tra le cariche elettriche. Può essere infatti scritta come:

2 2 1

r m k m F =

dove k è una costante, m1 ed m2 sono le "masse magnetiche dei poli", r è la distanza tra i poli.

Come si vede questa forza è tanto più intensa quanto più i poli sono vicini.

Oggi sappiamo che il magnetismo della ferrite è un fenomeno di origine atomica, spiegabile dalle teorie della meccanica quantistica, e la cui descrizione è molto più complessa di quella svolta per la carica elettrica. In questa ottica è possibile spiegare anche la quarta proprietà osservata, quella del ferro che diventa, temporaneamente, un magnete nel caso venga inserito vicino ad un polo magnetico.

E' affascinante ripercorrere, anche se brevemente, i momenti più importanti degli studi che hanno portato alla descrizione dell’atomo, per spiegare come l’intuizione di alcune menti particolarmente brillanti sia stata un faro per raggiungere con ingegno, pazienza e dedizione porti altrimenti lontanissimi.

(17)

Il concetto di atomo (dal greco "atomòs", "indivisibile") come costituente della materia trae le sue origini dalla filosofia greca e, con alterne fortune (spesso più di origine filosofica che strettamente scientifica) ha navigato attraverso i millenni. Tra la fine del XVIII e l’inizio del XIX secolo gli studiosi si convinsero che la natura era discontinua e formata di atomi e molecole. Nessuno aveva idea, però, dell’esistenza delle particelle costituenti.

Nel XIX secolo, poi, furono eseguiti numerosi esperimenti per determinare molte proprietà della materia.

Ma spesso fu possibile ricavare solo leggi empiriche di cui non era possibile dare una giustificazione.

I più importanti esperimenti che fornirono dati apparentemente inspiegabili furono quelli di tipo spettroscopico: inviando della luce su di un gas di idrogeno, questo fornì un risultato inaspettato.

Osservando la radiazione emessa dal gas, si notò che era composta da una serie di righe (spettro discontinuo) di frequenza diversa, mentre quella incidente aveva uno spettro piatto (tutte le frequenze in un certo intervallo). Era come se il gas distinguesse tra una frequenza ed un’altra immediatamente vicina tra tutte quelle che gli venivano inviate. Questa libertà di scelta dell’atomo sembrava inspiegabile.

Il primo passo sulla strada per la verità avvenne quando, nel 1897, J.J.Thomson, a conclusione di una serie di esperimenti, capì di aver scoperto una particella: l’elettrone. Capì inoltre che il numero atomico Z è il numero di elettroni atomici. Su queste basi realizzò il primo modello atomico, secondo il quale l’atomo è una sfera di raggio circa 10-10m che racchiude sia gli elettroni che una carica positiva diffusa all’interno della sfera in maniera omogenea (l’atomo nel suo insieme è neutro). La posizione degli elettroni nell’atomo è definita dalla repulsione coulombiana.

Questo modello, sebbene spiegasse molti effetti osservati, lasciava ancora molti dubbi: ad esempio non spiegava i risultati delle misure spettroscopiche prima descritte.

Nonostante alcuni insuccessi, la maggior parte dei fisici di allora era comunque convinta che questa fosse la strada giusta.

Pochi anni più tardi, per cercare di dare una risposta ai molti dubbi che ancora rimanevano, E.

Rutherford consigliò a due suoi ricercatori, H. Geiger e E. Marsden, di bombardare un sottilissimo foglio d’oro con particelle a (oggi sappiamo composte da due neutroni e due protoni, Rutherford sapeva solo che erano nuclei doppiamente carichi di atomi di elio e molto pesanti).

(18)

Supponendo valido il modello di Thomson, Rutherford concluse che le particelle avrebbero dovuto attraversare il foglio subendo deflessioni molto piccole dal moto rettilineo (quindi variazioni di velocità a causa dell’applicazione di una forza deflettente), poichè il valore del campo elettrico all’interno dell’atomo (all’esterno della sfera non c’è campo elettrico perché l’atomo è neutro, quindi la particella non può subire una forza deflettente) è sempre molto limitato.

Dalle misura della deflessione delle particelle, Rutherford era convinto che sarebbe stato possibile eseguire misure precise sulla struttura dell’atomo di Thomson.

I risultati di quest’esperimento, però, furono sconvolgenti: le particelle vennero deviate più di quanto si aspettasse, ed alcune di esse invertirono addirittura il loro moto. Rutherford commentando questi dati scrisse: "Fu l’evento più incredibile che mi fosse mai capitato nella vita. Altrettanto incredibile che se vi fosse capitato di sparare un proiettile da quindici pollici su un pezzo di carta velina e questo fosse tornato indietro a colpirvi." Rutherford cercò quindi di capire che cosa avesse potuto dare origine a risultati di questo tipo ed arrivò a concludere che l’atomo è composto da un nucleo carico positivamente, di raggio 10-14 m, intorno al quale sono distribuiti gli elettroni fino ad una distanza di circa 10-10 m.

Le ragioni che portarono a queste conclusioni sono le seguenti: se una particella passa attraverso la materia esternamente alla corteccia degli elettroni, non sente alcun campo elettrico e quindi non viene deviata; se invece entra all’interno della nuvola atomica, incontra un campo tanto più intenso quanto più è vicina al nucleo e quindi tanto più viene deviata. Nel caso di urto frontale con un nucleo, il proiettile può addirittura invertire il suo moto.

(19)

Questo modello, che prese il nome dal suo ideatore, non spiegava però ancora molti dei risultati sperimentali osservati e neanche di che cosa fosse fatto il nucleo. Risultava poi evidente che la materia è vuota poiché tra il nucleo e la fine della corteccia atomica sono presenti solo poche (al massimo un centinaio) particelle praticamente puntiformi.

La soluzione del problema sembrava, però, più vicina, anche se molti fisici erano scettici su questo nuovo modello che lasciava ancora molti fenomeni non spiegati.

Ad illuminare il cammino verso la comprensione della reale struttura dell’atomo arrivò, nel 1913, un giovane fisico danese: Niels Bohr. Questi, di ritorno da un viaggio presso il laboratorio di Rutherford (che lo aveva definito "uno dei giovani più intelligenti che io abbia mai incontrato") propose una spiegazione del comportamento degli elettroni atomici.

Il principale problema del modello di Rutherford è legato agli elettroni che lo compongono. Sappiamo infatti che essi, stando vicino al nucleo, risentono dell’attrazione Coulombiana; non potrebbero rimanere fermi, in quanto questa forza di richiamo li accelererebbe fino a farli collassare sul nucleo, cosa impossibile essendo la materia stabile. D’altronde l’elettrone non può neanche muoversi. Infatti una legge sul moto delle particelle cariche afferma che, se una particella carica devia dal moto rettilineo (e quindi subisce un’accelerazione, come una macchina in curva), emette onde elettromagnetiche perdendo parte della sua energia cinetica. Se l’elettrone si muovesse liberamente nell’atomo perderebbe tutta la sua energia in pochi miliardesimi di secondo e collasserebbe sul nucleo.

Per ovviare al problema apparentemente insormontabile della presenza degli elettroni intorno al nucleo, Bohr applicò ad alcuni concetti appresi presso il laboratorio di Rutherford le idee della quantizzazione introdotte da Planck ed ampliate da Einstein. Egli immaginò che il moto dell’elettrone intorno al nucleo fosse simile a quello della luna intorno alla terra (moto planetario), sostituendo l'interazione gravitazionale con quella elettromagnetica. Per superare il problema dell’emissione di radiazione elettromagnetica da parte degli elettroni, suppose che esistessero delle orbite stabili sulle quali l’elettrone potesse rimanere senza perdere energia. Secondo quest’idea le orbite dell’elettrone venivano, quindi, quantizzate. Per definire quali orbite fossero permesse, Bohr pensò che, compiendo l’elettrone orbite circolari, il suo momento angolare non doveva cambiare e suppose che questo fosse una buon candidato per essere quantizzato.

Dallo sviluppo di questo modello Bohr dedusse che gli elettroni atomici sono distribuiti a strati, nel senso che coprono orbite intorno al nucleo a diverse distanze (come i pianeti intorno al sole), fissate dalla

(20)

Affinché questo modello potesse essere presentato come una corretta spiegazione della distribuzione degli elettroni nell’atomo, era necessario che potesse giustificare alcuni risultati sperimentali. Una importante vittoria fu quella di fornire una giustificazione per le misure spettroscopiche ottenute e non ancora spiegate. Secondo quanto si era venuto a delineare in quegli anni, la luce incidente sul gas è composta da tutte le frequenze comprese all’interno di un certo intervallo, quindi di fotoni di diversa energia (a seconda della frequenza). Bohr suppose che tutti i fotoni attraversano gli atomi del gas senza interagire tranne quelli con un’energia tale da portare gli elettroni da un’orbita permessa ad un’altra più lontana dal nucleo. Secondo questo modello, quando un fotone viene assorbito dall’atomo, l’elettrone si allontana dal nucleo; pochi miliardesimi di secondi dopo, l’elettrone ritorna nell’orbita iniziale riemettendo energia sotto forma di fotoni. Solo i fotoni (e quindi le frequenze della luce) tali da fornire un energia all’elettrone per eseguire la transizione tra due livelli atomici, vengono assorbiti, e ciò vale anche nel caso dell’emissione di fotoni durante la diseccitazione atomica (che è un processo di decadimento, denominato decadimento γ). Bohr calcolò quali frequenze sarebbero dovute essere riemesse dall’atomo durante il processo di diseccitazione. I risultati furono in ottimo accordo con quanto misurato sperimentalmente.

Nonostante il successo del modello di Bohr, non tutti i fisici inizialmente abbracciarono questa ipotesi.

Lo stesso Rutherford commentò così, il 20 marzo del 1923, la lettera inviatagli da Bohr con la descrizione della sua teoria e dei suoi risultati: "Le Sue idee sull’origine dello spettro dell’idrogeno sono molto ingegnose e sembrano funzionare bene; ma la mescolanza delle idee di Planck con la vecchia meccanica consente molto difficilmente di formarsi un’idea fisica della base del discorso. Mi sembra ci sia una grave difficoltà nelle sue ipotesi, che non penso affatto Le sia sfuggita: come fa un elettrone a decidere con quale frequenza deve vibrare quando passa da uno stato stazionario all’altro? Sembra che debba supporre che l’elettrone sappia in partenza dove andrà a finire." (a questo dubbio risponderà, in seguito, la meccanica quantistica...) La strada giusta era stata trovata.

Il modello di Bohr, per quanto spiegasse bene la maggior parte dei risultati, lasciava ancora problemi irrisolti. In seguito Arnold Sommerfeld riuscì ad ampliare questo modello, generalizzando ed aumentando le condizioni di quantizzazione imposte da Bohr. Grazie a queste e ad altre nuove idee i risultati delle misure sperimentali erano sempre più facilmente spiegabili.

Anche la comprensione della struttura del nucleo subì in quegli anni un forte sviluppo fino ad arrivare, nel 1932, alla scoperta del neutrone da parte di J. Chadwick. Era l’ultimo tassello per capire da cosa fosse costituito l’atomo.

Alcuni anni più tardi, rispetto allo sviluppo del modello di Bohr-Sommerfeld (o modello semiclassico), Schrödinger ed Heisenberg risolsero, secondo la teoria della meccanica quantistica, il problema

(21)

dell’atomo d’idrogeno, ritrovando le condizioni di quantizzazione che Bohr e Sommerfeld avevano inserito a naso.

La meccanica quantistica, a differenza di quella classica, è una teoria probabilistica, quindi non dice che gli elettroni vivono su orbite fisse, ma fornisce la probabilità di trovarli ad una certa distanza dal nucleo. Il valore più probabile, per ogni orbita, coincide con quello trovato con il modello semiclassico.

Momento angolare

Il concetto di momento angolare, così come quello di impulso, fa parte ormai dei concetti innati che ci appartengono.

Per chiarirlo meglio, prendiamo un tuffatore che si lancia da un trampolino molto alto. Durante il tuffo comincia a ruotare, non appena si abbraccia le gambe la sua velocità di rotazione aumenta, per poi ridursi nuovamente quando, prima di incontrare l’acqua, si distende nuovamente.

La stessa cosa succede ad una pattinatrice che, cominciando le piroette a braccia larghe, le ritira lungo il corpo per aumentare la propria velocità di rotazione.

Questi due esempi ci permettono di introdurre il concetto di momento angolare, legato alla rotazione di un oggetto intorno ad un asse e per il quale vale una legge di conservazione analoga a quella dell’energia e della quantità di moto.

Vediamo di capire meglio che cosa sia il momento angolare con un esempio più semplice del tuffatore, anche se meno noto: il manubrio.

Questo oggetto è composto da due sbarre poco pesanti unite insieme a forma di croce; lungo i due bracci di una sbarra ci sono due palle molto pesanti poste simmetricamente rispetto all’altra sbarra. Il manubrio può ruotare liberamente intorno alla sbarra su cui non abbiamo fissato le sfere (asse di rotazione).

(22)

Diamo ora una spinta al manubrio per farlo cominciare a girare, così le nostre sfere cominceranno a

ruotare con velocità di rotazione (o angolare) .

Se durante la rotazione attacchiamo altre due palle, una per lato (ad esempio con una calamita per non

esercitare forze sul sistema), notiamo che il valore di si dimezza. Se invece aumentiamo la distanza delle palle dall’asse, ad esempio, del doppio, allora la velocità angolare si riduce ad 1/4 del suo valore.

Abbiamo così imparato che conservando il momento angolare, cioè non applicando forze esterne sul nostro manubrio, raddoppiando la massa (il numero di palline perchè le sbarre sono molto leggere) si

dimezza , mentre raddoppiando la distanza delle palline dall’asse, si riduce ad 1/4 del suo valore iniziale. Eseguendo una serie di misure cambiando le masse e le distanze dall’asse si scopre che la

quantità che non cambia mai è: (2 perché ho due masse m uguali, d è la distanza dall’asse).

Nel caso del tuffatore e della pattinatrice le cose non sono così semplici perchè la massa è distribuita lungo tutto il corpo, e non agli estremi come nell’esempio, ma tralasciamo queste complicazioni.

Anche in questo caso si ha la conservazione del momento angolare in tutti i processi in cui non intervengono forze esterne sul sistema (a meno che non siano applicate sull’asse).

Notiamo che è un vettore in quanto la velocità angolare è riferita ad un asse orientato nello spazio lungo una direzione non definita a priori.

Considerazioni conclusive

Anche se la comprensione della struttura atomica è una recente vittoria della fisica, già da molti secoli i chimici avevano imparato a catalogarla ed a sfruttarne le proprietà. Intorno al 1870 D.L.Mayer e D.I.

(23)

Mendeleev trovarono, indipendentemente l'uno dall'altro, un sistema per catalogare le diverse specie atomiche ancora oggi molto usato, basato (a loro insaputa) sul numero degli elettroni atomici.

Oggi sappiamo che gli atomi sono composti da un nucleo molto piccolo (raggio ˜ 10-14 m) composto da neutroni e protoni, che costituisce la parte più massiva, circondato da una nuvola di elettroni che gli gira intorno fino ad una distanza di circa 10-10 m. Neutroni e protoni sono tenuti insieme, vincendo la repulsione elettrica tra le cariche positive, grazie alle interazioni forti, mentre gli elettroni rimangono legati all’atomo a causa dell’interazione elettromagnetica.

Ogni specie atomica ha un valore Z diverso dagli altri; questo non vale per il numero di massa. Infatti il numero di neutroni all’interno del nucleo non è lo stesso per tutti gli atomi di una specie; le diverse sottospecie legate al diverso valore del numero di neutroni sono detti isotopi.

Gli isotopi possono essere stabili o decadere, con tempi più o meno lunghi, in nuovi atomi fino ad arrivare ad una configurazione stabile ("decadimento radioattivo dei nuclei atomici").

Ad esempio, l’elemento 126C è un atomo di carbonio 12 con 6 neutroni, 6 protoni e 6 elettroni, mentre l’elemento 146C è un atomo di carbonio 14 con 8 neutroni, 6 protoni e 6 elettroni. Entrambi sono isotopi del carbonio (anche se diversi), ma il carbonio 12 è un isotopo stabile, mentre il carbonio 14 non lo è.

Introducendo il concetto di carica elettrica abbiamo visto che, strofinando con un panno di lana una barretta di ebanite, questa acquista elettroni. Ciò significa che alcuni atomi nella bachelite hanno più elettroni che protoni, mentre accade il contrario per alcuni atomi della lana. Gli atomi con un eccesso di elettroni rispetto ai protoni sono detti ioni negativi, quelli con un eccesso di protoni rispetto agli elettroni, ioni positivi.

(24)

Oggi sappiamo che le leggi che regolano la struttura dell’atomo sono quelle della meccanica quantistica e, almeno nel caso di pochi elementi costituenti (come per l’idrogeno 11H), abbiamo imparato ad eseguire calcoli accurati al fine di trovare le orbite più probabili percorse dagli elettroni nel loro moto o la posizione dei nuclei nei solidi.

Prima di risolvere definitivamente il problema della struttura degli atomi, i fisici del primo ventennio di questo secolo hanno compiuto uno straordinario lavoro per capire (spesso senza le necessarie conoscenze) come fosse formato l'atomo, aprendo la strada ai risultati della meccanica quantistica.

L'elettrone

Delle tre particelle che costituiscono gli atomi, l’elettrone è di gran lunga il più leggero ed il più piccolo, la sua massa è infatti: me = 9.1x10-31 kg ed il suo raggio è così piccolo che non si è ancora riusciti a misurarlo; per questo diciamo che è puntiforme. Sappiamo anche che è privo di struttura interna, a differenza del neutrone e del protone, cioè è una particella elementare in quanto non composta da altre più piccole.

Nell’uso comune, l’elettrone viene abbreviato con il simbolo e-.

La sua carica elettrica è negativa e si indica con: qelettrone= - e- = 1.6x10-19 C.

Si identifica come carica elementare (e) la carica dell’elettrone, e la carica di tutte le altre particelle viene riferita a questa.

Esiste una fondamentale legge della fisica: la carica elettrica di una particella è sempre un multiplo intero, segno a parte, della carica elementare.

La scoperta degli elettroni da parte di J.J.Thompson ha messo in evidenza, per la prima volta, l'esistenza delle particelle elementari, o, meglio, della natura non continua della materia.

Verso il 1858 si iniziano ad osservare strani fenomeni che si producono quando la corrente elettrica passa

(25)

attraverso un gas molto rarefatto contenuto in un tubo. In particolare, si evidenzia una radiazione emessa dal tubo contenente il gas rarefatto (raggi catodici). Oggi sappiamo che quella radiazione è composta di elettroni, ma a quel tempo non si sapeva neanche di cosa fosse composta la luce: nessuna possibilità poteva essere quindi scartata riguardo l'origine di questi raggi.

Negli anni successivi furono effettuati molti esperimenti per evidenziare proprietà distintive dei raggi catodici. L'inadeguatezza dei mezzi sperimentali, però, finì spesso per deviare la ricerca: diversi sperimentatori finirono, infatti, per ottenere risultati contraddittori.

I risultati di questi esperimenti fecero sì che gli studiosi si divisero tra chi interpretava i fenomeni osservati come emissione di particelle dal gas, chi invece come emissione di onde.

A risolvere le controversie sulla natura dei raggi catodici riuscì, nel 1897, J.J.Thomson che, a conclusione di una serie di esperimenti molto precisi, ne verificò la natura corpuscolare. A questo proposito scrisse: É impossibile non concludere che la radiazione catodica sia formata da cariche di elettricità negativa trasportate da particelle di materia....ci si trova dinnanzi ad un nuovo stato della materia....uno stato in cui tutta la materia è di un solo genere....e questa materia è la sostanza con la quale sono costituiti tutti gli elementi chimici.

Era la prima evidenza sperimentale degli elettroni che aprì la strada allo sviluppo della fisica atomica.

Il neutrone

Il neutrone è, insieme al protone, uno dei due costituenti dei nuclei atomici, di massa: mn=1.675x10-27 kg e con raggio: rn=1 fm, quindi molto più grande e pesante (circa 1839 volte) dell’elettrone.

Infatti negli atomi sono gli elettroni a girare intorno al nucleo composto anche di neutroni.

Comunemente il neutrone viene abbreviato con n e protoni e neutroni sono detti nucleoni.

La carica elettrica del neutrone è nulla:Qn=0

L’ ipotesi dell’esistenza del neutrone nel nucleo fu avanzata da Rutherford nel 1920 (tredici anni prima della sua scoperta), per superare le insormontabili difficoltà legate all’ipotesi protone-elettrone nei nuclei, anche se quella ipotizzata non era una particella nel senso proprio del termine.

Dopo la scoperta della struttura atomica da parte di Rutherford, i fisici si domandavano da cosa fosse formato il nucleo; infatti, sapevano solo che aveva carica elettrica positiva pari a quella degli elettroni

(26)

del protone (la massa degli elettroni è trascurabile rispetto a quella dei protoni), dove A è sempre più grande di Z (tranne che per l’idrogeno). Sulla base di questi dati fu ipotizzato che l’atomo fosse composto da A elettroni ed A protoni (così la carica elettrica degli atomi è nulla e la massa è A volte quella del protone); degli A elettroni solo Z ruotavano intorno al nucleo, gli altri e tutti i protoni, invece, erano confinati all’interno del nucleo (ipotesi protone-elettrone).

Ci si accorse presto, però, che sebbene la presenza degli elettroni nel nucleo spiegasse le misure di carica e di massa dell’atomo, altri risultati escludevano la possibilità che un elettrone si trovasse confinato all’interno del nucleo. Fu nel 1920 che Rutherford suggerì che un protone poteva, solo all’interno del nucleo, essere legato ad un elettrone e formare un'unica particella, il neutrone.

In questo modo Rutherford tentò di superare le insormontabili difficoltà presentate dall’ipotesi del confinamento degli elettroni nei nuclei. L’idea del neutrone offrì la soluzione del problema anche se, come fu presto chiaro, questo non poteva essere considerato come l’aggregazione di un elettrone e di un protone.

Nel 1930, Bothe e Becker osservarono l’emissione di radiazione neutra mentre bombardavano con particelle a su campioni di berilio (come Rutherford aveva fatto con l’oro). La possibile presenza del neutrone anche fuori dal nucleo negava che questo fosse un aggregato di elettrone e protone come ipotizzato da Rutherford. Dopo questa scoperta si sviluppò un'intensa ricerca per comprendere il tipo di radiazione.

Nel 1932 Chadwick, sulla base dei risultati di alcuni esperimenti da lui eseguiti su questa nuova radiazione, constatò che questa non poteva essere radiazione elettromagnetica. Fece altresì l’ipotesi che si trattasse di una nuova particella neutra. I risultati sperimentali furono spiegati supponendo che si trattasse di una particella neutra di massa circa uguale a quella del protone, il neutrone. Come riconoscimento per i risultati ottenuti con le sua ricerche, Chadwick fu insignito del premio Nobel per la fisica nel 1935.

Il protone

Il protone è, insieme al neutrone, uno dei due costituenti dei nuclei atomici di massa: mp=1.626x10-27 kg e con raggio: rp = 1 fm, quindi molto più grande e pesante (circa 1836 volte) dell’elettrone. Infatti negli atomi sono gli elettroni a girare intorno al nucleo composto di protoni.

Comunemente il protone viene abbreviato con p e protoni e neutroni sono detti nucleoni. La carica elettrica del protone è positiva.

(27)

Storicamente, la scoperta del protone non è legata ai risultati di un esperimento preciso, come invece è avvenuto per altre particelle.

Infatti, intorno al 1920, si accertò che non esisteva alcun componente nucleare di carica positiva più leggero dell’atomo d’idrogeno e che la massa atomica di tutti gli isotopi di un elemento erano circa pari ad A volte la massa dell’idrogeno (ricordiamo che la massa degli elettroni è trascurabile rispetto a quella dei protoni).

Si arrivò così alla conclusione che il costituente fondamentale dei nuclei atomici fosse il nucleo di idrogeno, che fu detto protone (dal greco "proton": "primo").

Notazione

Durante la descrizione del mondo microscopico ci troviamo spesso nella necessità di indicare lunghezze, pesi ed altre grandezze per avere un’idea di quanto piccole sono le cose di cui stiamo parlando.

Scrivere però che un nucleo atomico ha raggio di circa 0.0000000000000015 metri o che pesa circa 0.000000000000000000000000002 chilogrammi è molto brutto e costringe chi legge ad inutili conteggi di zeri. Per questa ragione si usa indicare queste quantità in modo diverso e più compatto: in particolare si ha, per il raggio nucleare 1.5·10-14 metri oppure 1.5E-14 metri, e per il peso 2.0 ·10-27 chilogrammi o 2.0E-27 chilogrammi. Come si leggono questi numeri?

Per ottenere la lunga sequenza di zeri bisogna spostare la virgola a sinistra di tanti posti quanto è il valore indicato come esponente di 10 o dopo la E. Vediamo un esempio:

Numero Numero (10?) Numero (EX) Commento

1(1.0) 1·100 (1.0·100) 1E0 (1.0E0) L'esponente è 0:

nessun cambiamento

0.1 1· 10-1 1E-1 L'esponente è 1:uno spostamento a sinistra 0.01 1· 10-2 1E-2 L'esponente è 2: due spostamenti a sinistra 0.001 1· 10-3 1E-3 L'esponente è 3: tre spostamenti a sinistra 0.0001 1·10-4 1E-4 L'esponente è 4:quattro spostamenti a sinistra Per semplificarci la vita abbreviamo anche metri con m e chilogrammi con Kg.

Spesso useremo due sottomultipli dei metri: l’Ångström (1Å=1E-10 m) ed il fermi (1f=1E-15 m), dimensioni tipiche dell’atomo il primo, del nucleo il secondo.

Interazioni tra particelle

(28)

Il concetto di interazione è probabilmente innato. Interazione è, ad esempio, quella tra due pianeti o quella che ci tiene sulla terra per effetto del campo gravitazionale. Sempre interazione è quella tra due cariche elettriche o tra due poli magnetici.

In natura esistono quattro interazioni fondamentali, che sono alla base degli scambi di forze tra le particelle e che sono responsabili della struttura dell’universo. Queste sono l’interazione forte, l’elettromagnetica, la debole e la gravitazionale. Prima di procedere ad introdurle brevemente sono necessarie alcune piccole premesse.

In primo luogo noi abbiamo trattato i campi elettrici e magnetici in modo distinto, ora invece questi concetti li troviamo unificati. Infatti questa unificazione, effettuata da Maxwell nella seconda metà del secolo scorso, è parte integrante della fisica moderna, che ha abbandonato i concetti di campo elettrico e magnetico come entità distinte. Più correttamente, infatti, avremmo dovuto parlare di campi elettrostatici e magnetostatici, in quanto non appena le cariche elettriche od i poli magnetici si muovono, i discorsi precedenti andrebbero modificati.

Nella teoria relativistica dei campi quantizzati, che è quella che descrive la creazione e l’interazione delle particelle non sono possibili interazioni a distanza (come, ad esempio, nel campo gravitazionale), le interazioni avvengono per scambio di una o più particelle, i bosoni intermedi o "quanti di energia". Queste particelle, in quanto trasportatrici dell’energia dell’interazione, vengono emesse e riassorbite dalle particelle interagenti.

Il più famoso bosone intermedio è, probabilmente, il fotone, il quanto del campo elettromagnetico.

Descrivendo un’interazione è importante definire due quantità: il range o raggio d' azione e l’intensità.

Il range di un’interazione è la distanza massima cui questa è influente. Ad esempio l’interazione gravitazionale ha un range infinito; per questa caratteristica il sole esercita la sua forza anche su pianeti lontanissimi. Le interazioni forti, invece, hanno range pari a circa le dimensioni del nucleo: un adrone che passi oltre questa distanza subirà un’interazione con il nucleo trascurabile.

L’intensità delle interazioni fornisce i rapporti di forza tra le diverse interazioni.

Introduciamo ora brevemente le caratteristiche salienti delle quattro interazioni fondamentali in ordine decrescente di intensità relativa:

Interazione forte: è responsabile della struttura degli adroni e dei nuclei, permettendo a questi di rimanere legati, vincendo la repulsione coulombiana tra i protoni. Si manifesta a livello

(29)

fondamentale tra quarks e gluoni; questi ultimi sono anche i bosoni intermedi delle interazioni.

Ha intensità relativa pari ad uno, essendo la più intensa delle quattro, e range di circa 10-15m.

Interazione elettromagnetica: è responsabile della struttura atomica e molecolare, delle reazioni chimiche e di tutte le forze (escluse quelle gravitazionali) che osserviamo nel nostro mondo (come, ad esmpio, le forze magnetiche). Si manifesta tra tutte le particelle elettricamente cariche ed ha come bosone intermedio il fotone. Ha raggio d’azione infinito ed intensità relativa di circa 10-2.

Interazione debole: è responsabile dei decadimenti delle particelle e dei decadimenti ß dei nuclei. Si manifesta tra tutte le particelle, leptoni e quarks. A differenza dei leptoni (e quindi

dell’elettrone) che sono particelle elementari, gli adroni (neutroni e protoni) possiedono una struttura interna, o meglio sono composti di particelle ancora più piccole, i quarks. Fino ad oggi sono stati osservati sei quarks e le relative sei antiparticelle, gli antiquarks e sembra molto improbabile l’esistenza di altri. Il nome quark è l’abbreviazione di qu(estion) (m)ark, "punto interrogativo", termine tratto, senza un preciso significato, da un passo del romanzo di J.Joyce

"Finnigans Wake", del 1939.

Le interazioni deboli hanno raggio d’azione di circa 10-18m ed intensità relativa di circa 10-5. Negli anni settanta le interazioni deboli ed elettromagnetiche sono state unificate nelle interazioni elettrodeboli, ad opera di S.Glashow, A.Salam e S.Weimberg (insigniti del premio Nobel per la fisica nel 1979) che realizzarono, dopo l’unificazione delle interazioni elettriche e magnetiche eseguita da Maxwell, un ulteriore passo avanti verso l’unificazione di tutte le interazioni fondamentali.

Interazione gravitazionale: è responsabile delle forze di gravità. Si manifesta tra tutte le particelle ed ha come bosone intermedio il gravitone, l'unico a non essere stato ancora osservato.

Ha raggio d’azione infinito ed intensità relativa di circa 10-39.

Da questa breve descrizione si vede che la forza gravitazionale è incredibilmente meno intensa delle altre. Questo però non deve stupirci, infatti per poterla apprezzare si deve essere molto più lontano delle distanze nucleari (così le interazioni deboli e forti sono nulle) ed oltre gli elettroni più esterni dell' atomo, così da annullare anche le forze elettromagnetiche. Siccome la massa delle particelle è molto piccola, per potere apprezzare bene l’interazione gravitazionale bisogna unire miliardi di atomi: così appare il mondo che ci circonda, dominato dalla forza gravitazionale.

Riferimenti

Documenti correlati

La quota annuale di iscrizione per ogni Master o Corso – precisato nei dati di sintesi di seguito specificati – va pagata in due rate di pari importo, con l’aggiunta della cifra

➢ se fai la doccia invece del bagno consumi 4 volte meno energia e molta meno acqua: per una doccia di 5 minuti sono necessari fino a 60 litri di acqua, mentre per un bagno 150!!!!.

Forse la storia dello specchio, che era davvero mol- to inverosimile, era soltanto una bugia, una di quelle bugie nobili, mescolate con qualche pizzico di verità, che alcuni adulti

Diversi campioni sono stati prelevati per via endoscopica per essere sottoposti ad analisi AMS (Accelerator Mass Spectrometry) per la datazione al radiocarbonio,

[r]

Le pelofile tolleranti (7,18%) sono rappresentate quasi esclusivamente da Corbula (Varicorbula) gibba con 6,28%; Eglisia spirata e Nassarius conoidalis hanno

reparto Chirurgia-Ortopedia, si ottenga quando il confronto è fatto considerando valori di PCT da soggetti con colture batteriche positive uniti a quelle con colture

Ci sono misure basate sulla definizione di quote massime prelevabili da un determinato stock e sulla regolamentazione degli attrezzi da pesca (regolamentazioni