• Non ci sono risultati.

La Geofisica nei Beni Culturali: dai metodi di indagine del sottosuolo all'attivita diagnostica applicata agli apparati architettonici

N/A
N/A
Protected

Academic year: 2021

Condividi "La Geofisica nei Beni Culturali: dai metodi di indagine del sottosuolo all'attivita diagnostica applicata agli apparati architettonici"

Copied!
52
0
0

Testo completo

(1)

CAPITOLO 2

Parlando d’ora in avanti di strutture architettoniche, possiamo affermare che i processi conoscitivi devono essere finalizzati alla ridefinizione del “ ciclo vitale” dell’edificio esistente. Ne deriva, quindi, l’importanza dell’integrazione tra conoscenza e progetto, rivolta a reinserire l’opera in valido processo di uso e manutenzione.

Interrogare il manufatto in tutte le sue parti costituisce l’aspetto primario che consente di acquisire le informazioni fondamentali per la redazione di un progetto, in quanto conoscere non vuol dire cosa conservare, ma come conservare.

Questa fase conoscitiva possiamo identificarla con il termine di diagnostica, che rappresenta l’insieme delle tecniche e dei metodi volti ad analizzare particolari fenomeni anomali relativi all’oggetto esaminato, al fine di individuare le cause e stabilire validi procedimenti “ terapeutici”.

Questa fase non va intesa unicamente come quell’insieme di tecniche di tipo strumentale che consentono di ridurre l’incertezza interpretativa di particolari fenomeni, bensì un’attività molto più complessa che va dallo studio dell’anamnesi sino all’esame diretto dell’oggetto, in cui l’apporto strumentale costituisce una delle parti portanti del processo diagnostico.

Nell’ambito architettonico, soggetto di questo capitolo, la diagnostica indica l’insieme delle teorie, metodologie e tecniche strumentali, finalizzate a fornire una conoscenza approfondita del manufatto. In tal caso essa deve essere identificata con tutte le fasi del processo conoscitivo, che vanno dalla ricerca storico-artistica, al rilievo geometrico, agli esami geognostici, alle analisi ambientali, allo studio delle strutture e dei materiali ed infine alle applicazioni sperimentali volte ad indagare in “non-visibile”.

(2)

Di conseguenza possiamo definire come “progetto diagnostico” quel complesso di operazioni che hanno lo scopo di apportare un elevato grado di conoscenza di un manufatto mediante il supporto di un’attività multidisciplinare.

Le tecniche diagnostiche, invece, si identificano con i mezzi e i metodi atti alla profonda analisi del costruito ed, infine, le tecniche sperimentali rappresentano l’insieme delle strumentazioni sia applicabili in sito che presenti in laboratorio, che concorrono alla conoscenza ambientale e degli apparati edilizi.

Nel presente capitolo sarà posto l’accento su quest’ultima parte dell’attività diagnostica, prendendo in esame alcune delle metodologie geofisiche adatte ad indagare i nuclei strutturali degli apparati murari, tecniche che hanno la capacità di fornire agli addetti ai lavori un quadro sullo stato di salute ei grado di degrado di un particolare elemento architettonico.

La metodologia sismica sarà quella maggiormente sviluppata e ampliata, ma saranno ugualmente messe in evidenza le possibilità fornite dalle prospezioni georadar e geoelettriche, grazie allo studio di due indagini sul campo, una condotta nel duomo di Orvieto e l’altra, in particolare, compiuta nel Battistero di San Giovanni in Firenze.

Infine saranno ampiamente approfondite le tecniche tomografiche utilizzate, in principal modo, come efficace alleato delle metodologie sismiche, grazie a cui l’operatore ha la facoltà, tramite il propagarsi delle onde sonore, di investigare gli strati più interni degli apparati murari e di quantificarne l’eventuale stato di fessurazione e la geometria interna.

(3)

La metodologia sismica nelle prospezioni architettoniche

Nell’ambito dello studio sugli alzati, l’applicazione di tali tecniche ha lo scopo di indagare o verificare lo stato di aggregazione di un dato materiale oppure valutare l’efficacia degli interventi di consolidamento per iniezione, mediante, come abbiamo enunciato nel capitolo precedente, l’analisi delle caratteristiche di propagazione delle onde elastiche con cui vengono sollecitate le strutture oggetto di studio.

Solo a partire dalla metà del XX secolo tali metodi sperimentali hanno trovato impieghi interessanti nel controllo degli apparati murari.

Attraverso l’utilizzo di un martello strumentato di emissione di onde elastiche si crea un’onda sonica, di cui si registra il tempo di percorrenza nel mezzo oggetto di studio e di conseguenza se ne ricava la relativa velocità di propagazione.

Si tratta di onde a bassa frequenza ed ampia lunghezza d’onda che consentono sia l’attraversamento di materiali non particolarmente omogenei o compatti, sia di individuare le eventuali superfici di discontinuità.

In tal modo è possibile evidenziare fessurazioni o fratturazioni nella struttura, definire la quota di imposta delle fondazioni ed infine la presenza di riempimento “a sacco” nelle murature.

Tale tecnica non fornisce valori interessanti su materiali omogenei e compatti, nonché in presenza di alta percentuale di umidità le misure sono molto alterate.

Da un punto di vista operativo il metodo consiste nelle misura del tempo impiegato da un impulso meccanico di frequenza udibile, ad attraversare un determinato percorso all’interno dell’oggetto da indagare.

(4)

a) Carotaggio, che consente di rilevare le caratteristiche di propagazione delle onde elastiche all’interno di un dato materiale lungo percorsi definiti. Si inserisce una particolare sonda1 che provoca un impulso che si propaga nel mezzo in esame e viene recepito sotto forma di un treno d’onda di tre diversi tipi:

1. Longitudinali o di compressione ( P), che si verificano quando gli elementi da analizzare oscillano secondo la direzione di propagazione delle onde. Risultano veloci e raggiungono per prime il ricevitore, permettendo di leggere con buona precisione la misura del tempo impiegato a percorrere la distanza da trasmettitore a ricevitore.

2. Trasversali o di taglio ( S), che si propagano ortogonalmente alla direzione delle onde stesse, caso che avviene in elementi deformati per effetti di sforzi di taglio. Raggiungono il ricevitore quando non si è ancora esaurito il treno d’onde P, comportando una difficile lettura del tempo impiegato per percorrere la distanza.

3. Superficiali (St), le quali interessano solo strati superficiali e le cui applicazioni sono molto limitate per la caratteristica di avere una velocità molto bassa rispetto alle altre due.

In particolare questa metodologia fa riferimento alla lettura delle onde P, si effettuano dei piccoli fori in cui viene posta la sonda ed, essendo nota la distanza tra l’elemento trasmettente e quello ricevente, è possibile risalire alla velocità delle onde elastiche. I risultati vengono immessi in diagrammi di velocità ( fig. a ) delle onde longitudinali in funzione della profondità e del modulo elastico dinamico2 del materiale.

I segnali sono registrati sotto forma di Diagrafie soniche ( fig. a), un insieme di strisce bianche e nere, regolari se l’oggetto di studio presenta

1 Essa è costituita da una parte trasmettente e da una ricevente, che sono posizionate ad una distanza tra loro

di circa 1 metro

2 Si basa sulla misura della velocità di propagazione delle onde elastiche di volume nel materiale. Differisce

dal modulo elastico statico. I moduli elastici sono misurati usando tre differenti tecniche standard che coprono nove ordini di grandezza in frequenza: 1) il test di compressione ‘statica’ uniassiale (~ 10-3 Hz); 2)

oscillazioni forzate a frequenze sismiche tramite un dispositivo Dual Cantilever (da 10-2 a 200 Hz); 3) la

(5)

caratteristiche costanti, altrimenti avremo inflessioni nelle strisce, che più saranno confuse più indicheranno un elevato degrado materico.

3

Il metodo trova valide applicazioni al fine di investigare le caratteristiche di una muratura che presenta spessori elevati, in cui è impossibile applicare le altre prove sismiche.

b) Cross-Hole, che riguarda la misura di propagazione delle velocità delle onde elastiche longitudinali, calcolata tra punti posti a distanza variabile di qualche metro o decina di metri, fornendo informazioni complessive sul manufatto indagato.

La prova ( fig. b ) consiste nel misurare i tempi di propagazione di onde acustiche all’interno di percorsi verticali o perforazioni aventi la stessa

(6)

profondità in cui in uno è ubicata la sorgente di trasmissione e in una delle rimanenti quella ricevente.

4

Produce ottimi risultati nelle verifica della profondità delle fondazioni di tipo continuo5 ed i risultati vengono tradotti in diagrammi della velocità in funzione della profondità valutata.

c) Misure dirette ed indirette, utilizzate al fine di determinare le caratteristiche elastiche e lo stato di integrità del mezzo indagato.

L’impulso meccanico che funge da “start” viene impartito tramite un martello in un punto della muratura e viene ricevuto da sensori accelerometrici di opportuna sensibilità.

I risultati consistono in una serie di valori di velocità dell’impulso nel materiale, legati allo stato complessivo di aggregazione dei vari componenti del soggetto architettonico, fornendo un’affidabile misura qualitativa della zona studiata.

4 Schema di funzionamento dell’apparecchiatura per i rilevamenti di tipo Cross-hole

5 I punti di battitura e di ricezione sono collocati su un reticolo preventivamente predisposto che copre

(7)

Dall’analisi della velocità di dette onde è possibile ricavare il valore del modulo elastico degli elementi formanti l’alzato, il quale si discosta dai valori precedentemente calcolati con metodi di tipo statico. Tale differenza si accentua sempre di più man mano che si passa da un materiale omogeneo ad uno disomogeneo.

Questo tipo di applicazioni possono essere eseguite in due modi, o per trasparenza ( misure dirette ), o per superficie ( misure indirette ).

La prima si attua posizionando i punti di rilevamento sulle due superfici parallele della muratura.

La seconda tecnica, invece, si ha quando i punti di battuta e di ricezione sono posti sulla stessa superficie muraria.

Tale metodologia risulta molto utile per indagare la validità dello stato di un apparato murario, restituendo indicazioni sulle caratteristiche elastiche e sullo stato di integrità del manufatto preso in esame. Negli ultimi anni ha trovato un vasto impiego anche nel campo delle verifiche degli interventi di consolidamento edilizio, caso in cui è necessario effettuare le misurazioni prima e dopo l’operazione di recupero.

Inoltre la suddetta tecnica ha prodotto validi risultati anche nello studio delle opere “a sacco”, anche se l’eterogeneità determinata da questo tipo costruttivo necessita di ulteriori indagini di verifica.

In conclusione, una volta che i sensori avranno ricevuti gli impulsi, che saranno inviati ad un registratore, la fase successiva consisterà nell’elaborazione dei dati raccolti mediante opportuno software.

Si ricaveranno tabelle in cui vengono riportati i valori della velocità sonica indicativa della condizione della struttura muraria, soprattutto se riferita al rapporto legante/mattoni.

In altra ipotesi questi dati possono essere diversamente elaborati tramite l’utilizzo di tecniche tomografiche, che attraverso la suddivisione del mezzo materiale

(8)

oggetto di studio in un numero prestabilito di celle, permette di stabilire la velocità di propagazione dell’impulso in ognuna di dette celle.

Questa particolare metodologia sarà trattata in maniera più esaustiva nel paragrafo successivo.

(9)

La Tomografia Sismica applicata agli apparati murari

Con il termine “tomografia” si intende una tecnica usata per rappresentare le sezioni di un solido secondo un determinato piano. Il vocabolo deriva dal greco : “tome” che significa taglio.

Data la continua esigenza di aumentare la risoluzione nella ricostruzione dei modelli geofisici si sono sviluppate tecniche con elaborazione tomografica che costituiscono un metodo efficace di rilievo non distruttivo nell’indagini di ingegneria, di architettura ed anche di archeologia.

In geofisica si sono sviluppate soprattutto le tomografie sismiche. Si utilizzano anche elaborazioni tomografiche geoelettriche e georadar.

Evoluzione della tomografia sismica

I primi lavori di tomografia geofisica sono stati eseguiti in campo minerario6 in seguito al raffinamento di procedure di calcolo mediante algoritmi di ricostruzione algebrici ART7.

Questi primi esperimenti riguardavano studi in campo petrolifero, mediante rilievi sismici eseguiti con disposizione delle sorgenti sismiche e dei ricevitori in fori paralleli.

Tali metodologie avevano portato alla conclusione che il metodo tomografico, in favorevole situazione, con alto numero di misure e per forti contrasti di velocità tra la copertura ed il giacimento di idrocarburi, fosse in grado di evidenziare i principali eventi strutturali.

6 Bois, La Porte 1972 7 Gordon 1970

(10)

Tra i primi esempi nel campo dell’ingegneria civile, la validità dei metodi tomografici era stata sperimentata da La Porte in sede di progetto della costruzione di una centrale idroelettrica in sotterraneo.

Il rilievo eseguito, con ubicazione di sorgenti e ricevitori in tre gallerie di esplorazione, aveva consentito di indagare su una sezione della formazione rocciosa di circa 120 per 159 metri. I risultati della elaborazione tomografica evidenziavano la distinzione qualitativa tra zone con differenti caratteristiche geomeccaniche.

Successive sperimentazioni pressiometriche in foro e sismiche a rifrazione avevano confermato la buona attendibilità della elaborazione tomografica.

Negli anni ottanta c’è stata una continua ricerca di affinamento della metodologia di acquisizione dei dati per migliorare il dettaglio.

Ad esempio nel 1983 Won ha presentato un raffinato sistema di acquisizione di emissione di onde ad alta frequenza (1-6 kHz) per rilievi sismici in foro, con distanza tra i fori dell’ordine di qualche centinaia di metri e nello stesso periodo si sono svolte ricerche sull’affinamento delle procedure di calcolo che hanno consentito di ottimizzare i metodi di inversione in funzione delle caratteristiche del rilievo.

Nel 1987 Inazaki e Takahashi, in un rilievo tomografico in un sito minerario di formazione granitica in Giappone, hanno elaborato un procedimento iterativo di tracciamento dei raggi sismici mediante il confronto con i dati derivanti dal rilievo geomeccanico.

L’immagine tomografica ha confermato buona rispondenza con le ipotesi geotecniche, ad ulteriore testimonianza della validità del metodo per la caratterizzazione meccanica delle formazioni rocciose e per la localizzazione delle maggiori fratture.

Si sono poi introdotti nella procedura di calcolo dei parametri detti di regolarizzazione8 con alcuni esempi di elaborazione tomografica su modelli sintetici.

(11)

Oltre a quelli citati, negli ultimi dieci anni, si sono avuti innumerevoli applicazioni di tomografie sismiche per svariati tipi di problematiche e su scale molto differenti, fra cui la loro valida applicazione nelle indagini archeologiche e architettoniche, che hanno consentito un ulteriore passo in avanti nella precisione e nella completezza dello studio di siti e monumenti di elevato interesse culturale.

Definizione del problema tomografico

Il termine tomografia indica la rappresentazione ottenuta sezionando virtualmente un solido secondo determinati piani, comunque orientati. Questa sezione viene analizzata in modo da localizzare l’eventuale presenza di anomalie del parametro fisico in esame (nelle tomografie sismiche la velocità di propagazione delle onde elastiche).

L’elaborazione tomografica viene ricondotta a due principali fasi:

1. Problema diretto, in cui si ha una valutazione del percorso dei raggi sismici attraverso una determinata sezione. Dal punto di vista teorico non presenta particolari difficoltà, anche se la parte numerica risulta laboriosa. Le tecniche tomografiche ad onde dirette vengono utilizzate valutando il solo tempo di percorso dei raggi stessi, dalla sorgente al ricevitore.

2. Problema inverso, il quale indica una distribuzione delle velocità nella sezione dato il percorso dei raggi e la determinazione della sezione sismica data una serie di misure sperimentali, presentando diversi gradi di libertà.

(12)

Per una corretta elaborazione sono necessari tre parametri:

a. Il problema sia ben condizionato, cioè a piccole variazioni dei valori sperimentali corrispondono piccole variazioni delle soluzioni.

b. L’algoritmo sia stabile in modo da garantire che le variazioni della soluzione in seguito a piccole modifiche dei dati sperimentali siano dovute al solo condizionamento del problema e non alla procedura di calcolo.

c. L’implementazione numerica sia efficiente, ottimizzandola sia per il consumo di tempo macchina, sia per l’occupazione di memoria dei dati sperimentali.

Le misure sperimentali, inoltre, sono affette da inaccuratezze solo in parte rimediabili e l’attendibilità della soluzione può esser garantita solo se le inaccuratezze sperimentali non vengono amplificate dal procedimento di calcolo.

Il procedimento di inversione si presenta come risoluzione di un problema con un numero di equazioni (numero di misure sperimentali) superiore o fortemente superiore al numero di incognite (distribuzione del parametro).

La soluzione del problema è stata pertanto definita mediante procedimenti iterativi9 ai minimi quadrati, con algoritmi di ricostruzione algebrica e con il metodo del Gradiente coniugato10.

9 Rappresentano una sequenza di azioni che viene ripetuta, finché è necessaria la ripetizione stessa (un

ciclo). Tutte le operazioni che richiedono la ripetizione di una stessa azione più volte, ma in numero finito sono dette procedure iterative. Ad ogni iterazione, l'esecutore svolge un compito. Al termine verifica se tale compito vada ripetuto mediante una condizione di ripetizione.

10 Tale metodo presenta velocità di convergenza molto alte e questo può essere la causa di un

comportamento irregolare nella convergenza del metodo. Infatti lo step può essere così grande che faccia sì che sussistano effetti di cancellazione, che producono una soluzione meno accurata di quella suggerita dal valore del residuo. Il metodo tende a divergere se il valore iniziale è vicino alla soluzione.

(13)

Impostazione e procedimento

Con la tecnica della tomografia sismica si cerca di ricostruire la distribuzione delle velocità nella regione di spazio interessata dalla sperimentazione.

Il metodo classico consiste in una procedura tipo “cross-hole” con in uno dei due fori l’energizzazione e nell’altro i trasduttori e la regione da indagare viene suddivisa in un grigliato di celle, le cui dimensioni sono determinate in base alle condizioni sperimentali, alla disposizione ed al numero delle sorgenti e dei ricevitori.

La procedura consiste nel considerare tempo di percorso di un generico raggio sismico R come il risultato di un integrale di linea del reciproco della velocità (lentezza x) lungo un determinato percorso, e nel caso di rappresentazione bidimensionali si definisce come :

T dR V x y X x y dR R x y

 ( , ) ( , ) ( , )

dove il percorso del raggio sismico R è indicato in metri e la lentezza X in ( / )m s 1ed inoltre il tempo di percorso è funzione non lineare della velocità,

poiché la geometria del raggio dipende proprio dalla distribuzione della velocità della sezione indagata.

Nei procedimenti di risoluzione tomografica è importante conoscere l’attendibilità del modello finale, ed in pratica si definisce una stima dell’errore associato ai parametri del modello ottenuto.

Nelle applicazioni reali, invece, occorre tenere conto che le misure sperimentali, quali i tempi di primo arrivo della perturbazione sismica ai punti di ricezione, sono generalmente soggette ad errori sperimentali ed alla precisione delle misure.

(14)

Per ciascuna coppia di punti energizzazione e ricezione si determina l’equazione lineare che correla la perturbazione di velocità con i tempi sperimentali osservati.

Nella maggior parte dei problemi sismici le limitazioni sulle posizioni delle sorgenti e dei ricevitori condizionano l’angolo di propagazione del raggio sismico nel volume interessato così che per ciascun esperimento in funzione del campione a disposizione e della geometria sorgente-ricevitori devono essere ottimizzate le applicazioni sismiche, in quanto al ricevitore arriva un “raggio somma” rappresentato dall’integrale degli effetti delle singole celle lungo il tragitto.

Le misure sperimentali per l’elaborazione tomografica per tempo di percorso si riconducono essenzialmente alla determinazione per ciascuna coppia trasmettente-ricevente del tempo di primo arrivo della perturbazione sismica, la quale si fa in base ad una registrazione sismica individuando la posizione di prima escursione rispetto alla quiete o al rumore sismico di fondo.

L’apparecchiatura utilizzata è composta da un sismografo a 12 o più canali in grado di memorizzare il segnale sismico.

Uno degli aspetti fondamentali nella qualità dell’acquisizione dei dati è il campionamento, cioè vengono registrati un numero esauriente di valori nella unità di tempo con cui il segnale viene trasformato in formato numerico dal convertitore analogico digitale.

Un altro parametro essenziale e la risoluzione in ampiezza, che indica la modalità di scansione dell’ampiezza della grandezza fisica misurata.

Nelle elaborazioni tomografiche per raggi sismici si tende a procedere con finestre temporali quanto più brevi possibili, eventualmente tralasciando nell’acquisizione la “coda” del segnale.

(15)

La registrazione dei valori può avvenire secondo due modalità:

1. Controllo del rumore di fondo con acquisizione in continuo

2. Acquisizione tramite starter da tastiera oppure per mezzo di superamento di soglia11 collegato alla sorgente di energizzazione.

Caratteristica importante della strumentazione sismica è l’opportunità di procedere ad acquisizioni mediante la somma di più segnali utili, detta stacking, che permette di operare anche in condizioni di pessimo rapporto segnale rumore.

I dati registrati possono essere trasferiti ad un elaboratore elettronico tramite interfaccia seriale12.

La determinazione dei tempi di primo arrivo delle onde P costituisce il risultato sperimentale necessario alle procedure di interpretazione, la cui lettura può avvenire direttamente sui sismogrammi stampati , o mediante software specifici con cui è possibile amplificare i segnali.

In alcuni casi, però, l’acquisizione, in particolari condizioni di “rumore” di fondo, non consente una esatta distinzione tra segnale e disturbo, perciò si può procedere ad opportuni filtraggi, sia analogicamente in ingresso, sia successivamente per mezzo di filtri digitali.

Le inaccuratezze sperimentali verranno considerate come perturbazione del vettore dei tempi di percorso.

11 In questo caso si parla di Trigger esterno

(16)

Inversione tomografica

Si riconduce la procedura di calcolo alla risoluzione di sistemi di equazioni lineari, con particolare attenzione al condizionamento del problema tomografico ed alla propagazione delle inaccuratezze sperimentali sulla soluzione.

Si utilizzeranno procedure di soluzione per mezzo di algoritmi particolarmente stabili come i metodi algebrici ed i metodi del gradiente coniugato, introducendo poi il concetto di regolarizzazione del sistema e definendo i parametri di controllo statistico della soluzione.

Nei sistemi lineari per le applicazioni tomografiche si considera il sistema di equazioni lineari :

A x  e t Rtm

Considerando il contesto sismico tomografico per raggi diretti, il sistema assume il seguente significato :

- “A” è la matrice (ARn m ) i cui elementi Aij rappresentano le lunghezze dei raggi i-esimi nelle celle j-esime ;

- “x” è il vettore le cui coordinate xj indicano le lentezze13 nelle celle j; - “t” è il vettore che rappresenta i tempi sperimentali dei raggi;

- “m” indica il numero di raggi; - “n” rappresenta il numero di celle

La soluzione del sistema esiste ed è unica solo se la matrice “A” è quadrata e non singolare, ovvero se A  0, avendo così l’equazione xA1t.

(17)

I sistemi reali utilizzati per le elaborazioni tomografiche possono presentare questo tipo di caratteristiche:

1. “A” è sparsa, cioè solo pochi elementi sono nulli.

2. “A” è sovra determinata in quanto m >> n, ovvero il numero di raggi è molto superiore a quello delle celle.

3. “A” è sotto determinata in quanto A < n.

4. “A” è inconsistente poiché non esiste alcun vettore x che soddisfi esattamente il sistema.

Quindi si ricorre a metodi risolutivi di tipo numerico diretti o iterativi:

- I metodi diretti forniscono l’esatta soluzione del sistema in numero finito di passi14. Risultano, però, particolarmente frequenti sistemi con matrici “A” che presentano valori non nulli per la maggioranza degli elementi. Questa metodica, invece, presenta degli inconvenienti quando si è in presenza di valori numerici dove non è possibile evitare l’errore di arrotondamento e nel caso in cui la matrice “A” presenta molti elementi con valore nullo.

- I metodi iterativi, invece, risultano di conveniente utilizzo in quanto operano sempre e soltanto con gli elementi della matrice iniziale. Attraverso tale approccio vengono generate una successione infinita di vettori che convergono alla soluzione cercata e non alterando “A”, è sufficiente memorizzare i suoi elementi non nulli. I metodi iterativi consentono di arrestare il procedimento non appena viene raggiunta la precisione richiesta.

(18)

Ricordiamo che tale procedimento risulta efficiente solo se permette di ottenere la soluzione con la precisione desiderata, in un numero finito di casi.

Condizionamento del problema

Per formulare correttamente il problema tomografico è necessario definire il condizionamento, il quale risulta valutabile a priori data la geometria dell’immagine, del grigliato , la disposizione ed il numero delle misure del rilievo sismico.

Con il condizionamento del problema si può stimare in che modo eventuali inaccuratezze nella valutazione dei tempi sperimentali si ripercuotono sulla soluzione del sistema.

La determinazione del tipo di condizione esula dagli errori di arrotondamento delle operazioni della macchina e del procedimento di calcolo ed esso è proprio del problema numerico.

Un problema si dice ben condizionato quando a piccole perturbazioni dei dati sperimentali corrispondono piccole perturbazioni della soluzione.

Nel caso di problema ben condizionato ed algoritmo stabile gli errori relativi introdotti nei dati sperimentali e nelle operazioni di macchine non si ripercuotono negativamente sul risultato.

Una delle tecniche utilizzate è la Back-projection15 sviluppata per le prime immagini del corpo umano nelle applicazioni mediche della tomografia. Questo è un algoritmo con cui si determinano le soluzioni calcolando le lentezza delle

(19)

singole celle e richiede un limitato tempo di calcolo, non essendo né iterativo, né sensibile alla presenza di “rumore” dei dati.

Regolarizzazione e potere risolutivo del sistema

Nel caso di sistemi fortemente mal condizionati, occorre ricordare che piccole perturbazioni del termine noto possono portare a notevoli indeterminazioni nella soluzione del sistema.

La matrice normale può risultare singolare ed i procedimenti di raffinamento iterativo della soluzione convergono in maniera molto lenta.

Per evitare tale inconveniente ci sono due strade:

- Risolvere il sistema introducendo una matrice dei coefficienti opportunamente modificata.

- Regolarizzare l’algoritmo di inversione mediante parametri di smorzamento.

E’ quest’ultima la procedura più comunemente utilizzata nella risoluzione del problema tomografico.

Algoritmi di ricostruzione algebrica

Le tecniche algebriche di ricostruzione tomografiche sono procedimenti di tipo iterativo e si possono considerare disomogeneità laterali e verticali. Questi algoritmi di tipo algebrico possono riprodurre soluzioni fisiche con buona approssimazione e tempi ridotti di calcolo, con un qualsiasi sistema di equazioni e numero di celle.

(20)

Tra i diversi algoritmi che si possono prendere in considerazione, l’ART16 è il più semplice e più facilmente utilizzabile, di cui possiamo definire, qui di seguito, i passi principali della sua procedura di elaborazione.

I dati raccolti comprendono i riferimenti delle coordinate delle sorgenti e dei ricevitori ed il tempo di arrivo delle onde sismiche.

Il tempo di primo arrivo di ciascun raggio è dovuto al contributo di ciascuna cella attraversata dal raggio stesso ; il tempo viene determinato dalla lentezza (x) moltiplicata per la distanza percorsa in ogni singola cella :

t

k

x r s

r k

( , )

,

t kk(  1,2,..., )N è il vettore dei tempi sperimentali misurati per tutti gli N raggi,

mentre x rappresenta le lentezze, perciò di conseguenza avremo:

t

k Ki

x

i I i

1

dove, “δKi” è la lunghezza del raggio K nella cella “i” ,“I” è il numero totale di celle intersecate dal raggio k ed “xi” è la lentezza della cella “i”.

Tale algoritmo opera iterativamente su un solo raggio alla volta; si parte da una soluzione iniziale di lentezza17 e per ciascun raggio si determina la seguente equazione:

t

kn ki

x

i J i n

1

dove con si indica la stima della lentezza alla ennesima iterazione. Un singolo ciclo iterativo include l’analisi di tutti i raggi.

16 Algebraic Recostruction Tecnique

(21)

Infine occorrerà rendere minimo l’errore residuo esistente fra i tempi sperimentali ed i tempi calcolati e tale correzione sta alla base della risoluzione mediante algoritmi algebrici, la quale viene applicata a ciascuna cella attraversata dal raggio K-esimo.

Il metodo del Gradiente coniugato, invece, trova applicazione nel caso di matrice sparsa18 dei coefficienti.

La matrice deve essere simmetrica19 e definita semipositiva20, il rango21 della matrice occorre che sia uguale al numero delle celle e la soluzione ai minimi quadrati esista e sia unica.

Gli algoritmi basati sul metodo del gradiente coniugato consentono di sfruttare efficacemente le caratteristiche di sparsità della matrice dei coefficienti del problema tomografico.

Criteri di convergenza

L’ultimo passo necessario sarà quello di stabilire criteri matematici per definire il termine della procedura iterativa di calcolo, poiché la soluzione del sistema non può essere esattamente determinata.

18 Una matrice si definisce sparsa quando i suoi valori sono quasi tutti pari a zero. Concettualmente, la

sparsità si collega ai sistemi accoppiati. Si consideri una serie di palline in cui ognuna di esse è collegata alla successiva tramite delle molle; questo è un sistema sparso. L’altra classe di matrici individuabili sono definite matrici piene.

19 Una matrice è detta simmetrica nel caso in cui essa risulti quadrata e con la proprietà di essere la trasposta di

se stessa. Per trasposta si deve intendere come una matrice in cui le colonne diventano righe e le righe diventano colonne.

20 Una matrice si definisce semipositiva se tutti i suoi elementi sono nonnegativi ma almeno un elemento è

positivo.

(22)

I principali criteri normalmente impiegati nella procedura di calcolo sono basati sulla valutazione dei parametri di discrepanza e varianza:

Discrepanza D R t t k j k j R j ( ) ( ( ) ( ))

1 1 0 2 R : numero di raggi n : numero di iterazioni

t(k) : tempo calcolato alla k-esima iterazione (s) t(0) : tempo sperimentale (s)

j : indice dei raggi

Varianza V C x x k i k i c ( ) ( ( ) )

1 1 2 c : numero di celle i : indice delle celle

x(k) : lentezza alla k-esima iterazione

x : lentezza media della sezione indagata.

Nella risoluzione del problema tomografico il parametro della discrepanza decresce e tende asintoticamente ad un valore non nullo e la varianza a sua volta cresce con il numero di iterazione.

Non è possibile verificare il criterio ottimale di convergenza a seconda dell’algoritmo utilizzato. Nel corso degli studi fatti si interrompe il processo iterativo in funzione di un valore di discrepanza prestabilita, correlata con il livello di errore dei dati sperimentali.

Dopo questo quadro tecnico della metodologia tomografica, saranno forniti esempi in cui è stata abilmente applicata questa metodica investigativa.

(23)

Analisi tomografiche svolte sulle colonne del Duomo di

Orvieto

Il Duomo di Orvieto

La costruzione della chiesa, avviata nel 1290 per volontà di papa Niccolò IV allo scopo di dare degna collocazione al Corporale del miracolo di Bolsena, si protrasse per circa un secolo. Disegnato in stile romanico da Arnolfo di Cambio, in principio la direzione dei lavori fu affidata a fra Bevignate da Perugia.

Nel 1310 venne chiamato a dirigere il cantiere Lorenzo Maitani: sua è l'ideazione della fastosa facciata attuale, in stile gotico, considerata una sorta di trittico impreziosito da mosaico e sculture, e aperto al centro dal magnifico rosone. I rilievi scolpiti, sono attribuiti al Maitani stesso e a vari artisti minori del XIV secolo. I mosaici, tra cui quello della cuspide con l'Incoronazione della Vergine, sono stati nei secoli pesantemente restaurati e rifatti. Notevole è il portale centrale, inquadrato come i due laterali da un profondo strombo, e rivestito da lastre bronzee che narrano opere di misericordia.

(24)

L’interno è a pianta basilicale e suddiviso da pilastri circolari in tre navate, di cui la centrale coperta da capriate lignee, deriva l'elegante omogeneità stilistica dall'alternanza delle fasce orizzontali bianche e nere, di matrice senese.

Tra le numerose opere d'arte conservate nel Duomo vanno ricordate il Reliquiario del Corporale con raffinate scene della Vita di Cristo e scene del

miracolo di Bolsena e decorazioni pittoriche, realizzate da Luca Signorelli e dal

Beato Angelico con grandiose scene apocalittiche dedicate al "Giudizio Universale" ed ai regni celesti dell'Inferno e del Paradiso.

22

23

22 Navate centrale con le caratteristiche colonne a fasce bianche e nere e il soffitto a capriate lignee. 23 Particolare delle colonne del Duomo

(25)

Analisi Geofisiche

Nell’ambito dello studio svolto su incarico della Soprintendenza ai Beni Culturali di Perugia sulla stabilità del Duomo di Orvieto sono state descritte le tipologie costruttive delle colonne e sono stati misurati i carichi a cui quest’ultime erano sottoposte.

Le analisi hanno messo in evidenza una situazione di carico anomalo ed eccentrico su una colonna, confermata dal quadro fessurativo di quest’ultima. Al fine di conoscere le condizioni di carico è stata svolta una sperimentazione con metodi sismici, applicati secondo tecniche tomografiche.

Le colonne del Duomo sono alte 13,5 metri, con un diametro di 1,65 metri, formate da conci alternati di basalto e travertino all’esterno e da una muratura a sacco all’interno, costituita da pietre di forma irregolare cementate con malta24.

Le prime quattro colonne di ogni navata hanno forma circolare, seguite poi da un pilastro ottagono e da uno polistilo. L’analisi del quadro fessurativo ha messo in evidenza che la parte superiore ed inferiore di alcuni di questi elementi portanti risultava fessurata.

La diagnosi dei carichi e le misure non distruttive di sollecitazione hanno dato risultati di buon accordo:

- Carichi asimmetrici rispetto agli assi delle navate

- Sollecitazioni verticali mediamente comprese tra i 6 MPa e i 2 MPa25, mentre la parte a sacco è pressoché scarica

24 La struttura era stata determinata tramite due carotaggi effettuati precedentemente su una colonna, che mise in

evidenza la gran quantità di malta utilizzata per cementare le pietre e una discreta percentuale di vuoti.

(26)

La parte più caricata è quella in corrispondenza del lembo esterno che guarda il muro perimetrale del Duomo, ma una distribuzione anomala è stata misurata nel pilastro ottagono 11, in cui la parte di fronte al perimetro è scarica, mentre la faccia che guarda la navata centrale è soggetta ad una sollecitazione di circa 7 MPa ( fig. a).

26

Quest’ultimo è l’elemento interessato da più ampie ed estese fessure, per lo più verticali ed in particolare due di esse si estendono fino a 3 metri di altezza interessando anche il basamento.

Cause

I materiali che costituiscono l’anello esterno delle colonne hanno limiti di resistenza e compressioni monoassiali27 dieci volte superiori alle sollecitazioni medie misurate.

Ne consegue che le fessurazioni possono essere state indotte da concentrazioni di sforzi su aree di carico molto ristrette, fenomeno dovuto alle seguenti cause:

26 Pianta del Duomo ed indicazione delle colonne. Inoltre sono messe in evidenza il pilastro 11 e la colonna

9 sulla quale erano stati effettuati due carotaggi.

(27)

- Contatto tra blocchi di pietra non uniforme

- Solo alcuni elementi della corona esterna sono caricati a causa della complessità della sezione geometrica della forma ottagona

- I corsi di malta che legano i conci alternati determinano, per la loro deformabilità, sollecitazioni nell’anello di pietre più rigido, il travertino.

Il presente studio, perciò, ha avuto la finalità di stabilire l’ampiezza delle zone fessurate e di determinare la deformabilità ed i contrasti di quest’ultima nelle varie parti del pilastro.

Metodologia di intervento

Fra i vari metodi geofisici utili a definire il comportamento elastico del mezzo in esame, è stato deciso di utilizzare la metodologia sismica.

Nel caso delle colonne del Duomo, però, non si potevano adoperare né metodi sismici tradizionali a rifrazione, né l’esame per profili di velocità, né metodologie ad ultrasuoni, a causa della presenza di un nucleo a bassa velocità e giunti, fratture ed alterazioni che limitano la capacità di penetrazione delle onde sismiche.

E’ stato scelto di conseguenza un metodo ad energizzazione impulsiva applicato secondo tecniche tomografiche.

Strumentazione

1. Apparato sismico digitale ABEM Terraloc a 24 canali.

2. 24 sensori applicati alle pareti delle colonne per la rilevazione delle onde.

3. Martello corredato da un geofono di trigger, usato come strumento di energizzazione.

(28)

Misurazioni

Sono state eseguite 4 tomografie orizzontali, 3 su piani inclinati e 2 verticali, riferibili ai seguenti elementi strutturali:

1. Colonna 9 a pianta circolare28 2. Pilastro ottagono 11

3. Pilastro ottagono 5

I due pilastri presentando geometrie e ubicazioni analoghe, ma diverso stato di sollecitazione misurato, dal confronto avrebbero permesso di evidenziare l’effetto di fessurazione marcata nell’elemento 11. Su di esso sono state eseguite 2 tomografie orizzontali, 2 inclinate e 1 verticale, invece sul sostegno 5 sono state effettuate 2 tomografie orizzontali ed 1 verticale.

Analisi dei Dati Sismici

Le dimensioni ridotte delle sezioni indagate e l’elevata velocità riscontrata nei blocchi hanno determinato la validità, per l’interpretazione, solamente dei tempi di primo arrivo, poiché tutto il treno d’onda successivo risultava caratterizzato da fenomeni di interferenza originati da diffrazioni e riflessioni.

I primi arrivi sono stati elaborati29 per costruire una zonizzazione sismica per la valutazione della distribuzione della velocità all’interno della sezione

- Pilastro 5 velocità media orizzontale 2600 m/s; v. m. verticale 2725 m/s

- Pilastro 11 velocità media orizzontale 2730 m/s; v. m. verticale 2100 m/s

28 Elemento su cui era stato effettuati i carotaggi, quindi noto nella struttura. 29 Sono state utilizzate tecniche tomografiche

(29)

Applicazione delle Tecniche Tomografiche

Il metodo tomografico consiste nel valutare, attraverso la misura dei tempi di percorso delle onde sismiche P, cioè dalle velocità medie di propagazione Vmi di ogni singolo raggio i, le velocità medie Vmj all’interno di celle j di dimensioni prestabilite in cui viene suddivisa l’area ( fig. b).

Recentemente sono state sviluppate e applicate numerose tecniche di elaborazione che partono da un modello iniziale e calcolano le differenze tra i tempi reali misurati e quelli “sintetici”30.

Il metodo adottato, sperimentato sia su modelli teorici che in situazioni reali, consiste nel suddividere l’area in un numero di celle n ed in ognuna viene calcolata la “velocità media pesata” considerando tutti i raggi che l’attraversano, ammettendo percorsi rettilinei, perciò:

Con Vmj velocità media pesata relativa ad una data cella Vi velocità media del raggio i

Sij spazio percorso dal raggio i nella cella j

(30)

In questo modo si ottiene un modello iniziale complesso che di per sé costituisce una tomografia e da cui è possibile ricavare il tempo totale di percorrenza “esterna” alla cella dei soli raggi che la attraversano.

La differenza con la somma dei tempi misurati per gli stessi raggi fornisce il tempo medio “interno” e , essendo nota la somma dei percorsi interni, la nuova velocità media di percorrenza nella cella e la distribuzione delle velocità nella sezione.

Il procedimento è iterativo31 è può essere arrestato ponendo vincoli realistici, fra cui la velocità massima limite per il basalto o il travertino, o quella minima per la muratura a sacco.

Tale procedimento è stato applicato ad ogni sezione indagata, i cui risultati sono rappresentati per classi di velocità con colori più intensi per valori più elevati ( fig. c, d, e ).

Le due tomografie relative a sezioni orizzontali, poste alla medesima quota ed entrambe su blocchi di travertino, relative ai pilastri ottagoni 5 e 11 mostrano corone esterne con comportamento differente ( fig. c, d ):

- Il pilastro 5 mostra un maggior numero di celle ad elevata velocità media, che confermano i dati sulla sollecitazione e sui carichi.

- Il pilastro 11 ha restituito una distribuzione non uniforme delle zone ad alta velocità, rimarcando così, i risultati che si erano ottenuti sul differente stato di sollecitazione misurata.

Riguardo alle sezioni verticali ( fig. e ), in cui vengono messe in evidenza le probabili zone di fatturazione e l’area del nucleo a bassa velocità, si è evinto dalla tomografia sul pilastro 5 una sostanziale simmetria, invece sull’elemento 11 una corteccia esterna compatta e veloce nella zona sottoposta a maggiore

31 Sequenza di azioni che viene ripetuta, finché è necessaria la ripetizione stessa , un ciclo. Tutte le

operazioni che richiedono la ripetizione di una stessa azione più volte, ma in numero finito sono dette procedure iterative.

(31)

sollecitazione e uno slargamento della parte a minore velocità, associabile alla presenza di vuoti, quindi fessurazioni.

(32)

Conclusione

L’applicazione di tecniche tomografiche a misure sismiche ha permesso di definire lo stato di conservazione delle colonne e dei pilastri del Duomo di Orvieto.

E’ stato possibile quantificare i gradi di fatturazione, sia nelle sezioni orizzontali, sia in quelle verticali, prove che costituiscono un validissimo strumento per ampliare i risultati ottenuti tramite metodi diretti, quali carotaggi meccanici, in modo da fornire un quadro del comportamento globale degli elementi strutturali, in maniera assolutamente non invasiva32.

32 Indagine non distruttiva che permette di analizzare un manufatto senza apportare alcuna modifica al suo

(33)

Indagini Geofisiche applicate alla Volta della Scarsella

del Battistero di S. Giovanni in Firenze

Il Battistero di San Giovanni in Firenze

Il Battistero dedicato a San Giovanni Battista sorge di fronte al duomo di Santa Maria del Fiore, in piazza San Giovanni.

La struttura presenta una pianta ottagonale, con un diametro di 25,60 m, sormontata da una cupola ad otto spicchi, mascherata all'esterno dall'attico e coperta da un tetto a piramide schiacciata. Sul lato opposto all'ingresso sporge il corpo dell'abside rettangolare.

L'edificio fu costruito su resti di una struttura romana, una ricca domus del I sec. d.C., ma la data di fondazione è assai incerta, si pensa al IV-V secolo DC, con rimaneggiamenti nel VII secolo durante la dominazione longobarda.

La prima citazione risale all'anno 897, nel 1128 l'edificio diventa ufficialmente il battistero cittadino e intorno alla metà dello stesso secolo viene eseguito il rivestimento esterno in marmo, successivamente completato anche all'interno.

(34)

Nella seconda metà del XIII secolo viene inoltre realizzata la cupola, mentre l'abside a pianta rettangolare, la cosiddetta volta della Scarsella, viene realizzata nel 1202, i cui mosaici vennero ultimati intorno al 1220.

Occorre infine ricordare le tre famose porte bronzee, di cui una ad opera di Andrea Pisano ( 1330-1336 ) e le altre due realizzate da Lorenzo Ghiberti, la prima delle quali eseguita fra il 1401 e il 1424 e la seconda e ultima tra il 1425 e il 1452, la cosiddetta “ Porta del Paradiso”.

Premessa metodologica

Nella primavera del 1999 la dirigenza dell’ dell’Opera di S. Maria del Fiore richiese delle indagini non invasive sulla volta della Scarsella del Battistero di S. Giovanni ( fig. f ), poiché essendo la superficie interna della volta interamente ricoperta da preziosi mosaici, sarebbe stata impossibile ogni indagine conoscitiva diretta.

L’intervento era finalizzato al duplice scopo di stabilire la geometria interna del corpo aiutando a definirne la struttura costruttiva e le sue condizioni di degrado, a monte della successiva azione di consolidamento, per indirizzarlo e calibrarlo.

33

(35)

A differenza del precedente lavoro sulle colonne del Duomo di Orvieto, questa indagine ha utilizzato tre diverse tecniche d’indagine e cioè la tomografia elettrica, la tomografia sismica ed il georadar.

I risultati raggiunti, come vedremo, hanno dimostrato un elevato grado di integrazione e complementarietà delle metodologie utilizzate.

Indagini geoelettriche tomografiche

La tomografia elettrica è una metodologia di misura che costituisce l’evoluzione della nota prospezione geoelettrica, messa a punto sfruttando i progressi dell’elettronica, sia per un’ acquisizione automatica sul campo, che per un’interpretazione dei dati in termini bi e tri-dimensionali.

Attraverso l’uso di personal computer sul campo, tale tecnica permette di disporre sul corpo da investigare, un gran numero di elettrodi ( 32, 64, o più ) con distanza fra loro, dipendente dalla risoluzione e dalla profondità che si intende raggiungere. Tramite suddetti elettrodi viene alternativamente immessa corrente o misurata la differenza di potenziale, in una sequenza pre-programmata ed interamente automatica.

Si ottiene, così, l’evoluzione sia verticale che laterale della resistività apparente, la quale viene rappresentata tramite pseudosezione34.

Il quadro che viene a delineare, però, per poter realmente rappresentare la parte indagata, deve essere interpretato in modo da sostituire alle resistività apparenti, valori di profondità e resistività reali.

34 Tecnica di rappresentazione dei dati di profili geoelettrici multipli acquisiti con modalità intermedie tra

quelle dei sondaggi elettrici verticali e quelle dei profili orizzontali di resistività. Risulta infatti necessario eseguire lungo uno stesso profilo sul terreno, diversi profili geoelettrici con profondità di investigazione via via crescenti, cosa che si ottiene variando una dimensione tipica dello stendimento elettrodico per multipli interi (n) del valore minimo. La pseudosezione di resistività così ottenuta è piuttosto onerosa dato il notevole numero di misure da effettuare in campagna, ma permette di visualizzare anomalie di resistività sia in senso orizzontale sia in profondità.

(36)

Per la prospezione, oggetto del presente lavoro, è stato utilizzato il dispositivo quadri polare detto di Wenner ( fig. g ).

35

Acquisizione dei dati

Le misure sono state eseguite per profili, disponendo 5 profili paralleli a distanza di circa 1 m l'uno dall'altro e due ulteriori di controllo ortogonali ad essi ( fig. h ).

36

35 Sistema di acquisizione "tomografica" dei dati utilizzando il dispositivo di Wenner

36

(37)

Nella figura sovrastante, le coordinate sono riferite al sistema assoluto definito da misure topografiche, in cui i primi 5 profili sono disposti nel senso trasversale alla volta, gli altri due sono stati eseguiti nel senso longitudinale, a circa 5 m di distanza l'uno dall'altro ed infine è stato adottato un passo interelettrodico di 25 cm37.

A causa della presenza del rivestimento a mosaico, gli elettrodi non potevano poggiare direttamente sulle tessere, in quanto il vetro è un ottimo isolante, perciò sono stati utilizzati elettrodi a forma di ago rivestiti di patina di cloruro d’argento38, inseriti in piccoli fori39 eseguiti tra le commessure delle tessere.

Risultati

I dati di resistività apparente immessi in pseudosezioni sono stati invertiti mediante l'algoritmo d’inversione 2D40, che trova il modello di distribuzione delle resistività elettriche all'interno del corpo esaminato, fornendo nei punti di misura resistività apparenti calcolate, in modo che differiscano il meno possibile da quelle misurate.

Questo algoritmo appartiene alla famiglia della cosiddetta "Occam inversion", associa cioè ad ogni maglia della griglia 2D, in cui viene suddiviso il corpo da ricostruire, un valore di resistività vera, imponendo a maglie vicine di non poter assumere valori di resistività vera arbitrariamente diversi.

37 Di conseguenza sono stati posti 34 elettrodi per i profili 1 e 5, 40 elettrodi per i 2, 3, 4 e 21 per gli ultimi

due, il 6 e il 7.

38 Questa tipologia di rivestimento li rendeva “ impolarizzabili”, cioè non cambiavano il proprio campo

elettrico anche se soggetti ad un campo elettrico indotto.

39 Tali fori sono stati eseguiti da personale dell’Opificio delle Pietre Dure di Firenze e in seguito al lavoro

di rilevamento, sono stati prontamente richiusi.

(38)

A scopo di esempio riportiamo la sezione elettrica 2 ( fig. i ), in cui si riconoscono le caratteristiche generali dell’informazione contenuta nei dati di resistività elettrica:

1. Un primo strato fortemente disomogeneo che segue tutta la parte interna, a resistività relativamente basse;

2. La rimanente sezione della volta a resistività considerevolmente più alte, più o meno omogenea, con locali anomalie ancor più resistive.

41

L’inversione di tutte le sezioni di misura ha permesso di ottenere un modello 3D della distribuzione della resistività all’interno della volta ( fig. l ), da cui si nota bassa resistività, con andamento disomogeneo alla base, valori più elevati, con andamento omogeneo in corrispondenza del muro di sostegno della volta interna (retro nella Fig. l ), mentre l’andamento diviene disomogeneo all’interno della volta.

(39)

42

Infine, nella figura m, tre sezioni ortogonali illustrano da un altro punto di vista, la distribuzione di resistività all’interno della volta.

43

42 Vista 3D della distribuzione della resistività all’interno della volta. 43 Vista 3D di 3 sezioni ortogonali

(40)

Indagini sismiche tomografiche

La tomografia sismica è una tecnica che, attraverso l’analisi della velocità di propagazione e l’attenuazione di un’onda acustica nel dato materiale, ricostruisce un oggetto mediante lo studio delle onde sonore che lo hanno attraversato.

Tale metodologia già ampiamente applicata per ricerche nel sottosuolo, è da qualche tempo utilizzata per lo studio di strutture portanti di monumenti che presentano problemi di degrado e stabilità, i quali, di seguito ad un’accurata analisi del loro stato di conservazione, devono essere sottoposti ad attività di restauro.

La qualità dei dati rilevati dipende dalle condizioni del bene indagato, perciò, tramite uno studio 3D, possono essere identificate la posizione e l’orientamento di discontinuità ( fratture o scollamenti ) di un materiale degradato.

Per ottenere un’alta risoluzione occorre che i raggi acustici attraversino il corpo in tutte le direzioni, cioè un’ampia copertura angolare con segnale ad alta frequenza.

Acquisizione dei dati

Lo scopo del lavoro era quello di caratterizzare dal punto di vista elastico la volta, attraverso l’analisi delle onde acustiche che la attraversano, cercando così di individuare zone anomale al suo interno.

La strumentazione utilizzata era composta da un registratore sismico Geometrix mod. ES2401X a 24 canali con campionamento dell’onda ogni 100 s. Come sensori sono stati utilizzati degli accelerometri piezoelettrici con frequenza

(41)

propria di taglio di 4 kHz. Come sorgente acustica è stato utilizzato un martello del peso di 2 kg.

L’acquisizione è stata suddivisa in due fasi:

1. Sono stati posizionati nella parte sinistra della volta 23 sensori, ad un distanza di 1 m l’uno dall’altro. I punti di battuta sono stati posizionati sull’intera superficie sovrastante i mosaici che comprende sia una parte interna al Battistero, sia una parte del tetto, cercando, ove possibile, di mantenere 1 metro di distanza fra i vari punti di energizzazione.

2. I sensori sono stati messi nell’arcata destra,mentre i punti energizzanti sono rimasti gli stessi44.

Elaborazione dei dati

Dopo aver registrato i tempi di arrivo delle onde elastiche è stata eseguita un’elaborazione preliminare tenendo conto dell’intervallo dei valori di velocità compatibile con il tipo di manufatto.

L’intervallo considerato è stato di 350-3500 m/s, i tempi che non rientravano in tale segmento venivano ricalcolati o scartati.

E’ stata posta l’attenzione anche alla conformazione della struttura ( fig. n ), poiché se il percorso dei raggi incontrava dei vuoti ( ad esempio la rampa della

(42)

scale ), i relativi tempi non erano considerati. Alla fine sono stati studiati 630 raggi sismici.

45

Successivamente la volta è stata suddivisa in celle a forma di parallelepipedo di dimensioni 1 x 1 x 0,55 metri nelle direzioni x, y, z, per un totale di 400 celle. Di conseguenza la volta è stata sezionata in 9 piani orizzontali interdistanti 0,55 metri in direzione z, in 5 piani verticali in direzione y ed infine in 10 piani orizzontali in direzione x distanti 1 metro fra loro.

Come algoritmo di calcolo per l’inversione dei dati è stato utilizzato l’LSQR46:

                     0 0 T l C I A     2 1 47

45 Visione assonometrica 3D della volta della Scarsella.

46 Sparse Equation Least Squares, Paige e Saunders 1982, Van der Sluist e Van der Vost 1987. E’ un

metodo equivalente a quello del gradiente coniugato, ma è applicabile a matrici non simmetriche e presenta un miglior comportamento anche per matrici mal condizionate. Il risultato è dato da una sezione di velocità soniche reale in cui le scale di tonalità dei colori evidenziano le anomalie presenti nell’oggetto

47

L’equazione rappresenta la soluzione ai minimi quadrati con l’aggiunta dei fattori di smorzamento δ1 e

δ 2, in cui A rappresenta la matrice i cui elementi aij rappresentano l’iesimo percorso nella jesima cella, I

rappresenta la matrice unitaria e C una matrice composta di 0 ed 1 in funzione della posizione geometrica della cella considerata, δl eδ T rappresentano rispettivamente la perturbazione al modello iniziale e la correzione ai dati calcolati.

(43)

Tale algoritmo è stato scelto, poiché, data la forma particolare da investigare, non si era potuta ottenere una valida copertura spaziale dell’oggetto studiato, ottenendo così un sistema non ben condizionato. Risulta essere il tipo di algoritmo più stabile, rispetto ad altri tipo il Gradiente coniugato.

Tutte le celle non attraversate da raggi, infine, sono state eliminate, giungendo così ad un numero pari a 365.

Interpretazione dei dati

I risultati ottenuto sono ben visibili nella figura P. In essa sono riportati gli andamenti dei campi di velocità dell’intero corpo della volta della Scarsella.

Si nota che al centro della volta appare un’area a bassa velocità che percorre tutto il corpo e si allarga nella parte posteriore. Questi valori molto bassi ( 600-700 m/s ) indicano una zona molto degradata e aerata ( fig. P-3 ).

Le zone periferiche non sembrano esser interessate da tale fenomeno e mostrano una velocità del’onda P che varia da 1000 a 1700 m/s ( fig. P-1 e P-2 ), valori tipici per manufatti con buone qualità elastiche.

Il forte aumento di velocità che simmetricamente si riscontra partendo dalla zona centrale a bassa velocità e che si diparte nelle due zone laterali ( fig. P-2 ), può essere in parte dovuto alla spinta che la volta stessa esercita sulle strutture murarie laterali.

In conclusione si può notare la vista esplosa ( fig. q ) dei campi di velocità dell’intero corpo della Scarsella. L’anomalia a bassa velocità sembra interessare parte del corpo interno del Monumento per almeno i 2/3 del suo spessore.

(44)

48

48 Figura P, in cui si possono notare i campi di velocità dell’intera volta della Scarsella: P-1 ) vista esterna

(45)

49

Indagini Georadar

La fase di rilievo con il georadar si è articolata in una serie di misure sulla volta interna e sulle falde di copertura del tetto, secondo le seguenti modalità:

1) Per riflessione semplice, con le antenne da 400, 900, 1500 MHz. I profili sono stati ubicati in modo da ricoprire l’ area della volta con allineamenti ortogonali distanti 0.5 m tra loro.

2) Per riflessione semplice, con l’antenna da 400 MHz, lungo 8 profili tracciati sulle falde del tetto, di lunghezza di 4 metri e distanti 1 metro fra loro.

3) Misure lungo alcuni profili della volta interna con antenne da 900 MHz per la stima del valore di velocità delle onde elettromagnetiche.

I profili sono stati posizionati in seguito ad un preventivo rilievo topografico.

(46)

La strumentazione era costituita da radar SIR 10 della GSSI, corredato da antenne GSSI nel campo di frequenza da 400 MHz a 1500 MHz.

In particolare si è ritenuto che:

- con l’antenna da 400 si sia raggiunta una profondità di indagine di circa 2-2.5 m con un dettaglio di circa 0.3 m;

- con l’antenna da 900 MHz si sia raggiunta una profondità di indagine di circa 1.5 m con un dettaglio di circa 0.15 m;

- con quella da 1500 MHz, infine, è stata raggiunta una profondità di indagine di circa 0.7 m con un dettaglio di circa 0.1 m.

Acquisizione dei dati

I parametri di acquisizione adottati per le varie tipologie di misura e per le diverse antenne, sono sintetizzati nella seguente tabella50.

frequenza antenna intervallo di

campionamento acquisizione finestra di

[MHz] [S/scans] [ns] 400 1024 60 400 (profili sulla copertura) 1024 40 900 1024 40 1500 1024 20

(47)

Elaborazione dei dati

L'elaborazione delle sezioni radar è consistita nell’applicazione di procedure di “pre-processing51” definite secondo la seguente articolazione:

 Rimozione delle tracce in eccesso.

 Normalizzazione della distanza tra le singole tracce.

 Identificazione delle coordinate spaziali delle singole tracce con riferimento al rilievo topografico.

Di seguito si è proceduto ad elaborazioni mirate alla ricerca di possibili discontinuità subverticali all’interno della muratura, attraverso l'applicazione di:

- Procedure di filtraggio per la rimozione di rumore di fondo non correlabile alla variazione della natura dei materiali o alla presenza di fratture.

- Correzione statica dei profili tenendo conto della curvatura della volta.

- Calcolo dell’ampiezza istantanea52, che consente di evidenziare la presenza di eventi ben localizzati quali cavità, fratture e discontinuità laterali all'interno della struttura.

Il risultato di questa procedura di pre-elaborazione su una sezione centrale della volta si può notare nella figura r.

Successivamente sono state effettuate operazioni mirate all’individuazione degli elementi costruttivi della volta, concentrandosi sui dati rilevati con l’antenna a 1500 MHz, la più adatta per discriminare strutture anche di ridotte dimensioni. cm di spessore ), la retrostante volta in mattoni ( 25-30 cm ) e il materiale di riempimento tra i mattoni e la copertura esterna.

51 Questa azione preventiva indica un tipo di processo effettuato su dati non elaborati in modo da prepararli

a un'altra procedura di trasformazione.

52 Essa rappresenta l’ampiezza del segnale in ogni istante di tempo e può riferirsi ad una qualunque grandezza

(48)

La velocità di propagazione delle onde, attraverso l’uso dell’antenna a 1500 MHz, è stata pari a 0,12 m/ns con una lunghezza d’onda di 0,12 m, che ha consentito di riconoscere stratificazioni ed oggetti della dimensione di 4-6 cm. Infine è stato attuato un processo di deconvoluzione53, in modo da ottenere una linea più netta che descrivesse la superficie d’interfaccia tra materiali eterogenei ( fig. s ).

54

55

53 Algoritmo basato su processo utilizzato per invertire gli effetti di convoluzione sui dati registrati. Il

concetto di deconvoluzione è ampiamente usato nelle tecniche di elaborazione dei segnali e di elaborazione delle immagini . L'oggetto della deconvoluzione è quello di trovare la soluzione di una equazione di convoluzione della forma: f * g = h, in cui h indica il segnale registrato, f è un segnale che vogliamo recuperare, ma che è stato convoluto con qualche altro segnale g prima della registrazione. Quindi conoscendo g è possibile eseguire la deconvoluzione, altrimenti occorre stimare tale parametro.

54 Sezione georadar della volta, ampiezza istantanea, antenna da 900 MHz. 55 Sezione della volta dopo la deconvoluzione

(49)

In seguito all’elaborazione bidimensionale, il passo successivo è stata la correlazione spaziale delle risposte radar ottenute per le singole sezioni, attraverso time slice e rappresentazioni tridimensionali.

Questi processi, di cui il time slice costituisce la fase di partenza, sono costituiti da isosuperfici del valore di ampiezza istantanea di riflessione, che permettono di evidenziare volumi caratterizzati da un valore di risposta georadar inferiore o superiore ad un determinato valore di soglia ( fig. t ).

In questo modo è possibile seguire in maniera più razionale la continuità spaziale di certi eventi, eventualmente correlabili con elementi strutturali o con fratture all'interno della struttura.

56

(50)

Risultati

Le immagini radar a 1500 MHz evidenziano una riflessione più o meno continua, riscontrabile in quasi tutte le sezioni elaborate in corrispondenza di un tempo di percorso di 1-1.5 ns, che si riferisce all'interfaccia tra la malta di tenuta del mosaico e la struttura retrostante.

La procedura di elaborazione dei dati con la rappresentazione finale delle ampiezze istantanee tende ad esaltare i contrasti delle caratteristiche di riflettività dei materiali evidenziando le zone dove si localizzano le maggiori eterogeneità all'interno della malta cementizia e nella struttura muraria immediatamente retrostante.

Nel rilievo radar alla frequenza di 900 MHz, invece, si individua una riflessione, parallela alla superficie della volta, a circa 30 ns e molti profili trasversali evidenziano la presenza di una marcata variazione laterale delle caratteristiche elettromagnetiche dei materiali, rilevabile a circa 1.5-1.7 m dall’interno del battistero.

Tale effetto è dovuto alla presenza del materiale lapideo che costituisce la parete del Battistero che, verso l'esterno, viene sostituito da una struttura più eterogenea, costituita da struttura muraria e materiale di riempimento.

L'elaborazione e l'interpretazione delle misure per riflessione semplice ha permesso di formulare alcune ipotesi circa le caratteristiche strutturali della scarsella, cioè il mosaico sembra essere posato su un primo strato di materiale spesso circa 4-6 cm, sopra di esso si prevede la presenza di un secondo strato di spessore intorno ai 25-30 cm, che costituisce una calotta (probabilmente una volta portante in mattoni) ed in conclusione le superfici inferiore e superiore delimitanti quest’ultima struttura sono evidenti nella costruzione tridimensionale di figura t.

(51)

Conclusioni

L’adozione nel presente studio di più metodologie di indagine, basate su differenti proprietà fisiche e che necessitano di diversi metodi di elaborazione ed interpretazione dei dati, ha permesso di migliorare la qualità delle informazioni ottenibili sulla struttura investigata, fornendo indicazioni in parte riscontrabili nelle risposte delle diverse metodologie e in parte complementari. Alle conoscenze del monumento si sono aggiunti dati di carattere strutturale e di conoscenza di parametri fisico-meccanici.

Le indagini geoelettriche e georadar hanno evidenziato una struttura a gusci in cui probabilmente alla pietra forte è stato aggiunto uno strato di mattoni e quindi uno strato di malta per porre in opera il mosaico.

La tomografia sismica e il georadar hanno messo in risalto una netta differenza di risposta, dovuta a tempi e modi costruttivi differenti, tra le strutture sottostanti il tetto che appare avere caratteristiche elastiche diverse rispetto alla zona più interna che si affaccia nell’ampia sala del Battistero.

Tali indicazioni, grazie all’ attenzione in fase di acquisizione ed elaborazione dei dati, sono state rilevate con buona attendibilità e il dettaglio ottenuto nello studio dell’edificio è risultato chiaramente dipendente dal diverso potere risolutivo laterale e verticale delle metodologie.

Questa indagine può essere senza dubbio inquadrata tra i primi studi su manufatti di interesse architettonico in cui i risultati sono stati conseguiti tramite l’applicazione di differenti metodologie non invasive che grazie alla loro correlazione hanno dato spinta decisiva all’interpretazione globale dell’indagine stessa.

Terminando è doveroso sottolineare come tali metodiche non invasive possano essere di grande aiuto per la conoscenza delle caratteristiche strutturali di monumenti. Ciò è tanto più importante quando ne sia inestimabile il valore

(52)

storico-artistico ed architettonico e dunque particolarmente controindicata ogni manomissione od incisione diretta sui monumenti stessi.

Riferimenti

Documenti correlati

b) avvenuta esecuzione di lavori di cui all'articolo 1, per un importo complessivo non inferiore al settanta per cento dell'importo della classifica per cui e' chiesta

Con l’uso di questa tecnica, analizzando lo spettro con il programma LIBS++, sono state ricavate le stime per la temperatura e la densità elettronica del plasma e i valori

In realtà, come si vede dalla figura, manca la parte iniziale dello spettro a causa del- l’assorbimento degli X di energia più bassa da parte della finestra di berillio.. Allo

This special issue investigates contemporary transformations of Islam in the post-communist Balkans. We put forward the concept of localized Islam, as an analytical lens

There are algorithms that give priority to smaller jobs (SJF), others give priority to job whose remaining processing time is the smallest (SRPT), others try to divide small and

DICE: Integrazione di diverse fonti di informazione sul patrimonio culturale L’Italia ospita una delle più grandi collezioni di beni culturali al mondo, sparsi sul territo-

Sono stati analizzati differenti algoritmi di interpolazione su 3 set di dati ottenuti mediante l’utilizzo del laser scanner Leica HDS (Cyrax) 2500 e della stazione integrata

Attività Culturali - Soprintendenza per i Beni Architettonici e Paesaggistici per il Comune di Roma, - degli atti presupposti, antecedenti, conseguenti e connessi.. Visti il ricorso,