• Non ci sono risultati.

LO STUDIO MICROMECCANICO DEI MATERIAL

PAVIMENTAZIONI STRADALI FLESSIBIL

CAPITOLO 6: IL METODO AGLI ELEMENTI DISTINTI PARTICELLAR

6.2. LO STUDIO MICROMECCANICO DEI MATERIAL

Una volta evidenziate le principali differenze con l’approccio tradizionale, è opportuno analizzare nel dettaglio il Metodo agli Elementi Distinti Particellari.

Le discontinuità furono introdotte per la prima volta nei modelli numerici alla fine degli anni ’60 da Ngo et al. (1967) e da Goodman et al. (1968), attraverso modifiche effettuate sui modelli al continuo. Successivamente, fu Cundall (1971) a presentare un metodo alternativo, chiamato appunto Metodo agli Elementi Distinti: il modello discontinuo viene realizzato a priori e la materia viene schematizzata attraverso un insieme di particelle sferiche che interagiscono tra loro solo attraverso i punti di contatto. Il metodo nasce per lo studio della meccanica delle rocce e, in particolare, per l’analisi della frattura progressiva degli ammassi rocciosi, rappresentati come un insieme di elementi discreti interagenti reciprocamente attraverso parametri microscopici quali attrito e rigidezza. Gli elementi del modello possono staccarsi

dall’ammasso roccioso, traslare, ruotare ed interagire successivamente con altri blocchi scambiandosi forze e momenti, secondo leggi del moto e leggi forza- spostamento che governano il sistema e costituiscono le basi teoriche del DEM. Su questi concetti fondamentali si basa il codice di calcolo BALL, sviluppato da Cundall e Strack (1979): il programma consente di definire una rappresentazione numerica bidimensionale del materiale granulare, inserendo alcune caratteristiche in grado di considerare gli effetti dello smorzamento e della velocità di applicazione del carico. La validazione del codice è stata eseguita comparando le immagini della distribuzione delle forze di contatto nei modelli con le fotografie ottenute dall’analisi foto-elastica di provini reali (De Josselin de Jong e Verruijt, 1969).

Figura 6.2: Distribuzione delle forze di contatto per un modello di 100 particelle (Cundall e Strack, 1979).

Negli anni 80 Cundall, Drescher e Strack hanno implementato il codice BALL introducendo nuove metodologie per misurare il valore medio delle tensioni e delle deformazioni, definendo inoltre, appositi elementi boundary, necessari per l’impostazione delle condizioni al contorno. Ancora Cundall sviluppò successivamente il primo codice di calcolo tridimensionale, TRUBAL: gli elementi,

di forma sferica, sono generati in modo random all’interno di un volume di confinamento fino ad ottenere la densità desiderata. Un algoritmo di servo-controllo, attivo per un dato livello pensionale isotropo, permette di far convergere il modello verso la nuova condizione di equilibrio. Le simulazioni sono state validate sperimentalmente con le esperienze di laboratorio di Ishibashi e Chen (1988), mostrando buoni risultati nei test biassiali, ma scarsa precisione nei test triassiali. Una versione modificata di TRUBAL fu proposta da Thornton et al. (1997) nel codice GRANULATE, in grado di modellare il meccanismo della frattura in un insieme di particelle legate dotate di energia superficiale con una funzione autoadesiva, che garantisce l’attrazione reciproca delle particelle.

La prima versione del Particle Flow Code (PFC), il codice di calcolo cui si fa riferimento nel corso della presente tesi, compare invece già nel 1995. Dalla sua nascita, il software è stato utilizzato in diverse applicazioni, tra cui si ricorda la ricerca di Hazzard (2000) per lo studio dell’innesco e della propagazione della frattura nella roccia. Il confronto tra i risultati di laboratorio e le simulazioni numeriche hanno confermato l’affidabilità del modello di rottura DEM per l’analisi del meccanismo di frattura del granito. In seguito, diversi studiosi hanno utilizzato il PFC per lo studio dei materiali rocciosi, nella versione sia bidimensionale (PFC2D) sia tridimensionale (PFC3D). Nel 2001 Cundall aveva previsto che entro il 2010 la tecnologia sarebbe stata in grado di far girare un modello contenente 10 milioni di particelle tridimensionali su un computer da 2.000$ in un tempo compreso tra qualche minuto e un paio d’ore. Indipendentemente da tale assunzione, al momento è possibile ipotizzare che il DEM possa essere in futuro utilizzato accanto e a supporto delle analisi di laboratorio per estendere la base di dati a disposizione: dal “laboratorio fisico” si estrapoleranno le indicazioni e i parametri chiave da utilizzare come input per la calibrazione del modello a livello micromeccanico, mentre il “laboratorio numerico” avrà il compito di completare il range dei dati richiesti, stabilendo come cambiano le caratteristiche meccaniche di un materiale o di una miscela al variare del volume dei vuoti, della granulometria e di altri parametri di interesse.

Ad oggi, diverse sono le applicazioni del metodo DEM presenti in letteratura, sia in termini di argomenti trattati che di scala di analisi.

Figura 6.3: Meccanismo fisico di fessurazione indotto da trazione indiretta (a, b) e schematizzazione come insieme legato di particelle circolari (c)- Potyondy e Cundall,

2004.

Tra le esperienze più significative a tal proposito, si ricorda quella di Potyondy e Cundall (2004), in cui viene proposto un modello numerico costituito da un impacchettamento di elementi circolari o sferici di diametro non uniforme, legati tra loro nei punti di contatto (Figura 6.3). Le proprietà microscopiche dei materiali sono definite dai parametri di rigidezza e resistenza delle sfere e dei loro legami. Questi dati permettono di rappresentare esplicitamente il danno nel materiale come rottura di legami, evento che porta alla formazione di una frattura macroscopica (Figura 6.4): in altre parole, il danno può essere rappresentato direttamente, attraverso la formazione e il monitoraggio di microfessure, e non più indirettamente, attraverso il suo effetto sul legame costitutivo del materiale, come nei metodi computazionali di materiale continuo. Il BPM (Bonded Particle Model) presentato, non impone dunque ipotesi e semplificazioni teoriche tipiche dello studio al continuo, ma può dare risultati macroscopici analoghi, se valutato alla scala opportuna.

Figura 6.4: Distribuzione delle fessure post picco alla pressione di confinamento di 0.1 MPa (sinistra) e 70 MPa (destra) - Potyondy, Cundall, 2004.

A tale proposito, è opportuno citare lo studio condotto da Calvetti (2003), in cui sono descritti diversi esempi di modellazione numerica agli elementi distinti, al variare della scala di definizione. Partendo dalla considerazione che il modello DEM è principalmente caratterizzato dalla sua natura discreta, sono infatti necessari diversi livelli di “idealizzazione” per simulare un problema reale, in funzione dei dati disponibili sull’assortimento granulometrico del materiale e della possibilità di definire un modello numerico che riproduca i principali aspetti del problema. Tutte le simulazioni presentate sono in grado di descrivere qualitativamente il comportamento previsto: questo implica che le ipotesi semplificative assunte nella modellazione possono essere controbilanciate da un’opportuna procedura di calibrazione. Ovviamente è richiesto un certo “engineering judgment” per verificare che il modello sia “il più semplice possibile, ma non ulteriormente semplice”. In generale, più il modello è simile al problema reale, più generale può essere la procedura di calibrazione. A fronte di queste osservazioni, risulta evidente che il principale vantaggio dell’approccio DEM è quello di bypassare la necessità di definire un modelllo costitutivo equivalente al continuo, in quanto i parametri di un modello ad elementi distinti sono puramente micromeccanici (rigidezza degli elementi e attrito interparticellare).

CAPITOLO 7: PFC 3D:

Documenti correlati