• Non ci sono risultati.

Tramite il metodo agli elementi finiti, è possibile simulare un processo fisico, utilizzando un opportuno modello numerico che sia in grado di rappresentare in modo affidabile ciò che avviene nella realtà, e che normalmente richiederebbe la ricerca della soluzione esatta di equazioni differenziali alle derivate parziali.

La nascita dal punto di vista storico dello stesso, può essere collocata all’inizio del 1900, grazie all’ingegnere e matematico russo Galërkin (1891 – 1945), che fornì una struttura di calcolo utile per risolvere particolari problemi definiti da equazioni differenziali, passando da un dominio continuo (forma forte del problema) ad un dominio discreto caratterizzato da un sistema di equazioni algebriche (forma debole).

Successivamente, negli anni ‘30, con i lavori di Duncan W.J. e Collar A.R.[65,66], venne

introdotta una forma primitiva di elemento strutturale, nella risoluzione di problemi sull’aeroelasticità12, e più tardi ancora, durante il corso degli anni ’40, Hrennikoff A. e

Courant R. seppur lavorando con approcci diversi, giunsero alla stessa conclusione, ovvero la necessità di discretizzare un problema continuo suddividendo il dominio in un insieme di sottodomini discreti per la soluzione di equazioni differenziali alle derivate parziali. Tuttavia, la vera e propria nascita del metodo agli elementi finiti, va collocata nella seconda metà degli anni ’50 grazie al contributo di Turner M.J. (The Boeing Company) che formulò il Direct Stiffness Method, primo effettivo approccio agli elementi finiti nel campo del continuo applicato a problemi di ambito aerospaziale, che trovò applicazione anche al di fuori del campo di studio (principalmente in quello civile) grazie a Clough R.W. (University Of California, Berkeley), la cui collaborazione con Turner M.J. nata in seguito alla partecipazione ad un Boeing Summer Faculty Program, diede vita al documento “Stiffness

and Deflection Analysis of Complex Structures”[68], considerato a tutti gli effetti come

12 “L'aeroelasticità è lo studio della mutua interazione tra le forze inerziali, elastiche e aerodinamiche agenti in un solido esposto ad una corrente fluida e dell'influenza di tale studio sul progetto della struttura”[67].

64 momento di nascita del moderno FEM.

In seguito, molti sviluppi vennero portati al metodo, a partire dai lavori di Irons B.M. (introduzione di elementi isoparametrici e di funzioni di forma) e di Wilson E.L. il quale sviluppò il primo codice di calcolo FEM implementato in un software open source.

Parallelamente al FEM, e sulla “falsariga” dello stesso, sono stati sviluppati nel corso degli anni ulteriori metodi, basati anch’essi sulla risoluzione numerica di un modello approssimato (metodo delle differenze finite, metodo dei volumi finiti, metodo degli elementi al contorno, etc.) non riuscendo però a togliere allo stesso la propria posizione dominante tra i software di analisi automatica presenti in commercio.

Nell’ambito biomeccanico, l’utilizzo del FEM è molto comune, in quanto con questa metodologia (che come visto in precedenza non è di tipo analitico, ma numerico) si può oggi ottenere agevolmente lo stato di sforzo-deformazione per problemi di cui non sia nota a priori la soluzione analitica (dalla scienza delle costruzioni) oppure pur essendo nota la stessa sia molto complessa da ricercare. Per stimare la soluzione l’algoritmo opera una suddivisione di un dominio complesso in una serie di sottodomini semplici interconnessi, ossia gli

elementi che nel loro insieme compongono la mesh in cui viene discretizzato il continuum,

ognuno dei quali ammette una soluzione semplice. Ad ogni elemento viene associato un modello analitico descritto tramite equazioni (le funzioni di forma, tipicamente polinomiali ed indipendenti dalla realtà fisica osservata), dipendenti solo dalle coordinate spaziali dei

nodi (punti noti dell’elemento che ne descrivono la geometria, nonché punti di

interconnessione tra elementi stessi), con complessità variabile in funzione del modello che è necessario risolvere. E’ importante ricordare che il numero dei nodi (e quindi la dimensione della mesh) deve corrispondere ad un equilibrio tra la ricerca di una soluzione con un grado di approssimazione il più contenuto possibile e la durata della fase di solving del problema, contenendo quindi il costo computazionale. Ogni nodo è libero di muoversi all’interno del dominio del problema (solitamente una retta, un piano o lo spazio), compatibilmente con i vincoli imposti (ricercando ovviamente la coerenza con il modello reale) e sugli stessi si va poi ad imporre condizioni di carico o di spostamento (forze, momenti, pressioni, etc.). Partendo da un sistema continuo ad altissima complessità (come detto, solitamente basato su equazioni differenziali alle derivate parziali), si approssima il problema come un sistema di equazioni algebriche con un numero finito di incognite, con il valore delle stesse calcolato in corrispondenza dei nodi:

4.1 con:

= matrice di rigidezza del sistema (simmetrica definita positiva, dimensione ), che introduce la reazione delle forze ai nodi, per uno spostamento unitario applicato agli stessi. Al suo interno trovano collocazione le informazioni geometriche sul modello e numeriche sui parametri che compongono i legami costitutivi dei materiali.

= vettore degli spostamenti (dimensione 1), al cui interno si trovano i valori degli spostamenti nodali della struttura.

65

= vettore delle forze applicate ( 1).

= gradi di libertà del sistema.

La risoluzione del problema algebrico, possibile se la matrice di rigidezza è invertibile, restituisce il valore delle incognite (che possono essere gli spostamenti nodali, nel caso di forze nodali imposte, o viceversa), risalendo poi tramite l’applicazione dei legami costitutivi al calcolo di grandezze quali sforzi, deformazioni, pressioni di contatto, reazioni vincolari, etc.

Figura 4.1: color map delle pressioni di contatto tra testa femorale ed acetabolo durante il cammino[69]

Si rende necessario fare un piccolo appunto, poiché il metodo fornisce una soluzione del sistema definito dall’equazione 4.1, che in quanto discretizzazione di un continuum non è esatta e sulla quale si renderanno necessarie valutazioni e considerazioni sull’accettabilità in funzione del grado di approssimazione ottenuto, se paragonato con quanto ci si possa attendere nella realtà. L’utilizzo a livello software di color maps (fig. 4.1) per visualizzare la distribuzione dei valori delle incognite sulle singole parti che compongono l’assembly d’insieme che si stia andando ad analizzare è un indubbio aiuto in quanto le macchie di colore (dove ad un gradiente di colori viene associato un range di valori numerici), a livello visivo aiutano l’operatore a capire il grado di coerenza ed affidabilità del risultato.

Applicando il concetto all’ambito di studio di questo lavoro (ricordiamo che l’introduzione dello stesso, per quanto riguarda le analisi di contatto tra protesi e moncone, è avvenuta nella seconda metà degli anni ’80), si può notare che il vantaggio principale proveniente da questo tipo di approccio (se confrontato col metodo sperimentale), è la possibilitá di variare i singoli parametri che compongono il modello, potendone valutare a priori l’effetto di ognuno (ottenendo quindi un feedback quantitativo), senza la necessitá di dover realizzare una nuova invasatura (si veda il flow chart in fig. 4.2) da testare sul paziente (che verrà realizzato solo in seguito all’ottimizzazione completa degli stessi), con grandissimo risparmio di tempo e risorse economiche.

66

Figura 4.2: algoritmo di realizzazione ed analisi di un socket, senza e con l'utilizzo del FEM