• Non ci sono risultati.

3.1 I MODELLI PREDITTIVI E LA NASCITA DI UN APPROCCIO POSTDITTIVO IN ARCHEOLOGIA

3.1.3 Essere certi dell’incertezza

Secondo la classificazione fornita da Verhagen281 un buon modello predittivo deve soddisfare

almeno cinque requisiti; non deve limitarsi ad una zonizzazione con aree suddivise in alta, media e bassa probabilità ma deve prevedere una spiegazione dell’approccio adottato; seguire un metodo trasparente e quindi riproducibile; deve essere ottimizzato; deve essere stato testato; deve specificare il livello di incertezza e, di conseguenza, stimare una forchetta relativa rischio nella classificazione delle aree.

La qualità di un modello predittivo è giudicata tramite una formula che fornisce il rapporto tra accuratezza e precisione282, in quanto l’abilità del modello consiste nel limitare il più possibile

l’area con il potenziale più alto.

278GUEMANDI 2001.

279L’interpretazione dei risultati da ricognizione e la visibilità dei siti individuati costituisce, ovviamente, un’ulteriore

questione. Per l’Olanda il tema è stato affrontato da TOL et a. 2004.

280VERHAGEN 2006. 281VERHAGEN 2008, p. 285.

74 Figura 3. La differenza tra accuratezza e precisione: il modello di sinistra ha un livello di accuratezza massimo, ma il sistema a destra è più preciso (da Verhagen 2008).

Nella Indicative Map of Archaeological Values si è affrontato il problema giungendo ad attribuire, in definitiva, a ogni regione dell’Olanda un valore numerico del suo rischio archeologico. Naturalmente, ciò ha generato il sorgere di una serie di difficoltà per le amministrazioni sulla bontà delle scelte da compiere: avere una percentuale dello 0.79 (quindi molto alta in una scala tra 0 e 1) implicava meccanicamente di dover sottoporre ad una rigida tutela quasi l’80% del proprio territorio? Come trattare il bias283? Qual era il rischio o il margine di errore?

283Il termine è mutuato dalle hard sciences, come la fisica, dove indica una costante che può condurre a un errore

sistematico all’interno di un modello. Nella letteratura archeologica bias è considerato quel fattore di distorsione del nostro quadro sul record archeologico (e che agisce principalmente nella fase di raccolta dei dati). Nella prassi predittiva non solo archeologica esso corrisponde a una misura della rigidità e della poca o troppa (c.d. overfitting) flessibilità del modello, che non risulta capace a elaborare tutti i segnali provenienti dai dataset. Nelle procedure di predittività archeologica il bias può essere il non-dato che inficia il risultato finale (cioè la cartografia). Più che essere un problema legato esclusivamente ai sistemi predittivi, il bias è strettamente correlato con le tradizioni generali della ricerca archeologica, e, in particolare, può essere considerato una caratteristica del modo con cui sono raccolti i dati in archeologia.

Distinguiamo, infatti, un bias di tipo concettuale, quando la classificazione di dati avviene seguendo rigidi concetti preimpostati e porta, quindi, a tralasciare una parte del record archeologico e ad esaltarne un’altra. Un bias legato alla visibilità, cioè la probabilità che un manufatto sia segnalato o meno; infine, il bias dell’osservatore, distinto da quello della visibilità e connesso all’abilità dell’osservatore di saper leggere e catturare l’informazione che è visibile. Per una disamina dei bias vedi VAN LEUSEN 2002, pp. 6-19.

Per un’analisi dei bias nelle operazioni di ricognizione archeologica vedi COWLEY 2016; sui bias nei modelli di predittività archeologica vedi CITTER 2012, p 14.

Figura 4. Applicazione del valore di Kvamme a tutte le regioni dell'Olanda (da Verhagen 2008).

Molti sforzi sono stati spesi nel tentativo di risolvere una questione abbastanza complessa, che si snoda tra problemi di inferenza statistica, di raccolta dei dati, di geologia e, ovviamente, di teoria archeologica. Di fatto, è rintracciabile anche una parte di letteratura scientifica che, in maniera abbastanza radicale, sostiene l’impossibilità di giungere a un livello di predittività tale da rendere accettabile il margine d’errore284. Nel tentativo di superare tali posizioni così estreme, si è ricorso

per la verificazione di un modello (quindi per calcolare il suo innegabile e incancellabile livello d’incertezza) all’impiego di una parte del campione dei dataset precedentemente non utilizzata; in tal maniera, si è successivamente applicato il modello predittivo, e verificato così il risultato ottenuto con quello avuto in precedenza. Tale approccio presenta alcune ovvi punti a suo sfavore; in sintesi, anche la seconda metà dei dati, infatti, è ottenuta applicando la stessa metodologia della prima metà e, pertanto, una criticità nel metodo con cui si sono raccolte le informazioni inficerà l’intero gruppo.

Un'altra strada percorribile è quella del ricampionamento, da attuare, per esempio, attraverso la

cross-validation. Non ci addentriamo ulteriormente in questioni strettamente legate alla matematica

e alla statistica e rimandiamo all’ampia e specifica bibliografia edita285, salvo sottolineare, qualora

284Queste posizioni sono molto diffuse soprattutto in paesi quali la Francia o l’Inghilterra, dove l’approccio

metodologico prevalente è quello della sostituzione dei modelli predittivi con attività di ricognizioni a tappeto (full survey) dell’area oggetto d’analisi. Sulla possibilità di predire l’inatteso vedi anche ZUBROW 2015

285Sul campionamento in archeologia ORTON 2000; sul ricampionamento LUNNEBORG 2000; sulla statistica

76

non fosse già chiaro, come ancora non sia stata trovata una soluzione valida per testare al meglio i modelli e come la questione rimanga aperta.

Maggiore successo ha ottenuto il tentativo di inserimento nei sistemi predittivi di alcuni strumenti per calcolare e rendere oggettivi parametri chiaramente soggettivi quali le opinioni degli esperti. Si tratta di un approccio che, come abbiamo visto, caratterizzava inizialmente i sistemi costruiti con metodo deduttivo.

Tra le possibilità che le scienze matematiche ci offrono, al di là della logica fuzzy già discussa nei capitoli precedenti, gioca un ruolo di primo piano l’inferenza bayesiana, non a caso uno degli approcci metodologici più utilizzati per la risk analysis286.

La matematica bayesiana è già entrata a far parte del mondo dell’archeologia287, venendo utilizzata

soprattutto per la calibrazione del C14288. Per le nostre ricerche, e in maniera assai sintetica, basti

sapere che nell’approccio bayesiano la probabilità è strettamente collegata al grado di valore dato all’evento sulla base di un giudizio emesso da persone esperte. È pertanto considerata la possibilità di modificare il valore della probabilità data a priori, ottenendo così una probabilità definita a posteriori. Sebbene non si tratti di un metodo eccessivamente complicato, soprattutto dopo l’avvento del computer, la sua conoscenza non è, naturalmente, inserita tra le nozioni su cui solitamente si confrontano gli archeologi. Questo potrebbe spiegare perché sia abbastanza limitato il numero di lavori di predittività che sfruttano tale approccio289. Esso ha il grande pregio, almeno per

il campo di nostro interesse, di esplicitare all’interno dell’analisi statistica convinzioni soggettive precedenti, producendo una stima dell’incertezza delle probabilità calcolate espressa attraverso intervalli di deviazioni e credibilità. In tal maniera, si riesce a dare un valore numerico alle ‘opinioni degli esperti’, che costituiscono uno dei parametri del prodotto finale della c.d. posterior densities

result. Naturalmente il valore può essere manipolato in base alla mancanza o meno di dati

archeologici puntuali, alzandolo o abbassandolo di conseguenza.

Per concludere questa brevissima esposizione, ci sembrano perfette le parole di Citter:

286Sui principali metodi di risk analysis e di quantificazione dell’incertezza vedi DE GUIO 2015, pp. 304-305. Tra le

altre procedure citiamo la Dempster Shafer: vedi MALPICA et al. 2007; CANNING 2005. Sull’incertezza nel archaeological computation modeling vedi BROUWER BURG 2016.

287BUCK 1999. 288BAYLISS 2015.

289Rassegna in VERHAGEN et al. 2011, p. 570 dei modelli predittivi editi; per gli ultimi aggiornamenti vedi i lavori di

HITCHINGS et al. 2016; 2013 sulla Giordania. Sull’inferenza bayesiana nella Landscape Archaeology vedi FINKE et al. 2008.

«L’indeterminatezza è parte integrante della predittività, ma questo non comporta anarchia290».