• Non ci sono risultati.

4. Metodi probabilistici per l’analisi del rischio

4.9 Metodi per la valutazione dell’errore dell’operatore

I fattori umani ed organizzativi contribuiscono ad un grande numero di incidenti nell’industria di processo, perciò è di primaria importanza includere i fattori umani e organizzativi nella valutazione del rischio (Ahmad & Al, 2014)Vista la complessità sempre più crescente degli impianti, infatti, la mole di informazioni necessaria per la gestione dell’emergenza è così alta che non è più trascurabile il contributo legato all’errore umano (G. Di Costanzo, 2006)

26

Esistono varie tecniche per l’analisi dell’affidabilità umana (HRA), volte alla valutazione del rischio lavorativo derivante dall’errore umano.

Per una valutazione probabilistica del rischio si identificano tutti i rischi, compresi gli errori umani, a cui il sistema è esposto, dandone una stima quantitativa e si inseriscono queste informazioni in una rete Bayesiana per valutarne il contributo.

Lo sviluppo delle tecniche HRA è chiaramente legato a quello dell’industria a rischio di incidente rilevante laddove gli incidenti di grande impatto in termini di perdita di vite umane ed effetti disastrosi sull’ambiente hanno messo in luce l’importanza delle performance degli esseri umani per prevenirne le evoluzioni.

4.9.1 Metodo THERP e SLIM

Due importanti lavori finalizzati allo studio della predizione dell’errore umano viene dal campo nucleare attraverso lo sviluppo delle cosiddette tecniche di expert judgement, e sono i metodi SLIM (Success Likelihood Index Methodology) e THERP (Technique for Human Error Rate Prediction) ( (Swain, 1983)).

Un metodo che aiuti a capire meglio l’errore umano e le sue conseguenze può derivare dall’identificazione degli errori possibili. I due metodi che propongono questo tipo di approccio slegano i punti di vista associati alla colpa e al giudizio e si focalizzano su una prospettiva di sistema. Attraverso questo punto di vista, l’errore umano viene visto come la naturale conseguenza che viene fuori dalla discontinuità tra le capacità umane e le richieste di un sistema. Questi punti di vista sono centrali nella gestione della sicurezza di un processo. (Wilson, (2003)). Nello sviluppo di questi metodi (DiMattia & Al, 2004) si cerca di fare in modo di rendere quelle che sono decisioni soggettive (da prendere in condizioni particolari), in modalità le più oggettive possibile. A tal proposito sono stati considerati gli incidenti più tipici per l’industria di processo. Da questi si sono analizzate le varie azioni sulle quali un operatore o un essere umano è chiamato tipicamente ad intervenire e quindi, sulle quali può manifestarsi il suo errore. In ognuna di queste attività sono state riconosciute delle Performance shaping factor, o elementi che possono influire sull’occorrenza dell’errore, e poi da queste sono state estrapolate delle probabilità di errore.

27

Gli scenari presi in considerazione, per cui sono stati effettuati degli studi sull’ expert judgement, sono quelli legati ad incendio, esplosione e rilascio di sostanza tossica, e sulla base di questi sono state analizzate le attività degli operatori e le Performance shaping factor che possono influenzarne le attività.

Come già detto, su ognuno di questi incidenti sono state effettuate le analisi delle azioni gerarchiche da compiere (da parte del personale) dall’accadimento dell’incidente fino a chiusura dell’emergenza. Tali attività sono comunque indipendenti dal tipo di incidente, visto che si focalizzano su quanto accade dopo l’incidente, quindi non sono strettamente legate al tipo di incidente stesso (Fig 2). Di seguito delle rappresentazioni schematiche di tali attività, estrapolate dai metodi THERP e SLIM.

28

3.Rischio associato al tempo di attività e delle attività operatore (Fonte: DiMattia et Al)

Come si vede dalla figura 3, sono riconoscibili delle specifiche fasi tra un Evento iniziale e le fasi di chiusura, per ognuna di esse, sono riconoscibili delle attività, tutte soggette a potenziali errori. Rispetto a queste attività, si deve tenere conto delle Performance Shaping factor, che sono quelli che possono influenzare l’accadimento degli errori. I Performance Shaping factors, infatti, sono quei parametri che vanno ad influenzare l’operatore o l’essere umano che interviene in caso di incidente. Molti metodi si basano sulla determinazione delle performance di un essere umano proprio sulla base di tali fattori, permettendo l’attribuzione di un perso, ovvero un fattore moltiplicativo associato alla probabilità di fallimento dato quel fattore. La descrizione qualitativa delle Performance shaping factors è descritta in Figura 4.

29

E’ molto importante capire quale peso tali fattori abbiano nella performance di un operatore, nella determinazione delle frequenze di fallimento associato. Nel caso del THERP e SLIM, sono stati messi su grafico i vari fattori per ogni attività (Figura 5 ).

5.Peso di ciascun PSF nelle performance operatore (Fonte: DiMattia et. Al)

Si vede da Figura 5 come il fattore di allenamento ed esperienza vadano più o meno insieme, come ci si può aspettare. Le attività associate alla valutazione sono quelle in cui è lo stress quello che influisce di più, mentre negli altri, che presuppongono applicazioni fisiche, è l’allenamento che gioca un ruolo più importante.

La quantificazione centrale di questo metodo, però, è quella che associa a ciascuna attività una probabilità nominale di errore umano.

Nel volume Handbook of Human Reliability Analysis with Emphasis on Nuclear Power

Plant Applications (Swain G. , 1985) si ha un gran numero di valori di probabilità

nominale raggruppati in 27 tabelle e schemi guida per la selezione della tabella idonea al caso specifico. In questo modo i dati risultano facilmente consultabili e selezionabili, ma è essenziale per un corretto utilizzo essere a conoscenza del contesto a cui tali dati si riferiscono.

30

Ogni tabella è suddivisa nelle componenti minime del compito e, per ciascuna di queste componenti, solitamente sono riportati due valori numerici: la HEP nominale e l’error factor (EF) (la radice quadrata del rapporto tra il limite d’incertezza superiore (LUB) e quello inferiore (UUB), avendo ipotizzato una distribuzione lognormale della HEP).

Il metodo THERP viene considerato uno dei metodi più completi oltre a costituire l’unica fonte di dati disponibile in riferimento alle probabilità di errore umano, anche se considera il comportamento dell’uomo alla stessa stregua di un qualsiasi componente meccanico. Inoltre, questa tecnica ignora quelli che vengono definiti errori cognitivi lavorativi, cioè l’insieme di quegli errori derivanti da processi cognitivi quali il ragionamento, la formulazione di soluzioni, la selezione di strategie, considerando solo errori di tipo ommission/commission.

Per quanto attiene alla valutazione dell’affidabilità umana in riferimento ai compiti procedurali, THERP, così come strutturato, può essere considerato un metodo di riferimento, pur richiedendo, per il suo impiego, la formazione di personale esperto e una quantità non trascurabile di risorse.

4.9.2 Metodo TESEO

Un esempio di modello ad indici di semplice e immediata applicazione per la valutazione delle probabilità di errore dell’operatore addetto al controllo di un sistema complesso.

Secondo questo metodo, la probabilità di errore Pe dell’operatore è il prodotto di cinque fattori, ciascuno caratterizzante un aspetto (uomo, impianto, ambiente, etc.)

Pe = K1 • K2 • K3 • K4 • K5 dove:

K1 indica il tipo di attività che quantifica il grado di routine: se l’attività è abituale

per il lavoratore, la probabilità di un possibile errore può essere bassa.

K2 è il fattore di stress legato al tempo necessario per svolgere l’attività (di routine

e non di routine) e al tempo disponibile: un aumento di stress tende a tradursi in maggiore possibilità di rischio di infortunio.

K3 è il fattore relativo al grado di esperienza ed alla formazione: una maggiore

31

K4 è il fattore di ansietà relativo all’attività dipendente dalla situazione

lavorativa, da una grave emergenza, da un’emergenza potenziale o da condizioni non effettive ma possibili.

K5 è il fattore che tiene conto delle condizioni ambientali e della facilità d’uso

delle attrezzature con cui l’operatore entra in contatto.

I cinque fattori rappresentano in sostanza dei Performance Shaping Factors in corrispondenza di diverse situazioni. Di seguito, vengono riportati degli estratti delle tabelle con i valori di alcuni fattori per l’applicazione del modello (Madonna et al)

Se risulta Pe>1, allora si assume Pe=1.

32

Il metodo TESEO può essere impiegato per valutazioni semplici e veloci delle attività degli operatori.

La struttura semplice del metodo si presta molto bene per quantificare il grado di affidabilità degli operatori in situazioni specifiche. I suoi dati in uscita sono ragionevolmente in accordo con le valutazioni fornite da giudici esperti.

Uno svantaggio è dato dalla mancanza di un vero fondamento teorico, soprattutto in relazione ai dati usati per lo sviluppo del metodo, e il fatto che i cinque fattori vengono definiti una volta per tutte.

Nel lavoro di questa tesi, verranno messi a confronto i due metodi descritti attraverso l’implementazione nella rete Bayesiana, per capire se la caratterizzazione del contributo umano negli incidenti a cascata è credibile. I risultati che si aspettano saranno coerenti ma mentre sarà possibile avere delle panoramiche diverse con delle distribuzioni logonormali, con il metodo Teseo i valori saranno compresi nell’intervallo e fissi.

4.9.3 Altri metodi: OATS, HCR, CREAM

Oltre ai metodi sopra citati, esistono altre tecniche per lo studio delle performance di un operatore in un contesto incidentale. Questi metodi non sono stati presi in considerazione per il lavoro di questa tesi, di seguito i dettagli che ne spiegano i motivi.

Il metodo OATS nasce con lo scopo di considerare gli errori commessi nel corso di un incidente e in condizioni di emergenza, valutando il tempo a disposizione dell’operatore nel mettere in atto le procedure per il ripristino del malfunzionamento. Come nel caso HCR, esso si differenzia dagli altri metodi in quanto prende in considerazione l’aspetto dinamico dell’interazione uomo- macchina e la dipendenza temporale delle probabilità. Sebbene il metodo OATS sia esportabile in ambienti di lavoro eterogenei, non considera in modo adeguato le differenze temporali che ci possono essere tra un tipo di performance e un altro. Questo porta lo studio del rischio ad essere piuttosto fragile. (Madonna & Al, 2009)

Il metodo HCR è stato sviluppato al fine di quantificare, in funzione del tempo, la probabilità di non risposta ad una situazione accidentale. Essendo calibrato su dati specificatamente legati all’ambito dell’industria nucleare, mal si presta per l’applicazione agli impianti chimici.

33

In ultimo, il metodo CREAM rientra nei metodi di valutazione dell’affidabilità umana cosiddetti ‘’di seconda generazione’’, in quanto si focalizza sul contesto operativo ed è basato sulla task analysis.

Questo modello permette una rappresentazione precisa, approfondita e soprattutto, dinamica delle interazioni uomo macchina, perché è in grado di seguire il processo temporale e logico che conduce a manifestazioni di azioni non adeguate.

Nonostante ciò, questo metodo non è in grado di inquadrare tutta la sequenza di un incidente, nel quale si verificano diversi episodi di errore e/o malfunzionamento che si combinano per dare origine alle conseguenze indesiderate di un incidente.

34

5 Metodologia

Di seguito una rappresentazione schematica delle attività di questa tesi, applicate al contesto degli incidenti a effetto domino (Figura 7):

35

La prima parte del lavoro (Figura 7), è stata dedicata ad una raccolta di dati sulle barriere di protezione. Per questo scopo sono state raccolte informazioni tramite i database (CCPS), (THERP), (OREDA), sulle modalità e le frequenze di guasto delle barriere e il comportamento degli operatori. Nel caso degli operatori, inoltre, è stata effettuata un’analisi storica degli incidenti a effetto domino nei quali la loro azione intermedia può aver permesso la mitigazione o determinato la propagazione degli incidenti.

A partire dai dati sono state ricavate le distribuzioni di probabilità di guasto a priori delle barriere, ed inserite nel modello Bayesiano per ricavarne le performance e la loro influenza nell’accadimento dei possibili scenari finali legati ad un contesto incidentale. Tramite l’inserimento delle evidenze, è stato possibile aggiornare le performance delle barriere ed adattarle al meglio al contesto specifico di studio.

Infine, l’integrazione dei costi delle barriere alle loro performance di prevenzione degli incidenti ha permesso di effettuare un’analisi cost- effectiveness delle configurazioni ottimali di barriere legate a diversi gradi di escalation, e da queste sono stati determinati dei criteri per la predisposizione degli interventi di emergenza.