• Non ci sono risultati.

Studi scientifici tesi alla descrizione e riduzione del rischio di errore Non

Capitolo III: L’importanza delle scienze comportamentali per la

3.3 Studi scientifici tesi alla descrizione e riduzione del rischio di errore Non

ad ogni azione.

Dinanzi al “problema errore”, nel corso degli ultimi anni gli studi, oltre all’indagine condotta verso una comprensione fenomenologica, hanno cercato di individuare e mettere a punto modelli e sistemi il cui obiettivo fosse una valutazione e riduzione del rischio di errore; per fare ciò, in molti casi la ricerca è stata avviata affiancando il termine “uomo” al termine “macchina”. Le diverse tecniche per l’analisi dell’affidabilità umana (HRA) che sono nate, sono state generate per andare incontro alle esigenze della valutazione probabilistica del rischio (PRA) al fine di quantificare il contributo dell’errore umano al verificarsi di

un determinato incidente259. Considerando l’approccio HRA come una

specializzazione della PRA circa i fattori rilevanti dell’affidabilità umana, tale approccio può essere utilizzato con l’obiettivo di fornire una valutazione maggiormente dettagliata dei rischi inerenti al sistema e l’ambiente associati al fattore umano. L’idea motrice degli studi è quella secondo la quale una valutazione probabilistica del rischio identificherebbe tutti i rischi, compresi gli errori umani, a cui il sistema e l’ambiente sono esposti, potendone dare una stima quantitativa ed inserendo tali informazioni in “un albero” degli eventi e dei guasti ad essi associati. Tra le molteplici tecniche messe a punto, se ne vogliono indicare qui in seguito le principali, lasciando l’analisi – assai complessa – nella sua specificità e nella sua completezza ad altra sede.

- Tecnica per la predizione del tasso di errore umano (THERP)

Questo metodo costituisce lo sforzo più complesso e completo, ad oggi, di produrre metodi e dati per l’analisi sistematica di errore in quanto consentirebbe di predire la probabilità di errore umano e di valutare le possibilità di degrado di un sistema uomo-macchina. Questo sarebbe possibile andando ad associare gli errori umani considerati in sé con il funzionamento delle attrezzature e con le procedure pratiche operative, oppure con le diverse caratteristiche tipiche del comportamento umano e dell’ambiente nel quale esso vive. La caratteristica principale del metodo è la decomposizione di un compito in sotto-compiti, per ciascuno dei quali viene fornita la probabilità di errore umano con i corrispondenti limiti di confidenza. Attraverso questa tecnica ogni azione dell’agente umano viene analizzata con le stesse modalità con cui viene valutata l’affidabilità dei componenti meccanici del sistema, aggiungendo “degli aggiustamenti” necessari per la “peculiarità” della prestazione umana. Le azioni errate degli operatori vengono suddivise in errori di omissione ed errori di commissione e lo strumento analitico di base che viene utilizzato è il c.d. “HRA event tree”.

Completata la parte qualitativa, la quantificazione consiste nell’associare a ciascun nodo dell’albero una probabilità nominale di errore umano. L’aggettivo

127

nominale sta ad indicare che questi valori prescindono dalla situazione specifica in esame e devono pertanto essere a questa adattati. Di conseguenza, per poter considerare le caratteristiche specifiche del caso concreto in esame risulta necessario passare dalla probabilità nominale di errore (HEP) a quella effettiva, e per fare ciò devono essere presi in considerazione gli effetti dei fattori che strutturano la prestazione (PSF). Il metodo identifica tre categorie principali in cui vengono inclusi i PSF:

- fattori esterni, i quali comprendono le caratteristiche fisiche dell’ambiente, le procedure richieste, le informazioni a disposizione e la qualità dell’interfaccia macchina-uomo;

- fattori interni, i quali indicano le caratteristiche personali dell’agente come le abilità, l’esperienza, la motivazione e le aspettative;

- fattori di stress, i quali raccolgono il tipo e la consistenza degli elementi stressanti che è possibile trovare all’interno di diversi contesti, situazioni o circostanze.

- Tecnica empirica per la stima degli errori degli operatori (TESEO) Questa tecnica si presenta come un semplice modello ad indici di semplice ed immediata applicazione orientato alla valutazione delle probabilità di errore di un operatore addetto al controllo di un sistema complesso. L’obiettivo del metodo TESEO sarebbe quello di determinare la probabilità di errore Pe dell’operatore attraverso il prodotto di cinque fattori K, ognuno caratterizzante un aspetto del sistema.

Pe = K1 • K2 • K3 • K4 • K5

- K1 è il fattore relativo al tipo di attività che qualifica il grado di routine: se l’attività è abituale, la probabilità di un possibile errore tende ad essere più bassa.

- K2 è il fattore di stress legato al tempo necessario per svolgere un’attività, sia di routine che non, e al tempo disponibile: un aumento di stress tende a tradursi in maggior possibilità di commettere un errore nella prestazione.

- K3 è il fattore relativo al tipo di operatore assegnato in relazione al livello occupazionale, al grado di esperienza ed alla formazione: una maggiore esperienza comporta una riduzione drastica della probabilità di errore.

- K4 è il fattore di ansietà relativo all’attività e dipendente dalla situazione lavorativa, da una grave emergenza, da un’emergenza potenziale o da condizioni non effettive ma possibili.

- K5 è il fattore che considera le condizioni ambientali e dell’ergonomia delle attrezzature o apparecchiature con cui l’agente entra in contatto.

128

- Tecnica di affidabilità con riferimento al tempo (OATS)

L’albero delle azioni dell’operatore (OATS) è stato sviluppato in modo specifico per considerare gli errori degli operatori quando questi sono chiamati ad intervenire per il verificarsi di condizioni anormali. Il metodo si basa su un albero logico che identifica le modalità di fallibilità possibili a seguito del verificarsi di un determinato incidente. Attraverso questa tecnica si identificano tre tipologie di errore a carattere prettamente cognitivo:

- errore nella percezione del fatto circa la verificazione di un evento incidentale;

- errore nella diagnosi della natura dell’evento incidentale e nell’identificazione delle azioni necessarie per porvi rimedio;

- errore nella valutazione temporale della messa in atto dei comportamenti corretti.

- Metodo di affidabilità cognitiva umana (HCR)

La finalità di questo metodo è quella di modellare le azioni dell’agente considerando che il tempo T a disposizione è il vincolo principale e che un corretto svolgimento implichi necessariamente aspetti cognitivi. Questa tecnica vuole fornire la probabilità di errore, chiamata anche probabilità di non risposta entro il tempo T, dovuta ad uno svolgimento troppo lento dell’azione da compiere, senza considerare l’errore di percezione né l’errore di scelta del provvedimento da prendere.

- Metodo dell’affidabilità cognitiva e dell’analisi dell’errore (CREAM)260

Questo è un metodo di seconda generazione rispetto a quelli considerati in precedenza in quanto la concentrazione maggiore è posta ora quasi esclusivamente sulla performance umana. Inoltre, mentre nelle metodologie di prima generazione la definizione di errore è basata sul dualismo omissione- commissione, derivante dalla funzione logica di successo-non successo che descrive il comportamento degli elementi meccanici nelle analisi di affidabilità, le metodologie di seconda generazione si basano su un modello che considera innanzitutto le funzioni cognitive dell’agente. Una caratteristica peculiare del modello cognitivo è quella per cui le indagini di tipo retrospettivo e prospettico risultano facilitate.

- L’indagine retrospettiva parte dalla valutazione degli eventi quali incidenti, quasi incidenti e situazioni di pericolo, cercando di ricostruire la sequenza incidentale per risalire alle cause primarie al fine di sviluppare delle misure di prevenzione.

- L’indagine prospettica consiste nella predizione e nella valutazione dei rischi e delle conseguenze derivanti da sequenze incidentali di

260 E. Hollnagel, Cognitive reliability and error analysis method (CREAM), Amsterdam, Elsevier, 1998, capp. VI-IX.

129

vari livelli di gravità, derivanti da diversi eventi iniziatori e da diverse interazioni uomo-macchina, con l’obiettivo di contribuire allo sviluppo di sistemi di controllo. Una delle finalità più rilevanti di questo tipo di indagine è quella di fornire un valore quantitativo dell’affidabilità umana nel contesto della PRA.

Questo metodo identifica nove “common performance conditions” (CPC), a ciascuna delle quali è associato un livello qualitativo: la relazione

permetterebbe di far emergere quali fattori contestuali influenzino

negativamente la performance umana. Il modello cognitivo utilizzato dal metodo CREAM è il c.d. “Contextual control model” (CoCoM), il quale pone come assunto di base l’ipotesi che il comportamento umano sia regolato da due principi fondamentali: α) la natura ciclica della cognizione umana e b) la dipendenza dei processi cognitivi dal contesto e dall’ambiente di lavoro. Questo modello fa riferimento al paradigma “Information Processing System” (IPS) e considera separatamente le funzioni cognitive con i loro meccanismi di collegamento (modello delle competenze) e i processi cognitivi che ne regolano l’evoluzione (modello del controllo).

- Il modello delle competenze considera le funzioni cognitive fondamentali del comportamento umano, includendo anche la conoscenza e l’abilità della persona.

- Il modello del controllo rappresenta invece una sorta di modello metacognitivo che gestisce l’evoluzione dei processi decisionali e comportamentali in funzione delle condizioni contestuali in cui queste avvengono.

Il modello prevede quattro livelli diversi di controllo:

- strategico; - tattico;

- opportunistico; - impulsivo.

Questi livelli rappresentano gli atteggiamenti di un operatore nei confronti della sua competenza e determinano in ultima analisi la sequenza dei processi cognitivi e delle azioni. Nella tassonomia associata al modello CoCoM viene mantenuta una suddivisione logica tra gli elementi fondamentali del procedimento che porta alle azioni errate, ossia una suddivisione tra cause, conseguenze ed effetti/manifestazioni propri degli errori umani. Le cause dei comportamenti umani, definite anche genotipi, vengono identificate con le ragioni che determinano il verificarsi di determinate prestazioni o specifici comportamenti. Le cause possono ulteriormente essere suddivise in cause interne, dipendenti dall’individuo, e cause esterne, dipendenti dal sistema. Le conseguenze sono il risultato dell’interazione macchina-uomo e risultano implicitamente ottenute dagli eventi reali. Gli effetti e le manifestazioni, denominati anche fenotipi, sono infine rappresentati rispettivamente dalle forme errate del processo cognitivo e dalle vere e proprie espressioni esterne del comportamento fallace, ossia dalle azioni ritenute inappropriate. Con questo modello la distinzione cause-effetti risulta necessaria ai fini dell’analisi dell’interazione uomo-macchina, così da permettere un collegamento logico tra

130

di essi nella ricerca e nell’identificazione delle cause primarie che hanno dato origine alle manifestazioni fallaci in termini di azioni umane.

Sulla base di questi e altri numerosi studi, sono stati altresì definiti dei requisiti ritenuti essenziali ai fini di uno sviluppo costruttivo di una metodologia di analisi dell’errore umano, inclusi essenzialmente in quattro fasi:

i. sviluppo e/o applicazione di un modello di riferimento di

comportamento umano;

ii. sviluppo e/o applicazione di una classificazione o tassonomia di comportamenti erronei, da correlare al modello di riferimento di comportamento umano per una rappresentazione strutturata degli errori umani;

iii. disponibilità di fonti e dati sull’affidabilità umana che siano quantitativamente e qualitativamente significativi;

iv. descrizione di un metodo dove siano esplicitati i passi da seguire per l’applicazione dell’analisi.

La base di partenza sono dunque i modelli di comportamento umano, e attraverso gli elementi qui elencati, o meglio, utilizzando le tecniche messe a punto grazie agli studi sperimentali e di ricerca, l’obiettivo finale è una descrizione del processo cognitivo dell’essere umano relazionata alla c.d. performance umana261. La tassonomia, ossia la classificazione di un insieme di categorie nella quale vengono raccolti dei dati, risulta necessaria per la lettura e la comprensione del modello cognitivo, il quale a sua volta agisce come paradigma di riferimento per la rappresentazione del comportamento umano, utile secondo diversi scopi in base alla materia di riferimento, imprescindibile anche all’interno del complesso mondo del diritto.

È certo che un modello od un metodo, per produrre risultati validi, necessitano di dati in ingresso che siano affidabili, concreti e significativi, e si è visto come ad oggi venga riposta grande fiducia nelle statistiche storiche, nelle esperienze di laboratorio e negli studi e nei giudizi degli esperti di uno specifico settore. I dati di probabilità di errore umano vengono così rilevati direttamente dall’esperienza operativa delle macchine poste in connessione con le prestazioni umane, ovvero dagli esperimenti condotti su gruppi di individui circoscritti, o ancora, attraverso la messa a punto di diverse e più o meno strutturate teorie.

Tuttavia, permane un grosso limite intrinseco ai molteplici modelli di comportamento umano tesi a descrivere, rilevare e ridurre la possibilità di cadere in errore: nonostante la specificità, nessun modello riesce a tenere in assoluta considerazione l’influenza che il contesto, inteso come insieme di fattori esterni ed interni, riesce ad esercitare sulla prestazione umana. Sarà forse perché l’uomo, dopotutto, o meglio, innanzitutto, non è una macchina?

261 In particolare: P. C. Cacciabue, Guide to Applying Human Factors Methods. Human Error and

131