• Non ci sono risultati.

L’interazione uomo-macchina

I gravi problemi connessi all’automazione e i numerosi errori legati all’intera- zione uomo-macchina sono da tempo documentati in letteratura76 e sono stati

spesso associati a deficit di vigilanza, mancanza di cura e perdita di una chiara e corretta percezione di ciò che accade o può accadere nell’immediato futuro, cd. Situation Awareness(SA), da parte degli operatori umani77.

Un fattore chiave capace di contribuire in modo rilevante ai problemi di per- formance degli esseri umani, che operano e interagiscono con sistemi automatici complessi, riguarda le cosiddette performance out-of-the-loop (OOTL)78. I proble-

mi di performance out-of-the-loop sono caratterizzati da una minore capacità del- l’operatore umano di intervenire e di assumere il controllo manuale di sistemi complessi e di control loops automatici. È possibile identificare due classi prin- cipali di problemi. La prima è relativa alla difficoltà degli operatori umani, con

75Così Butera, F. Il castello e la rete. Impresa, organizzazioni e professioni nell’Europa degli anni’90.

Vol. 1. FrancoAngeli, 2005. L’autore giunge a questa conclusione dopo aver analizzato la defini- zione di automazione secondo quattro concezioni diverse: l’automazione come tipo particolare di sviluppo tecnico, l’automazione come tecnologia, l’automazione come forma d’integrazione della produzione e dell’impresa e l’automazione come sistema socio-tecnico capace di autoregolazione e di adattamento.

76Cfr. Moray, N., Inagaki, T. e Itoh, M. «Adaptive automation, trust, and self-confidence in fault

management of time-critical tasks.» In: Journal of Experimental Psychology: Applied 6.1 (2000), p. 44; Sarter, N. B. e Woods, D. D. «How in the world did we ever get into that mode? Mode error and awareness in supervisory control». In: Human Factors: The Journal of the Human Factors and Ergonomics Society 37.1 (1995), pp. 5–19.

77Si vedano gli studi condotti da Endsley, M. R. «The application of human factors to the de-

velopment of expert systems for advanced cockpits». In: Proceedings of the Human Factors and Ergonomics Society Annual Meeting. Vol. 31. 12. SAGE Publications. 1987, pp. 1388–1392; Endsley, M. R. e Kiris, E. O. «The out-of-the-loop performance problem and level of control in automation». In: Human Factors: The Journal of the Human Factors and Ergonomics Society 37.2 (1995), pp. 381–394; Parasuraman, R. et al. «Adaptive function allocation reduces performance cost of static automa- tion». In: 7th International Symposium on Aviation Psychology. DTIC Document. 1993, pp. 37–42; Parasuraman, R. e Riley, V. «Humans and automation: Use, misuse, disuse, abuse». In: Human Factors: The Journal of the Human Factors and Ergonomics Society 39.2 (1997), pp. 230–253.

78Kessel, C. J. e Wickens, C. D. «The transfer of failure-detection skills between monitoring and

controlling dynamic systems». In: Human Factors: The Journal of the Human Factors and Ergonomics Society 24.1 (1982), pp. 49–60.

funzioni di controllo, di rilevare errori di sistema e di intervenire manualmente in caso di guasti o malfunzionamenti79. Al tempo necessario affinché l’operato-

re rilevi la presenza di un errore si aggiunge un periodo di tempo significativo affinché comprenda lo stato del sistema e si riorganizzi per agire in maniera appropriata. Questo ritardo è in grado di incidere sia sulla possibilità che l’o- peratore intervenga, sia sull’efficacia delle azioni intraprese. Wickens e Kessel hanno condotto studi di laboratorio, dimostrando tempi più lunghi per la ripre- sa del normale funzionamento del sistema e una scarsa precisione e accuratezza di intervento e risposta degli operatori davanti a eventi critici80. Per superare i

problemi creati da approcci storicamente centrati sulla tecnologia e l’automazio- ne, è stata proposta una filosofia dell’automazione human-ceneterd che prevede un metodo di progettazione centrato sull’utente e partecipativo. Questo tipo di approccio è ormai altamente diffuso in molti domini e in particolare nell’avia- zione e nell’healthcare81. L’obiettivo di un design centrato sull’essere umano è

quello di facilitare le funzioni di controllo e gestione del sistema da parte dell’o- peratore umano. Si tratta quindi di destinare sia agli esseri umani, sia ai sistemi automatici, i compiti a loro più adatti, per ottenere la migliore combinazione tra controllo automatico e controllo umano82. Come postulato da Sheridan e Ver-

planck, l’automazione non è "tutto o niente", non si tratta di automatizzare del tutto o solo parzialmente una certa attività o un dato compito, ma di stabilirne il livello di automazione83. L’assegnazione dei compiti dovrebbe essere assegnata

in modo da ottenere un lavoro di squadra tra esseri umani e sistemi automatici84

Questo tipo di approccio permette di evitare che l’operatore umano svolga un lavoro frammentato e difficile da gestire. Così, negli ultimi decenni sono state sviluppate tassonomie dei livelli di automazione per attività psicomotorie e co- gnitive, per chiarire il range di opzioni tra automazione e assenza di automazio- ne. Alcuni autori hanno chiarito che la decisione su cosa automatizzare non può

79In questo senso Wickens, C. D. e Kessel, C. «The effects of participatory mode and task

workload on the detection of dynamic system failures». In: Systems, Man and Cybernetics, IEEE Transactions on 9.1 (1979), pp. 24–34.

80ibid.; Kessel e Wickens, «The transfer of failure-detection skills between monitoring and

controlling dynamic systems», cit.

81Si vedano Billings, C. E. «Human-centered aircraft automation: A concept and guidelines».

In: (1991); Degani, A. Taming HAL: Designing interfaces beyond 2001. Palgrave Macmillan, 2004; Parasuraman, R. E. e Mouloua, M. E. Automation and human performance: Theory and applications. Lawrence Erlbaum Associates, Inc, 1996.

82Sheridan, T. B. «Task analysis, task allocation and supervisory control». In: Handbook of

human-computer interaction (1997), pp. 87–105.

83Sheridan, T. B. e Verplank, W. L. Human and computer control of undersea teleoperators. Rapp.

tecn. DTIC Document, 1978

84Endsley, M. R. «Automation and situation awareness». In: Automation and human performance:

essere semplicemente basata su un’allocazione delle funzioni per sostituzione85.

Questo approccio, ormai superato, è stato applicato in passato anche attraverso le liste MABA-MABA (Men Are Better At – Machines Are Better At) elaborate da Paul Fitts nei primi anni cinquanta per il settore aeronautico86. Le scelta di

avvalersi di una tassonomia dei livelli di automazione (LOAT-Level Of Auto- mation Taxonomy), come strumento per l’analisi giuridica della responsabilità, risiede nella possibilità di:

(1) identificare il livello di automazione di una tecnologia, con riferimento a specifiche funzioni cognitive;

(2) determinare l’esatta divisione dei compiti tra uomo e macchina;

(3) investigare il tema della responsabilità associandola al livello di automazio- ne e alla divisione dei compiti.

In particolare, la LOAT permette di definire il modo in cui le attività sono distribuite tra l’essere umano e la macchina e il grado di coinvolgimento di en- trambi nel sistema87, così da poter allocare in modo più corretto la responsabilità

in caso di eventi dannosi.