Adelina Brizio, Marco Elena, Davide Mate, Raffaele Rezzonico, Maurizio Tirassa
Università di Torino, Dipartimento di Psicologia e Centro di Scienza Cognitiva, (tel: 011-6703065; e-mail: [email protected]). Università di Torino, Dipartimento di Psicologia e Centro di Scienza Cognitiva, (tel: 011-6703065; e-mail: [email protected]). Università di Torino, Dipartimento di Psicologia e Centro di Scienza Cognitiva, (tel: 011-6703065; e-mail: [email protected]). Università di Torino, Dipartimento di Psicologia e Centro di Scienza Cognitiva, (tel: 011-6703065; e-mail: [email protected]). Università di Torino, Dipartimento di Psicologia e Centro di Scienza Cognitiva, (tel: 011-6703037; e-mail: [email protected]).
Abstract — Discutiamo alcune caratteristiche dell’interazione con tecnologie che appaiono intelligenti senza esserlo (es.
sistemi informatici avanzati). La nostra tesi è che questi artefatti debbano essere integrati nelle reti di attività dell’utente in modo trasparente e accessibile. Poiché le rappresentazioni dell’utente hanno natura narrativa, le tecnologie prese in esame devono essere tali da integrarsi felicemente nelle narrative che descrivono le attività dell’utente.
Parole chiave — Tecnologie intelligenti, Mente narrativa, Cognizione estesa, Cognizione distribuita, Ergonomia
I. INTRODUZIONE
L’interazione con sistemi informatici evoluti pone problemi insoliti nell’ambito dell’ergonomia. E' questo il caso di alcune interfacce e in generale delle macchine che “fanno cose”, che sembrano cioè possedere, diversamente dagli artefatti classici (anche informatici), un nucleo di intelligenza autonomo.
Il problema nasce dall’osservazione che, nonostante questi artefatti non siano realmente intelligenti, sembra esserlo in qualche misura l’interazione tra essi e l’utente umano: non perché ci sia “qualcuno in casa” in grado di interagire nel pieno senso della parola, ma perché l’intelligenza del progettista è incorporata nell’artefatto in modo attivo anziché passivo. Questa caratteristica s’incontra con le predisposizioni biologiche umane alla socialità: se queste ci portano talvolta ad attribuire caratteristiche umane a oggetti inanimati e statici, tanto più vengono favorite e stimolate da artefatti che sembrino interagire reattivamente, e talvolta proattivamente, rispetto ai nostri comportamenti. Può così darsi una parziale attribuzione di umanità, né interamente metaforica né interamente letterale, ma abbastanza marcata da spingerci, nella relazione con artefatti complessi, ad attribuire ad essi personalità indipendente, costruire dialoghi con essi, provare rabbia o gioia o altre emozioni come se stessimo interagendo con un nostro simile.
Si crea così una forma di interazione con l’artefatto che, anziché offrire all’utente semplicemente un attrezzo utile nelle sue attività, lo accompagna e lo assiste nello svolgerle. Posto che la differenza tra i due tipi di artefatti sarebbe meglio descritta con un continuum che con una dicotomia ontologica, appare ovvio che l’accoppiamento strutturale (Maturana & Varela 1980) in un caso e nell’altro è assai differente.
L’interazione con gli artefatti passivi può essere studiata con l’apparato concettuale tipico dell’ergonomia cognitiva classica, basato su nozioni come usabilità (di oggetti, es. Norman 1988, o di siti web, es. Nielsen 1999) o affordance (Gibson 1979) e sui loro derivati. Queste nozioni fanno riferimento a un’interazione nella quale l’intelligenza attiva è sostanzialmente unilaterale, cioè in mano all’utente: riteniamo che esse siano necessarie ma non sufficienti per rendere conto del caso che stiamo discutendo.
II. L’INTERAZIONE CON IL MONDO E CON GLI ARTEFATTI
Gli esseri umani cercano, interagendo con il mondo, di mantenere coerenza su almeno tre livelli, ciascuno dei quali è dinamico nel tempo sia in sé sia negli intrecci che ha con gli altri:
4. Il tentativo di mantenere coerenza più immediatamente visibile è relativo alla specifica rete di attività nella quale un agente è impegnato momento dopo momento. Dietro questo tentativo, e fusi con esso, ce ne sono però almeno altri due, che acquistano particolare importanza nel caso in discussione:
5. Il tentativo di mantenere coerenza nel proprio senso di agentività. A sua volta, la nozione di senso di agentività ne sussume altre, come la coerenza narrativa, il mantenimento della dinamica delle identità personali come centro di gravità della narrazione e il mantenimento della sensazione di proprietà (ownership) dell’azione. 6. Il tentativo di mantenere il senso comune sulla natura del mondo esterno e sulle sue dinamiche. Questo si
fonda su conoscenze e aspettative relative ai mondi fisici (reali o virtuali) e ai mondi intenzionali, sociali, culturali (di nuovo: reali o virtuali) con i quali l’individuo è in grado di interagire.
Se questo tipo di analisi è necessario per comprendere le interazioni delle persone con il mondo, lo è altrettanto nella
36
progettazione che di (parte di) tali interazioni fa chi disegna un artefatto, e tanto più se esso è del tipo dotato di intelligenza apparente. I principi guida per la creazione di un tale artefatto dovrebbero seguire i principi strutturali e dinamici che consentono al soggetto di mantenere, nell’ambiente che sta esplorando, i diversi livelli di coerenza che abbiamo delineato. Ad esempio:
Ogni azione che l’utilizzatore compie deve avere una conseguenza visibile, sensata e tale da consentire il monitoraggio. Le reazioni e le risposte date dall’artefatto devono essere temporalmente accettabili e comprensibili per l’utente.
La sequenza dei processi e degli eventi deve essere visibile e governata dalle scelte dell’utente: è l’utente che usa l’artefatto e non viceversa. Naturalmente le scelte dell’utente dipendono anche dalla sua interpretazione delle attività nelle quali è coinvolto, che includono l’artefatto stesso: il mantenimento dell’utente come centro di gravità dell’attività in corso deve essere in grado di evitare un problema di circolarità.
Poiché gli esseri umani leggono e interpretano l’intenzionalità, la natura non-intelligente e i margini di manovra dell’artefatto devono essere chiaramente riconoscibili, interpretabili e accettabili per l’utente. Si tratta di rendere ben chiaro all’utente che l’artefatto non contiene alcuna forma di intelligenza autonoma.
L’artefatto deve consentire l’evoluzione dell’utilizzo secondo le attività e le caratteristiche di apprendimento dell’utente che, essendo un organismo vivente, è in continuo cambiamento ed evoluzione.
Poiché gli esseri umani danno senso al proprio essere nel mondo attraverso la costruzione e l’evoluzione di narrazioni che riguardano (anche) le proprie interazioni con il mondo (Carassa, Morganti & Tirassa 2004, 2005), l’interazione con l’artefatto deve essere progettata in modo tale che gli utenti possano organizzare dei flussi narrativi intorno e sopra ai flussi di attività nel corso dei quali interagiscono con l’artefatto. Tali flussi narrativi devono includere una chiara percezione delle modalità con le quali le iniziative, l’affidabilità e le responsabilità sono distribuite tra l’utente e (il progettista de) l’artefatto.
III. ESEMPI DI LINEE GUIDA PER L’ERGONOMIA NARRATIVA
I processi di elaborazione del sistema esperto (o comunque lo si voglia chiamare) devono essere visibili all’utente, non soltanto mostrando i risultati finali rilevanti, ma consentendo anche un monitoraggio/controllo degli eventi, secondo le capacità e i desideri dell’utente. Il punto riguarda non tanto il livello della programmazione o comunque tecnologico in senso stretto, che deve ovviamente essere accessibile ma che per la maggior parte degli utenti sarebbe incomprensibile o confusivo, quanto il livello che Marr (1982) o Chomsky (1980) chiamerebbero rispettivamente teoria
computazionale o livello della competence: cosa il sistema fa, come e perché, nella cornice della rappresentazione che
l’utente ha delle attività in corso e delle sue interazioni con l’artefatto. E' questo livello che deve essere normalmente visibile e accessibile.
La disponibilità di una mappa competenziale è necessaria perché gli esseri umani hanno bisogno di costantemente monitorare e controllare gli ambienti nei quali vivono e interagiscono, sia per essere efficaci e autoefficaci (Bandura 1997) nelle attività in corso sia per poter imparare dall’interazione stessa, anche quando questa porti a variazioni minime o nulle.
L’utente deve dunque essere parzialmente e flessibilmente coinvolto nei processi interni dell’artefatto: se anche ciò può non ottimizzare i tempi nell’immediato, tende a ottimizzare l’interazione a mano a mano che l’utente prende confidenza con l’artefatto. (Il che significa anche che si ragionerà differentemente e si costruiranno mappe competenziali differenti nel caso di artefatti destinati a un uso occasionale e veloce e nel caso di artefatti destinati a essere adottati all’interno di pratiche più ampie, articolate, complesse e persistenti o ripetute nel tempo.)
Si dovrebbe dunque uscire dalla logica nella quale si chiede all’utente di limitarsi a fornire informazioni e comandi lasciando all’elaboratore il compito di produrre il risultato, per passare a una logica interattiva, nella quale l’utente entra di diritto nel processo stesso. Un esempio estremo di questa necessità si può avere quando l’elaborazione non porti ad alcuna modifica nei risultati: un sistema che profili l’utente e reagisca al profilo costruito può non dare variazioni se il profilo viene modificato su caratteristiche non rilevanti per l’interazione in corso. E' tuttavia necessario che il sistema renda comunque disponibile una spiegazione di questa apparente immobilità, perché il dato aggiunto potrebbe essere significativo per l’utente e l’assenza di reazioni potrebbe portare l’utente a percepire il sistema come inadeguato alle sue esigenze e non sufficientemente sensibile rispetto alla sua situazione, o per contro può avere la percezione di essere lui stesso inadeguato rispetto all’artefatto.
In termini di “comunicazione” tra utente e artefatto il passaggio richiesto è quello da una concezione di comunicazione come trasferimento d’informazione (Shannon & Weaver 1949) a quello di una co-costruzione e negoziazione del significato, nella quale l’utente percepisce il proprio essere attivo in tutte le fasi del processo di elaborazione (Tirassa & Bosco 2008). Naturalmente, la negoziazione in questo caso assume caratteristiche assai peculiari: l’artefatto essendo non-intelligente, in realtà fornisce un supporto esterno a una negoziazione che l’utente svolge con se stesso e con il mondo materiale, non con un altro agente strictu senso.
Un’altra questione che s’inserisce sulla stessa linea può essere la temporalità. I processi dell’elaboratore sono generalmente veloci rispetto alle capacità umane: può essere utile inserire una rappresentazione visiva
37
dell’elaborazione, che dia all’utente la percezione che i dati inseriti siano importanti e articolati e abbiano ricevuto la necessaria attenzione. Gli esseri umani danno per scontato che le informazioni rilevanti debbano essere trattate con accortezza e precisione, e che ciò richieda un tempo di elaborazione più lungo. Perdere questo rapporto potrebbe indurre la sensazione che i dati o gli atti dell’utente siano trattati in modo approssimativo, impreciso e banalizzante.
La percezione che l’utente si costruisce circa l’affidabilità complessiva del sistema si basa non solo e non tanto sulla correttezza di elaborazione, spesso difficile o irrilevante da valutare, quanto semmai sulla percezione di interagire con un sistema le logiche del quale siano comprensibili e fruibili, e mantengano nel vissuto dell’utente il senso della propria agentività. Questo è tanto più importante quanto più l’artefatto è “intelligente”, sia perché l’utente si aspetta una prestazione in qualche misura “cognitiva” sia perché, con un paradosso solo apparente, è perfettamente consapevole che in realtà l’artefatto è perfettamente stupido: questo crea un equilibrio dinamico che può essere affrontato solo aggiungendo, all’approccio tipico dell’ergonomia e dell’ergonomia cognitiva, anche considerazioni basate sulla natura narrativa dell’agentività umana.
RIFERIMENTI [1] A. Bandura, Self-efficacy: The exercise of control, Freeman, New York, 1997
[2] A. Carassa, F. Morganti, M. Tirassa, Movement, action, and situation: Presence in virtual environments. Proceedings of the 7th Annual
International Workshop on Presence (Presence 2004 — Valencia, Spain, 13-15 October 2004), eds. M. Alcañiz Raya & B. Rey Solaz, Editorial
Universidad Politécnica de Valencia, Valencia, Spain, 2004
[3] A. Carassa, F. Morganti, M. Tirassa, A situated cognition perspective on presence. Proceedings of the 27th Annual Conference of the Cognitive
Science Society (Stresa, Italy, 21-23 July 2005), eds. B.G. Bara, L. Barsalou & M. Bucciarelli, Erlbaum, Mahwah, NJ, 2005
[4] N. Chomsky, Rules and representations, Columbia University Press, New York, 1980
[5] J.J. Gibson, The ecological approach to visual perception, Houghton Mifflin, Boston, MA, 1979
[6] D. Marr, Vision: A computational investigation into the human representation and processing of visual information, Freeman, San Francisco, CA, 1982
[7] H.D. Maturana, F.J. Varela, Autopoiesis and cognition. The realization of the living, Reidel, Dordrecht, 1980 [8] J. Nielsen, Designing web usability: The practice of simplicity, New Riders, Indianapolis, IN, 1999 [9] D.A. Norman, The psychology of everyday things, Basic Books, New York, 1988
[10] C.E. Shannon, W. Weaver, The mathematical theory of communication, University of Illinois Press, Urbana, IL, 1949
[11] M. Tirassa, F.M. Bosco, On the nature and role of intersubjectivity in communication, in: Enacting intersubjectivity: A cognitive and social