• Non ci sono risultati.

3.1 Approccio cognitivista all’interazione umana con gli artefatti

3.1.1 Simboli e processi mentali

Nel cognitivismo HIP, l’uso del termine “informazione”, pur avendo a che fare con percezioni, idee, immagini, credenze o ricordi, si riferisce prevalentemente al significato, inteso come la valenza simbolica ed informazionale contenuta all’interno dei “processi mentali”. Vengono cioè prese in considerazione le potenzialità che i simboli hanno di fornire i meccanismi di rappresentazione ed esplicitazione delle informazioni di cui gli individui necessitano “per muoversi con sicurezza nel mondo fornendo ai processi che governano le nostre azioni le informazioni su che cosa è dove” (Johnson-Laird, 1990, p.40). Il tipo di simboli che la mente elabora è naturalmente diverso rispetto a quelli di un computer, ma

anche dai segnali biochimici ed elettrici dello stesso cervello24. In questa prospettiva i fenomeni psichici fanno cioè capo a sistemi concettuali di riferimento culturalmente definiti, poiché partono dal presupposto che gran parte della rappresentazione e della comunicazione umana abbia luogo attraverso sistemi di simboli, ovvero sistemi di significato (Gardner, 1987). La ricerca cognitivista si è in particolare soffermata sull’elaborazione di due classi principali di elementi necessari alla comprensione dei meccanismi dell’elaborazione mentale: i modelli strutturali e quelli funzionali. Nella prima vanno collocate le architetture, di tipo essenzialmente qualitativo, che descrivono la natura della memoria, cioè come essa è suddivisa in sottosistemi e quali relazioni esistono tra questi ultimi. Nella seconda vanno collocati, invece, i modelli della memoria da un punto di vista funzionale, cioè quelli che si preoccupano della modalità logica ed esecutiva di elaborazione delle informazioni (Pessa, Penna, 2000).

Uno dei più conosciuti modelli strutturali della memoria fornita dal cognitivismo è quello dei “magazzini di memoria”, proposto da Hebb già nel 1948, ma formalizzato nella caratteristica teoria “multiprocesso” da Atkinson e Shiffrin nel 1969. Questo modello della mente - tutt’ora soggetto ad un serrato dibattito in ambito scientifico - individua, proprio come nel computer, una memoria a lungo termine (magazzino di elevata capienza ed elevata permanenza, teoricamente illimitate, anche se l’accesso all’informazioni conservate può talora risultare lento, difficile o addirittura impossibile), una memoria a breve termine (magazzino di limitata capacità e limitata permanenza, circa trenta secondi, prolungabile però mediante reiterazione: ripetendo più volte l’informazione) ed una memoria più tipicamente “umana”, ovvero quella sensoriale (magazzino di elevata capienza e bassa permanenza, nel quale le informazioni sono destinate a decadere rapidamente: da circa duecentocinquanta ms. fino ad un secondo nel caso del canale visivo e fino a tre-quattro secondi nel caso del canale uditivo). George Miller, nel 1956, contribuisce a precisare la capienza della memoria a breve termine riscontrandone, attraverso esperienze empiriche, una capacità piuttosto limitata. La memoria di lavoro può infatti contenere contemporaneamente solo sette, più o meno due elementi informativi, chunks of information; dove ciascuno dei “pezzi di informazione” sia un’unità a sé stante: lettere dell’alfabeto, cifre numeriche, parole, ecc.. Tulving, nel 1972, individua una strutturazione in tre differenti sottosistemi della memoria a lungo termine: la memoria episodica (che elabora il contenuto delle esperienze passate), la memoria semantica (che contiene i concetti e le relazioni tra i concetti) e la memoria procedurale (che contiene sequenze di azioni). Successive integrazioni di questi modelli, rafforzate anche da evidenze sperimentali, confermano il vivo interesse per questo tipo di approccio e, in particolare, l’interesse di ambiti applicativi – come quello della progettazione di interfacce per i programmi software – per gli studi sulla memoria e sulle relative caratteristiche di funzionamento: dagli studi sui tempi di acquisizione, di ritenzione, decadimento (curva dell’oblio), saturazione e interferenza o sui fattori di disturbo.

Il punto chiave dell’approccio computazionale simbolico, quello che ne determina a un tempo la forza e la debolezza è, come anticipato, la definizione dei simboli. “Essi vengono concepiti come unità dotate di significato compiuto a livello macroscopico, cioè a livello della nostra esperienza fenomenica e mentale” (Pessa, Penna, 2000, p. 13). Per questo la preoccupazione principale “non è rivolta al significato dei simboli ma al funzionamento a livello macroscopico dei programmi di manipolazione dei simboli” (ibidem). Relativamente ai simboli, è stato osservato (Johnson-Laird, 1990) che alcuni sistemi simbolici formali di rappresentazione siano più efficaci di altri nello svolgere il loro compito in base alla loro

24

Il salto logico di natura qualitativa operato dalla scienza “cognitiva computazionale” è criticato in ambito epistemologico, ma anche dal recente filone di ricerca denominato scienza “cognitiva neurale”. Gli autori legati a questo approccio, noto anche come “connessionista” o “subsimbolico”, sono infatti maggiormente impegnati nello studio delle modalità in base alle quali il cervello, a partire dalla distribuzione spazio-temporale di un insieme di segnali elementari di origine neurale, possa giungere ad una attribuzione simbolica di alto livello (Pessa, Penna, 2000).

maggiore pertinenza rispetto al contesto da rappresentare. In altre parole esistono dei segni che rappresentano qualcosa in un determinato dominio (significante), la cui interpretazione (significato) per la mente umana, richiede uno sforzo minore perché presenta una conformazione analogica, ovvero prossima, a quanto rappresentato. Ad esempio il disegno di un cavallo è più esplicito, e universale, che non la parola scritta “cavallo”. In ambito informatico sono in molti a ritenere che le interfacce grafiche, ovvero quelle basate su “icone”, tendine e pulsanti siano più semplici da usare di quelle che si basano su comandi scritti. Analogamente esistono modalità diverse di rappresentare internamente, ovvero nella mente, le informazioni. Bruner (1967; Bruner et. Al., 1970) parla di rappresentazione attiva, iconica e simbolica per indicare modalità che vengono rese disponibili in “stadi” diversi dello sviluppo cognitivo del bambino, ma anche come modalità qualitativamente distinte che in seguito, nell’adulto, coesistono per consentire modi diversi per entrare in contatto con la realtà esterna. Tipi di attività diversi si prestano all’adozione dell’una o dell’altra modalità. Spiegare ad una persona che non l’ha mai fatto come si annoda una cravatta suggerisce l’uso di una modalità attiva, basata sull’esemplificazione pratica dei passaggi, delle singole azioni. Sarebbe poco efficiente ricorrere a delle rappresentazioni iconiche, ovvero a dei disegni, o peggio ad una descrizione scritta (simbolica). Diversamente per indicare che una determinata porta consente l’accesso al bagno delle signore è più opportuno ricorrere alla rappresentazione iconica, ad esempio attraverso la stilizzazione di una figura femminile. L’orario dei treni, invece, non può che utilizzare un sistema simbolico astratto. Un altro esempio, preso dall’informatica, può aiutarci a capire come semiotiche differenti possano offrire modalità diverse di rappresentazione, senza che queste ne specifichino in assoluto una come migliore di un’altra. Nel passare attraverso diverse generazioni di sistemi operativi, sono oggi disponibili tre diversi tipi di interfacce (Levialdi, 1999): simboliche (richiedono l’input di comandi espliciti, come ad esempio i comandi da prompt), atomiche (quelle che offrono la selezione tra opzioni diverse, ad esempio i menu), continue (quelle che prevedono un’interazione visiva stretta attraverso l’uso di dispositivi di puntamento come penne ottiche, mouse, joystick, ecc.). Ma se nei primi computer era obbligatorio l’uso di comandi molto prossimi al linguaggio macchina (interfacce del primo tipo), oggi con l’avvento delle “interfacce grafiche” (GUI, grafic user interface) ed in particolare degli ambienti “ad icone e finestre” che fanno prevalentemente uso di modalità del secondo e del terzo tipo, non si è abbandonato l’uso della prima modalità. Pensiamo ad un’operazione come salvare un documento in Word: è possibile farlo facendo clic con il mouse sull’icona con l’immagine di un floppy (modalità continua), oppure posso scegliere da un menu a tendina (atomica) o, infine, premere una combinazione di tasti (esempio: “maiuscolo+F12”) per ottenere lo stesso risultato (modalità simbolica). Il fatto che esistano possibilità differenti di eseguire le stesse funzioni consente a categorie diverse di utenti di raggiungere nel proprio specifico e preferenziale modo lo stesso scopo, ma anche ad uno stessa persona – in situazioni diverse – di avvalersi delle “modalità” più opportune25.

Il processo che porta all’attribuzione del valore di “simbolo” ad una segno (naturale o artificiale), si inserisce in un quadro evolutivo e di capacità biologica ed adattiva propria dell’uomo (Orefice, 2001). L’interpretazione di ogni segno nasconde elementi di complessità e di ambiguità che sono dati dall’intreccio di fattori percettivi (quindi fisiologici), ma anche cognitivi e culturali. In semiotica, oltre ad una dimensione referenziale, quella che consente ad un segno di rimandare all’oggetto rappresentato, vengono individuate una dimensione pragmatica ed una contestuale entrambe implicate nell’attribuzione di significati e valori in ambiti situazionali o culturali diversi (Gensini, 2002). Le caratteristiche dei simboli e le

25

Alcuni ricercatori, sempre partendo dagli studi sulla cognizione umana, arrivano invece a conclusioni abbastanza differenti. Quella che tecnicamente viene chiamata monotonicità, ovvero la possibilità di raggiungere un obiettivo attraverso un solo tipo di azione, garantirebbe infatti l’acquisizione di comportamenti automatici utili per velocizzare, e soprattutto, per non distogliere attenzione dall’obiettivo primario del compito (Raskin, 2003, p.75).

modalità umane di denotare significati rappresentano un settore di studio particolarmente delicato per la scienza cognitiva. Attraverso i risultati derivanti da questo campo sono possibili continui progressi nella progettazione di prodotti “usabili” ed “accessibili” da ampie fasce di utenza. Nell’ambito della ricerca sull’usabilità dei sistemi, il problema della “referenzialità” diventa in particolare una questione di “mapping”, ovvero di corretta sovrapposizione di configurazioni. Un qualsiasi artefatto dotato di comandi, come pulsanti, interruttori, icone, ecc. separati dalle unità di sistema deputate allo svolgimento delle funzioni, necessariamente dovrà offrire un sistema per comprendere quali comandi sono associati a quali funzioni. Norman (1997, p.12) definisce il mapping come l’insieme di “correlazioni logico-spaziali fra quello che l’utente vuol fare e ciò che appare (od è) fattibile”, da cui consegue la prescrizione per il progettista del rispetto sia di vincoli culturali (“logico” nel senso di ciò che in un determinato contesto può essere ritenuto tale) sia di quelli percettivo/spaziali. Naturalmente per consentire un facile utilizzo dello strumento la collocazione logico-spaziale dei comandi deve essere il più possibile chiara e rimandare in maniera analogica agli elementi rappresentati o attivati. I comandi, dal cui azionamento consegue il risultato, devono cioè sfruttare sia analogie fisiche, sia modelli culturali. Un esempio classico di mapping scadente è spesso rappresentato dal design dei fornelli e delle manopole per il loro azionamento: quando la posizione delle manopole non riporta correttamente la disposizione dei fornelli, questa rallenta o rende problematica l’accensione di quello giusto. Chiaramente questi concetti sono strettamente interrelati tra loro. Dal punto di vista del design, nella prospettiva di “invitare” ad una certa modalità d’uso dell’oggetto il concetto di mapping è collegato a quello di affordance, ma anche a quello di constraint (vincoli o funzioni obbliganti). La possibilità che una persona ha di utilizzare con successo un determinato artefatto è infatti legata alle caratteristiche progettuali (fisiche e logiche) di cui questo è dotato. Secondo Norman (1997), i principi per il buon design, prevedono oltre all’esigenza di fornire un buon mapping altre quattro esigenze: 1) che gli artefatti siano dotati di inviti (affordance) e vincoli (constraint) che ne governino l’uso, 2) che il feedback sia gestito correttamente, 3) che tutte le parti funzionali siano visibili e, 4) che all’utente sia offerto un buon “modello concettuale”.

Il “feedback” è gestito correttamente quando lo strumento comunica in maniera adeguata gli effetti conseguenti alle azioni svolte. Viceversa, se all’utente non viene fornita alcuna informazione di “ritorno” egli si trova nell’impossibilità di valutare le proprie scelte e può essere indotto a fermarsi o a proseguire anche davanti ad un errore. Lo stesso problema si può verificare anche in altri ambiti. Nell’apprendimento, ad esempio, se uno studente non viene correttamente seguito può finire per sistematizzare in maniera erronea i concetti acquisiti26. Il continuo processo di intuizione-azione-valutazione-del-feedback permette all’utente, come vedremo presentando il modello della “teoria del controllo delle azioni”, di operare efficacemente nel mondo.

Norman, come anticipato, presenta inoltre altri due requisiti per un corretto disegno degli strumenti e delle interfacce: la “visibilità delle funzioni” e il “modello concettuale”. Per l’utente avere la “visibilità” di tutte le parti funzionali di un artefatto (fisico o virtuale come un’interfaccia software) significa poter conoscere quali sono le azioni disponibili27 e quindi operare adeguatamente. La visibilità può riguardare anche informazioni sullo stato del sistema, ovvero quelle fornite dal feedback a seguito di un’azione. In questo caso, si entra in uno specifico ambito di riflessione legato all’opportunità, non da tutti condivisa, che le interfacce siano “non-modali” al fine di limitare l’effettuazione di errori, detti appunto

26

Sul rapporto tra cibernetica e apprendimento cfr. Trisciuzzi (1974). 27

Il problema sottintende la distinzione tra artefatti superficiali ed artefatti interni. Gli artefatti superficiali (come le maniglie) mostrano tutto ciò che esiste, altri più complessi (come i computer) presentano più livelli di cui, ad un determinato contesto operativo, per un utente è visibile solo una parte dell’informazione. In molti casi, infatti, negli artefatti interni esistono informazioni celate all’utente e che consentono, a livelli diversi, al sistema di funzionare.

modali. La problematica, molto specifica (e che quindi esula le finalità di questo lavoro), è legata alla possibilità o meno che un’interfaccia manifesti sempre nello stesso modo le proprie risposte agli atti di un utente e quante diverse possibili azioni siano consentite dallo stesso comando.

Circa il “modello concettuale”, infine, si intende la possibilità che il progettista è riuscito a dare all’utente di costruirsi un’idea, ancorché ingenua, dello scopo dell’artefatto e di quali azioni siano da questo consentite. L’importanza del modello concettuale non è tanto legata all’esigenza di comprendere esattamente il meccanismo di funzionamento, quanto di avere un’idea sufficientemente precisa del funzionamento dell’artefatto. Il modello concettuale, che è una singolare fattispecie di modello mentale28, viene sviluppato dall’utente attraverso l’interazione con il sistema. Un buon modello concettuale è ciò che nella vita quotidiana consente di prevedere gli effetti delle azioni, arrivando a guidare gli individui alla comprensione dei diversi comandi e/o delle azioni disponibili come pure le (eventuali) sequenze di passaggi. Attraverso un buon modello concettuale è possibile apprendere più rapidamente e con minori problemi il funzionamento di un qualsiasi dispositivo. Molte delle difficoltà che nascono nell’uso degli artefatti, ed in particolare delle tecnologie più complesse come quelle informatiche, nascono proprio dall’incapacità per alcuni utenti di formarsi dei modelli concettuali sufficientemente adeguati per arrivare a svolgere il compito richiesto. Molte persone, ad esempio, non riuscivano a crearsi un’idea che consentisse loro di operare correttamente con le directory fino a quando le interfacce grafiche non hanno mostrato, attraverso la metafora delle cartelle, un modello concettuale sufficientemente chiaro e comprensibile. Il modello concettuale dell’utente è quindi in buona parte guidato da come il progettista, partendo dal suo modello progettuale, è riuscito ad informare l’artefatto (anche attraverso elementi esterni quali: documentazioni, etichette, istruzioni) circa il suo utilizzo. “Se l’immagine del sistema non rende chiaro e coerente il modello progettuale, l’utente finirà per formarsi un modello mentale sbagliato” (Norman, 1997, p. 24).