• Non ci sono risultati.

TERZA FASE DELL’INFORMATICA ‘OLTRE IL DESKTOP’

nuovi paradigmi guidano l’interazione: WEARABLE COMPUTING; REALTÀ AUMENTATA; TANGIBLE BITS (INTEGRAZIONE FISICA/VIRTUALE); ATTENTIVE ENVIRONMENTS

L’espressione ‘ubiquitous computing’ è stata coniata da Marc Weiser (1991), il quale sostiene che le tecnologie più importanti sono quelle che scompaiono. Si intrecciano nel tessuto della vita quotidiana fino a quando sono indistinguibili da essa. Sebbene lo sviluppo dell’ubiquitous computing sia reso possibile da fattori, quali, la miniaturizzazione e il basso costo dei computer, la presenza di una rete di collegamento tra loro e lo sviluppo di sistemi software di attuazione onnipresenti, Weiser afferma che tale scomparsa è una conseguenza fondamentale non tanto della tecnologia, quanto della psicologia umana. Ogni volta che le persone imparano qualcosa sufficientemente bene, allo stesso tempo smettono di essere consapevoli di quel qualcosa. In sostanza, egli afferma che solo quando le cose scompaiono siamo liberi di usarle senza pensare e quindi di concentrarci su nuovi obiettivi. Nel suo famoso articolo, Weiser si pone in maniera critica nei confronti della realtà virtuale che presuppone di riservare molta attenzione alla macchina multimediale e richiede di concentrarsi sul mondo irreale sviluppato all’interno del computer. Egli, infatti, sottolinea l'opposizione tra il concetto di realtà virtuale e quella di informatica ubiqua e invisibile, indicando l’espressione ‘embodied virtuality’ per riferirsi al processo di elaborazione dei computer al di fuori dei loro gusci elettronici. La ‘virtualità’ di dati leggibili da un computer, tutti i diversi modi in cui possono essere alterati, elaborati e analizzati, nell’ubicomputing, viene portato nel mondo fisico. Molti dei computer che partecipano alla ‘embodied virtuality’ sono invisibili, sia metaforicamente parlando che di fatto, possono animare oggetti precedentemente inerti e consentono alle persone di utilizzarli inconsciamente per svolgere le proprie attività quotidiane. Nella visione di Weiser e dei suoi colleghi i dispositivi mostrano e trasmettono informazioni in maniera più diretta, essi, inoltre pongono l’attenzione su due aspetti molto importanti; la localizzazione e la scala dimensionale; egli afferma:

“Little is more basic to human perception than physical juxtaposition, and so ubiquitous computers must know where they are. (Today's computers, in contrast, have no idea of their location and surroundings.) If a computer merely knows what room it is in, it can adapt its behavior in significant ways without requiring even a hint of artificial intelligence” (Weiser, 1991, p.98).

Il fatto che i computer siano informati sulla loro posizione e quindi anche sulla posizione delle persone, rappresenta una caratteristica determinante dell’informatica ubiqua e pervasiva che, dal paradigma tradizionale dell’interazione da scrivania, sposta la potenza computazionale nell’ambiente circostante. Anziché costringere l’utente a cercare l’interfaccia del computer, l’informatica pervasiva indica che l’interfaccia stessa individua ed esegue ciò che la persona desidera. Due esempi applicativi significativi dell’informatica pervasiva sono “Active Badge” di Olivetti Research Lab e Xerox “PARCTab”, dispositivi pensati per l’ambito lavorativo aziendale, che tengono conto della localizzazione. Entrambi sfruttano informazioni

legate al contesto di riferimento, cioè la posizione dell’utente, e forniscono servizi come l’inoltro automatico delle chiamate e l’aggiornamento automatico di mappe che ne visualizzano l’ubicazione.

Nei primi anni ’90 Weiser è convinto che l’informatica ubiqua e pervasiva sarebbe emersa e progredita gradualmente per rappresentare venti anni più tardi il modello dominante di accesso al computer. Egli afferma che così come il personal computer, anche l’ubiquitous computing non permetterà nulla di fondamentalmente nuovo, ma renderà tutto più veloce e più facile da fare, con minor sforzo e fatica mentale per la persona.

Quando quasi ogni oggetto contiene un computer o può avere una scheda collegata a esso, il reperimento di informazioni diventa molto semplice, così questa possibilità conduce alla riflessione su come l’interazione tra persone e computer possa evolvere.

Alla luce delle macro fasi che caratterizzano l’evoluzione dell’informatica, nel corso del tempo, diversi paradigmi dell’interazione si sono susseguiti. In generale, Dix et al. (2004) individuano due tipologie principali di paradigmi dell’interazione, il paradigma dell’informatica interattiva e il paradigma dell’informatica contestuale, appunto legato all’ubiquitous and pervasive computing. Sebbene in alcuni casi si possano leggere delle sfumature, la differenza tra l’uno e l’altro risiede nel tipo di dialogo, più o meno esplicito, tra la persona e la macchina. Il primo paradigma prevede che l’utente comunichi al computer, in maniera esplicita, esattamente che cosa fare e che il computer esegua ciò che gli viene indicato. Nel secondo l’interazione è più implicita, il computer o l’ambiente (dotato di sensori), nel quale la persona si trova, utilizza delle euristiche e altri strumenti intelligenti per prevedere cosa sarebbe più utile alla persona stessa. In questo caso è possibile considerare la situazione estrema in cui una persona sia completamente ignara del fatto che tra lei e un dispositivo informatico stia avvenendo un’interazione. Le informazioni possono essere raccolte tramite sensori ambientali (rilevatori di peso, di movimento, di pressione, ecc.), attraverso l’uso del Web (pagine Web visitate in maniera ricorrente, acquisti on-line, ecc.) e attraverso il corpo della persona (battito cardiaco, temperatura, segnali cerebrali, ecc.). I dati raccolti vengono processati da sistemi che creano inferenze, ossia deducono delle informazioni a partire da modelli del passato e del contesto attuale, al fine di modificare le eventuali interfacce per l’interazione esplicita, o per eseguire operazioni in sottofondo, come nel caso delle applicazioni di Ambient Intelligence (del quale parleremo nel capitolo 3), ad esempio, per la regolazione dell’aria condizionata o dell’illuminazione. L’informatica pervasiva mette in discussione l’idea di dove si trovino i computer e di come appaiano alle persone, di conseguenza il paradigma dell’informatica contestuale mette in discussione il concetto stesso di interazione, ciò che vuol dire interagire con un computer. La natura implicita dell’interazione definisce un rapporto uomo-macchina così integrato che in effetti non si verifica nessuna interazione cosciente.

Probabilmente tale evoluzione fa si che i modelli base dell’interazione come ad esempio il ciclo di esecuzione e valutazione di Norman, che si sono rivelati indipendenti dalle tecnologie e che costituiscono le basi sulle quali si sono sviluppate gran parte delle conoscenze nell’ambito della HCI, possano essere considerati come riferimento, ma non possano essere applicati a questo tipo di interazione.

2.4 I medium dell’interazione: le interfacce

Per far si che l’interazione uomo-macchina abbia luogo è necessaria la presenza di un intermediario; un’interfaccia. L’interfaccia è il ‘luogo’ in cui si realizzano le scelte progettuali su come la persona può entrare in relazione col prodotto o sistema e su come quel prodotto o sistema deve rispondere. L’interfaccia, in altre parole, rende visibili le funzionalità invisibili di un prodotto o sistema, e attraverso questa, la persona vi accede e le utilizza. Il nostro corpo e le nostre abilità definiscono come possiamo ‘parlare’ con la macchina (fase di input) e il nostro sistema sensoriale definisce come possiamo ‘ascoltare’ la macchina (fase di output), attraverso l’interfaccia.

Con il grande successo commerciale dei sistemi desktop prima e dei dispositivi mobili, quali smartphone e tablet, più recentemente, gli schermi e i display rappresentano il mezzo ideale per l’applicazione delle GUI (acronimo di graphical user interface), ossia le interfacce utente di tipo grafico. Le GUI, tuttora, corrispondono alla tipologia di interfaccia più diffusa per l’interazione uomo-macchina, tuttavia, lo sviluppo tecnologico e nuovi modelli d’interazione contribuiscono alla sperimentazione e

implementazione di altre tipologie. Nell’immagine tratta dal loro testo, “Physical Computing”, Igoe e O’Sullivan cercano di illustrare il modo in cui un computer vede la persona che ha davanti: un occhio anziché due, perché guardiamo uno schermo bi-dimensionale; un solo dito, poiché forniamo input attraverso dei colpetti sequenziali, assestati solitamente con lo stesso dito; infine, due piccole orecchie per sentire l’audio in uscita dagli speaker del dispositivo.

DARE INPUT ATTRAVERSO