• Non ci sono risultati.

Alla luce dei risultati del test e dell'esperienza raccolta tramite l'interazione con gli utenti, si desidera ora fare alcune considerazioni. Si procede cercando di evidenziare quali siano i risultati positivi emersi e quali invece siano le criticità più rilevanti, consci dell'esistenza di tutta una serie di modiche marginali, che nel loro complesso contribuirebbero in egual misura al miglioramento dell'applicativo.

6.5 Analisi dei risultati 109 Users 1 2 3 Benchmark User User 1 User 2 User 3 User 4 User 5 User 6 User 7 User 8 User 9 User 10 User 11 5,00 4,00 8,00 8,00 4,30 10,30 4,50 2,40 6,00 6,00 3,00 6,58 5,55 4,08 7,50 8,00 3,50 8,30 6,00 2,28 7,13 6,00 3,15 7,10 6,10 4,00 6,30 8,30 4,40 10,50 6,30 3,55 7,58 6,34 3,25 13,20 Benchmanrk User Mean Time Other Users

0 5,00 10,00 15,00 20,00 Task 1 Task 2 Task 3 Users 1 2 3 Tot Benchmanrk User Mean Time 5,00 4,00 8,00 17,00 6,59 3,62 8,44 18,65 1,65 Users 1 2 3 Benchmark User User 1 User 2 User 3 User 4 User 5 User 6 User 7 User 8 User 9 User 10 User 11 5,00 4,00 8,00 8,00 4,50 10,50 4,83 2,67 6,00 6,00 3,00 6,97 5,92 4,13 7,83 8,00 3,83 8,50 6,00 2,47 7,22 6,00 3,25 7,17 6,17 4,00 6,50 8,50 4,67 10,83 6,50 3,92 7,97 6,57 3,42 13,33 Benchmark User User 1 User 2 User 3 User 4 User 5 User 6 User 7 User 8 User 9 User 10 User 11

0

5,00

10,00 15,00 20,00 25,00

Task Times per User

1

2

3

Time [min]

Figura 6.1: Tempo di esecuzione del test

Per prima cosa si ragiona sul tempo di esecuzione medio degli scenari (Figura 6.1): ponendo a confronto i risultati ottenuti dagli gli utenti con quelli conseguiti da un utente di riferimento, esperto ed attivo nel campo dei mashup, è possibile constatare che non ci siano grandi variazioni in merito alla dierenza tra i rispet- tivi tempi di esecuzione. Questo avvalora l'ipotesi della apertura di PEUDOM nei confronti dell'end-user. Infatti, sebbene l'utente esperto abbia probabilmente eseguito gli scenari con una maggiore cognizione di causa, anche un utente ge- nerico non ha riscontrato dicoltà nel portare a compimento gli stessi compiti, guadagnando passo passo una maggiore competenza e consapevolezza, se non altro nell'uso e nella composizione di mashup.

Inoltre è importante notare come l'uso della piattaforma sia stato giudicato intuitivo nella maggior parte dei casi da tutti gli utenti. Si ritiene che questo sia un risultato altrettanto importante in quanto evidenzi come la piattaforma riesca a rispondere in maniera positiva alle esigenze dell'utente. Questo guadagna ancora più valore qualora si rietta sul dominio applicativo e sulle particolari funzionalità collaborative implementate in PEUDOM. Infatti la quasi totalità degli utenti era estranea alla realtà dei Web mashup, ma ciò non ha impedito loro di svolgere gli scenari in maniera completa e con buone performance dal punto di vista del tempo impiegato. A ciò va sommato anche il confronto dell'utente con dinamiche di interazione ancora poco conosciute o che non seguono paradigmi standard: si pensi all'interazione in tempo reale e alla modica cooperativa di una stessa composizione. Questo implica che gli strumenti forniti dall'applicazione hanno permesso il più delle volta all'utente di comprendere ciò che stava succedendo.

Altro risultato rilevante riguarda il fatto che non solo gli utenti hanno guada- gnato una maggiore consapevolezza nell'utilizzo della piattaforma durante i vari scenari, ma anche una maggiore comprensione dell'ambito applicativo e dei mat- toncini necessari per la realizzazione di un mashup. Ci si riferisce al confronto dei risultati in merito alla comprensione dei concetti di Servizio, Componente e Composizione, nella fase precedente e in quella successiva alla sessione di test (Fi- gura 6.2). Il punto di partenza è una situazione in cui i tre concetti sono ignorati dalla maggior parte degli utenti, ad eccezione della denizione di servizio Web, il cui signicato è sicuramente il più familiare ad un utente abituato a navigare in Rete. Il punto di arrivo, ovvero la situazione dell'utente dopo aver utilizzato

Figura 6.2: Comprensione degli elementi base di PEUDOM

l'applicazione, vede una maggiore comprensione delle logiche di mashup: nello specico è risultato che quasi la totalità degli utenti ha compreso il signicato di composizione dopo aver provato PEUDOM. Ancora una volta risultato rimar- cabile, riettendo sul fatto che questo concetto fosse sconosciuto prima del test alla quasi totalità degli utenti e che sia proprio sul concetto di composizione che si fondano le dinamiche fondamentali di PEUDOM. L'uso della piattaforma ha se non altro permesso ai tester di intuire le potenzialità dei mashup e della loro composizione, anche in ambito collaborativo.

Un'altra preoccupazione riguarda la capacità degli utenti di individuare i vari ambienti di lavoro disponibili e la conseguente capacità di discernere quali azio- ni siano possibili in ciascun ambiente, così come quali ambienti debbano essere raggiunti per soddisfare speciche richieste. Anche in questo caso i risultati han- no positivamente evidenziato come gli utenti abbiano grosso modo compreso le caratteristiche e le potenzialità di ogni ambiente, alcuni specicando di ritenere di essere in grado di utilizzarli nuovamente. Per quanto riguarda la possibilità di specicare il ruolo che un utente possa assumere all'interno della composizione, tale meccanismo è risultato essere ad un esaustivo livello di dettaglio, seppur non sempre chiaro (Figura 6.3). Per quanto concerne invece i vari strumenti imple- mentati a supporto della collaborazione, il più apprezzato e familiare è la chat, seguita da notiche. collaborazione real-time ed attività recenti. I test hanno confermato la scelta di adare a questo mezzo un importante ruolo all'interno dell'interazione collaborativa tra i diversi utenti.

6.5 Analisi dei risultati 111

Figura 6.3: Valutazione dell'interfaccia per la denizione dei ruoli

se dalle sessioni di test (Figura 6.4). Infatti proprio la chat è il componente nei confronti del quale si sono ricevute maggiori proposte di miglioramento e mag- giori feedback positivi. Anche in questo caso si ritiene che un simile risultato sia dovuto alla estrema popolarità e familiarità che l'utente ha con una simile dina- mica di interazione. In questo caso il confronto con realtà simili appartenenti al background dell'utente è inevitabile. E' risultato necessario raggruppare quanto più possibile le aree della UI riguardanti l'interazione tra gli utenti: ne sono un esempio la necessità di combinare in un modo più ecace le informazioni relative agli utenti online con chat ed attività recenti. Si deve lavorare maggiormente sulla capacità di ricreare una visione d'insieme di tali dinamiche, giudicate frammen- tarie da alcuni utenti. Certo, allo stesso modo, si ricorda come gli utenti siano comunque riusciti ad adattarsi velocemente ad una disposizione non ottimale di tali contenuti, sottolineando come una tale disposizione non impedisca se non altro di completare in maniera soddisfacente gli scenari.

Un'altra dinamica particolarmente critica, non emersa però esplicitamente tramite il test, è la collaborazione in tempo reale tramite interazione cooperativa nella Mashup Dashboard: in questo caso però, anche di fronte ad una domanda diretta, l'utente non ha saputo fornire particolari spunti in tale direzione. Questo conferma di fatto la necessità di continuare la ricerca lungo le direttrici della collaborazione real-time.

Da ultimo, per quanto riguarda la valutazione complessiva degli ambienti di- sponibili all'interno della piattaforma (Figura 6.5), il soggetto, che è emerso essere il più critico, è il Component Editor. In questo ambiente l'utente ha ammesso di avere principalmente dicoltà nel comprendere cosa stia accadendo. E' ne- cessario in questo caso ripensare alle dinamiche di presentazione oltre a quelle di interazione, ritenute comunque buone dall'utente. Anche l'ambiente specico

Figura 6.4: Valutazione degli strumenti per la collaborazione

per la condivisione del proprio lavoro è secondo alcuni utenti da migliorare: in questo caso però le problematiche riscontrate impattano sostanzialmente in una più banale riorganizzazione di alcune parti dell'interfaccia graca e sono di facile trattazione.

Capitolo 7

Sviluppi futuri

7.1 Modiche a seguito della fase di valutazione

con gli utenti

Sebbene quello che è stato descritto in questa trattazione sia il prodotto nale di tutto il lavoro di sviluppo, alcune modiche sono state in realtà apportate suc- cessivamente alla fase di valutazione con gli utenti. La sola esperienza d'uso di un piccolo gruppo di utenti ha però fornito un importante contributo nel rana- mento di alcune dinamiche, contributo che si è scelto di tradurre immediatamente in un miglioramento delle dinamiche d'uso e dell'interfaccia. Tale decisione ri- specchia la volontà di valorizzare e concretizzare l'esperienza di test con gli utenti nali. A parte una serie di modiche minori, il contributo degli utenti ha permes- so di riplasmare in maniera più ecace, soprattutto a livello di presentazione, le dinamiche a supporto della context awareness. In tal senso i commenti, raccolti durante l'esecuzione degli scenari, hanno orientato il re-design della user interface e delle informazioni di contesto per quanto riguarda gli strumenti di supporto del- la collaborazione in tempo reale (chat, utenti online, highlight e attività recenti). In tal senso si è deciso di fare un dierente uso dei colori nella loro associazione con gli utenti. Nello specico si è deciso di uniformare il colore dell'highlight, presentando contestualmente a tale bordatura dei piccoli quadrati colorati che riprendano quelli corredati di nome utente, presenti invece tra gli utenti online. SI è scelto inoltre di avvicinare le aree contenenti chat, utenti online e attività recenti, così da creare un'unica area di interesse che coinvolga la collaborazione real time.