• Non ci sono risultati.

E DI MOVIMENTO

Si possono distinguere due tipologie principali di applicazione, in base a come i contenuti digitali vengono percepiti dall’osservatore, e in funzione dell’utilizzo del dispositivo elettronico usato:

• il soggetto è la realtà circostante • il soggetto è l’utente stesso

Nel primo caso è l’operatore che guarda attraverso uno schermo l’ambiente circostante, che viene inquadrato e “aumentato” con l’aggiunta di oggetti digitali. E’ probabilmente il metodo più comune, soprattutto nel mondo del marketing. Molte aziende stanno promuovendo l’utilizzo di applicazioni in grado di facilitare l’approccio ai loro prodotti per poterli proiettare direttamente nel punto in cui li si vorrebbero posizionati dopo l’acquisto. Per poter utilizzare l’app basta posizionare il catalogo cartaceo nel punto in cui si vorrebbe collocare l’oggetto ed inquadrarlo con la fotocamera di uno smartphone o di un tablet. Dopo aver selezionato il prodotto desiderato, questo appare in versione 3D. Una delle prime app è stata prodotta dall’azienda svedese d’arredamento Ikea.

Immagine scelta per la campagna pubblicitaria dell’applicazione di IKEA, che vuole trasmettere la praticità di arredare virtualmente la propria casa, grazie al solo dispositivo elettronico.

https://www.greenbiz.it/images/stories/MarketingComunicazione/ prodotti/ikea_catalogo_2014.jpg, consultato il 29.01.17

Nel secondo caso, invece, il soggetto inquadrato è l’osservatore stesso, che si vede modificato virtualmente, o meglio, vede modificata la propria immagine riflessa.

Quando è l’osservatore ad essere al centro dell’applicazione di realtà aumentata, si può pensare ad un rapporto subordinato rispetto allo schermo, in quanto l’utente staziona davanti a questo speciale specchio e sceglie i contenuti digitali da sovrapporre alla propria immagine. Tramite un riconoscimento delle forme e dei movimenti, l’interazione avviene in tempo reale.

Rispetto all’esempio precedente, in questo caso, si tratta di applicazioni più complesse, che si basano su algoritmi in grado di riconoscere dei punti principali dell’immagine acquisita. L’algoritmo si basa su alcune caratteristiche comuni dei volti delle persone: il dorso del naso è più chiaro dei lati, la zona degli occhi è più scura della fronte, e la fronte è più chiara al centro che intorno. I software di riconoscimento facciale cercano queste caratteristiche in un’area dell’inquadratura, e se le trovano concludono che lì c’è un volto (o un corpo o un oggetto). Si stanno diffondendo sempre di più i Mirror Display, che oltre ad essere usati come normali specchi, mostrano anche contenuti digitali. Un esempio sono quelli proposti da Samsung, che stanno spopolando in Corea, in una nota catena di parrucchieri, per coinvolgere ed informare i clienti sulle ultime pettinature.

La cliente può scegliere il look desiderato cliccando sullo schermo il taglio e il colore di capelli che preferisce, vedendo direttamente il risultato sul suo riflesso.

http://www.e4ds.com/news_thumb/TUPOU1K3Q2IAFI0JMFVB.PNG consultato il 11.02.17

Esempio di riconscimento facciale.

Sopra, a sinistra vengono individuati i punti caratteristici del viso del ragazzo, a destra viene ricostruita digitalmente la “maschera” che segue nei movimenti del volto in tempo reale.

Sotto una ragazza prova i diversi effetti digitali dell’applicazione Snapchat. https://petapixel.com/assets/uploads/2016/06/facialrecognition_1- 800x420.jpg, consultato il 12.02.17

http://www.teamworld.it/wp-content/uploads/2015/09/nuovi-filtri- Snapchat.jpg, consultato il 12.02.17

Nelle applicazioni che sfruttano sensori in grado di riconoscere i movimenti dell’utente, è sviluppato un passaggio successivo, vale a dire la creazione di una “maschera” sulla base dei punti virtuali individuati, che segue ogni movimento dell’utente, distorcendo in modo adeguato i contenuti digitali affinché siano perfettamente sovrapponibili con l’immagine riflessa. Molte applicazioni di questo tipo si stanno diffondendo rapidamente, soprattutto tra i ragazzi. Alcuni esempi sono le applicazioni Snapchat o Messanger che sfruttano questi complicati meccanismi tecnologici per produrre i cosiddetti “filtri”, cioè effetti digitali sempre più particolari che oltre ad eseguire la scansione del viso riconoscendone la

Alcuni ragazzi giocano con Wii, muovendosi e dirigendo le mosse tenendo in mano il telecomando. Parallelamente nello schermo i loro avatar seguono le loro indicazioni comportandosi allo stesso modo.

https://www.google.it/search?q=wii+giocare&source=lnms&tbm=isch&- sa=X&ved=0ahUKEwjYqOvMq5fSAhXGiiwKHQNeAswQ_AUICygE&- biw=1517&bih=68, consultato il 17.02.17

forma, riescono anche a seguire il suo movimento attraverso le informazioni ottenute con la fotocamera.

Il riconoscimento delle forme non è strettamente legato al viso dell’utente, ma è un concetto che può essere espanso a tutto il corpo. Uno dei primi casi diffusi di riconoscimento di movimento, lanciata già nel 2006, è Wii, di Nintendo, la console per videogiochi che riconosce le mosse del corpo, tramite un controller, per trasmetterle in tempo reale ad un avatar all’interno del gioco, trasmesso sulla tv. Il controller di Wii utilizza dispositivi chiamati accelerometri per captare i movimenti. Quando si sposta il controller, l’accelerometro rileva il movimento e lo segnala come cariche elettriche alla console di gioco, che interpreta quindi il movimento e lo trasferisce nello schermo. Nelle ultime versioni i controller si sono evoluti, sviluppando accessori sempre più precisi e specifici in base al tipo di gioco che si vuole utilizzare, ad esempio la Balance Board, una sorta di pedana utile per il riconoscimento dei singoli passi.

Un’ulteriore evoluzione è Kinect, che senza l’uso di un controller è in grado di riconoscere il corpo e i suoi movimenti, attraverso una precedente scansione della figura.

INTERAZIONE