• Non ci sono risultati.

5.2 Test

5.2.3 Risultati

Ai test hanno partecipato sia uomini che donne (la percentuale delle donne è molto infe-riore a quella degli uomini e pari al 20%), in una fascia d’età compresa tra i 19 e i 30 anni (età media pari a 25,6 anni). La maggior parte dei partecipanti studiano o lavorano nel campo dell’ingegneria informatica, o comunque in campi affini. Il 20% dei tester dichiara che usa applicazione AR almeno 1 volta a settimana, mentre tale percentuale sale al 50%

per applicazioni VR. Per quanto riguarda i videogiochi in generale, il 50% dei soggetti dichiara di giocare regolarmente, più giorni della settimana.

Dati soggettivi

Nelle tabelle 5.1 e 5.2 sono riportati i dati ottenuti per le prime 3 sezioni del questio-nario. Si ricorda che il punteggio va da 0 a 4, dove 0 indica il completo disaccordo con

Figura 5.1. Relazione aggettivo qualificante e punteggio numerico SUS. Grafico tratto da [5].

l’affermazione, mentre 4 indica il completo accordo. Nel calcolare la media, la deviazione standard e la mediana, il valore assegnato dall’intervistato è stato lasciato invariato per le affermazioni con accezione positiva, invece è stato preso il suo complemento a 47 per quelle con accezione negativa.

Come è possibile vedere, sia l’esperienza in realtà aumentata che quella in realtà vir-tuale hanno ricevuto valutazioni positive per quanto riguarda la game experience e il post-game, con un punteggio medio pari a 3 e deviazione standard di circa 0.3. Al contra-rio, la social presence ha ricevuto un punteggio più basso, pari a 1.3 per AR e 1.4 per VR, probabilmente dovuto al fatto che il videogioco proposto non prevede interazioni dirette tra i partecipanti.

Infine, si può notare che le valutazioni non sono influenzate dal fatto di aver provato prima un dispositivo piuttosto che l’altro, infatti la differenza tra le medie è al di sotto del margine di incertezza.

SUS Limitatamente alle valutazioni ricevute, il sistema si colloca, dal punto di vista dell’usabilità, tra OK e Excellent, avendo raggiunto un punteggio pari a 76,25±11,5 (76±15,9 per VR).

Campo visivo limitato Dopo aver provato il dispositivo AR, una parte significativa dei tester ha lamentato la difficoltà a vedere le indicazioni presenti e gli elementi virtuali in generale, a causa del campo visivo limitato dell’HoloLens. Pur essendo vero che questa è una limitazione hardware del dispositivo impiegato, e che nel prossimo futuro la situa-zione dovrebbe cambiare in meglio (Basti pensare alla nuova versione dell’HoloLens, che offrirà un campo visivo quasi doppio), si sarebbe potuto studiare meglio la posizione degli indicatori, per renderli più visibili; ad esempio, le frecce che indicano i nemici potevano

7Ad esempio, se v = 3, il suo complemento vc = 4 - 3 = 1

Sezione

Punteggio AR Game experience Social presence Post-game

Media 2,798484848 1,288235294 2,932352941

Deviazione standard 0,361645434 0,543568881 0,356489516

Mediana 2,757575758 1,382352941 2,941176471

Media (prima AR) 2,796969697 1,129411765 3,023529412

Deviazione standard 0,356250755 0,568370463 0,385911046

Mediana 2,757575758 1,264705882 3

Media (prima VR) 2,8 1,447058824 2,841176471

Deviazione standard 0,366954558 0,466304028 0,297684257

Mediana 2,757575758 1,529411765 2,794117647

Tabella 5.1. Valutazioni ottenute nelle prime 3 sezioni del questionario per la prova con il dispositivo AR.

Sezione

Punteggio VR Game experience Social presence Post-game

Media 3,06969697 1,429411765 3,035294118

Deviazione standard 0,348300346 0,602216207 0,403873974

Mediana 3,045454545 1,352941176 3,058823529

Media (prima AR) 3,142424242 1,358823529 3,182352941

Deviazione standard 0,374104379 0,690744546 0,404516029

Mediana 3,166666667 1,323529412 3,117647059

Media (prima VR) 2,996969697 1,5 2,888235294

Deviazione standard 0,303469379 0,48809353 0,345459926

Mediana 3 1,441176471 3,029411765

Tabella 5.2. Valutazioni ottenute nelle prime 3 sezioni del questionario per la prova con il dispositivo VR.

essere poste sulle pareti ad altezza uomo. Inoltre, sarebbe stato possibile implementare degli indicatori dinamici che diventino visibili quando l’oggetto target non è più nel campo visivo, indicandone la direzione.

Cooldown Il meccanismo di cooldown dell’arma da fuoco virtuale non è stato parti-colarmente apprezzato da alcuni tester, che avrebbero preferito la possibilità di sparare alla frequenza con la quale premevano il tasto per fare fuoco. Non è chiaro se eliminare il

cooldown sia la scelta giusta, o se sia più opportuno limitarsi a ridurre il tempo di cool-down. Infatti, il cooldown aiuta a dare consistenza alle dinamiche del gioco, rendendolo più simile alla realtà vera.

Difficoltà a puntare con HoloLens Alcuni utenti hanno dichiarato di aver trovato più difficoltoso puntare e sparare con lo sguardo8, il sistema di controllo utilizzato con il dispositivo AR, rispetto a puntare con il motion controller VR. Ciò è probabilmente dovuto al fatto che i nemici si muovono continuamente, rendendo il puntamento con lo sguardo non sufficientemente rapido e stancante.

Effetti sonori e visivi dello sparo Un aspetto su cui sarebbe stato opportuno dedicare più attenzione, e che è stato sottolineato dai tester, è la dinamica dello sparo; infatti, sebbene fosse possibile vedere lo sparo come nei film di Star Wars©, accompagnato da un effetto sonoro, molti hanno segnalato la difficoltà a capire se un colpo fosse andato a segno, a causa della mancanza di un feedback sonoro o visivo nel momento in cui il bersaglio era colpito.

Interazioni con il clicker Il meccanismo di raccolta degli oggetti virtuali (Medkit e munizioni) implementato per HoloLens, che richiedeva di guardare l’oggetto da raccogliere e premere contemporaneamente il tasto del clicker, è stato ritenuto meno immediato del meccanismo, più naturale, implementato per la modalità VR, che richiedeva di avvicinare il controller all’oggetto da raccogliere e premere un tasto predefinito. Benché quest’ultimo meccanismo sia più immediato, non è stato possibile replicarlo con il clicker dell’HoloLens, in quanto esso non è tracciato.

Come per la raccolta degli item, anche la modalità di sparo con il clicker non è stata molto apprezzata da alcuni utenti, preferendo la modalità VR, in quanto ritenuta più appagante e immersiva.

Comunicazione con i compagni Durante i test, alcuni partecipanti parlavano tra loro, manifestando il desiderio di poter comunicare direttamente attraverso la propria voce; inoltre, una parte degli intervistati ha indicato specificatamente l’implementazione di un sistema (tipo VoIP9).

Menù Un altro aspetto da migliorare è il modo in cui sono gestiti i menù, in quanto sono stati ritenuti troppo invasivi. Infatti, affinché il menù fosse sempre nelle vicinanze dell’utente, è stato implementato un meccanismo per cui il menù segue sempre l’utente mentre questo si sposta nella scena. Purtroppo, la particolare implementazione di tale meccanismo ha comportato una riduzione del campo visivo. Si potrebbe migliorare la

8Più correttamente, il puntatore segue la direzione della testa, in quanto l’HoloLens non supporta l’eye tracking

9Voice over IP

logica sottostante per far sì che durante gli spostamenti il menù segua l’utente, ma sen-za bloccargli la visuale; in alternativa, si potrebbe rendere il menù fisso, e permettere all’utente, tramite la pressione di un tasto, di richiamare il menù.

Delimitatori dell’area di azione Per segnalare il perimetro dell’area di azione, sono stati posti degli oggetti virtuali (transenne) lungo il corridoio. Durante uno dei test con l’HoloLens è successo che il tester non ha visto l’ostacolo virtuale, ed ha proseguito ben oltre l’area di gioco. In tale evenienza, sarebbe necessario un meccanismo che permetta di segnalare all’utente che è al di fuori del perimetro che delimita la scena di interesse, e lo guidi nella giusta direzione per riportarsi nell’area ammessa.

Dati oggettivi

Punti di interesse Le figure5.2e 5.3mostrano una vista dall’alto dell’area di azione;

le parti rappresentate dal pattern a scacchiera rossa e bianca sono i locali inaccessibili.

I cerchi verdi tratteggiati indicano i punti di spawning degli utenti, mentre le linee ros-se tratteggiate indicano la posizione dei delimitatori dell’area di azione (nel videogioco proposto, delle transenne virtuali). Le entità virtuali con cui si può interagire (Nemici, medkit e munizioni) sono indicati nella mappa. Il tracciato raffigurato è stato ottenuto dalle posizioni degli utenti campionate nel corso dei test; le parti rosse e gialle sono le zone in cui i tester si sono trattenuti per maggior tempo, al contrario la parte blu indica zone meno frequentate.

Come è possibile notare, i partecipanti si sono interessati non solo ai nemici da distrug-gere, ma anche agli item da raccogliere.

Perdita del tracciamento La figura 5.4 illustra gli eventi di perdita di tracciamento verificatisi durante i test con l’HoloLens. Le frecce indicano la posizione e la direzione dell’utente quando si è verificata la perdita di tracciamento, mentre i tre rettangoli posti in corrispondenza di ciascuna freccia rappresentano, codificati con i colori rosso, verde e blu, la velocità (rosso), il tempo trascorso dal momento in cui avviene la perdita di tracciamento e la successiva riattivazione del sistema di tracciamento (verde), e il tempo che l’HoloLens ha impiegato per rilocalizzare almeno un’ancora (blu).

Le ancore, rappresentate nella figura e evidenziate con cerchi tratteggiati, sono state distribuite nell’area di interesse quanto più uniformemente possibile.

Come è possibile notare dalla figura, le perdite di tracciamento si sono verificate anche quanto gli utenti guardavano in direzione delle ancore; ciò è probabilmente dovuto al fat-to che il sistema di rilevazione delle ancore è basafat-to sullo stesso principio del sistema di tracciamento. Quindi, la presenza delle ancore non può aiutare il sistema di tracciamento dal punto di vista della robustezza, può, però, essere impiegata per l’allineamento degli ologrammi con il mondo reale, come è stato fatto nel presente lavoro.

La velocità, calcolata dai valori di posizione, ha valore medio pari a 0.12 m/s, e devia-zione standard pari a 0.08 m/s. Il rettangolo a sinistra è rosso se la velocità è maggiore

Figura 5.2. Mappa di calore dell’HoloLens. Le aree rosse sono quelle in cui il soggetto ha trascorso più tempo, mentre le aree blu sono quelle in cui ha trascorso meno tempo.

o uguale a 0.12 + 0.08 = 0.2 m/s, mentre è nero se la velocità è inferiore a 0.12 - 0.08 = 0.04 m/s.

Il rettangolo al centro rappresenta, come detto sopra, il tempo trascorso dall’istante in cui si verifica la perdita di tracciamento, e quello in cui il sistema di tracciamento segnala

Figura 5.3. Mappa di calore dell’Oculus Rift.

stato attivo10. Il valore medio è pari a 602 ms, mentre la deviazione standard è pari a 83 ms.

10Quando il sistema di tracciamento è attivo, l’HoloLens è in grado di tracciare la propria posizione, ma potrebbe non aver localizzato alcuna ancora

Infine, il tempo che il sistema impiega per recuperare completamente (Cioè essere in grado di tracciare la posizione dell’utente e contemporaneamente allineare gli ologrammi con il mondo reale) ha valore medio pari a 5063 ms e deviazione standard pari a 2305 ms.

Come si evince dai dati raccolti, il tempo di riattivazione è quasi costante, mentre il tempo di recupero completo dipende molto da dove si trova l’utente in relazione alle ancore.

Figura 5.4. Ogni freccia indica la posizione e la direzione dell’HoloLens nel momento in cui si è verificata una perdita di tracciamento. La velocità e il tempo di recupero sono codificati tramite rettangoli colorati.

Conclusioni e sviluppi futuri

Lo scopo del lavoro qui presentato è stato la realizzazione di un framework che potesse costituire un punto di partenza per lo sviluppo di ambienti di realtà aumentata e virtuale multiutente, orientato principalmente all’intrattenimento.

Nei mesi dedicati a lavorare al framework, sono stati trattati molteplici argomenti, che vanno dai modelli di reti di calcolatori, alle interfacce utente, dalla modellazione 3D ai pat-tern di programmazione. Particolare importanza ha avuto il tema della rete; aspetti quali la creazione e la gestione di sessioni, le procedure di accesso a sessioni aperte, la comu-nicazione tra gli host e la sincronizzazione delle entità hanno richiesto grande attenzione, al fine di rendere il framework il più flessibile possibile per lo sviluppatore, nonché rende-re l’esperienza di utilizzo dell’applicazione da parte dell’utente finale semplice ed intuitiva.

La flessibilità del framework è stato uno dei principali requisiti; si è cercato, infatti, di progettare un’architettura che potesse adattarsi a modalità di funzionamento diverse, in cui diversi tipi di entità devono raggiungere gli scopi definiti dal designer, seguendo le regole che questi ha stabilito.

La sincronizzazione dello stato delle entità tra i diversi host è stato un aspetto critico per due ragioni:

1. L’utilizzo di un protocollo non affidabile (per la motivazione dietro tale scelta, si veda3.1.2) richiede di gestire casi quali perdita di pacchetti e arrivi fuori ordine.

2. L’aggiunta di un nuovo tipo1 di entità può richiedere più o meno lavoro al program-matore in funzione della strategia di sincronizzazione adottata. Al fine di ridurre il numero di passaggi richiesti al programmatore per la sincronizzazione, e ridurre in tal modo anche la probabilità di commettere errori, si è fatto lo sforzo di implementare a livello di sistema i meccanismi di sincronizzazione.

Il framework sviluppato è composto da un certo numero di moduli e componenti in-dipendenti, che comunicano e interoperano sotto la regia di un ApplicationController (si veda 3.2per maggiori dettagli), che gestisce lo stato dell’applicazione.

1Classe

Poiché il framework è stato pensato per il modello client-server, esso implementa, a livello di sistema, tutte le procedure indispensabili sia del server (configurazione, avvio, aggiornamento, e terminazione di una sessione) che dei client (configurazione, accesso e gestione di una sessione).

Al fine di valutare la validità del framework, è stato sviluppato un videogioco in cui i partecipanti hanno l’obiettivo di distruggere dei mostri alieni disseminati all’interno di un’area di gioco prestabilita.

Il videogioco ha permesso di valutare non solo alcuni aspetti generali del framework, come il sistema di allineamento discusso nel capitolo3.2.8, ma anche aspetti più specifici delle applicazioni per AR e VR.

I test sono stati condotti all’interno del Politecnico di Torino, al Dipartimento di Au-tomatica e Informatica, in un’area che comprende due locali e il corridoio che li connette;

i sistemi impiegati comprendono un PC desktop utilizzato come server, l’HoloLens, e un router. Il PC desktop, connesso tramite cavo ethernet al router, eseguiva anche un client con i dispositivi Oculus Rift e Oculus Touch, mentre l’HoloLens era connesso al router tramite wifi.

Al fine di valutare tutti gli aspetti del sistema, non solo tecnici, ma anche quelli relativi alle funzionalità e alla game experience, i test sono stati condotti in gruppi di 2 individui, che si alternavano provando entrambi i dispositivi di AR e VR.

Benché i test condotti abbiano mostrato che il sistema nel suo complesso funzioni, alcu-ni aspetti fondamentali del framework possono essere migliorati, a partire dall’algoritmo di allineamento, che potrebbe essere reso più robusto sfruttando tecniche che si basano sull’estrazione di spigoli [25], o anche riconoscimento di marker.

Un altro aspetto migliorabile è la segnalazione dei limiti dell’area di azione degli utenti, che, specialmente in realtà aumentata, presenta dei difetti di progettazione, come discusso in 5.2.3. Oltre a delimitatori sotto forma di oggetti reali, quali transenne virtuali, si potrebbero utilizzare segnalatori dinamici, attivati non appena l’utente esce dall’area di azione e posti dinamicamente di fronte all’utente, in modo da essere sempre visibili.

Durante le sessioni di test, è stato lamentato il fatto che i menù fossero troppo inva-sivi (si veda 5.2.3), a causa del fatto che, seguendo continuamente l’utente durante gli spostamenti, ne limitavano il campo visivo. Per evitare che il menù blocchi la visuale dell’utente, si potrebbe rendere più intelligente il meccanismo di following dell’utente, o anche assegnare un tasto per richiamare il menù on demand.

Per quanto riguarda gli aspetti prettamente di design dell’applicazione, i partecipanti hanno segnalato la difficoltà a individuare la posizione degli obiettivi (si veda 5.2.3), in quanto gli indicatori, posti all’altezza del pavimento per non essere troppo invasivi, risul-tavano difficili da vedere con l’HoloLens, a causa del limitato campo visivo. Al fine di rendere gli indicatori più visibili, sarebbe preferibile porli ad altezza d’uomo e distribuirli in modo più intelligente, per non distrarre gli utenti durante l’azione.

In generale, questa prima versione del framework, sebbene migliorabile sotto diversi aspetti, si è dimostrata matura per applicazioni non troppo complesse come il videogioco sviluppato. In futuro, sarebbe interessante esplorare la possibilità di realizzare applicazioni con un maggior grado di complessità; inoltre, andrebbero fatti dei test per valutare la robustezza del netcode2 sulla rete pubblica.

2Il codice che gestisce tutta la parte relativa alla rete, inclusa la sincronizzazione delle entità

[1] Vuforia. URL https://engine.vuforia.com/engine/.

[2] Tuncer Akbay. Augmented reality applications in education. 09 2014.

[3] John Aliprantis and George Caridakis. A survey of augmented reality applications in cultural heritage. International Journal of Computational Methods in Heritage Science, 3:118–147, 07 2019. doi: 10.4018/IJCMHS.2019070107.

[4] Ronald Azuma. A survey of augmented reality. Presence: Teleoperators and Virtual Environments, 6, 02 1996. doi: 10.1162/pres.1997.6.4.355.

[5] Aaron Bangor, Phil Kortum, and James Miller. Determining what individual sus scores mean: Adding an adjective rating scale. J. Usability Stud., 4:114–123, 04 2009.

[6] Derek Behmke, David Kerven, Robert Lutz, Julia Paredes, Richard Pennington, Eve-lyn Brannock, Michael Deiters, John Rose, and Kevin Stevens. Augmented reality chemistry: Transforming 2-d molecular representations into interactive 3-d structu-res. Proceedings of the Interdisciplinary STEM Teaching and Learning Conference, 2, 01 2018. doi: 10.20429/stem.2018.020103.

[7] Svetlana Bialkova and Enrique Bigne. Shaping the future of virtual reality marketing:

perspectives and challenges. 06 2017.

[8] Bimber, Oliver, Raskar, and Ramesh. Spatial Augmented Reality Merging Real and Virtual Worlds. 01 2005. doi: 10.1201/b10624.

[9] Wolfgang Broll, Irma Lindt, Jan Ohlenburg, Michael Wittkamper, Chunrong Yuan, Thomas Novotny, Ava Fatah gen. Schieck, Chiron Mottram, and A. Strothman. Ar-thur: A collaborative augmented environment for architectural design and urban planning. Journal of Virtual Reality and Broadcasting, 1:1–10, 12 2004.

[10] Katharina Buckl, Stefan Misslinger, Piero Chiabra, and Glyn Lawson. Augmented Reality for Remote Maintenance, pages 217–234. 07 2011. ISBN 978-1-84996-171-4.

doi: 10.1007/978-1-84996-172-1_13.

[11] Thomas Caudell and David Mizell. Augmented reality: An application of heads-up display technology to manual manufacturing processes. volume 2, pages 659 – 669 vol.2, 02 1992. ISBN 0-8186-2420-5. doi: 10.1109/HICSS.1992.183317.

[12] H. Creagh. Cave automatic virtual environment. pages 499 – 504, 10 2003. ISBN 0-7803-7935-7. doi: 10.1109/EICEMC.2003.1247937.

[13] Digiday. How ikea is using augmented reality, 2017. URL https://digiday.com/

marketing/ikea-using-augmented-reality/.

[14] Elizabeth Ditzel and Emma Collins. Holograms enhance student learning. The New Zealand nursing journal. Kai tiaki, 26:26, 12 2018.

[15] Stephen Ellis, Fraçois Bréant, B. Manges, Richard Jacoby, and Bernard Adelstein.

Factors influencing operator interaction with virtual objects viewed via head-mounted see-through displays: viewing conditions andrendering latency. volume 0, pages 138–

145, 04 1997. ISBN 0-8186-7843-7. doi: 10.1109/VRAIS.1997.583063.

[16] Steven Feiner, Blair Macintyre, and Seligmann. Knowledge-based augmented reality.

Commun. ACM, 36(7):53–62, July 1993. ISSN 0001-0782. doi: 10.1145/159544.

159587. URLhttp://doi.acm.org/10.1145/159544.159587.

[17] Steven Feiner, Blair Macintyre, Tobias Höllerer, and Anthony Webster. A tou-ring machine: Prototyping 3d augmented reality systems for explotou-ring the urban environment. Personal and Ubiquitous Computing, 1:208–217, 01 1997.

[18] George Fitzmaurice. Situated information spaces and spatially aware palmtop computers. Commun. ACM, 36:38–49, 07 1993. doi: 10.1145/159544.159566.

[19] Hirokazu Kato. Artoolkit, 1999. URL http://www.hitl.washington.edu/

artoolkit/.

[20] Gun Lee and Mark Billinghurst. Cityviewar outdoor ar visualization. 07 2012. doi:

10.1145/2379256.2379281.

[21] Jack Loomis, Reginald Golledge, Roberta Klatzky, Jon Speigle, and Jerome Tietz.

Personal guidance system for the visually impaired. pages 85–91, 01 1994. doi:

10.1145/191028.191051.

[22] Market Research Future. Virtual reality market by type, size, growth and ana-lysis - 2027, 2019. URL https://www.marketresearchfuture.com/reports/

virtual-reality-market-916/.

[23] Paul Milgram, Haruo Takemura, Akira Utsumi, and Fumio Kishino. Augmented reality: A class of displays on the reality-virtuality continuum. Telemanipulator and Telepresence Technologies, 2351, 01 1994. doi: 10.1117/12.197321.

[24] György Molnár, Szűts Zoltán, and Kinga Biró. Use of augmented reality in learning.

Acta Polytechnica Hungarica, 15:209–222, 11 2018. doi: 10.12700/APH.15.5.2018.5.

12.

[25] Benjamin Nuernberger, Eyal Ofek, Hrvoje Benko, and Andrew Wilson. Snaptoreality:

Aligning augmented reality to the real world. pages 1233–1244, 05 2016. doi: 10.

1145/2858036.2858250.

[26] S K Ong, Miaolong Yuan, and Andrew Nee. Augmented reality applications in ma-nufacturing: A survey. International Journal of Production Research - INT J PROD RES, 46:2707–2742, 05 2008. doi: 10.1080/00207540601064773.

[27] Phys.org. What is augmented reality, anyway?, 2018. URL https://phys.org/

news/2018-11-augmented-reality.html/.

[28] Ramesh Raskar, Greg Welch, Matt Cutts, Adam Lake, Lev Stesin, and Henry Fuchs.

The office of the future: A unified approach to image-based modeling and spatially immersive displays. Proceedings of the 25th Annual Conference on Computer Graphics and Interactive Techniques, SIGGRAPH 1998, 07 1998. doi: 10.1145/280814.280861.

[29] Ramesh Raskar, Greg Welch, and Wei-Chao Chen. Table-top spatially-augmented realty: bringing physical models to life with projected imagery. pages 64 – 71, 02 1999. ISBN 0-7695-0359-4. doi: 10.1109/IWAR.1999.803807.

[30] Jun Rekimoto. A magnifying glass approach to augmented reality systems. Presence, 6:399–412, 01 1997.

[31] Jun Rekimoto and Yuji Ayatsuka. Cybercode: Designing augmented reality environ-ments with visual tags. ACM Designing Augmented Reality Environenviron-ments, 03 2000.

doi: 10.1145/354666.354667.

[32] Road to VR. 30 minutes inside valve’s prototype virtual reality headset: Owlchemy labs share their steam dev days experience, 2014.

[33] Carlos Rodríguez Pardo, S. Hernandez, Miguel A. Patricio, Antonio Berlanga, and José Molina. An augmented reality application for learning anatomy. pages 359–368, 06 2015. ISBN 978-3-319-18832-4. doi: 10.1007/978-3-319-18833-1_38.

[34] Ivan E. Sutherland. The ultimate display. In Proceedings of the IFIP Congress, pages 506–508, 1965.

[35] Ivan E. Sutherland. A head-mounted three-dimensional display. In AFIPS Conference Proceedings (1968) 33, I, pages 757–764, 1968.

[36] Zsolt Szalavári, Dieter Schmalstieg, Anton Fuhrmann, and Michael Gervautz. ?stu-dierstube?: An environment for collaboration in augmented reality. Virtual Reality, 3:37–48, 03 1998. doi: 10.1007/BF01409796.

[37] Nobuhisa Tanaka. A survey of countermeasure design for virtual reality sickness.

pages 129–138, 03 2005. doi: 10.18974/tvrsj.10.1_129.

[38] Arthur Tang, Charles Owen, Frank Biocca, and Weimin Mou. Comparative ef-fectiveness of augmented reality in object assembly. pages 73–80, 01 2003. doi:

10.1145/642611.642626.

[39] Tansel Tepe, Devkan Kaleci, and Hakan Tüzün. Virtual Reality Applications in Education. 12 2017. doi: 10.1007/978-3-319-08234-9_166-1.

[40] The Atlantic. Augmented reality goes to work, 2017. URL https://www.

theatlantic.com/sponsored/vmware-2017/augmented-reality/1584/.

[41] The Medical Futurist. The top 9 augmented reality compa-nies in healthcare, 2017. URL https://medicalfuturist.com/

top-9-augmented-reality-companies-healthcare/.

[42] The Verge. Google is letting some users test its ar navigation feature for google maps, 2019. URL https://www.theverge.com/2019/2/10/18219325/

google-maps-augmented-reality-ar-feature-app-prototype-test/.

[43] Bruce Thomas, B. Close, J. Donoghue, J. Squires, P. Bondi, M. Morris, and W. Pie-karski. Arquake: An outdoor/indoor augmented reality first person application.

volume 6, pages 139–146, 02 2000. ISBN 0-7695-0795-6. doi: 10.1109/ISWC.2000.

888480.

[44] Hollace Warner. Development of a symbology exerciser for display generation and analysis on the visually-coupled airborne systems simulator (vcass). page 169, 03 1978.

[45] D. Weng, D. Li, W. Xu, Y. Liu, and Yongtian Wang. Ar shooter: An augmented reality shooting game system. pages 311 – 311, 11 2010. doi: 10.1109/ISMAR.2010.

5643620.

Documenti correlati