• Non ci sono risultati.

Errori in funzione delle griglie, ripetto al numero di vicini

Nel documento Un po' di algoritmi per Zigbee (pagine 77-84)

13.3 L'uso delle varie griglie e di un diverso numero di Vicini

14.1.2 Errori in funzione delle griglie, ripetto al numero di vicini

scelte delle congurazioni.

Questo è un ottimo metodo in fase reale per decidere come svolgere al meglio la misura.

Figure 44: Visualizzazione errore Griglia1 in funzione al numero vicini: le linee rappresentano solo un modo comodo per leggere il graco, facendo intuire delle tendenze: seguendo la linea rossa si individua subito che il minimo errore con LLE sull'elaborazione della posizione, si ha con 4 sensori vicini. La linea verde riguarda l'elaborazione di N con 5, la linea blu costante la N media. La somma degli errori assoluti è espressa in m.

Questa elaborazione è utile anche per determinare che l'elaborazione di N pesato, da parte di LLE.

Figure 45: Risultato errori Griglia1 con 5 vicini con media pesata con errori molto bassi

La seconda griglia

Figure 46: Visualizzazione errore Griglia2 in funzione al numero vicini da questa elaborazione si evince subito che, la migliore è ancora l'elaborazione su N e che il numero di vicini ideale è 3.

Nella terza griglia si è dovuto ridurre il numero dei vicini massimo portandolo a 9:

Figure 47: Visualizzazione errore Griglia3 in funzione al numero vicini come si vede il numero dei vicini ideale per la valutazione della posizione è 4 per quanto riguarda la N è 3.

Figure 48: Situazione migliore Griglia3 calcolo N con LLE: elaborata con 3 vicini

La griglia 4:

Figure 49: Visualizzazione errore Griglia4 in funzione al numero vicini Da qui si vede subito che l'ottimo è rappresentato con 6 vicini sia per l'elaborazione di N che per la posizione.

Griglia 1 Griglia2 Griglia3 Griglia4

Stima N 5 3 3 6

Stima Pos. 4 3 4 6

Media ind ind ind ind

Table 2: Tabella riassuntiva delle congurazioni migliori per le griglie per le elaborazioni LLE di N, Posizione e media. per la media è indierente essendo N calcolata su tutte le N della griglia

14.2 Conclusione con numero ottimo di vicini

In questa parte viene fatta una tabella riepilogativa tratta dai risultati delle elaborazioni, inne sarà indicata un'analisi qualitativa sulle griglie.

Un' ultima considerazione può essere fatta sul fatto che la somma degli errori assoluti scelte le giuste congurazioni varia di poco.

Questo induce a pensare che, con le giuste congurazioni il numero dei cam- pionamenti non è così importante.

15 Conclusioni

Questa tesi è il risultato del lavoro svolto all'inizio per intuire il problema: la parte geometrica, poi prosegue con algoritmi pensati con l'esigenza di mettere ordine nei rilevamenti dei sensori: con LLE che riesce a considerare sensori vicini rispetto alle distanze, l'ordine viene ricercato anche nel posizionamento dei sensori ssi attraverso l'uso di EM per distribuire quest'ultimi nel più omogeneo modo bidimensionale possibile.

La ricerca prosegue poi con l'introduzione dell'RSSI che, essendo un segnale disturbato, non consente una rilevazione di distanze precise. Vengono così por- tate avanti più strade in fase di modellazione: una parte basata sullo Steepest descendent method, altre proprio su LLE.

Una tra le cose da considerare è il capitolo riguardante lo steepest con ap- prendimento, la parte di apprendimento dai sensori ssi, la successiva scorpo- razione della N come parametro da interpolare man mano, non interno alla funzione di progressione dello Steepest.

Per nire con l'uso di LLE per determinare il punto nel test pratico. A conclusione di questa tesi, considerati i risultati ottenuti, si possono fare diverse osservazioni:

In particolare sarebbe utile ripetere le misure con sensori dotati di antenne omnidirezionali.

E' da notare infatti che, con le 2 antenne direzionali ortogonali poste all'interno dei sensori usati per i test, vi è una variazione del parametro A (inerente la potenza di trasmissione ad un metro): per capire meglio signica è che a parità di distanza, ad es. 1 metro si hanno delle misure di RSSI diverse.

Altra osservazione riguarda l'ambiente delle misure:

il campionamento è stato fatto sotto a mobili, in mezzo a li, vicino e lontano da muri, tutto questo contribuisce a creare errori.

Anche con algoritmi che, come LLE, fanno un campionamento dell'ambiente, se le misure rilevate a poca distanza sono molto diverse rendono la mappa geometrica, molto diversa dalla mappa ricavata dalle misure.

La conseguenza è che nel calcolo dei vicini si trovano punti geometricamente distanti e questo determina poi l'errore nella stima di LLE.

Un possibile altro esperimento potrebbe essere fatto in ambienti più semplici, questo per avvicinare di più RSSI letti alle misure vere.

A conclusione di queste sperimentazioni si può aermare che in determinate zone non critiche un algoritomo di questo tipo può arrivare a delle precisioni accettabili di 0.5 e 1.5 metri, in particolare il campionamento può denire queste zone, e magari suggerire dei modi diversi per campionare le altre.

Gli algoritmi di steepest, che come detto sono quelli usati per la trilaterazione o la multilaterazione, in un ambiente di questo tipo, non avrebbero speranze di convergere a punti attendibili, rendendo la misura ancora meno utile, quasi casuale.

Part IV

Bibliograa

References

[1] Valutazione dell' architettura di reti XBee e ZigBee su piccola scala basate su standard di comunicazione IEEE 802.15.4 Roberto Maurizio Pellegrini, Diego Volponi Fondazione Ugo Bordoni

[2] S. Russell, P. Norvig. Articial Intelligence: A Modern Approach (second edition). Prentice-Hall, 2002.

[3] Lawrence Cayton: Algorithms for manifold learning. June 15, 2005 [4] Lawrence K. Saul Sam T. Roweis : An Introduction to Locally Linear

Embedding

[5] Trond Hjorteland: Method of Steepest Descendent. Jul 5, 1999 [7] Takashi Shinzato: Box Muller Method January 2007

[8] J. B. MacQueen (1967): "Some Methods for classication and Analysis of Multivariate Observations", Proceedings of 5-th Berkeley Symposium on Mathematical Statistics and Probability, Berkeley, University of California Press, 1:281-297

[9] D. Arthur, S. Vassilvitskii (2006): "How Slow is the k-means Method?," Proceedings of the 2006 Symposium on Computational Geometry (SoCG). [10] A. Vattani (2009): "k-means requires exponentially many iterations even in the plane," Proceedings of the 2009 Symposium on Computational Ge- ometry (SoCG).

[11] M. A. Spirito, F. Sottile \e" Istituto Superiore Mario Boella

[12] Andreas Savvides, Heemin Park, Mani B. Strivastava \The n-Hop Multilat- eration Primitive for Node Localization Problems" University of California, Los Angeles

[13] Nancy Lynch \Advanced Distribuited Algorithms: Localization" Mas- sachusetts Institute of Tecnology

[14] Andreas Savvides, Chin-Chien Han, Mani B. Strivastava \Dynamic Fine- Grained Localization in Ad-Hoc Networks of Sensors" University of Cali- fornia, Los Angeles

Part V

Appendice

16 Algoritmi usati in questa tesi

Per quanto riguarda gli algoritmi che saranno poi elencati la fonte di partenza è il testo [2]

16.1 E.M. Expectationmaximization algorithm [8, 9, 10]

questo algoritmo viene usato per determinare i centroidi migliori data una griglia.

Nel documento Un po' di algoritmi per Zigbee (pagine 77-84)

Documenti correlati