• Non ci sono risultati.

Studio di un sistema di visual odometry per ispezioni di biologia marina con AUV

N/A
N/A
Protected

Academic year: 2021

Condividi "Studio di un sistema di visual odometry per ispezioni di biologia marina con AUV"

Copied!
93
0
0

Testo completo

(1)

DIPARTIMENTO DI INGEGNERIA DELL’INFORMAZIONE CORSO DI LAUREA MAGISTRALE IN INGEGNERIA ROBOTICA E

DELL’AUTOMAZIONE

TESI DI LAUREA

Studio di un sistema di visual odometry per ispezioni di biologia marina

con AUV

Relatori:

Prof. Ing.

Andrea Caiti

Dipartimento di Ingegneria dell’ Informazione & Centro “E. Piaggio”

Dott. Ing.

Riccardo Costanzi

Dipartimento di Ingegneria dell’ Informazione & Centro “E. Piaggio”

Candidato:

Francesco Pinna

(2)

Sommario

L’obiettivo della presente tesi `e lo studio di un sistema di visione per un Auton-mous Underwater Vehicle (AUV) per applicazioni di biologia marina. Argomenti centrali del lavoro sono stati lo sviluppo e la messa a punto di uno strumento atto alla stima della velocit`a del robot sulla base del flusso di immagini acquisito (Vi-sual Odometry – VO). Il sistema sviluppato `e pensato per la sostituzione dei sensori acustici di velocit`a tipicamente utilizzati in robotica subacquea (Doppler Velocity Log – DVL). L’utilizzo dello strumento di VO `e utile per mantenere contenuti i costi dell’AUV, requisito fondamentale nel campo della biologia marina, in missioni di ispezione dove la visibilit`a `e un prerequisito intrinseco. La tesi `e stata svolto presso il Dipartimento di Ingegneria dell’Informazione dell’Universit`a di Pisa. Nella prima parte dello studio, l’AUV ed i sensori di bordo, sono stati replicati in un ambiente virtuale in ROS (Robot Operating System) adattando il simulatore UWSim (Under-Water SIMulator for marine robotics). `E stata implementata una guida a waypoint per poter ripetere le stesse missioni e confrontare le performance degli algoritmi di visione. Tra gli scenari 3D disponibili in UWSim non `e presente un fondale marino di interesse biologico; `e stata quindi eseguita una campagna sperimentale di acquisi-zione immagini tramite AUV per la generaacquisi-zione di un modello 3D adatto. Il veicolo utilizzato `e l’AUV FeelHippo sviluppato presso il Dipartimento di Ingegneria Indu-striale dell’Universit`a degli Studi di Firenze. Lo scenario cos`ı generato ha permesso l’acquisizione virtuale di immagini realistiche. Nella seconda parte dello studio `e stato implementato, in ambiente MATLAB, l’algoritmo di VO vero e proprio basato sull’estrazione di features con l’algoritmo SURF (Speeded Up Robust Feature). In ingresso all’algoritmo, oltre alle immagini di una singola camera ed ai relativi para-metri intrinseci, viene fornita una misura di distanza dalla scena osservata ottenuta tramite un echosounder allineato alla camera stessa. Questo ha permesso di risolvere il problema del fattore di scala. Un’analisi di sensitivit`a `e stata condotta al variare di velocit`a, angolo di inclinazione rispetto all’orizzontale e grado di torbidit`a dell’ac-qua. Come segnale di riferimento sono state utilizzate le misure del DVL di bordo virtuale. L’applicazione dell’algoritmo sviluppato nello scenario proposto consente di ottenere prestazioni di navigazione paragonabili a quelle ottenute con il tradizio-nale DVL acustico. Tale studio costituisce la base per lo sviluppo e realizzazione di un sensore di velocit`a a basso costo basato sull’elaborazione di immagini successive.

(3)

Indice

1 Contesto 5

2 Stato dell’arte 8

2.1 Modellazione dinamica per robots sottomarini . . . 8

2.1.1 Cinematica di un corpo rigido e assetto tramite angoli di Eulero . . 8

2.1.2 Caratteristiche dinamiche di un corpo rigido . . . 10

2.1.3 Contibuti alla dinamica di un corpo rigido . . . 10

2.1.4 Effetti idrodinamici . . . 11

2.1.5 Equazioni del moto . . . 13

2.2 Tecniche e sensori per la navigazione . . . 13

2.2.1 Sensori e tecniche di navigazione inerziali . . . 16

2.2.2 Trasponders acustici e beacons . . . 20

2.2.3 Sensori geofisici . . . 23

2.3 VO: visual odometry . . . 26

2.3.1 Cosa `e la VO ? . . . 26

2.3.2 Perch`e VO ? . . . 26

2.3.3 Limiti della VO . . . 27

2.3.4 Applicazioni VO . . . 27

2.3.5 Camere utilizzabili per VO . . . 28

2.3.6 Tipologie di visual odometry . . . 29

2.3.7 Visual Odometry in ambiente sottomarino . . . 32

3 Sperimentazione orientata alla simulazione 33 3.1 FeelHippo: veicolo autonomo sottomarino a basso costo per monitoraggio e ispezione . . . 33

3.1.1 Descrizione AUV FeelHippo . . . 34

3.1.2 Payload aggiuntivo . . . 35

3.2 Calibrazione payload . . . 38

3.2.1 Calibrazione in aria . . . 39

3.2.2 Calibrazione in acqua payload . . . 43

3.3 Scenario: Ship Light (LI) . . . 45

3.4 Missioni . . . 46

3.4.1 Acquisizione immagini per validare calibrazione camera . . . 46

3.4.2 Ispezione fondale . . . 47

3.4.3 Correzione immagini tramite Camera Calibration Toolbox for MA-TLAB . . . 48

3.4.4 Ricostruzione dello scenario Shiplight . . . 52

4 Navigazione in ambiente virtuale UWSim: Underwater Simulator 55 4.1 Integrazione scenario Ship Light . . . 55

4.2 Girona 500 . . . 56

4.3 Implementazione joystick PS3 . . . 56

(4)

4.4.1 Controllo di profondit`a . . . 60

4.4.2 Controllo di heading . . . 61

4.4.3 Controllo di velocit`a . . . 61

4.5 Acquisizione immagini per visual odometry . . . 62

5 Visual Odometry 65 5.1 Test sistemi stato dell’arte . . . 65

5.1.1 LIBVISO2: C++ Library for Visual Odometry 2 . . . 65

5.1.2 SVO: Fast Semi-Direct Monocular Visual Odometry . . . 66

5.2 Monocular Visual Odometry by MATLAB . . . 67

5.2.1 Estrazione & Matching Features . . . 67

5.3 Modellazione geometrica . . . 69

5.3.1 Sistemi di riferimento . . . 69

5.3.2 Matrice dei parametri intrinseci . . . 70

5.3.3 Lunghezza focale . . . 70

5.3.4 Offset del punto principale . . . 71

5.3.5 Basic Perspective Projection . . . 71

5.3.6 Trasformazione da World frame al frame Camera . . . 73

5.3.7 Motion Field . . . 74

5.3.8 Metodo di identificazione moto camera . . . 76

5.3.9 Motion Field con piano immagine non parallelo alla scena . . . 76

5.3.10 Identificazione e reiezione iterativa degli Outliers . . . 78

6 Risultati VO 80 6.1 Velocit`a assolute . . . 80

6.2 Angolo di tilt massimo . . . 82

6.3 Sensitivit`a alla massima torbidit`a dell’acqua . . . 84

6.4 Guida a Waypoint . . . 85

(5)

1

Contesto

L’obiettivo della presente tesi `e lo studio di un sistema di visione per un Autonmous Un-derwater Vehicle (AUV) per applicazioni di biologia marina. Argomenti centrali del lavoro sono stati lo sviluppo e la messa a punto di uno strumento atto alla stima della velocit`a del robot sulla base di immagini acquisite (Visual Odometry – VO). In Robotica, con Odometria Visuale, si intende il processo di tracciare nel tempo il moto di un agente (e.g., veicoli, umani, robot, etc.) sfruttando unicamente gli input forniti da camere ancorate all’agente stesso. Il sistema sviluppato `e pensato per la sostituzione dei sensori acustici di velocit`a (Doppler Velocity Log – DVL) tipicamente utilizzati in robotica subacquea.

L’utilizzo di uno strumento basto sulla VO `e utile per mantenere contenuti i costi dell’AUV, requisito fondamentale nel campo della biologia marina, in missioni di ispezione dove la visibilit`a `e un prerequisito intrinseco. I biologi per condurre i loro studi necessitano di acquisire immagini dei fondali marini per monitorare le presenza e la crescita delle specie. Queste operazioni vengono eseguite periodicamente da sub muniti di camera, dopodich`e le immagini vengono analizzate. Oggi un AUV in grado di localizzarsi, navigare seguendo dei waypoint, munito di una camera potrebbe eseguire questo compito eliminando il rischio per gli operatori. Inoltre implementando un algoritmo per il riconoscimento delle specie, le immagini potrebbero essere processate automaticamente da un computer e non analizzate una per volta.

Attualmente le tecniche per misurare la velocit`a di un AUV utilizzano apparecchiature costose, al fine di ottenere un metodo poco costoso si `e indagato nel campo della computer-vision che necessita principalmente soltanto di immagini e quindi di una semplice macchina fotografica, come evidenziato in [4].

In letteratura sono proposti molti algoritmi per stimare la velocit`a di un veicolo da una sequenza di immagini: possono essere suddivisi in due categorie, basati sulla mono-visione o stereo-mono-visione. La problematica dei sistemi con monocamera sta nella stima del fattore di scala. Questo problema viene superato quando si pu`o assumere ad esempio che la camera si muova a un’altezza nota e fissa rispetto al suolo, come nel caso monoculare presentato in LIBVISO2 [13]. Il fattore di scala pu`o alternativamente essere stimato da misure dirette (misura di oggetti noti nella scena), o con l’integrazione con altri sensori come IMU o range sensor ([15],[16]). I sistemi con stereocamera, nota la baseline, non soffrono di questo problema al prezzo di maggiori complessit`a, ingombri e costi.

L’utilizzo di uno strumento basto sulla VO `e utile per mantenere contenuti i costi dell’AUV, requisito fondamentale nel campo della biologia marina, in missioni di ispezione dove la visibilit`a `e un prerequisito intrinseco. I biologi per condurre i loro studi necessitano di acquire immagini dei fondali marini per monitorare le presenza e la crescita delle specie. Queste operazioni vengono eseguite periodicamente da sub muniti di camera, dopodich`e le immagini vengono analizzate. Oggi un AUV in grado di localizzarsi, navigare seguendo dei waypoint, munito di una camera potrebbe eseguire questo compito eliminando il rischio per gli operatori. Inoltre implementando un algoritmo per il riconoscimento delle specie, le immagini potrebbero essere processate automaticamente da un computer e non analizzate una per volta.

Per testare i sistemi di VO `e stato deciso di utilizzare un ambiente virtuale per evitare estensive campagne di sperimentazione in mare, con benefici in termini di costi, logistica e

(6)

tempistiche. La base software `e stata identificata in UWSim (UnderWater SIMulator for marine robotics) sviluppato da [9]. UWSim `e un nodo ROS (Robot Operating System), pensato come strumento per testare e integrare algoritmi di percezione e controllo prima di testarli sui robot reali. Veicoli subacquei, navi di superficie e manipolatori robotici, cos`ı come sensori simulati, possono essere aggiunti alla scena e accessibili esternamente attraverso le interfacce di rete. L’interazione avviene tramite la definizione di interfacce di rete che eseguono il paradigma del publisher & subscriber. Tra gli scenari 3D disponibili in UWSim non `e presente un fondale marino di interesse biologico; `e stata quindi eseguita una campagna sperimentale di acquisizione immagini tramite AUV per la generazione di un modello 3D adatto. Il veicolo utilizzato, `e l’AUV FeelHippo, veicolo subacqueo senza equipaggio a basso costo, sviluppato e realizzato presso il Mechatronics e Dynamic Mo-deling Laboratory (MDM Lab) dell’Universit`a degli Studi di Firenze [2]. La missione si `e svolta a largo della costa di Livorno, nei pressi del faro “Ship light”. Prima della missione `e stato necessario calibrare la camera montata sull’AUV, in funzione dell’ambiente in cui doveva lavorare, in quanto tutte le impostazioni manuali non sono accessibili una volta chiuso lo scafandro stagno. Compiuta la missione, le immagini sono state rettificate secon-do il modello di distorsione stimato nella calibrazione. Una volta elaborate, `e stato creato un fondale 3D con l’utilizzo di un software commerciale (Agisoft PhotoScan), caricato su UWSim in modo da poter sviluppare e testare degli algoritmi di VO.

Messo a punto lo scenario nel simulatore, `e stato utilizzato come robot virtuale il Girona500 [18], questo `e implementato di default nel simulatore con un modello dinamico accurato. Ho integrato nel simulatore un joystick per poter guidare il robot in modalit`a manuale ed implementato una guida a waypoint classica. Il G500 `e stato dotato di sensori virtuali come sensore di pressione, DVL e IMU per poter chiudere gli anelli di controllo di profondit`a, heading e velocit`a, gli ultimi due non sono disaccoppiati, in quanto i thrusters per avanzare e variare l’imbardata sono gli stessi. Ho aggiunto una camera posta nel centro di rotazione del veicolo solidale con un echosounder in modo da poter misurare la distanza AUV-scena inquadrata dalla camera. Questi ultimi due sensori saranno gli ingressi del sistema di visione, insieme ai parametri intrinseci della camera.

Collezionati i primi frames, sono stati processati con algoritmi di VO disponibili in letteratura. Sono stati provati senza successo sia LIBVISO2 (Library for Visual Odometry 2) [13], che SVO: Fast Semi-Direct Monocular Visual Odometry [14], due algoritmi di VO open-source integrabili con ROS. LIBVISO2 `e stato testato in modalit`a stereoscopica, ma essendo pensato per avere l’asse ottica della stereocamera paralela alla direzione di avanzamento del veicolo (modello di avanzamento Ackerman-steered), non riesce a stimare il fattore di scala nella configurazione con camera installata sotto il veicolo, rivolta verso il fondale, dove l’asse ottico della camera `e ortogonale alla direzione di avanzamento. SVO `e stato scelto perch`e pensato per lavorare sotto ad un drone, quindi nella configurazione voluta. Questo per`o non riesce a trovare un sufficiente numero di features con l’algoritmo FAST. L’algoritmo riesce ad inizializzarsi, trovando 100 featurs, ma dopo pochi secondi di navigazione fallisce, non soddisfacendo la soglia minima di features necessarie a far convergere l’algoritmo. Abbassando questa soglia l’algoritmo perde la sua efficacia. `E stato individuato l’algoritmo SURF: Speeded Up Robust Features [17], come il miglior riconoscitore di features in relazione al dataset di immagini virtuali sottomarine. Questo algoritmo implementato `e in MATLAB tramite la funzione detectSURFFeatures per

(7)

estrarre le features da un fotogramma. `E sufficiente fornirgli i parametri intrinseci della camera e un’immagine in scala di grigi.

Ottenute le coordinate delle features e quelle dei relativi matching fra frame successivi, ho implementato un algoritmo di VO basato sulle leggi di geometria proiettiva presentate in [11]. Per risolvere l’ambiguit`a sul fattore di scala `e stata integrata la misura dell’echo-sounder, montato allineato alla camera. Inoltre `e stato implementato un algoritmo per l’identificazione e reiezione degli outliers.

Un’analisi di sensitivit`a `e stata condotta al variare della velocit`a, angolo di inclinazione rispetto all’orizzontale e grado di torbidit`a dell’acqua. Come segnale di riferimento sono state utilizzate le misure del DVL virtuale. L’applicazione dell’algoritmo sviluppato nello scenario proposto consente di ottenere prestazioni di navigazione paragonabili a quelle ottenute con il tradizionale DVL acustico.

Nella prima parte della testi sono presentate le basi di modellazione dinamica per un robot sottomarino e lo stato dell’arte riguardante le tecniche e i sensori per la localizzazione e navigazione in ambiente subacqueo. Nella parte centrale viene descritto come `e stato messo a punto un simulatore per sviluppare e testare algoritmi di VO. Viene poi presentato l’algoritmo di VO basato sulle leggi di geometria proiettiva ed estrazione delle features, identificazione e reizione degli outliers secondo l’algortimo SURF. Infine sono riportati i risultati e le conclusioni.

(8)

2

Stato dell’arte

2.1

Modellazione dinamica per robots sottomarini

In questo capitolo viene derivato il modello matematico di un AUV.

2.1.1 Cinematica di un corpo rigido e assetto tramite angoli di Eulero

Un corpo rigido `e completamente descritto tramite la sua posizione ed orientazione rispetto ad un frame di riferimento Σi, O − xyz, ipotizzato inerziale e con origine sulla superficie

terrestre e con assi orientati verso Nort-East-Down (earth-fixed frame). Si definisce il vettore posizione espresso in coordinate earth-fixed come,

η1 =   x y z    R3 (1)

Derivando rispetto al tempo il vettore η1, si ottiene .

η1 (espresso in earth-fixed frame). Si

definisce il vettore delle velocit`a lineari

ν1 =   u v w    R 3 (2)

espresso rispetto al body-fixed frame Σb, Ob − xbybzb, solidale al veicolo con origine nel

centro di massa ed assi orientati come indicato in Fig.(1). Il modello cinematico per le componenti di velocit`a lineare `e rappresentato dalla seguente relazione

ν1 = RBI .

η1 (3)

dove la matrice di rotazione RBI, esprire la trasformazione dal earth-fixed al body-fixed frame. L’assetto del veicolo `e definito tramite gli angoli di Eulero. Il vettore associato alle coordinate di assetto `e il seguente

η2 =   φ θ ψ    R3, (4)

espresso in earth-fixed frame. Nel campo nautico questi angoli sono chiamati rollio, beccheggio e imbardata e corrispondono alle rotazioni intorno agli assi x, y e z .

(9)

Figura 1: Sistemi di riferimento e moti elementari di un veicolo, [1].

Il vettore η.2 corrisponde alla derivata temporale del vettore di assetto del veicolo

nell’earth-fixed frame. Definisco il vettore

ν2 =   p q r    R3 (5)

che rappresenta le velocit`a angolari in body-frame. Il vettore η.2 `e correlato alle velocit`a

angolari espresse nel body-frame tramite la matrice del Jacobiano nel seguente modo: ν2 = Jk,o(η2)

.

η2 (6)

Il Jacobiano Jk,o espresso in termini di angoli di Eulero `e:

Jk,o =   1 0 −sθ 0 cφ cθsφ 0 −sφ cθcφ    R3x3 (7)

dove cα e sα indicano rispettivamente cos(α) e sin(α). `E utile considerare i vettori di posizione e assetto del corpo rigido in un’unica espressione. Definisco quindi i nuovi vettori η e ν  R6, che esprimono rispettivamente le coordinate di posizione e orientazione del corpo

rigido nell’earth-fixed frame e le velocit`a lineari e angolari del corpo rigido nel body-frame, nel seguente modo:

η = η1 η2   R6 (8) e ν = ν1 ν2   R6, (9)

La relazione che lega il vettore delle velocit`a e la derivata rispetto al tempo delle coordinate del corpo rigido `e :

ν = Je(RIB) .

η (10)

(10)

Je(RIB) =  RB I O3x3 O3x3 Jk,o  (11) con RIB e Jk,o definite in precedenza.

2.1.2 Caratteristiche dinamiche di un corpo rigido

Il movimento di un sistema generico di particelle materiali soggetto a forze esterne pu`o essere descritto ricorrendo ai principi fondamentali della dinamica, mettendo in relazione forze e momenti risultanti con le derivate dei momenti lineari e angolari. Sia ρ la densit`a di una particella di volume dV di un corpo rigido B, ne corrisponder`a massa pari a

m = ˆ

VB

ρdV (12)

con VB il volume del corpo. Sia pC il centro di massa del corpo rigido, il momento lineare

(quantit`a di moto) di B `e:

l = mp.C (13)

La seconda legge di Newton pu`o essere scritta come f = ˙l = md

dtp˙C = m ¨pC (14)

dove f `e la risultante delle forze esterne. Il tensore di inerzia IO riferito al polo O `e:

IO =

ˆ

VB

ST(p)S(p)ρdV (15)

dove S `e la matrice antisimmetrica S(x) =   0 −x3 x2 x3 0 −x1 −x2 x1 0  .

La matrice I0`e simmetrica e definita positiva, gli elementi sulla diagonale I0xx, I0yy, I0zz

rappresentano i momenti di inerzia rispetto ai tre assi del sistema di riferimento. 2.1.3 Contibuti alla dinamica di un corpo rigido

Per ricavare le equazioni del moto in forma matriciale `e conveniente riferirle in body-frame Ob − xb, yb, zb, usando velocit`a lineari e angolari.

L’Eq.(14) diventa: f = md dtR I B(ν1 + ν2 × rbC)  (16) con rb

C vettore posizione fra l’origine del body frame e il centro di massa espresso nel

body-frame. Ricordando che per un corpo rigido:

(11)

Definisco il vettore delle forze risultanti agenti sul corpo rigido espresso in body-frame: τ1 =   X Y Z   (18)

e il vettore dei momenti risultati con polo in Ob:

τ2 =   K M N   (19)

Segue che l’equazione di Newton-Eulero in body-frame diventa: MRB˙ν + CRB(ν)ν = τv

con τv =

 τ1

τ2



, la matrice MRB `e costante, simmetrica, definita positiva e con derivata

nulla: MRB =  mI3 O3x3 O3x3 IOb  (20) dove I3 `e la matrice identica (3x3) e IOb `e il tensore di inerzia in body-frame. La matrice

CRB tiene contro delle forze centripete e delle forze di Coriolis.

2.1.4 Effetti idrodinamici

In questa sezione si introducono i principali effetti idrodinamici su un corpo rigido che si muove in un fluido. La teoria della fluidodinamica `e piuttosto complessa e difficile da sviluppare in un modello affidabile per la maggior parte degli effetti idrodinamici.

Masse aggiunte e inerzia Quando un corpo rigido si muove in un fluido, deve es-sere considerata l’inerzia addizionale del fluido circostante il corpo, che `e accelerato dal movimento del corpo. Questo effetto pu`o essere trascurato nella maggior parte di appli-cazioni di robotica industriale poich´e la densit`a dell’aria `e molto minore della densit`a di un sistema meccanico in movimento. Nelle applicazioni subacquee, tuttavia, la densit`a dell’acqua, ρ ≈ 1000 kg/m3, `e paragonabile alla densit`a dei veicoli. In particolare, a 0°C

la densit`a dell’acqua dolce `e 1002.68 kg/m3; per l’acqua di mare con il 3,5% di salinit`a vale ρ = 1028.48 kg/m3. Il fluido che circonda il corpo `e accelerato dal corpo stesso, il fluido

quindi esercita una forza di reazione che `e opposta. La forza di reazione `e il contributo denominato massa aggiunta. La matrice delle masse aggiunte ∈ R6x6, ha propriet`a diverse rispetto alla matrice di inerzia di un corpo rigido perch´e `e funzione della geometria della superficie del corpo. Ad esempio, la matrice delle masse aggiunte non `e necessariamente positiva definita. La forza idrodinamica lungo xb a causa dell’accelerazione lineare nella

direzione xb `e definita come: XA = −Xu˙˙u dove Xu˙ = ∂X∂ ˙u, dove il simbolo ∂ indica la

(12)

riguardano le 6 componenti forza/momento [X Y Z K M N ]T e le 6 accelerazioni linea-ri/angolari [ ˙u ˙v ˙w ˙p ˙q ˙r]T . Questi elementi possono essere raggruppati nella matrice delle

masse aggiunte, MA ∈ R6x6. Solitamente tutti il gli elementi della matrice delle masse

aggiunte sono diversi da zero.

Effetti smorzanti La viscosit`a del fluido causa anche la presenza di forze dissipati-ve e di sollevamento sul corpo. Una semplificazione comune `e considerare solo i ter-mini di smorzamento lineare, raggruppando questi terter-mini nella matrice DRB tale che:

DRB(v) > 0 ∀v  R6×6. I coefficienti di questa matrice sono considerati costanti. Per un

corpo completamente sommerso, si pu`o fare la seguente ipotesi:

DRB(v) = diag{Xu, Yv, Zw, Kp, Mq, Nr} (21)

Gli effetti viscosi possono essere considerati come la somma di due forze, le forze di trascinamento e le forze di sollevamento. I primi sono paralleli alla velocit`a relativa tra il corpo e il fluido, mentre i secondi sono normali ad esso. Le forze di trascinamento e sollevamento agiscono sul centro di massa del corpo. Per risolvere il problema del flusso distribuito, `e necessario un integrale su tutta la superficie per calcolare la forza/momento netto che agisce sull’intero corpo.

Effetti della corrente Il controllo di veicoli marini non pu`o trascurare gli effetti di disturbo come onde, vento e corrente oceanica. Tuttavia, in acque molto basse, tali effetti possono essere trascurati. Le correnti oceaniche sono principalmente causate dal movimen-to delle maree, dal venmovimen-to sulla superficie del mare, dallo scambio di calore sulla superficie del mare, dalle variazioni della salinit`a dell’acqua e dalle forze di Coriolis dovute alla ro-tazione terrestre. Le correnti possono essere molto diverse a causa delle caratteristiche climatiche e/o geografiche locali; ad esempio, nei fiordi, l’effetto della marea pu`o causare correnti fino a 3 m/s. L’effetto di una piccola corrente deve essere considerato anche in ambienti strutturati come una piscina. In questo caso, il ricircolo dell’acqua `e abbastanza forte da influenzare il dinamica del veicolo. Supponiamo che la corrente oceanica, espressa nel frame inerziale, sia costante e irrotazionale; i suoi effetti possono essere integrati nel modello dinamico di un corpo rigido che si muove in un fluido semplicemente considerando la velocit`a relativa in assi corpo. Una modellazione semplificata dell’effetto della corrente pu`o essere ottenuto assumendo la corrente irrotazionale e costante nel frame inerziale, il suo effetto sul veicolo, quindi, pu`o essere modellato come un disturbo costante proiettato sul frame body.

Gravit`a e galleggiamento Quando un corpo rigido `e immerso in un fluido sotto l’ef-fetto della gravit`a va tenuta in considerazione anche la galleggiabilit`a del corpo stesso. La galleggiabilit`a `e un effetto idrostatico, cio`e, non `e funzione di un movimento relativo tra corpo e fluido.

Definisco il vettore accelerazione gravitazionale come:

gI =   0 0 9.81   m s2 (22)

(13)

Il peso del corpo `e calcolato come:

W = m ||gI|| (23)

e la forza di galleggiamento pari a:

B = ρ∇||gI|| (24)

con ∇ volume del corpo ed m massa.

La forza di gravit`a, agisce sul centro di massa del veicolo e per rappresentarla in body-frame si utilizza la matrice di rotazione:

fG(RBI) = R B I   0 0 W   (25)

mentre la forza di galleggiamento agisce sul centro di galleggiamento rappresentato in body-frame: fB(RBI) = −R B I   0 0 B   (26)

Dinamica dei thrusters I veicoli subacquei sono generalmente controllati da propul-sori. Le superfici di controllo, come i timoni, entrano in gioco solo se il veicolo `e in movimento. La relazione tra la forza/momento che agisce sul veicolo τv e l’ingresso di

con-trollo dei propulsori uv `e altamente non lineare. Lo stato del sistema dinamico `e costituito

dalla rivoluzione dell’elica, dalla velocit`a del fluido che fluisce nell’elica e dalla coppia in ingresso. Una semplificazione lineare `e

τv = Bvuv (27)

con Bv la matrice di controllo dei thrusters (TCM).

2.1.5 Equazioni del moto

Prendendo in considerazione le forze inerziali generalizzate, gli effetti idrodinamici, il con-tributo della gravit`a e del galleggiamento, la presenza dei propulsori, `e possibile scrivere le equazioni del moto di un veicolo sottomarino in forma di matrice:

Mv .

v + Cv(v)v + DRB(v)v + gRB(RIB) = Bvuv (28)

dove Mv = MRB + MA e Cv = CRB + CA includendo i termini delle masse aggiunte.

2.2

Tecniche e sensori per la navigazione

Nella robotica mobile una challenge importante `e avere un’accurata conoscenza della pro-pria posizione. Nei robot autonomi, per poter navigare, la conoscenza della posizione deve

(14)

restare nota nel tempo. Esistono varie tecniche, sensori e sistemi per la localizzazione di un robot mobile, come il sistema di posizionamento globale (GPS), sistema globale di navigazione satellitare (GNSS), sistema di navigazione inerziale (INS) e odometria visiva (VO). Per`o, ogni tecnica ha i suoi punti deboli. Il sistema di navigazione inerziale (INS) `e molto incline all’accumulo di deriva, e un INS altamente preciso `e costoso quindi non `e una soluzione sempre possibile. Sebbene il GPS sia la soluzione pi`u comune per la loca-lizzazione in quanto pu`o fornire una posizione assoluta senza accumulo di errori, `e efficace solo in luoghi con una chiara visione del cielo. Inoltre, non pu`o essere utilizzato all’interno e in spazi ristretti. Il GPS commerciale stima la posizione con errori nell’ordine del me-tro. Questo errore `e considerato troppo grande per applicazioni che richiedono precisione di centimetri, come ad esempio il parcheggio autonomo. Il GPS differenziale (D-GPS) e il GPS cinematico in tempo reale (RTK-GPS) possono fornire posizione con precisione centimetrica, ma anche queste tecniche sono costose.

Il termine odometria deriva da due parole greche hodos (che significa ”viaggio”) e metron (che significa ”misura”), se i robot mobili utilizzano sensori ottici (camera) per stimare la loro posizione relativa alla posizione iniziale; questo processo viene chiamato visual odometry (VO). Questa tecnica, schematizzata in Fig.(2) utilizza solo una sequen-za di immagini acquisite da una singola o pi`u camere collegate al robot. Le immagini contengono una quantit`a sufficiente di informazioni (colore, consistenza, forma, ecc.) per stimare il movimento di una camera in un ambiente statico.

Figura 2: Visual odometry, [3].

In particolare per l’ambiente sottomarino, la navigazione e la localizzazione sono un problema impegnativo dovuto principalmente all’inutilizzabilit`a delle tecniche usate in ambiente terrestre. Fuori dall’acqua, la maggior parte dei sistemi autonomi si basa sulla comunicazione radio o sul posizionamento globale. Sott’acqua, tali segnali si propagano solo a breve distanza, i sensori e le comunicazioni subacquee sono basati sull’acustica. Le comunicazioni acustiche continuano a soffrire di molte carenze ad esempio:

ˆ Larghezza di banda limitata;

ˆ Bassa velocit`a di trasmissione dati, che generalmente limita la quantit`a di dati che possono essere trasmessi;

(15)

ˆ Elevata latenza poich´e la velocit`a del suono nell’acqua `e solo 1500 m/s;

ˆ Velocit`a del suono variabile a causa della temperatura, pressione e salinit`a dell’acqua; ˆ Trasmissioni multipath dovute alla presenza di un limite superiore (superficie libe-ra) e limite inferiore (fondo marino) accoppiati con una velocit`a del suono molto variabile;

ˆ Inaffidabilit`a, con conseguente necessit`a di un sistema di comunicazione progettato per gestire la frequente perdita di dati nelle trasmissioni.

La ricerca in navigazione e localizzazione per AUV sottomarini `e esplosa nell’ultimi dieci anni. Il campo `e nel mezzo di un cambio di paradigma dalle vecchie tecnologie, come long base line (LBL) e ultrashort baseline (USBL), che richiedono un sistema di infrastrutture predistribuito e localizzato, verso approcci di sistemi dinamici multiagente che consentono una rapida implementazione e flessibilit`a con la minima infrastruttura.

Le tecniche di navigazione e localizzazione per AUV sottomarini possono essere classi-ficate secondo la Fig.(3).

Figura 3: Classificazione sistemi per la navigazione subacquea. Questi metodi sono spesso combinati in un unico sistema per fornire prestazioni migliori, [4].

In generale, queste tecniche rientrano in una delle tre categorie principali.

ˆ Calcolo inerziale / dead reckoning: la navigazione inerziale utilizza gli accelerometri e giroscopi per una maggiore precisione per propagare lo stato corrente. Tuttavia, tutti i metodi in questa categoria hanno una deriva dell’errore di posizione.

ˆ Transponder e modem acustici: queste tecniche si basano sulla misurazione del tempo di volo (TOF) di segnali da beacon acustici o modem.

(16)

ˆ Geofisico: tecniche che usano informazioni dall’ambiente esterno come riferimenti per la navigazione. Queste si basano su sensori ed elaborazione dati che sono in grado di rilevare, identificare e classificare alcune caratteristiche ambientali.

2.2.1 Sensori e tecniche di navigazione inerziali

Quando un AUV si localizza autonomamente, senza il supporto acustico da una nave, utilizzando solo i sensori di bordo, sta navigando in dead reckoning (DR). L’AUV incre-menta la stima della propria posizione basandosi sulla misura del suo orientamento e del vettore velocit`a o accelerazione. Lo svantaggio del DR `e che gli errori sono cumulativi. Di conseguenza, l’errore nella posizione dell’AUV cresce illimitato con la distanza percorsa.

Un semplice metodo per la stima della posizione con DR, nota l’orientazione da una bussola e la velocit`a da un Doppler Velocity Log (DVL), si ottiene con le seguenti equazioni cinematiche:

˙x = v cos(ψ) + w sin(ψ) ˙

y = v sin(ψ) + w cos(ψ) (29)

dove (x, y, ψ) sono lo spostamento e l’heading in un sistema di coordinate standard north-east-down (NED), e v, w sono la velocit`a di avanzamento e laterale in assi corpo. In questo modello, si presume che rollio e beccheggio siano zero e che la profondit`a sia misurata con precisione indirettamente tramite un sensore di pressione.

Un sistema inerziale ha lo scopo di migliorare la stima del DR integrando le misure da accelerometri e giroscopi. I sensori inerziali sono in grado di fornire misure ad una frequenza molto pi`u alta rispetto ai sensori acustici che si basano sul TOF (time of flight). Di conseguenza, questi sensori possono ridurre il tasso di crescita dell’errore di stima della posa, sebbene continuer`a a crescere. I sensori inerziali necessitano di una calibrazione iniziale, che nel tempo deve essere ripetuta perch`e anche essi sono soggetti a deriva. Un approccio comune `e mantenere la deriva come parte dello spazio di stato. Il modello cinematico di base, presentato in (29), `e incompleto, mancando la stima della corrente marina. La corrente pu`o essere misurata con un profilatore acustico denominato Acoustic Doppler Current Profiler (ADCP). La corrente pu`o essere stimata da un transponder su una boa in superficie. Questo approccio prende il nome di navigazione assistita dal terreno. La performance di un INS dipendono in gran parte dalla qualit`a delle sue unit`a di misura inerziali (IMU). In generale, pi`u costosa `e l’unit`a, migliori sono le sue prestazioni. Anche il tipo di stima dello stato ha il suo peso, il pi`u comune filtro utilizzato `e l’EKF (Extended Kalman Filter). Miglioramenti possono essere apportati alla navigazione INS modificando l’Eq.(29) per fornire un modello pi`u accurato della dinamica del veicolo. In alcune applicazioni, navigare solo con sensori inerziali `e l’unica opzione, ad esempio, in estrema profondit`a in cui non `e possibile far emergere l’AUV per acquisire un fix dal Sistema il Posizionamento Globale (GPS). Il miglior sistema INS pu`o raggiungere una deriva dello 0.1% della distanza percorsa, tuttavia, le unit`a pi`u comuni e con prezzi modici possono raggiungere facilmente una deriva del 2% -5% in funzione della distanza percorsa. Bussola Una bussola fornisce un riferimento di orientazione. Una tipica bussola magne-tica misura la direzione del campo magnetico. Ogni tipo di bussola `e influenzata da oggetti

(17)

con una forte caratteristica magnetica e punta al nord magnetico terrestre. Molto comune nelle applicazioni marine `e l’integrazione di una bussola con giroscopio per stabilizzarla, questo sistema compensa l’influenza da oggetti metallici e punta verso il nord vero. La precisione dello strumento varia da 1° a 2° per un’unit`a dal prezzo modesto. Il prezzo `e dell’ordine del centinaio di Euro.

Sensore di pressione La profondit`a subacquea pu`o essere misurata con un barometro o un sensore di pressione, dal momento che il gradiente di pressione cresce rapidamente sott’acqua (lOm 1 atmosfera) `e possibile ottenere un’alta precisione di circa 0.1m. Il prezzo `e dell’ordine del centinaio di Euro.

DVL (Doppler Velocity Log) Il DVL utilizza misurazioni acustiche per catturare il rilevamento del fondale e determinare il vettore di velocit`a di un AUV che si muove sopra di esso. Misura il moto di surge, sway e heavy. I DVL sono composti tipicamente di 4 o pi`u beams. 3 beams sono necessari per ottenere un vettore di velocit`a 3D. L’accuratezza di questo sensore varia tra 0.3 cm/s e 0.8 cm/s. Il costo `e il punto debole, varia tra i 20.000 e 80.000¿. In Fig.(4) `e mostrato un sensore DVL.

Figura 4: Explorer DVL Teledyne Marine.

IMU (Inertial Measurement Unit) Usa una combinazione di accelerometri e girosco-pi (e talvolta magnetometri) per stimare l’orientamento, la velocit`a e le forze gravitazionali di un veicolo.

ˆ Giroscopio: misura le velocit`a angolari.

ˆ Accelerometro: misura la forza richiesta per accelerare una massa di prova. I modelli pi`u comuni sono accelerometro a pendolo, MEMS.

INS (inertial navigation system) INS `e una tecnica di posizionamento relativo che fornisce la posizione e l’orientamento di un oggetto rispeto ad un punto noto di partenza. Come mostrato in Fig.(5), questa tecnica utilizza un computer, sensori di movimento (accelerometri) e sensori di rotazione (giroscopi) per calcolare continuamente la posizione, l’orientamento e velocit`a di un veicolo in movimento, sia questo terrestre, un aeroplano, una nave di superficie o un sottomarino.

(18)

Figura 5: Inertial navigation system. a. Schema a blocchi INS b. INS miniaturizzato [SGB System 2016], [3].

Il vantaggio dell’INS `e l’indipendenza da altri riferimenti esterni. Tuttavia, l’INS `e molto incline all’accumulo di deriva perch´e la variazione di velocit`a e posizione `e calcolato eseguendo integrazioni di misure di accelerazioni rispetto al tempo. I dati dell’accelerome-tro devono essere integrati due volte per ottenere la posizione, mentre i dati del giroscopio sono integrati solo una volta per tracciare l’orientamento. Pertanto, eventuali piccoli er-rori nella misura dell’accelerazione e della velocit`a angolare, una volta integrati portano a grandi errori in velocit`a, che comportano errori di posizione. Gli errori dunque si sommano e si aumentano nel tempo. Pertanto, la posizione deve essere periodicamente corretta da un input di un altro sistema di navigazione per mantenere l’accuratezza. I sensori inerziali sono inadatti per applicazioni di posizionamento a lungo termine.

GPS (global positioning system) e GNSS (global navigation satellite system) GNSS `e usato come termine generico per tutti i sistemi di radio-navigazione globali attuali e futuri incluso il GPS degli Stati Uniti, il sistema satellitare di navigazione globale russo (GLONASS), e il sistema europeo (GALILEO). Prima che il GPS venisse inventato nei primi anni ’70 dal Dipartimento della Difesa degli Stati Uniti (DoD), il metodo principale di navigazione ruotava attorno alla mappa e alla bussola. Il GPS `e sistema di navigazione basato su satelliti, che consente agli utenti di determinare con precisione la loro posizione ovunque o leggermente al di sopra della superficie della Terra. Il GPS `e il sistema pi`u utilizzato per gli esercizi di navigazione all’aperto; `e usato in geologia, agricoltura, edilizia e trasporti pubblici. Il GPS fornisce informazioni precise sulla posizione, a chiunque abbia un ricevitore GPS. Il GPS consiste in una costellazione nominale di 24 satelliti operativi in orbita intorno alla Terra e la trasmissione di segnali codificati in radiofrequenza (RF). Sono disposti cos`ı che quattro satelliti sono posizionati in ciascuno dei sei piani orbitali per garantire una copertura continuit`a in tutto il mondo, come mostrato in Fig.(6.a).

(19)

Figura 6: Global positioning system. a. Costellazione di satelliti GPS b. Concetto di posizionamento tramite trilaterazione (punto rosso rappresenta la posizione dell’utente), [3].

Il GPS fornisce la posizione assoluta con un errore noto. I suoi principali vantaggi sono la sua immunit`a all’accumulo di errori nel tempo e la sua stabilit`a a lungo termine. Il GPS `e un tecnologia rivoluzionaria per la navigazione esterna; `e efficace in aree con una visione chiara del cielo ma `e inutilizzabile per gli spazi interni, confinati, sotterranei e subacquei. Le limitazioni del GPS includono interruzioni causate dal blocco del segnale satellitare, o ad alto contenuto di rumore, effetti multipath, larghezza di banda ridotta e interferenze o inceppamenti. Il GPS se utilizzato da solo per il posizionamento, ha una precisione entro 10 m. Sono stati inventati il GPS differenziale (DGPS) e il GPS cinematico in tempo reale (RTK-GPS) per migliorare l’accuratezza del GPS e consentire la localizzazione in ambienti aperti con un errore inferiore al metro o dell’ordine del centimetro. Sono tecniche di posizionamento relativo che impiegano due o pi`u ricevitori contemporaneamente per tracciare gli stessi satelliti. DGPS principalmente consiste di tre elementi: un ricevitore GPS (stazione base) situato in una posizione nota, un ricevitore GPS (ricevitore utente) chiamato rover e un mezzo di comunicazione radio tra questi due ricevitori, Fig.(7).

Figura 7: Sistema di posizionamento DGPS, [3].

DGPS pu`o correggere gli errori di bias del ricevitore dell’utente utilizzando errori di bias misurati alla stazione di base. RTK-GPS fornisce misurazioni in tempo reale con

(20)

precisione centimetrica. Ne fornisce due soluzioni, vale a dire, float e fix. La prima soluzione richiede un minimo di quattro satelliti e fornisce un intervallo di precisione di circa 20 cm a 1 m. Il secondo metodo per la soluzione RTK-GPS richiede almeno cinque satelliti e garantisce una precisione di 2 cm.

2.2.2 Trasponders acustici e beacons

I sonar e sensori ultrasonici utilizzano l’energia acustica per rilevare oggetti e misurare le distanze dal sensore agli oggetti di destinazione. Hanno due parti principali, trasmettitore e ricevitore. Il trasmettitore invia un breve impulso ultrasonico e il ricevitore riceve il segnale che torna indietro dopo che `e rimbalzato contro oggetti vicini. Il sensore misura il tempo di volo (TOF), che `e il tempo dalla trasmissione del segnale alla ricezione. Dato che la velocit`a di trasmissione di un segnale ultrasonico `e nota, la distanza dal bersaglio che riflette il segnale pu`o essere calcolata. I sonar possono essere utilizzati per localizzare i dispositivi mobili attraverso la triangolazione calcolando il cambio di posizione tra due segnali acquisiti in due diverse posizioni.

Nelle tecniche di navigazione acustica, la localizzazione `e ottenuta misurando i tempi di volo (TOF) dei segnali acustici. I metodi pi`u comuni sono:

ˆ USBL: a volte `e anche chiamata super short baseline (SSBL). I trasduttori sul rice-trasmettitore sono strettamente distanziati con una baseline inferiore a 10 cm. Le distanze relative sono calcolate sulla base delle differenze fra i TOF dei segnali in arrivo ai ricetrasmettitori. In Fig.(8.b).

ˆ Short Baseline (SBL): i beacon sono posizionati alle estremit`a opposte dello scafo di una nave. La baseline `e basata sulla dimensione del nave di supporto. In Fig.(8.a). ˆ LBL e GPS boe intelligenti (GIB): i beacon lo sono posizionati in un’ampia area di

missione. La localizzazione `e basata su triangolazione di segnali acustici. In Fig.(8.c). Nel caso di GIB, i beacon sono in superficie, mentre per LBL sono installati sul fondo del mare.

ˆ Beacon singolo fisso: la localizzazione viene eseguita solo da un faro fisso

ˆ Modem acustico: i recenti progressi dell’acustica hanno permesso di sviluppare nuove tecniche. I beacon non devono pi`u essere fermi, un AUV pu`o comunicare acustica-mente con veicoli di supporto in superficie, dotati di acustica modem, per poter triangolare la propria posizione.

(21)

A causa della latenza degli aggiornamenti acustici, gli stimatori di stato sono imple-mentati, con tecniche di DR, utilizzando le misurazioni acustiche come aggiornamenti. Ultrashort e short baseline La navigazione USBL consente a un AUV di localizzarsi in modo relativo rispetto ad una nave di superficie. Il range e bearing sono determinati dai TOF. Una configurazione tipica `e quella di avere una nave che supporta un AUV. Nella SBL, i ricetrasmettitori sono collocati alle due estremit`a dello scafo della nave e sono usati per triangolare le distanze. Le principali limitazioni della USBL e SBL sono l’accuratezza dipendente dalla dimensione della nave e quindi dalla lunghezza della baseline.

Un’altra soluzione `e progettare la guida e il controllo dell’AUV integrando i dati da un sensore USBL, quando l’USBL `e installato sul naso dell’AUV mentre c’`e un transponder acustico installato in una posizione nota e fissa.

Long baseline / boe GPS intelligenti Nella navigazione LBL, la localizzazione si ottiene mediante triangolazione di range acquisiti acusticamente da beacons fissi ampia-mente distanziati. Nella maggior parte dei casi, i beacon sono referenziati globalampia-mente prima dell’inizio della missione da parte di una nave di superficie, un elicottero, o anche un altro AUV. Nel normale funzionamento, un AUV invia un segnale interrogatorio, e i fari rispondono in sequenza predefinita. Il tempo di viaggio bidirezionale (TWTT) dei segnali acustici viene utilizzato per determinare i ranges. Le boe GPS intelligenti (GIB) rimuovono la necessit`a di installare i beacon LBL su il fondale marino, questo pu`o ridurre i costi di installazione e la necessit`a di recupero dei fari. Uno dei limiti delle tecniche LBL `e il costo e il tempo necessario per predisporre la rete. Una considerazione importante in una rete di localizzazione LBL `e il trattamento dei valori anomali. Generalmente, le misu-razioni possono cadere in una delle tre categorie: percorso diretto (DP), multipath (MP) o outlier (OL). I principali inconvenienti di LBL sono la massima distanza misurabile da un faro e la dipendenza dalla conoscenza precisa del profilo locale della velocit`a del suono della colonna d’acqua in base alla temperatura, salinit`a, pressione e altri fattori. Nono-stante questi limiti, i sistemi LBL sono una delle tecniche di localizzazione pi`u robuste, affidabili e accurate a disposizione.

Single fixed beacon Uno svantaggio dei sistemi LBL `e il costo e il tempo richiesto per installazione dei beacon e loro georeferenziazione. `E possibile ridurre queste infra-strutture se viene usato un solo beacon fisso al posto di una rete di essi. Il concetto `e che la baseline viene simulata propagando gli intervalli da un singolo faro in avanti fino al prossimo aggiornamento. Questo tecnica `e stata indicata come LBL virtuale (VLBL). Si noti che la traiettoria dell’AUV ha un effetto significativo sull’osservabilit`a dello stato del veicolo. Tracce lunghe dirette verso il singolo faro o allontanandosi da esso, causer`a una crescita illimitata dell’errore di posizione. Di conseguenza, le traiettorie del veicolo da localizzare in questo modo dovranno essere pianificate per essere a cerchi tangenziali rispetto al transponder. In Fig.(9) viene mostrata una rappresentazione visiva di come un AUV si localizza con un singolo faro fisso in una posizione nota. L’incertezza cresce fra gli aggiornamenti. Alla ricezione di un aggiornamento, l’incertezza si riduce nella dimensione che coincide con il posizione del faro.

(22)

Figura 9: Localizzazione con Single Fixed Beacon, [4].

Si presume che il veicolo abbia una conoscenza preliminare del posizione beacon. Nella figura, il veicolo riceve tre ping acustici dal faro. Ogni volta che viene ricevuto un ping, produce una riduzione dell’incertezza nella direzione del faro. Con questa tecnica `e pos-sibile la localizzazione di un AUV non pi`u in grado di muoversi ma `e ancora in grado di trasmettere ping acustici.

Modem acustici L’acustica consente la comunicazione simultanea di piccoli pacchetti di dati che variano in base a TOF. Se la posizione del trasmettitore `e inclusa nelle infor-mazioni trasmesse, il destinatario pu`o stimare la sua posizione in una sfera centrata sul trasmettitore. Inoltre, consente la comunicazione tra AUVs, il che significa che un team di AUV pu`o localizzarsi in modo cooperativo. I modem acustici pi`u popolari sono prodot-ti da Woods Hole Oceanographic Insprodot-titute (Woods Hole, MA, USA) , Teledyne Benthos (Thousand Oaks, CA, USA), e EvoLogics (Berlino, Germania). Alcuni modelli includono anche orologi atomici, in modo da sincronizzare gli impulsi ricevuti. Sott’acqua a causa della limitata larghezza di banda, la comunicazione `e basata su uno schema TDMA. Con questo metodo a ciascun membro del gruppo `e assegnato un intervallo di tempo nel quale trasmettere informazioni. Il principale difetto di tale schema `e che il tempo di ciclo totale cresce con le dimensioni del gruppo.

L’utilizzo di modem acustici pu`o essere descritto in 4 sottoclassi:

1. Supporto Superficiale con Equipaggio: la capacit`a di un modem posto in superficie di trasmettere la sua posizione ai veicoli in missione sottomarina, offre due importanti vantaggi rispetto ai precedenti metodi di navigazione: rimuove la necessit`a di geo-referenziare i beacon prima di iniziare la missione e permette ai beacon di muoversi durante le missioni. Il primo vantaggio consente di risparmiare tempo e denaro, e il secondo consente di estendere il range della missione senza ridistribuire la rete dei sensori. Il concetto prende il nome di Long Baseline mobile (MLBL). Utilizzando due veicoli di superficie si pu`o supportare un AUV. Questo concetto si `e rivelato particolarmente utile per la mappatura dei fiumi. Questo approccio `e stato esteso a un’unica fonte in movimento, una nave di superficie pu`o localizzarsi con il GPS e invia la propria posizione e distanza all’AUV. Un simile approccio ha il vantaggio di non dover effettuare la calibrazione o il recupero dei beacon. Con questo approc-cio, un EKF mantiene una stima della posizione del veicolo aggiornandolo con la posizione ricevuta dalla nave di supporto.

2. Imbarcazione Autonoma Superficiale: stabilito che gli AUV possono navigare con l’aiuto di veicoli di superficie, una progressione naturale per aumentare l’autonomia

(23)

`

e quella di andare verso veicoli di superficie senza equipaggio. Vengono denomina-ti Autonomous Surface Craft di superficie autonomo (ASC) i veicoli udenomina-tilizzadenomina-ti per supportare gli AUV, come estensione del concetto MLBL.

3. Team eterogeneo di AUV : in alcuni casi, alcuni AUV sono dotati di sensori costosi e/o necessitano di fare frequenti riemersioni in superficie per acquisire le correzioni di posizione dal GPS. Questi veicoli supportano gli altri in missione e sono stati indicati come communication/navigation aids (CNA). Con questa idea `e possibile dotare solo un piccolo numero di veicoli dei costosi sensori per la navigazione, il cui compito `e supportare l’intera flotta. In Fig.(10). un CNA AUV supporta un AUV, le aree blu sono le ellissi di incertezza del veicolo. L’area gialla `e l’incertezza aggiornata del ellisse dopo la misurazione del range tra i veicoli, che viene mostrato in rosa. Tra un aggiornamento e il successivo, l’incertezza cresce in base alla qualit`a della stima DR.

4. Team omogeneo di AUV: quando una squadra omogenea esegue navigazione coo-perativa, ogni membro della squadra viene trattato allo stesso modo. L’errore di posizione aumenter`a pi`u lentamente se gli AUV sono in grado di comunicare le loro posizioni e i range relativi. Allo stesso modo del caso team eterogeneo, se un qualsia-si veicolo affiora per ottenere un fix di poqualsia-sizione GPS, allora le informazioni possono essere condivise con il resto della squadra per vincolare il errore di posizione.

Figura 10: Cooperazione tra AUV e ASC, [4]. 2.2.3 Sensori geofisici

La navigazione geofisica si riferisce a qualsiasi metodo che utilizzi caratteristiche ambientali esterne per la localizzazione. Quasi tutto metodi in questa sezione mantengono l’errore di posizione limitata usando qualche forma di Simultaneous Localization and Mapping (SLAM). Le categorie includono quanto segue:

ˆ Magnetici: utilizzare mappe dei campi magnetici terrestri per la localizzazione. ˆ Ottica: utilizzo di una camera monoculare o stereo per l’acquisizione immagini del

fondale marino e quindi abbinare queste immagini per navigare.

ˆ Sonar: utilizzato per rilevare acusticamente, quindi identificare e classificare funzio-nalit`a nell’ambiente che potrebbero essere utilizzate come punti di riferimento per la

(24)

navigazione. Con il sonar batimetrico, le informazioni possono essere estratte dagli echi di ritorno. Con sidescan sonar (imaging), si ottiene l’informazione attraverso l’elaborazione delle immagini.

Sonar / sensori ultrasonici L’imaging sonar `e una tecnica usata da decenni, essendo una tecnologia abbastanza robusta. Diversi tipi di sonar sono utilizzati per la mappatura del fondale marino e delle strutture. I sonar sono progettati per funzionare a frequenze specifiche a seconda della portata e della risoluzione richiesta. In tutti i casi, le prestazioni dipendono dal numero e qualit`a delle features presenti nell’ambiente.

\

Figura 11: Tipologie di Sensori Sonar: a. Sidescan, b. Multibeam, c. Forward looking, d. Mechanical scanning and imaging, e. Synthetic aperture, [4].

1. Sonar per immaging: il sidescan sonar `e mostrato in Fig.(11.a). Raggi multipli mi-surano l’intensit`a dei ritorni per creare un’immagine 2D del fondo marino; i raggi sono diretti perpendicolarmente alla direzione di marcia, pu`o funzionare a velocit`a relativamente alte (10 nodi) per fornire una copertura di area elevata. L’intensit`a dei ritorni acustici dal fondale di questo fascio a forma di ventaglio dipende anche il tipo di fondo. Gli oggetti duri che sporgono dal fondo del mare inviano un forte ritorno che `e rappresentato come un’immagine scura. Ombre e aree morbide, come fango e sabbia, inviano risposte pi`u deboli che sono rappresentati come immagini pi`u chiare. La risoluzione `e inversamente proporzionale alla distanza percorsa dai raggi. Il principale svantaggio di questi sensori `e il riflesso delle onde del segnale, che `

e altamente dipende dal materiale e dall’orientamento della superficie dell’oggetto. Inoltre, sono sensibili al rumore proveniente dall’ambiente e da altri robot che uti-lizzano ultrasuoni con stessa frequenza (eco multi-riflesso). In Fig.(11.c) `e mostrato il sonar forward-looking (FLS), basato sulla geometria del trasduttore, la funzione primaria di questo tipo di dispositivo sonar `e di mappare le caratteristiche verticali. Comunemente utilizzato su AUV pensati per missioni di avvicinamento a strutture subacquee artificiali a velocit`a molto basse. Il sonar di imaging a scansione meccanica (MSIS) Fig.(11.d) viene usato per operazione simili a FLS tranne che, invece di pi`u raggi, utilizza un singolo raggio che viene ruotato meccanicamente. Di conseguenza, il tasso di aggiornamento `e pi`u lento. Infine in Fig.(11.e) `e rappresento il sonar ad apertura sintetica (SAS). L’apertura sintetica `e una metodologia che consente un’alta risoluzione attraverso l’elaborazione coerente di ritorni consecutivi spostati. Invece di usare un array statico di grandi dimensioni, utilizza lo spostamento lungo il percorso del sensore per creare un grande array virtuale. La risoluzione risultante

(25)

dipende delle dimensioni del trasduttore e, cosa pi`u importante, `e indipendente dalla distanza tra il sensore e il bersaglio. Questo si paga con l’elaborazione di immagini pi`u complesse e il requisito di una velocit`a strettamente predefinita.

2. Ranging Sonar: una rappresentazione del sensore multibeam `e mostrata in Fig.(11.b). Nel multibeam invece di un solo trasduttore che punta verso il basso `e formato da un array di trasduttori disposti in uno schema preciso. Il suono rimbalza sul fondo del mare da diversi angoli ed `e ricevuto dall’AUV in tempi leggermente diversi. I segnali sono quindi elaborati a bordo dell’AUV, convertiti in profondit`a di acqua, e disposti come una mappa batimetrica. La risoluzione di un multibeam dipende dalla qualit`a del suo trasduttore, dalla frequenza operativa, e dall’altitudine dal fon-dale marino. Sistemi di batimetria multibeam sono stati abitualmente utilizzati per tracciare grandi aree del fondale marino. Dove transita l’AUV raccoglie un corridoio di dati noti come swath. Il sonar multibeam produce caratteristiche batimetriche 2,5-D (mappa altimetrica) mentre la sidescan sonar produce immagini 2D.

Camera ottiche Camere e sistemi di visione possono essere impiegati in applicazioni robotiche mobili per la localizzazione e per eseguire vari compiti. Recentemente, molti ricercatori hanno mostrato interesse per i sistemi di localizzazione visiva perch´e questi sistemi sono pi`u robusti e affidabili rispetto ad altri sistemi di localizzazione basati su sensori. Le immagini della fotocamera possono essere utilizzate per la navigazione di veicoli in ambienti interni ed esterni, come ad esempio per rilevare bordi di strade, corsie e incroci stradali. Le immagini catturate da una camera possono fornire una grande quantit`a di informazioni da utilizzare per diversi scopi, inclusa la localizzazione. Rispetto ai sensori di prossimit`a, le fotocamere ottiche sono sensori a basso costo che forniscono una grande quantit`a di informazioni significative. Inoltre, sono passivi; cio`e, non prducono interferenze con altri sistemi. L’odometria basata sulla visione `e una tecnica alternativa, economica, che `e relativamente pi`u accurata rispetto alle tecniche convenzionali, come GPS e INS. Visual odometry (VO) `e un buon compromesso tra costi, affidabilit`a e complessit`a di implementazione. Tuttavia, l’analisi delle immagini `e generalmente computazionalmente costosa. Nella localizzazione visiva, i calcoli comportano diversi passaggi:

1. Acquisizione di immagini della fotocamera,

2. Estrazione di diverse caratteristiche dell’immagine (bordi, angoli, linee, ecc.), 3. Corrispondenza tra frame di immagini,

4. Calcolo della posizione calcolando lo spostamento dei pixel tra i frame.

Gli algoritmi di visione sono altamente sensibili alle condizioni ambientali, come fulmini, cambiamenti di illuminazione in tutto il giorno, presenza di sfocature nelle immagini, presenza di ombre e presenza di acqua o neve sul terreno. Pertanto, questi algoritmi possono funzionare bene in diverse condizioni, ma in altre condizioni ambientali diventeno inaffidabili. La Tabella (1) mostra un riepilogo delle caratteristiche e degli inconvenienti delle sei pi`u comuni tecnologie di localizzazione utilizzate. Il processo di stima del moto

(26)

(traslazione e orientamento) di un agente (veicolo, umano o robot) utilizza come unico ingresso una o pi`u camere collegate ad esso `e chiamato VO.

Sensori o tecnologia

Vantaggi Svantaggi

INS Fornisce posizione e orientazione usando un accelerometro triassiale e un

giroscopio.

Deriva della posizione, in funzione della distanza percorsa

e del tempo. GPS Fornisce posizione assoluta con

errore conoscinuto. Non accumula errori nel tempo.

Non disponibile in ambienti interni o sott’acqua. Soffre di

interferenze radio. Sensori

ultrasonici

Fornisce la distanza fra sensore e un oggetto. Soluzione

economica.

Riflessione del segnale in base al materiale e orientazione

dell’ostacolo. Camere

ottiche

Le immagini contengono molte informazioni. Alta precisione,

soluzione economica.

Alto costo computazionale. Influenzata dalle caratteristiche

dell’ambiente. Tabella 1: Confronto fra i sensori pi`u comuni per la navigazione.

2.3

VO: visual odometry

La localizzazione `e il task principale per i veicoli autonomi per essere in grado di tracciare i loro percorsi e rilevare correttamente ed evitare gli ostacoli. L’odometria basata sulla visione `e una delle tecniche robuste utilizzabili per la localizzazione del veicolo. In questa sezione tratteremo esaustivamente di VO e dei suoi tipi, approcci, applicazioni e sfide. 2.3.1 Cosa `e la VO ?

VO `e un processo per la stima della posa di un agente (ad es. Veicolo, uomo o robot) che comporta l’uso della sola sequenza di immagini acquisite da una singola o da pi`u camere solidali ad esso. Questo approccio `e un metodo senza contatto per posizionamento efficace di robot mobili. L’idea di stimare la posa di un veicolo da un input visivo `e stata introdotta e descritta da Moravec all’inizio degli anni ’80.

2.3.2 Perch`e VO ?

VO `e una tecnica alternativa, poco costosa, con un errore relativo di posizione compreso tra 0,1 e 2%. Questo metodo `e caratterizzato da un buon equilibrio tra costi, affidabilit`a e complessit`a di implementazione.Le immagini contengono grandi quantit`a di informazioni significative, che sono sufficienti per stimare il movimento della macchina fotografica col-legata al robot. VO non `e soggetta allo slittamento delle ruote in terreni sconnessi o altre condizioni sfavorevoli come nell’odometria alla ruota. Inoltre, VO funziona efficacemente in ambienti chiusi, dove non `e utilizzabile il GPS. VO pu`o essere integrato con GPS e INS

(27)

per la ottenere massima precisione. A differenza dei sistemi di localizzazione laser e sonar, VO non emette alcun segnale rilevabile nell’ambiente. Inoltre, rispetto al GPS, VO non richiede l’esistenza di altri segnali esterni. Rispetto all’uso di altri sensori, l’uso di camere per la localizzazione dei robot ha i vantaggi di ridurre i costi, inoltre i dati acquisiti dalle camere possono essere usati per altri task come il rilevamento di ostacoli, pedoni e corsie, senza necessit`a di calibrare sensori. Le fotocamere sono piccole, economiche, leggere e a bassa consumo. Quindi, possono essere impiegati in qualsiasi tipo di veicolo (terra, acqua o aria) e per altri compiti robotici (ad esempio, rilevamento e riconoscimento di oggetti). 2.3.3 Limiti della VO

Sebbene la localizzazione dei robot in spazi interni sia stata implementata con successo, la localizzazione dei robot negli ambienti esterni rimane un problema impegnativo. Molti fattori (ad es. i terreni solitamente non sono piatti, la luce diretta del sole, le ombre e i cambiamenti dinamici nel ambiente causato dal vento e dalla luce solare) rendono difficile la localizzazione in ambienti esterni. Le principali sfide nei sistemi VO sono correlate all’elevato costo computazionale, ai riflessi e alle condizioni di luce. Perch´e VO funzioni in modo efficiente, l’illuminazione deve essere sufficiente e la scena statica, con una consi-stenza dell’ambiente per consentire l’estrazione del movimento apparente. Nelle aree che presentano una superficie liscia e poco strutturata, le condizioni di illuminazione della scena non uniforme influenzano la qualit`a della VO. Inoltre, le ombre di oggetti statici o dinamici o del veicolo stesso possono disturbare il calcolo dello spostamento dei pixel e quindi peggiorare la stima del movimento.

2.3.4 Applicazioni VO

VO ha una vasta gamma di applicazioni in diversi campi. I suoi domini applicativi com-prendono la robotica, il settore automobilistico e sensori indossabili. VO `e applicato in molti tipi di sistemi robotici mobili, come robot terrestri, subacquei, aerei e spaziali. Nel-l’esplorazione spaziale, ad esempio, VO viene utilizzato per stimare il moto del NASA Mars rover. La NASA utilizza VO per tracciare il movimento dei rover come supplemento al dead reckoning. VO `e utilizzato principalmente per la navigazione, ricerca di target in modo efficiente ed evitamento ostacoli durante la guida. Si applica anche ai veicoli aerei autonomi senza equipaggio (UAV) per le fasi di decollo e atterraggio e per navigazione point-to-point. Inoltre, VO ha un ruolo significativo nei veicoli subacquei autonomi e nei sistemi di ispezione delle barriere coralline. Dato che il segnale GPS degrada fino a diven-tare indisponibile in ambienti sottomarini, i veicoli subacquei non possono fare affidamento sul GPS per la stima della posa; pertanto, VO `e considerato una soluzione economica per i sistemi di localizzazione subacquea. Nell’industria automobilistica, la VO gioca un ruolo importante. `E applicato in numerosi sistemi di assistenza al guidatore, come i sistemi di frenata assistita basati sulla visione. VO `e considerato un soluzione economicamente vantaggiosa rispetto ai sistemi LIDAR (Light Detection and Ranging). Nella robotica dei veicoli terrestri, l’uso dei sensori visivi `e maggiormente adoperato per il rilevamento di ostacoli. VO `e impiegato nei casi in cui il segnale GPS non `e disponibile (in ambienti

(28)

planetari). Viene anche utilizzato nei robot agricoli per stimare la posizione del robot rispetto alle colture.

2.3.5 Camere utilizzabili per VO

VO pu`o essere classificato in base al tipo di camera utilizzato. Esistono vari tipi di fo-tocamera, come stereocamere, le camere monoculari, stereocamere o camere monoculari omnidirezionali, mostrate in Fig.(12).

Figura 12: Differenti tipi di camere per VO. a. Stereo camera b. Stereo camera omnidirazionale c. camera monoculare d. camera monoculare omnidirezionale, [3].

La maggior parte dei sistemi di VO, proposti in letteratura usano stereocamere o fo-tocamere monoculari e possono essere classificati come sistemi VO stereo o monoculari. Una fotocamera binoculare ha due obiettivi, con un sensore di immagine separato per ciascun obiettivo; questo sistema `e stato utilizzato su Marte per stimare il movimento del robot. Dato che le informazioni sulla terza dimensione (cio`e profondit`a) possono essere estratte da un singolo frame, la scala dell’immagine pu`o essere recuperata immediatamen-te perch´e la dimensione della linea di base stereo `e fissa e nota, come risultato un processo di triangolazione accurato. Tuttavia, le camere stereo sono pi`u costose delle fotocamere convenzionali. Inoltre, le fotocamere binoculari richiedono uno sforzo maggiore di cali-brazione rispetto alle fotocamere monoculari, e gli errori nella calicali-brazione influenzano direttamente il processo di stima dello spostamento. Infine, `e molto importante per le stereo camere che le due immagini siano acquisite esattamente nello stesso intervallo di tempo. Ci`o pu`o essere ottenuto sincronizzando il tempo di scatto delle due camere. Ste-reo VO pu`o essere degradata al caso monoculare quando la linea di base stereo `e molto piccola rispetto alla scena inquadrata. La visione stereo diventa inefficace in questo caso si raccomandano metodi monoculari. L’uso di una fotocamera monoculare ha i vantaggi del basso costo e della facile implementazione. Diversi sistemi VO utilizzano camere omnidi-rezionali, queste possono rappresentare una scena con un ampio campo visivo (FOV) (fino

(29)

a 360°), con questa tecnica `e possibile ricostruire un modello 3D della scena. La Tabella (2) mostra un riepilogo delle caratteristiche e degli svantaggi delle tre camere pi`u usate per VO. Ogni tipo di fotocamera ha vantaggi e svantaggi, quindi nessuna pu`o fornire una soluzione perfetta, ma dipende dalla circostanza di utilizzo.

Tipo di camera

Punto di forza Punto di debolezza Monoculare Economica e facilit`a di

integrazione; leggerezza: buono per la piccoli robot

; calibrazione semplice

Incertezza di scala dell’immagine

Stereo Possibilit`a di ricostruire immagini 3D

Costoso, ha bisogno di calibrazione. Degrado al caso monoculare quando la linea di base stereo `e

molto pi`u piccola di le distanze dalla scena.

Integrazione e sincronizzazione difficili

Omni-direzionali

Fornisce un FOV molto ampio (360°) Pu`o generare

un modello 3D ben rifinito.Invarianza alla

rotazione

Sistema complesso. Camere multiple difficili

da calibrare e sincronizzare. Molto

costoso Tabella 2: Confronto fra tipi di camere usate in VO. 2.3.6 Tipologie di visual odometry

Generalmente, la stima della posizione di un robot mobile con l’odometria basata sul-la visione pu`o essere affrontata in tre modi: attraverso un approccio feature-based, un approccio appearance-based, o un ibrido dei precedenti.

Feature-based approach L’approccio basato sulle features, comporta l’estrazione dal-l’immagine di features (come ad esempio angoli, linee e curve) tra fotogrammi sequenziali, per poi stimare il movimento. Con questo approccio, si confronta ciascuna feature tra un’immagine e la precedente. In seguito, lo spostamento `e ottenuto calcolando il vettore velocit`a tra le coppie di punti identificati. Se `e implementata una VO stereo, le fea-tures estratte dal primo fotogramma sono abbinate ai punti corrispondenti nel secondo fotogramma, fornendo cos`ı la posizione 3D del punto nello spazio.

La VO basata su features `e stata applicata con successo come sistema di navigazione nei rover esplorativi di Mart, e cos`ı come nelle missioni del Mars Science Laboratory. Appearance-based approach L’approccio basato sull’aspetto, monitora i cambiamen-ti nell’aspetto delle immagini e l’intensit`a sui pixel invece. La velocit`a del veicolo e quindi

(30)

della fotocamera pu`o essere stimata utilizzando il flusso ottico (OF). L’algoritmo si basa sulla variazione dei valori di intensit`a luminosa dei pixel vicini per calcolarne lo sposta-mento. Gli algoritmi che stimano lo spostamento per tutti i pixel dell’immagine sono noti come densi, mentre, algoritmi che calcolano lo spostamento per un numero selezionato di pixel nell’immagine sono chiamati algoritmi sparsi. Gli algoritmi densi sono meno robusti al rumore rispetto a quelli sparsi, ma non necessitano di estrarre una sagoma. Pertanto, gli algoritmi sparsi sono desiderabili per molte applicazioni di VO. Negli algoritmi sparsi, le sagome devono essere scelte con attenzione, considerando che i pixel delle regioni con varianza maggiore, produrranno una stima dello spostamento pi`u affidabile. Il metodo pi`u usato della categoria appearence-based `e il metodo di corrispondenza della sagoma. Il me-todo di corrispondenza della sagoma, seleziona una patch dell’immagine corrente e tenta di abbinare questa patch nel fotogramma successivo. Lo spostamento del veicolo e l’an-golo di rotazione viene recuperato facendo corrispondere le due immagini consecutive. La corrispondenza delle sagome consiste nel determinare l’esistenza di una sub-immagine o di un oggetto all’interno di una scena. La sub-immagine `e chiamata template, e l’immagine completa `e chiamata area di ricerca. La corrispondenza del template decide se il template esiste nell’area di ricerca e in caso positivo ne determina la sua posizione. Viene calcolato il grado di somiglianza tra template e area di ricerca, muovendo il template sull’area di ricerca e calcolandone il grado di somiglianza in ciascuna posizione. La posizione con somiglianza maggiore `e la probabile posizione del template trovato nell’area di ricerca nel frame successivo. I principali metodi per misurare la similarit`a si basano su somma di dif-ferenze quadrate o assolute (SSD/SAD) e normalizzazione della cross-correlazione (NCC) . NCC `e pi`u preciso di SSD/SAD. Tuttavia, gli algoritmi NCC sono computazionalmen-te pi`u lenti degli algoritmi SSD/SAD. Inoltre il metodo basato su NCC `e considerato il pi`u robusto rispetto alla luminosit`a e alle variazioni di contrasto. La Fig.(13) presenta il diagramma di flusso dell’algoritmo del sistema VO utilizzando la cross-correlazione per il template-matching.

(31)

L’algoritmo inizia con l’acquisizione di un paio di frame consecutivi. Successivamente, il template `e selezionato nel primo fotogramma e poi ricercato nel fotogramma successivo tramite NCC. Quindi, viene calcolato lo spostamento dei pixel tra il template e il punto a massima correlazione. Una volta misurati gli spostamenti dei pixel orizzontali e verticali (Δu e Δv), vengono convertiti nello spostamento orizzontale e verticale della fotocamera (in metri) utilizzando i parametri intrinseci ed estrinseci di calibrazione della fotocamera attraverso le seguenti equazioni:

4Xc= −4u( Zc fx ) (30) 4Yc = −4v( Zc fy ) (31)

Le coordinate dell’immagine 2D sono convertite nel sistema di riferimento della camera invertendo la direzione dell’asse X ed Y, perch´e specchiate. Il piano in coordinate camera (Xc, Yc, Zc) `e convertito nel piano in coordinate veicolo (Xv, Yv, Zv), mediante una matrice

di rotazione Rc con gli angoli di Eulero, ruotando il piano in coordinate camera di 180°

lungo l’asse Z e di 180° lungo il nuovo asse Y come descritto nell’equazione seguente:

Rc= RzxRy =   cos(θz) −zsin(θz) 0 sin(θz) cos(θz) 0 0 0 1  x   cos(θy) 0 sin(θy) 0 1 0 −sin(θy) 0 cos(θy)  , (32)   4Xvi 4Yvi 4Zvi  = Rcx   4Xci 4Yci 4Zci  

Considerando come modello di avanzamento quello di Ackerman-steered, lo spostamento (traslazione 4X e rotazione 4θ) `e calcolato come:

( 4Xi = 4Xvi 4θi = tan−1( 4Yvi Lcam) (33) dove 4Xve 4Yvsono gli spostamenti nel frame del veicolo, ed Lcam `e la distanza tra il

centro camera e il centro di rotazione del veicolo. Infine la posizione aggiornata (Pnew)

nel frame inerziale `e calcolata:

Pnew = Pprevius+ RZ−axis × Tincremental (34)

con Pprevius la posizione precedente e la traslazione opportunamente ruotata.

Hybrid approach L’approccio basato sulle features `e adatto per scenari strutturati, come ad esempio ambienti urbani. Tuttavia, questo approccio non riesce a trattare gli ambienti senza trama (ad es., Terreno sabbioso, asfalto). Le poche caratteristiche salien-ti che possono essere rilevate e tracciate in queste gli ambiensalien-ti a bassa texturizzazione rendono l’approccio basato sulle features inefficiente. Al contrario, l’approccio basato sul-l’aspetto `e pi`u robusto per ambienti low-textured. L’approccio basato sull’aspetto risulta

Riferimenti

Documenti correlati

For the individual problem, input is erroneous haplotype data, from sequencing For the population problem, data is ambiguous genotype data, from screening.. OBJ is lead by

For the individual problem, input is erroneous haplotype data, from sequencing For the population problem, data is ambiguous genotype data, from screening.. OBJ is lead by

Even though tools based on this approach have demonstrated their capabilities with Sanger sequencing data, they are not easy to extend to cope with short reads for two main

In this case, some descriptive information contained in the file (‘the person who utters this token of ‘I’’) is allowed to play a semantically sig- nificant role, by being what

In secondo luogo, dai grafici riportanti le forze, ` e possibile verificare la grande capacit` a del DOB nel compensare anche tutte le variazioni parametriche dovute all’utilizzo

La domanda per la partecipazione alla presente indagine di mercato dovrà pervenire entro le ore 13 del giorno 28.01.2022 a mezzo PEC

Gramsci, come ha ampiamente mostrato M anacorda21, lega la questione del principio educativo a quella del- l'americanismo, ossia allo sviluppo delle forze

[r]