• Non ci sono risultati.

Università Politecnica delle Marche

N/A
N/A
Protected

Academic year: 2022

Condividi "Università Politecnica delle Marche"

Copied!
102
0
0

Testo completo

(1)

Facolt` a di Ingegneria

Dipartimento di Ingegneria dell’Informazione

Corso di Laurea Magistrale in Ingegneria Informatica e dellŠAutomazione

Tesi di Laurea

Progettazione e realizzazione di una piattaforma a supporto dell’analisi dei trend di deforestazione e di forest degradation

mediante elaborazione di dati satellitari

Design and implementation of a platform to support the analysis of deforestation and forest degradation trends by

processing satellite data

Relatore Candidato

Prof. Domenico Ursino Luca Chiavarini

Anno Accademico 2020-2021

(2)
(3)

Introduzione. . . 9

1 Contesto di riferimento. . . 11

1.1 LŠazienda Hesplora S.r.l. . . 11

1.1.1 Storia e struttura . . . 12

1.1.2 Vision e Mission . . . 13

1.1.3 Progetti passati, presenti e futuri . . . 13

1.2 Il progetto Forestry Analyzer . . . 14

1.2.1 Metodi per la stima della deforestazione e del degrado forestale 17 1.2.2 Remote sensing, big data e cloud computing . . . 22

1.2.3 Piattaforme IT . . . 25

2 Analisi dei requisiti e definizione dei casi d’uso . . . 41

2.1 Analisi dei requisiti . . . 41

2.1.1 Requisiti funzionali . . . 41

2.1.2 Requisiti non funzionali . . . 42

2.2 DeĄnizione dei casi dŠuso . . . 44

3 Progettazione del sistema. . . 47

3.1 DeĄnizione e progettazione architetturale del sistema . . . 47

3.1.1 DeĄnizione della piattaforma IT . . . 48

3.1.2 DeĄnizione dei componenti della piattaforma . . . 50

3.1.3 Architectural design . . . 52

3.2 Progettazione dellŠinfrastruttura cloud . . . 55

3.2.1 Il cloud computing . . . 55

3.2.2 AWS - Amazon Web Services . . . 58

3.2.3 Architettura cloud . . . 61

3.3 Progettazione della pipeline di ETL . . . 63

4 Implementazione del sistema . . . 67

4.1 Implementazione del sistema sul cloud . . . 67

4.1.1 Tecnologie utilizzate . . . 67

4.1.2 Implementazione a livello tecnico del sistema sul cloud . . . 70

4.2 Implementazione della pipeline di ETL . . . 73

(4)

4.2.1 Tecnologie utilizzate . . . 73

4.2.2 Dati e sorgenti . . . 75

4.2.3 Implementazione a livello tecnico della pipeline di ETL . . . 76

5 Testing e validazione del sistema. . . 83

5.1 Testing del sistema . . . 83

5.1.1 Testing del sistema sul cloud . . . 84

5.1.2 Testing della pipeline di ETL . . . 85

5.2 Validazione del sistema . . . 87

5.2.1 Validazione sistema cloud . . . 87

5.2.2 Validazione pipeline ETL . . . 91

6 Discussione in merito al lavoro svolto. . . 93

6.1 Valutazione complessiva del sistema Ąnale . . . 93

6.1.1 Punti di forza . . . 93

6.1.2 Aspetti migliorabili . . . 94

6.2 Lesson learned . . . 95

7 Conclusioni e sguardo al futuro. . . 99

Riferimenti bibliografici. . . 101

(5)

1.1 Logo dellŠazienda Hesplora S.r.l. . . 11

1.2 Distribuzione globale delle foreste nei dieci paesi con le aree forestali pi‘u estese, 2020 (milioni di ettari in percentuale sullŠarea forestale totale). Da FAO-State of the WorldŠs Forest, (2020). . . 18

1.3 GraĄco a torta sulle superĄci forestali in base alla suddivisione geograĄca. La foresta tropicale copre il 45% della superĄcie forestale, quella boreale il 27%, mentre la temperata e la subtropicale 16 e 11% rispettivamente. FAO (2020): State of the WorldŠs Forests. . . 18

1.4 Espansione forestale globale (in verde) e deforestazione (in rosso) tra il 1990 e il 2020 (milioni di ettari allŠanno). FAO States of the WorldŠs Forests (2020). . . 19

1.5 Andamento della deforestazione nei vari continenti. FAO - State of the WorldŠs Forest (2020). . . 20

1.6 Cause della deforestazione tra il 2001 ed il 2015. . . 21

1.7 Volume annuale di dati liberamente accessibili prodotti da Landsat-7, Landsat-8, MODIS e le 3 missioni Sentinel (Soille et al., 2018). . . 22

1.8 I DIAS e i relativi indirizzi web di accesso (Fonte: Copernicus DIAS). 23 1.9 Schema di accesso ai dati grezzi acquisiti da diversi satelliti (Fonte: Copernicus DIAS). . . 23

1.10 Ecosistema di Open Data Cube . . . 26

1.11 Diagramma delle componenti di una distribuzione ODC . . . 27

1.12 Dalla sorgente al risultato, passando per Open Data Cube . . . 28

1.13 Architettura di Open Data Cube . . . 29

1.14 Mappa riassuntiva delle varie implementazioni di Open Data Cube nel mondo . . . 30

1.15 Pipeline di installazione ed indexing dei dati di Open Data Cube core. 31 1.16 Rappresentazione della soluzione implementativa che integra Google Earth Engine e Open Data Cube . . . 33

1.17 Architettura di Google Earth Engine (Gorelick et al., 2017). . . 36

1.18 Schema dellŠarchitettura del sistema SEPAL . . . 39

2.1 ClassiĄcazione gerarchica dei requisiti non funzionali . . . 43

(6)

2.2 Use Case Diagram del sistema Ąnale relativo allŠattore Decision Maker 46 2.3 Use Case Diagram del sistema Ąnale relativo allŠattore Data Scientist 46

3.1 Confronto delle funzionalit‘a di ODC, GEE e SEPAL . . . 49

3.2 Strumenti principali di Open Data Cube . . . 51

3.3 Architettura del sistema Open Data Cube con i vari servizi . . . 54

3.4 Confronto dellŠelasticit‘a fra un data center Ąsico ed uno che sfrutta il cloud computing . . . 56

3.5 Confronto fra un modello che non utilizza il cloud computing ed i tre modelli di cloud computing (IaaS, PaaS, SaaS) . . . 57

3.6 Magic Quadrant di Gartner per infrastrutture cloud e servizi su piattaforma (luglio 2021) . . . 58

3.7 Mappa mondiale che mostra le regioni geograĄche in cui vi sono infrastrutture AWS gi‘a operanti (colore blu) e le regioni geograĄche che diventeranno future infrastrutture AWS (color arancione) . . . 59

3.8 Architettura del sistema Ąnale sul cloud . . . 61

3.9 Rappresentazione della pipeline di ETL . . . 64

4.1 Anaconda . . . 68

4.2 Virtualbox . . . 68

4.3 PostgreSQL . . . 69

4.4 Home page della UI di Open Data Cube . . . 72

4.5 Pagina di avvio del servizio JupyterLab . . . 73

4.6 STAC . . . 74

4.7 Catalogo STAC creato attraverso rio-stac . . . 78

4.8 Esempio di indicizzazione di dati satellitari su Jupyter Notebook attraverso odc.stac . . . 79

5.1 Connessione alla Virtual Machine della UI di ODC tramite protocollo SSH . . . 84

5.2 Connessione alla Virtual Machine che implementa il servizio di JupyterLab . . . 85

5.3 Esecuzione dello script senza speciĄcare parametri . . . 86

5.4 Esecuzione dello script con dato gi‘a presente nel bucket S3 aziendale . 86 5.5 Esecuzione dello script con parametri mancanti . . . 86

5.6 Esecuzione dello script con parametri errati . . . 87

5.7 Area Feedback della Web UI di Open Data Cube . . . 88

5.8 Sistema di autenticazione della Web UI di Open Data Cube . . . 89

5.9 Sistema di autenticazione di JupyterLab . . . 90

5.10 Mappa della Web UI . . . 90

5.11 Visualizzazione dei dati caricati in ODC . . . 91

(7)

1.1 Principali fonti di dati satellitari e loro caratteristiche. . . 25

(8)
(9)

Gli effetti dei cambiamenti climatici in corso hanno posto allŠattenzione dellŠopinione pubblica il rischio che stiamo correndo se non si interviene rapidamente per invertire la tendenza determinata dal riscaldamento del globo terrestre. QuestŠattenzione ha fatto si che, almeno nei paesi pi‘u sviluppati, la questione climatica sia entrata nelle agende di governo movimentando grandi quantit‘a di investimenti. Nel corso del recente COP26 di Glasgow, infatti, sono stati deliberati investimenti per circa 19,2 miliardi di dollari di fondi pubblici e privati entro il 2030 per combattere la deforestazione, tale Ąume di denaro, indirizzato prevalentemente verso i paesi in via di sviluppo, pu‘o costituire anche un enorme motore per le loro economie nazionali paesi.

In questo scenario, il mondo scientiĄco ‘e chiamato a fare la propria parte met- tendo a disposizione di stati e aziende gli strumenti conoscitivi e operativi per in- dirizzare al meglio questi enormi investimenti, con lŠobiettivo di ottenere il miglior risultato possibile in termini di minori emissioni di gas serra.

DŠaltro canto, le tecnologie dellŠEart Observation (EO), seppur altamente pro- mettenti, presentano ancora importanti aree di miglioramento per rispondere alle esigenze dei progetti in ambito riforestazione o, pi‘u in generale, dei progetti REDD+

(Reducing Rmissions from Deforestation and forest Degradation). Siamo convinti che, in questo come in altri campi, lŠadozione di tecniche di remote sensing, con- nesso con lŠimpiego dellŠintelligenza artiĄciale e del deep learning, costituiranno un boost ineguagliabile, come accaduto in altri contesti scientiĄci similari (si pensi, ad esempio, allŠevoluzione in corso nelle tecniche di previsione metereologica).

LŠavvio di programmi ambiziosi come Copernicus gettano le basi per creare un salto quantico nello studio dei fenomeni sottesi alla deforestazione, fornendo a costo basso (o nullo) dati e informazioni Ąno a ieri disponibili solo a fronte di ingen- ti investimenti. ‘E questo il motivo per cui Hesplora S.r.l., nonostante la relativa immaturit‘a di questi strumenti, ha deciso di investire nella valorizzazione dei ser- vizi Copernicus, nella convinzione che questo sar‘a il futuro pi‘u promettente per lo sviluppo del settore forestale. A tal proposito, infatti, lŠazienda Hesplora ha avvia- to un progetto denominato Forestry Analyzer, con lŠausilio Universit‘a degli Studi di Firenze e con i Ąnanziamenti dellŠorganismo internazionale IFAB (International Foundation Big Data and ArtiĄcial Intelligence for Human Development), per af- frontare la suddetta sĄda. Questo progetto, che ha avuto inizio il 2 novembre 2021

(10)

e terminer‘a a dicembre 2022, si colloca nellŠambito dei progetti di ricerca e si pone lŠobiettivo di creare uno strumento che permetta di identiĄcare le foreste, monito- rare i cambiamenti nel tempo e calcolare lŠimpatto della deforestazione in termini di variazione del carbonio.

Nel presente elaborato verr‘a esposto il lavoro che ‘e stato realizzato nella prima met‘a del progetto Forestry Analyzer e verranno valorizzate le attivit‘a svolte da noi Ąno a questo momento. I contenuti che faranno parte del presente elaborato, dunque, si muovono nel campo dei big data, dellŠearth observation, della data science e della deforestazione. In particolare, ci‘o che verr‘a mostrato sar‘a la realizzazione di un sistema che, attraverso la tecnologia del cloud computing, riesca a fornire sia un servizio che permetter‘a agli analisti di sviluppare algoritmi per analizzare dati satellitari, che un servizio che permetter‘a ad utenti business di prendere decisioni a partire dallo studio dei dati.

La presente tesi verr‘a strutturata come di seguito speciĄcato:

• contesto di riferimento.

• analisi dei requisiti e deĄnizione dei casi dŠuso;

• progettazione del sistema;

• implementazione del sistema;

• testing e validazione del sistema;

• discussione in merito al lavoro svolto;

• conclusioni e sguardo al futuro.

(11)

Contesto di riferimento

In questo primo capitolo verr‘a presentata lŠazienda che ha ideato e permesso la realizzazione di questo elaborato ed, inoltre, verr‘a descritto il caso di studio che sar‘a oggetto di questa tesi: il progetto Forestry Analyzer.

1.1 L’azienda Hesplora S.r.l.

Figura 1.1.Logo dellŠazienda Hesplora S.r.l.

LŠazienda di riferimento per il progetto connesso alla presente tesi ‘e la Hesplora S.r.l. (Figura 1.1), una realt‘a il cui modello di business viene denominato Şknowledge integratorŤ, dal momento che ‘e in grado di mettere a fattor comune ricerca scien- tiĄca, startup innovative e lŠICT tradizionale a supporto del Business. LŠobiettivo principale di questŠazienda pu‘o essere riassunto nella capacit‘a di integrare domini di competenza distinti a supporto di percorsi esplorativi e sperimentali, mettendo a disposizione di chi conosce bene il proprio business le migliori competenze del mon- do della ricerca, le soluzioni pi‘u innovative presenti sul mercato o in arrivo, oltre che le tecnologie gi‘a collaudate. ‘E facile intuire, quindi, che il termine ŞinnovazioneŤ ‘e la parola chiave degli obiettivi aziendali e riassume perfettamente il tema principale verso il quale ‘e indirizzata lŠazienda.

Tra le principali aree di competenza presidiate dai professionisti dellŠazienda Hesplora ci sono sicuramente:

• Project & Client Management: focalizzate sulla gestione delle iniziative pro- gettuali e il rapporto col cliente in contesti organizzativi complessi e dinamici, integrando i contributi e le tecnologie del network.

(12)

• System & Solution Architecture: dedicate alla progettazione delle soluzioni tec- nologiche, mediante lŠindividuazione dei building block e la realizzazione di soluzioni complesse basate su tecnologie innovative.

• Scouting Management: partendo da unŠapprofondita conoscenza delle principali tecnologie digitali, consentono di individuare le migliori tecnologie da proporre ai clienti integrandole nelle soluzioni progettate.

• Knowledge Network Management: per la gestione professionale del network di partnership e per le collaborazioni tecnico-scientiĄche, oltre a evidenti capa- cit‘a organizzative, occorrono competenze di contract management e sui temi di propriet‘a intellettuale.

• Data Science & Critical Development: per realizzare soluzioni basate su tecno- logie particolarmente innovative, in taluni casi ancora nel dominio della ricerca, e su contesti non usuali per lŠIT, vengono presidiate in Hesplora competenze critiche, quali il calcolo scientiĄco e parallelo (HPC), il machine learning e le reti neurali, i tool di data mining e di business intelligence.

Allo scopo di garantire un costante aggiornamento delle suddette competenze tramite il continuo confronto con i benchmark di mercato e del mondo scientiĄ- co, sono stati sviluppati in Hesplora dei centri di competenza, denominati Labs, su alcuni degli ambiti tecnologici e/o di business ritenuti strategici. Ad oggi sono operativi i seguenti Labs:

• Laboratorio di Monitoraggio Ambientale & Smart Network;

• Laboratorio di Process Mining.

Un aspetto che questŠazienda cura con molta attenzione sono le partnership;

esse, infatti, costituiscono uno degli asset principali di Hesplora e consentono di dare corpo al modello di knowledge integrator. Il network gestito da Hesplora ‘e in continua evoluzione e si arricchisce via via di nuove collaborazioni, sia in funzione delle esigenze progettuali che dello stato dellŠarte dei domini tecnologici di interesse.

Le principali partnership avviate da Hesplora appartengono a tre grandi cate- gorie:

• il mondo della ricerca, solitamente rappresentato da centri di ricerca universitari o consorzi interuniversitari;

• start-up con competenze e tecnologie allŠavanguardia, spesso frutto di spin-off universitari;

• technology provider di rilevanza internazionale, solitamente di grande esperien- za, che hanno nella loro offerta tecnologie innovative allo stato dellŠarte.

1.1.1 Storia e struttura

In origine quella che oggi ‘e Hesplora era soltanto uno spin-off dellŠazienda HSPI S.p.A. ma, nel 2019, avvenne il distaccamento deĄnitivo ed Hesplora S.r.l. divenne, a tutti gli effetti, indipendente.

LŠazienda Hesplora si compone di ben 5 sedi sparse per lŠItalia:

• Bologna (BO), sede amministrativa e legale;

• Firenze (FI), headquarter del progetto ŞForestry AnalyzerŤ;

• Roma;

(13)

• Lecce (LE);

• Giugliano in Campania (NA).

Ad oggi lŠazienda ‘e in fase di espansione ed in continuo sviluppo, e questo ‘e dimostra- to dal fatto che sta ottenendo ottimi risultati da quando ‘e diventata indipendente nel 2019.

1.1.2 Vision e Mission

LŠazienda Hesplora, come abbiamo gi‘a detto, pone come interesse primario il tema dellŠinnovazione; ‘e proprio verso questŠambito che lŠazienda ‘e diretta e, quindi, verso cui verte la propria vision. A partire dalla vision e dagli obiettvi aziendali appena descritti, dunque, ‘e possibile delineare la mission di Hesplora attraverso i tre seguenti punti:

• supportare le aziende nellŠinnovazione del proprio business guidandole nella scelte tecnologiche;

• aiutarle ad implementare infrastrutture e processi fortemente innovativi;

• fornire servizi ad elevato contenuto professionale e scientiĄco.

In estrema sintesi ‘e proprio questa la mission che caratterizza Hesplora: integrare il meglio della ricerca scientiĄca (universitaria e non), le start-up pi‘u innovative e lŠICT tradizionale per supportare il business nellŠinnovazione dellŠofferta di servizi e prodotti.

1.1.3 Progetti passati, presenti e futuri

LŠofferta di servizi di Hesplora abbraccia vari ambiti sui quali sono stati realizzati numerosi progetti; di seguito verranno descritti i suddetti servizi e verr‘a esposto, per ognuno di questi, un esempio di progetto realizzato da Hesplora:

• Progetti integrati di ricerca e sviluppo allŠinterno di progetti di business al Ąne di sviluppare nuovi prodotti o innovare i processi. LŠintegrazione di ricerca appli- cata, soluzioni tecnologiche innovative e allŠavanguardia accanto a tecnologie gi‘a mature e collaudate, applicate a speciĄche esigenze del cliente, concorrono alla realizzazione di progetti end2end a supporto dellŠinnovazione di prodotto/pro- cesso. ‘E attraverso questa tipologia di servizi che si sprigiona tutta la potenza del modello di knowledge integration che caratterizza lŠapproccio Hesplora: grazie alla capacit‘a dei professionisti Hesplora di integrare in progetti-cliente, Ąnalizza- ti al perseguimento di speciĄci obiettivi di business, attivit‘a di R&D avvalendosi di avanzate competenze tecnico-scientiĄche, ‘e possibile traguardare obiettivi di innovazione altrimenti irraggiungibili.

• Scouting di soluzioni tecnologiche innovative, valutazioni di investimenti tecno- logici, capacit‘a di fornire sistemi e servizi innovativi pronti allŠuso. Sia in ambito R&D che in altri contesti operativi connotati da una forte spinta innovativa (ri- sk analysis, social media analysis, gestione di mega-strutture IT, problematiche cutting-edge in genere), lo sviluppo di soluzioni complesse e innovative richiede lŠimpiego di tecnologie emergenti. Alcuni dei servizi a supporto sono: scouting

(14)

tecnologico (in ambito ICT), analisi e valutazione degli investimenti, individua- zione e selezione dei partner tecnologici, realizzazione di POC e progetti pilota, implementazione di soluzioni Şchiavi in manoŤ.

• Innovation As A Service: selezione e fornitura di servizi cloud per comporre solu- zioni innovative. Il continuo sviluppo dellŠofferta di servizi di Cloud Computing costituisce una grande opportunit‘a per sostenere lo sviluppo dellŠinnovazione a costi contenuti e in tempi rapidissimi. Hesplora, a tal proposito, ha avviato partnership con i principali Public Cloud Provider in modo da poter mettere a disposizione dei propri clienti servizi turnkey che abilitano lŠinnovazione dei servizi di business e dei processi produttivi.

Questa offerta di servizi appena descritti si concentra principalmente su quattro aree principali:

• Smart Network e Smart Cities;

• Security & Safety;

• Asset Management;

• Marketing digitale.

1.2 Il progetto Forestry Analyzer

Il cambiamento climatico ‘e uno dei problemi pi‘u importanti e imponenti che lŠuomo sta affrontando negli ultimi secoli. LŠAgenda delle Nazioni Unite per lo sviluppo sostenibile ha Ąssato 17 obiettivi da raggiungere entro il 2030, tra cui si trova la Şlotta contro il cambiamento climatico: adottare misure urgenti per combattere il cambiamento climatico e le sue conseguenzeŤ. In linea con il perseguimento di questo speciĄco obiettivo, i dibattiti e le negoziazioni delle Nazioni Unite, culminate nella conferenza sui cambiamenti climatici COP26 a Glasgow a Novembre 2021, hanno portato allŠimpegno delle nazioni di ridurre le emissioni di almeno il 55% entro il 2030 (facendo di questo obiettivo un obbligo giuridico attraverso la normativa eu- ropea sul clima), di azzerare le emissioni nette a livello globale entro il 2050 e di limitare lŠaumento delle temperature di 1.5°C. Si ‘e dimostrato che la deforestazione ha un impatto negativo nei cambiamenti climatici, sui cicli biogeochimici globali e sulla perdita della biodiversit‘a. La riduzione della deforestazione e del degrado fore- stale (a livello globale) ‘e una tra le principali azioni che i Paesi hanno a disposizione per raggiungere questi obiettivi.

Secondo delle stime IPCC (Intergovernmental Panel on Climate Change) le fo- reste e i relativi processi di degrado forestale e deforestazione sono responsabili del 20% del totale delle emissioni antropiche di gas serra (GHG), e ridurre queste emissioni sar‘a necessario per evitare pericolosi cambiamenti climatici. Rallentare o fermare la deforestazione ‘e unŠopzione a breve termine ed economica per ridurre signiĄcativamente le emissioni globali, con straordinari beneĄci aggiuntivi per la diversit‘a biologica e lo sviluppo sostenibile nelle nazioni tropicali.

A tal proposito, ‘e diventato interesse dei paesi e delle aziende pi‘u industrializzate intervenire concretamente nelle attivit‘a che tutelano le foreste e la loro estensione.

QuestŠinteresse, inoltre, ‘e dovuto anche alle imposizioni del Protocollo di Kyoto (1997) e della conseguente creazione del Carbon Market e dei Crediti di Carbonio.

(15)

Per i suddetti motivi, ‘e necessario monitorare e misurare accuratamente le emis- sioni della deforestazione per creare incentivi efficaci affinch´e i paesi controllino e interrompano il processo.

Il progetto Forestry Analyzer, condotto da Hesplora e co-Ąnanziato da IFAB1, mira a valorizzare lŠuso dei Big Data nel monitoraggio ambientale e ad individuare i dati e i software pi‘u utilizzati. Inoltre, intende anche identiĄcare gli algoritmi pi‘u promettenti proposti nella comunit‘a scientiĄca e migliorarli con le informazioni di- sponibili, se necessario. NellŠottica di sviluppare una tecnica pratica per monitorare la deforestazione, lŠobiettivo Ąnale del progetto ‘e creare uno strumento che permetta di identiĄcare le foreste, monitorare i cambiamenti di copertura nel tempo e calcola- re lŠimpatto della deforestazione in termini di variazione del carbonio. In particolare, la ricerca si concentrer‘a sullŠuso e il miglioramento dei dati del progetto Copernicus poich´e gli strumenti e gli algoritmi sviluppati Ąno ad oggi si basano principalmente su fonti di informazione statunitensi (principalmente il programma Landsat della NASA). La ricerca e lo sviluppo di un algoritmo per il miglior utilizzo di tali dati consentiranno di avere un monitoraggio validato e solido della deforestazione nelle aree di interesse. La validazione degli algoritmi si baser‘a sul confronto con i dati pubblicati da studi accreditati e con le soluzioni attualmente disponibili sul mercato.

Lo strumento che verr‘a prodotto da questo lavoro pu‘o rappresentare uno stimolo al rafforzamento delle capacit‘a dei paesi e delle aziende che devono compensare le loro emissioni di CO2, interessate al Carbon Market e ad indirizzare i loro investimenti in progetti ad alto impatto ambientale. Un altro importante obiettivo che questo progetto si propone ‘e quello di portare un alto grado di trasparenza al problema della deforestazione, indicando ulteriori modi in cui big data ed il cloud computing possono aiutare ad affrontare altri difficili problemi di sostenibilit‘a.

Per fare fronte alle necessit‘a dei Paesi di ridurre le loro emissioni ed effettuare monitoraggio e mantenimento del patrimonio forestale, sono stati attuati, nel corso degli anni, i progetti REDD+ (Reducing Emissions from Deforestation and Fore- st Degradation in developing countries), sviluppati dal UNFCCC (United Nations Framework Convention on Climate Change). Questi meccanismi creano un valore Ąnanziario per il carbonio immagazzinato nelle foreste offrendo incentivi ai paesi in via di sviluppo per ridurre le emissioni da terreni boschivi e investire in percorsi ver- so lo sviluppo sostenibile. I progetti REDD+ vanno oltre la semplice deforestazione e il degrado delle foreste, includendo anche il ruolo di conservazione, la gestione so- stenibile delle foreste e la valorizzazione degli stock di carbonio (oltre che vantaggi sociali ed economici, in linea con i Sustainable Development Goals - SDG).

1 IFAB ‘e una Fondazione nata dalla volont‘a della Regione Emilia-Romagna di permettere a universit‘a, centri di ricerca, imprese e comunit‘a italiane, insieme a tutta la comunit‘a scientiĄca e produttiva internazionale, di partecipare in maniera efficace a questo straor- dinario movimento scientiĄco e tecnologico che sta trasformando la vita e lo sviluppo delle societ‘a e delle economie in tutto il mondo. La Fondazione ‘e orientata al bene comune e intende essere un punto di riferimento indipendente e autorevole a livello in- ternazionale, nellŠambito del dibattito scientiĄco e culturale che si sta svolgendo a livello globale su sviluppo umano, sostenibilit‘a e nuova scienza. Questa fondazione ‘e in grado di delineare le prospettive emergenti e future dello sviluppo scientiĄco e tecnologico, delle trasformazioni produttive in atto e delle politiche pubbliche necessarie per rag- giungere gli obiettivi di sviluppo Ąssati nella Agenda 2030 per lo sviluppo sostenibile delle Nazioni Unite.

(16)

Un punto centrale per lo sviluppo di questo tipo di progetti, i quali prevedono azioni di monitoraggio e conservazione delle foreste, ‘e quello inerente allŠutilizzo di piattaforme in grado di determinare lŠandamento degli eventuali fenomeni che pos- sono portare ad una perdita o guadagno del patrimonio forestale, con conseguente variazione di stoccaggio di carbonio della foresta stessa. Le fonti dati cruciali che vengono utilizzate allŠinterno di questi applicativi e che sono fondamentali nella comprensione dei cambiamenti climatici sono i dati satellitari. Sulla base delle in- formazioni estratte da questa tipologia di dati, ricercatori e aziende sono in grado di concepire e applicare politiche efficaci per la protezione dellŠambiente e la gestione sostenibile delle risorse naturali.

Ad oggi, diverse piattaforme sono state sviluppate per facilitare lŠaccesso e lŠin- tegrazione di dati spaziali multi-sorgente (tra cui i dati satellitari) allŠinterno di un framework con componenti tecnologici per il loro utilizzo. Le principali piattafor- me sono Google Earth Engine (GEE), Open Data Cube (ODC) e SEPAL. Queste forniscono funzionalit‘a per la gestione, lŠarchiviazione e lŠaccesso ai grandi dati sa- tellitari, consentono lŠelaborazione lato server senza dover scaricare grandi quantit‘a di dataset e forniscono lŠelaborazione degli stessi per una vasta platea di utenti, dai ricercatori ai dipendenti di aziende che operano nel settore ambientale. Que- ste piattaforme integrano diversi tipi di tecnologie, API (Application Programming Interface) e servizi Web per fornire una soluzione pi‘u completa per la gestione e lŠanalisi di grandi set di dati.

Le applicazioni sopra citate utilizzano una sempre maggiore mole di dati satel- litari, che negli ultimi anni sono esponenzialmente cresciuti in quantit‘a e che sono messi a disposizione gratuitamente da diverse missioni, tra cui Landsat e MODIS.

Queste piattaforme, per‘o, non sfruttano (o sfruttano solo in parte) i dati e i prodotti generati dalla missione Copernicus. Questa missione ‘e il programma di osservazione (in tempo quasi reale e su scala globale) della Terra dellŠUnione Europea, con lo sco- po di monitorare lŠambiente e le sue variazioni temporali. Il programma Copernicus

‘e coordinato e gestito dalla Commissione Europea ed ‘e attuato in collaborazione con gli Stati Membri, lŠAgenzia Spaziale Europea (ESA), lŠOrganizzazione Europea per lŠEsercizio dei Satelliti Meteorologici (EUMETSAT), il Centro Europeo per le Previsioni Meteorologiche a Medio Termine (CEPMMT), le Agenzie dellŠUE e Mer- cator Oc´ean International (MOI). Il programma di osservazione satellitare ‘e svolto dai satelliti della famiglia Sentinel, mentre i dati in situ sono raccolti da una serie di sensori dedicati. Elenchiamo, di seguito, alcuni dei pi‘u rilevanti vantaggi portati dalla missione Copernicus:

• i suoi dati supportano vari settori, con il potenziale di far crescere lŠeconomia europea;

• ‘e un unico programma UE, coordinando le iniziative nazionali;

• osservando regolarmente e in maniera continuativa la Terra, permette di affron- tare e rispondere ai cambiamenti climatici;

• garantisce una maggiore indipendenza dellŠEuropa da fonti di dati di paesi terzi;

• fornisce informazioni satellitari per la sorveglianza delle frontiere marittime e per azioni esterne europee come il mantenimento della pace.

Inoltre, a differenza delle missioni che forniscono oggi i dati alle principali piatta- forme di monitoraggio forestale, la particolarit‘a della missione Copernicus ‘e quella

(17)

di fornire una serie di dati secondari (quindi gi‘a lavorati a partire dalle osservazioni primarie) che permettono di avere delle serie temporali di prodotti e indici bio- geoĄsici sullo stato e sullŠevoluzione del suolo terrestre, con particolare attenzione al patrimonio forestale.

In conclusione, sviluppare una piattaforma a partire da quelle presenti gi‘a nel mercato, sfruttando appieno il patrimonio informativo reso disponibile della mis- sione Copernicus, ‘e di fondamentale importanza per le conseguenze economiche e scientiĄche che essa pu‘o apportare nellŠambito del monitoraggio e conservazione del patrimonio forestale.

1.2.1 Metodi per la stima della deforestazione e del degrado forestale

LŠUNFCCC (United Nation Framework Convention on Climate Change) nel 2001 deĄn‘ı la foresta come unŠarea con superĄcie minima compresa tra 0.05 e 1 ettaro, una copertura delle chiome inclusa tra il 10-30% sul totale e altezza media degli alberi tra 2 e 5 metri. Successivamente la stessa UNFCCC ha allineato la sua deĄ- nizione a quella della FAO (Food and Agriculture Organization of United Nations) la quale asserisce che una foresta, per essere deĄnita tale, deve avere superĄcie mag- giore di 0.5 ettari, copertura delle chiome maggiore del 10% e altezza media degli alberi a maturit‘a superiore a 5 metri. Data la grande elasticit‘a nella deĄnizione di foresta che si evince dalle indicazioni promosse dagli enti transnazionali, ‘e emersa una problematica di adozione legislativa allŠinterno dei singoli paesi; ad esempio, il Brasile deĄnisce foresta ŞunŠarea pi‘u grande di 1 ettaro, con copertura di chioma maggiore del 30% e altezza minima degli alberi di 5 metriŤ, mentre il Ghana co- me ŞunŠarea pi‘u grande di 0.1 ettari, con copertura di chioma maggiore del 15% e altezza minima degli alberi di 2 metriŤ.

Per questo motivo, differenti leggi portano a interpretazioni che si traducono in limiti di taglio diversi a seconda della giurisdizione a cui si fa riferimento (N.

Gilbert, 2009). A tal riguardo ci sono state dure critiche rivolte alla deĄnizione della FAO che sono sfociate in una lettera del WRM (World Rainforest Movement, 2016) diretta alla stessa organizzazione transnazionale. Globalmente, pi‘u della met‘a delle foreste si trova in cinque paesi (Russia, Brasile, Canada, Stati Uniti dŠAmerica e Cina) e due terzi (66%) delle foreste si trovano in dieci paesi (Figura 1.2).

La latitudine ‘e un fattore preponderante nel deĄnire lo stato biogeograĄco di una foresta. Esistono sostanzialmente 4 tipi di foreste suddivise nel graĄco a torta (Figura 1.3):

• Tropicale;

• Subtropicale;

• Temperata;

• Boreale.

Approfondendo ulteriormente il discorso sulle tipizzazioni delle foreste, ponendo questa volta lŠattenzione sullŠambito del degrado forestale, la FAO deĄnisce prima- rie le foreste rigenerate naturalmente dove non vi sia stata attivit‘a umana visibile,

(18)

Figura 1.2. Distribuzione globale delle foreste nei dieci paesi con le aree forestali pi‘u estese, 2020 (milioni di ettari in percentuale sullŠarea forestale totale). Da FAO-State of the WorldŠs Forest, (2020).

Figura 1.3. GraĄco a torta sulle superĄci forestali in base alla suddivisione geograĄca.

La foresta tropicale copre il 45% della superĄcie forestale, quella boreale il 27%, mentre la temperata e la subtropicale 16 e 11% rispettivamente. FAO (2020): State of the WorldŠs Forests.

(19)

dove i processi ecologici non sono signiĄcativamente disturbati, e composta da spe- cie arboree autoctone. Con foresta secondaria, invece, si intende unŠarea forestale fortemente disturbata con grado di degradazione pi‘u o meno elevato.

LŠIPCC (Intergovernmental Panel on Climate Change) deĄnisce deforestazione Şla conversione, diretta e di origine antropica, della foresta in unŠarea con uso del suolo non forestaleŤ (AFOLU Requirements, Sezione 4.2.5). In Figura 1.4 ‘e possibile cogliere lŠespansione forestale globale e la deforestazione in un arco di tempo che va dal 1990 al 2020 (calcolata in milioni di ettari per anno); dallŠimmagine ‘e possibile notare come vi sia stato un calo della deforestazione tra il ventennio 1990-2010 ed il decennio 2010-2020.

Figura 1.4.Espansione forestale globale (in verde) e deforestazione (in rosso) tra il 1990 e il 2020 (milioni di ettari allŠanno). FAO States of the WorldŠs Forests (2020).

La FAO (2015) indica la deforestazione come la riduzione permanente della copertura della chioma sotto la soglia del 10% rispetto al totale dellŠarea considerata.

Tagliare e bruciare alberi ‘e da millenni una pratica di uso comune. Solo nellŠultimo decennio, in particolare tra il 2015 e il 2020, il tasso di deforestazione risulta essere di 10 Mha (milioni di ettari) allŠanno, in calo rispetto ai 16 Mha allŠanno degli anni Š90. NellŠultimo decennio, in Africa, si ‘e perso nettamente circa 3,94 Mha allŠanno di superĄcie forestale, mentre in Sud America circa 2,60 Mha allŠanno (Figura 1.5) (FAO, 2020). Complessivamente, nellŠultimo decennio, Asia, Oceania ed Europa hanno guadagnato superĄcie forestale mentre Sud America ed Africa hanno perso, rispettivamente, 2.60 e 3.94 Mha allŠanno.

Parlando di degrado forestale, invece, questo ‘e deĄnito come la riduzione persi- stente di copertura di chioma e/o di carbonio in ecosistemi forestali, che comporta una riduzione o perdita della produttivit‘a biologica o economica e della comples- sit‘a degli ecosistemi forestali con conseguente riduzione a lungo termine dellŠofferta complessiva di beneĄci dalle foreste, che include legno, biodiversit‘a e altri prodot- ti o servizi. (FAO, 2020). Il degrado forestale, inoltre, pu‘o, in alcuni casi, essere considerato come un fenomeno che precede la deforestazione vera e propria (Joshi

(20)

Figura 1.5.Andamento della deforestazione nei vari continenti. FAO - State of the WorldŠs Forest (2020).

et al. 2015). Le cause principali del degrado forestale sono la raccolta selettiva di legname, la raccolta di legna da ardere e gli incendi.

Gli agenti che determinano i fenomeni di degrado e di deforestazione sono coloro, imprenditori o corporazioni, che decidono il destino delle foreste, beni comuni. I grandi imprenditori del commercio di legname o del settore agricolo e zootecnico, spesso sostenuti da scelte politiche, decidono di deforestare per prelevare legname o far spazio ad allevamenti e/o monocolture (ad esempio: soia, mais, palma). Con scopi diversi le multinazionali del settore petrolifero e dei materiali scelgono di deturpare il soprassuolo, il suolo e il sottosuolo delle zone forestali: il loro Ąne ‘e il prelievo di petrolio (ad esempio, sabbie bituminose del Canada) ed altre materie prime minerarie (ad esempio, rame, stagno, nichel, bauxite, manganese, ferro e oro).

In ordine di superĄcie rimossa, le attivit‘a direttamente coinvolte nella defore- stazione sono lŠagricoltura industriale e lŠallevamento (lŠagricoltura di sussistenza in piccola parte), lŠespansione urbana e lo sviluppo infrastrutturale.

Solo il comparto agricolo ha impattato per il 26% sulla deforestazione totale dal 2001 al 2015 (Goldman et al., 2020). In Figura 1.6 sono mostrate le attivit‘a agricole che hanno richiesto maggiori superĄci deforestate dal 2001 al 2015; come possiamo vedere, la deforestazione ‘e causata principalmente dallŠallevamento di bestiame e dallŠattivit‘a agricola: allevamento di bovini, coltivazioni intensive di olio di palma e soia, nonch´e cacao, gomma, caff‘e e piantagioni di Ąbra di legno sono le maggiori cause.

Provando a risalire alle radici delle cause della deforestazione, le principali ragioni che stanno alla base della distruzione degli ecosistemi forestali sono essenzialmente riconducibili alla domanda eccessiva di prodotti della foresta. Una dimostrazione esemplare ‘e quella relativa al prelievo illegittimo di legname: infatti, ‘e stato stimato che circa il 50% del legno importato in Unione Europea ‘e stato prelevato senza il rispetto di leggi e regolamenti del paese di provenienza. In pi‘u, lŠelevata doman- da di soia e di olio di palma, relativamente destinati allŠalimentazione animale e allŠindustria alimentare, sono tra le maggiori cause sottostanti alle attivit‘a di defo- restazione e degrado in foreste tropicali. In generale, il modello economico attuale

(21)

Figura 1.6.Cause della deforestazione tra il 2001 ed il 2015.

poggia principalmente sullo sfruttamento sfrenato di risorse naturali, che per‘o sono limitate. I fattori di consumo e di utilizzazione eccessiva sono trainati spesso dalle scelte sbagliate della politica, la quale ha permesso investimenti e concessioni che hanno deturpato gli ecosistemi. Di fatto, esiste una realt‘a di lobbying che, eserci- tando pressioni sulla politica e sugli enti pubblici di turno, spesso si tramuta in corruzione (FAO, 2007).

Al Ąne di stimare i cambiamenti dei depositi di carbonio nelle foreste si ‘e mani- festata la necessit‘a di calcolare il contributo dei vari settori economici partecipanti in questo complesso meccanismo biogeochimico. Tale interesse ‘e dovuto anche alle imposizioni del Protocollo di Kyoto e alla creazione del Carbon Market, il quale per- mette alle aziende e nazioni, che hanno interessi ad avviare comportamenti cosidetti green per raggiungere la loro Şcarbon neutralityŤ, di ottenere crediti di carbonio at- traverso progetti in grado di ridurre le proprie emissioni di gas serra (dove i crediti vengono calcolati a partire da quante emissioni di carbonio lŠintervento progettuale, ideato e messo in atto, ‘e in grado di ridurre). In questo contesto, ‘e quindi chiara e forte la necessit‘a di misurare il processo di deforestazione o di degrado in atto in una zona forestale identiĄcando lŠestensione dellŠarea impattata e calcolando quante tonnellate di carbonio la foresta presa in esame non sar‘a pi‘u in grado di assorbire in futuro. Per fare ci‘o ‘e necessario conoscere i seguenti fattori:

• lŠestensione della deforestazione e del degrado forestale;

• per il degrado, la percentuale di biomassa forestale persa;

• il luogo dove la deforestazione o il degrado forestale si sono veriĄcati;

• il contenuto di carbonio di ciascun tipo di foresta (in tonnellate di carbonio per ettaro);

(22)

• il processo di perdita di foresta che inĆuenza il tasso e la tempistica delle emissioni.

A partire da questa misurazione viene poi calcolato il delta di un progetto, cio‘e quanta CO2 si potr‘a ridurre attuando le azioni previste da esso e, sulla base di questa, i relativi crediti di carbonio da assegnare al progetto.

1.2.2 Remote sensing, big data e cloud computing

Negli ultimi anni, la quantit‘a di dati derivanti dallŠosservazione satellitare della Ter- ra (attraverso il telerilevamento) ‘e aumentata notevolmente. Come ‘e possibile osser- vare nella Figura 1.7, infatti, il volume dei dati liberamente accessibili (provenienti dalle missioni Landsat-7, Landsat-8, MODIS, Sentinel-1, Sentinel-2 e Sentinel-32) ‘e passato da 0,5 PB nel 2015 a circa 4,25 PB nel 2019 (Volpini, 2021).

Figura 1.7. Volume annuale di dati liberamente accessibili prodotti da Landsat-7, Landsat-8, MODIS e le 3 missioni Sentinel (Soille et al., 2018).

Questo fenomeno di incremento del volume dei dati, chiaramente, ‘e avvenuto grazie ai progressi tecnologici e alle politiche di open data adottate dai governi e dalle agenzie spaziali. Gestire questi grandi insiemi di dati spaziali (che spesso superano le capacit‘a di memoria, archiviazione ed elaborazione dei personal computer e che hanno differenti risoluzioni spaziali, temporali e spettrali) ‘e divenuto complesso.

Per facilitare lŠaccesso e la manipolazione dei dati si ‘e reso necessario, dunque, sviluppare delle nuove soluzioni tecnologiche basate su ambienti di cloud computing (che sono offerti dai provider come servizi) e sui sistemi distribuiti. Questi ambienti hanno il vantaggio di essere altamente scalabili e mettono a disposizione database, strumenti per sviluppatori, spazi di archiviazione e servizi di rete.

2Landsat, Sentinel e MODIS sono alcune delle pi‘u importanti missioni satellitari per il telerilevamento della Terra.

(23)

Intuendo le potenzialit‘a di questa nuova tecnologia, la Commissione Europea ha sovvenzionato lo sviluppo di cinque piattaforme basate su cloud (Figura 1.8) note come DIAS (Data and Information Access Services). Queste piattaforme consentono

Figura 1.8.I DIAS e i relativi indirizzi web di accesso (Fonte: Copernicus DIAS).

un accesso centralizzato a tutti i dati e alle informazioni del programma Copernicus (compresi i dati rilevati dai satelliti Sentinel, i prodotti dei sei servizi operativi di Copernicus e gli strumenti cloud). Attraverso i DIAS, gli utenti possono scoprire, adoperare, elaborare e scaricare questi dati oppure possono sviluppare proprie ap- plicazioni e salvarle nel cloud, evitando la movimentazione e lŠelaborazione in locale di dati di dimensioni notevoli.

Figura 1.9.Schema di accesso ai dati grezzi acquisiti da diversi satelliti (Fonte: Copernicus DIAS).

In Figura 1.9 i DIAS vengono rappresentati dagli ŞInterface ServicesŤ, e viene mostrato come queste piattaforme consentono ad aziende, sviluppatori ed istituzioni di accedere alle informazioni contenute nei vari dataset e di realizzare degli speciĄci prodotti che vengono resi accessibili agli utenti Ąnali.

(24)

Tornando ad occuparci dei dati derivanti dal remote sensing, quelli utilizzati in letteratura (che coincidono con quelli trattati nel presente lavoro di tesi) sono nella maggior parte dei casi gratuitamente accessibili direttamente da appositi siti web, in molti casi dopo aver effettuato la necessaria registrazione. In alcuni casi, soprattutto per quanto riguarda dataset globali, non ‘e possibile scaricare i dataset nella loro interezza, in quanto questi possono essere molto grandi, ma ‘e necessario selezionare la zona di interesse. Questo pu‘o essere fatto, a seconda dei casi, sele- zionando zone predeĄnite (ad esempio un determinato stato) oppure delineando la zona di interesse in una mappa interattiva. In altri casi, ‘e disponibile unŠintegrazio- ne con Google Earth Engine in modo che i dati siano direttamente accessibili anche tramite questa piattaforma. In generale, i dati satellitari possono essere utilizzati sia per il monitoraggio della deforestazione che per il calcolo del carbonio; nel primo caso, per‘o, sono disponibili molti pi‘u dati a causa della difficolt‘a nella stima della biomassa da remoto e della necessit‘a di calibrazione con dati presi a terra.

Una distinzione necessaria da fare riguarda i due tipi di dati satellitari: dati primari e dati secondari. Con il termine Şdati primariŤ intendiamo le immagini prese dai satelliti in varie bande spettrali, opportunamente pre-processate per la rimozione di rumore, nuvole, etc., che costituiscono, quindi, mappe dove ad ogni pixel ‘e associato un valore di riĆettanza spettrale. Con il termine Şdati secondariŤ, invece, identiĄchiamo le mappe derivate dai dati primari tramite ulteriori operazioni effettuate sulle bande spettrali, come le mappe degli indici di vegetazione, quelle di altitudine o quelle che descrivono la copertura del suolo.

Parlando di fonti dati, una delle principali per il progetto Forestry Analyzer ‘e la missione Copernicus (gi‘a descritta precedentemente). I satelliti che sono stati utiliz- zati per tale missione sono i seguenti: Sentinel-1, Sentinel-2, Sentinel-3, Sentinel-4, Sentinel-5, Sentinel-5P, Sentinel-6. I dati ottenuti da questi satelliti vengono pro- cessati e suddivisi in 6 diverse aree tematiche: land, marine, atmosphere, climate change, emergency management e security. Di particolare importanza per la stima della deforestazione ‘e il ŞCopernicus Land Monitoring ServiceŤ (CLMS), che for- nisce una serie temporale di prodotti bio-geoĄsici sullo stato e sullŠevoluzione del suolo terrestre, su scala globale e con risoluzione bassa (≥ 1 km), media (250-500 m) o alta (50-100 m).

I prodotti forniti dal CLMS sono suddivisi in quattro categorie: vegetazione, crio- sfera, energia e acqua. Si noti che i prodotti del CLMS sono prodotti secondari (o dati secondari), nel senso che sono forniti come dati gi‘a pre-processati a partire dai dati primari, ossia le immagini vere e proprie catturate dai satelliti. Oltre a questi, Copernicus mette a disposizione molti altri prodotti secondari; tra questi menzio- niamo il Copernicus EU-DEM, un ŞDigital Elevation ModelŤ (DEM) che mappa lŠaltitudine del terreno con una risoluzione orizzontale di 25 m e unŠaccuratezza verticale di +/-7 m. Sono, inoltre, presenti vari prodotti riguardanti speciĄcata- mente le foreste. Questi sono dati ad altissima risoluzione con copertura europea per gli anni 2012, 2015 e 2018. I prodotti presenti riguardano la densit‘a di copertura forestale, il tipo dominante di alberi (a foglia larga o conifere) e il tipo di foresta.

Per i primi due prodotti, inoltre, sono presenti anche le mappe del cambiamento di copertura.

In Tabella 1.1 sono elencate altre fonti dati (oltre quella della missione Co- pernicus) e, per ognuna di esse, le relative caratteristiche: se sono dati primari o

(25)

secondari, se per accedervi ‘e necessaria la registrazione al sito, la disponibilit‘a di una applicazione web per la visualizzazione interattiva, se i dati sono aggiornati in tempo reale (o quasi) e se sono presenti dati storici.

Fonte Tipo Registrazione Web

App

Dati real- time

Dati storici

Copernicus Secondari S‘ı S‘ı S‘ı S‘ı

Sentinel Primari e

secondari

S‘ı S‘ı S‘ı S‘ı

Landsat Primari e

secondari

S‘ı S‘ı S‘ı S‘ı

MODIS Primari e

secondari

S‘ı S‘ı S‘ı S‘ı

ASTER Primari e

secondari

S‘ı S‘ı S‘ı S‘ı

Global Land Cover 2000

Secondari No No No S‘ı

Global Forest Chan- ge

Secondari No S‘ı No S‘ı

Sen12MS Secondari No No No S‘ı

Natural Earth Secondari No No No S‘ı

LandScan Secondari S‘ı No No S‘ı

WDPA Secondari No S‘ı No S‘ı

Earth Explorer Primari e secondari

S‘ı S‘ı S‘ı S‘ı

ESA Biomass Secondari No No No S‘ı

Global Forest Cano- py Height

Secondari No No No S‘ı

Nasa Fire Secondari No S‘ı S‘ı S‘ı

ESA WorldCover Secondari S‘ı/No S‘ı No S‘ı

Tropical Moist Fo- rests

Secondari No S‘ı No S‘ı

Tabella 1.1.Principali fonti di dati satellitari e loro caratteristiche.

1.2.3 Piattaforme IT

In questo paragrafo presenteremo tre piattaforme atte alla gestione e allŠanalisi di dati satellitari provenienti dal telerilevamento. Le tre tecnologie che verranno esaminate sono le seguenti:

• Open Data Cube (ODC);

• Google Earth Engine (GEE);

• SEPAL.

Per ciascuna piattaforma saranno indicate le principali caratteristiche, lŠarchi- tettura, i vari strumenti offerti, i metodi di gestione dei dati satellitari ed altre

(26)

funzionalit‘a fondamentali, che ci consentiranno, inĄne, di decretare qual ‘e la solu- zione migliore tra quelle analizzate e qual ‘e quella che soddisfa appieno i requisiti di progetto che verranno presentati nel prossimo capitolo.

La prima piattaforma che verr‘a presentata ‘e Open Data Cube (ODC). Questo

‘e un progetto di software di analisi e gestione dei dati geospaziali con il Ąne di fornire agli utenti degli strumenti in grado di sfruttare al meglio la ricchezza dei dati satellitari attraverso lŠanalisi di questi ultimi. Fondamentalmente, ODC ‘e un insieme di librerie Python che, attraverso lŠuso di un database PostgreSQL, consente la catalogazione e la gestione di enormi set di dati satellitari tramite un set di strumenti a riga di comando e unŠAPI Python. Il linguaggio di programmazione Python, infatti, si presta benissimo per lŠanalisi dei dati, per il machine learning e per tutte le necessit‘a del suddetto progetto grazie alle sue numerosissime librerie, alla sua leggibilit‘a, alla sua facilit‘a di utilizzo rispetto ad altri linguaggi ed al suo gran numero di risorse di reperibili online (composte da varie community, tutorial, articoli scientiĄci e altro). Come riportato sul sito ufficiale di Open Data Cube, lŠobiettivo di questo ambizioso progetto ‘e quello di aumentare lŠimpatto riguardo lŠutilizzo dei dati satellitari fornendo uno strumento aperto e liberamente accessibile.

Nella Figura 1.10 viene descritto lŠecosistema della piattaforma Open Data Cube.

Figura 1.10.Ecosistema di Open Data Cube

Il sistema ODC ‘e totalmente open source, ‘e gratuito per tutti e rilasciato sotto i termini liberali della licenza Apache 2.0. LŠiniziativa ODC ‘e supportata da 6 partner istituzionali, ovvero:

• Geoscience Australia (GA);

• NASA / Committee on Earth Observation Satellite (CEOS);

• United States Geological Survey (USGS);

• Commonwealth ScientiĄc and Industrial Research Organisation (CSIRO);

• Catapult Satellite Applications

• Analytical Mechanics Associates (AMA).

LŠelemento principale di questa piattaforma ‘e lŠODC Core e si occupa dellŠin- dicizzazione dei dati; esso, fondamentalmente, consiste in un insieme di script in Python (che catalogano i metadati attraverso il database PostgreSQL) e fornisce unŠAPI per lŠaccesso alle informazioni.

(27)

Osservando la Figura 1.11, invece, si riesce ancor di pi‘u a cogliere il meccanismo di funzionamento di ODC attraverso i suoi componenti fondamentali.

Figura 1.11.Diagramma delle componenti di una distribuzione ODC

Sulla sinistra troviamo la componente dati; in particolar modo, viene indicata la possibilit‘a che offre ODC di immagazzinare i dati satellitari sia in locale che in cloud. Nella parte centrale, dove troviamo lŠinfrastruttura, viene indicato il database che ODC sfrutta per lŠindicizzazione dei dati satellitari (PostgreSQL). Sulla destra dellŠimmagine, invece, vengono indicate le varie modalit‘a con le quali gli utilizzatori Ąnali possono utilizzare le funzionalit‘a del sistema ODC.

La piattaforma Open Data Cube, come mostrato in Figura 1.12, si colloca come livello intermedio tra i provider di dati satellitari e le applicazioni utilizzate dagli utenti per analizzare i dati.

Open Data Cube pu‘o essere distribuito su varie piattaforme di elaborazione. Le possibili soluzioni sono le seguenti:

• distribuzione locale (ad esempio, workstation di fascia alta);

• cloud (ad esempio, Amazon Web Services);

• infrastruttura High Performance Computing (ad esempio, NCI).

Scendendo ad un livello pi‘u tecnico, unŠimplementazione di ODC ‘e costituita da 3 componenti fondamentali:

• I dati sono solitamente basati su Ąle, sia in directory locali di GeoTIFF che in Ąle NetCDF; dunque, i dati possono essere tutto ci‘o che GDAL pu‘o leggere (inclusi i GeoTIF ottimizzati per il cloud archiviati su AWS S3).

• Per gli indici, ODC utilizza PostgreSQL come database per archiviare un elenco di prodotti (cio‘e raccolte di insiemi di dati che condividono lo stesso insieme

(28)

Figura 1.12.Dalla sorgente al risultato, passando per Open Data Cube

di misure e alcuni sottoinsiemi di metadati, ad esempio ŞLandsat 8 Analysis Ready DataŤ) e un dataset (aggregazione pi‘u piccola di una singola istanza di un prodotto, ad esempio una singola scena Landsat 8). LŠindice consente ad un utente di gestire dati senza dover sapere in modo speciĄco dove sono archiviati i Ąle richiesti e come accedervi; ci‘o permette di creare unŠastrazione a livello di dati che, chiaramente, agevola lŠutente nellŠutilizzo degli stessi.

• Il software al centro di ODC ‘e una libreria Python che consente agli utenti di indicizzare i dati (aggiungere record allŠindice), di inserire dati (ottimizzare i dati indicizzati per le prestazioni), di interrogare i dati (restituendo dati in un formato standard) e di svolgere una vasta gamma di altre funzioni relative alla gestione dei dati.

La grande potenzialit‘a di ODC, come ‘e stato possibile apprezzare Ąno ad ora,

‘e quella di sempliĄcare la gestione di dati di grande dimensione senza richiedere che questi ultimi vengano archiviati riducendo lo spostamento di grandi moli di dati. Ci‘o signiĄca che ‘e possibile creare un indirizzamento al repository di dati e indicizzare questi ultimi riducendo gli oneri di gestione di grandi raccolte di dati distribuiti.

In Figura 1.13 viene rappresentata lŠarchitettura di Open Data Cube. Come si evince da essa, vi sono 3 livelli architetturali:

• Data acquisition and inĆow: processo per raccogliere e preparare i dati prima di essere indicizzati.

• Data Cube Infrastructure: ‘e il nucleo principale di ODC in cui i dati EO vengono indicizzati, archiviati e consegnati agli utenti tramite lŠAPI Python.

• Data and Application Platform: raggruppa moduli applicativi ausiliari.

In origine, riferendoci alla storia e allŠorigine della gestione dei dati derivanti dal telerilevamento, le immagini satellitari venivano memorizzate e distribuite at- traverso grandi nastri magnetici. Nel 2011 Geoscience Australia ha lavorato con un certo numero di altre organizzazioni per copiare i dati Landsat che erano stati me- morizzati (sui suddetti nastri e in altre posizioni) su dischi Ąsici presso la National

(29)

Figura 1.13.Architettura di Open Data Cube

Computational Infrastructure, come parte del progetto ŞUnlocking the Landsat Ar- chiveŤ. Qualche tempo dopo ‘e stato sviluppato lŠAustralian Geoscience Data Cube (AGDC), uno strumento speciĄco Landsat in grado di migliorare lŠaccesso a questi archivi Landsat. Pi‘u recentemente, AGDC ‘e stato riscritto come AGDCv2. Questa versione, pi‘u recente, aveva in mente una serie di obiettivi che oggi sono i pilastri fondanti del progetto ODC. Nel 2017 AGDCv2 ‘e stato ribattezzato Open Data Cu- be e sono state istituite strutture di governance per garantire che il progetto potesse avere un supporto continuo a lungo termine.

Tornando a quello che oggi ‘e il progetto Ąnito e professionale di Open Data Cube, questŠultimo ha costruito importanti implementazioni operative in tre paesi e molti altri paesi sono in varie fasi di implementazione. In Figura 1.14 vengono riportate le installazioni principali che utilizzano ODC. Il campo dŠapplicazione di ODC ‘e orientato verso le grandi installazioni, come Digital Earth Australia, ma ci sono stati alcuni lavori recenti che mirano a rendere pi‘u user friendly lŠuso della piattaforma.

Ci‘o include implementazioni di riferimento che utilizzano Docker, sempliĄcando il processo di deploy. Inoltre, si sta lavorando su un ambiente sandbox JupyterHub il pi‘u possibile autoconsistente.

Gli ultimi traguardi raggiunti da ODC a livello tecnico (e, pi‘u speciĄcatamente,

(30)

Figura 1.14. Mappa riassuntiva delle varie implementazioni di Open Data Cube nel mondo

a livello di caricamento dei dati sulla piattaforma) sono principalmente due:

• In primo luogo, ‘e stato appurato che Cloud Optimised GeoTIFF (COG) ‘e un ottimo standard che consente di archiviare i dati su AWS S3 (o simili) e di accedere a piccole parti del Ąle senza la necessit‘a di scaricare lŠintero Ąle. Poich´e ODC utilizza Rasterio e GDAL per leggere i dati, ‘e possibile gestire i COG in modo nativo, e quindi ODC ‘e in grado di indicizzare i dati da S3. Ci‘o signiĄca che non ‘e necessario trasferire vaste raccolte di dati in unŠarea di lavoro locale:

tutto pu‘o essere trasmesso in streaming su richiesta.

• In secondo luogo, SpatioTemporal Asset Catalog (STAC) ‘e uno standard di metadati progettato per affiancarsi ai dati spaziali archiviati in un servizio cloud, al Ąne di fornire informazioni su quali dati sono disponibili in un catalogo e quali informazioni speciĄche sui dati sono necessarie per utilizzarli facilmente.

Mentre ODC non pu‘o ancora leggere STAC, sono in corso lavori per esplorare lŠuso dei Ąle STAC come fonte di informazioni per indicizzare i dati, e cŠ‘e un ulteriore potenziale per ODC di esporre una rappresentazione STAC del suo indice. A tal proposito, la community spinge moltissimo verso la soluzione che utilizza STAC per lŠindicizzazione dei dati e, per questo motivo, sta raccogliendo consensi positivi.

Il sito ufficiale di STAC ‘e il seguente: https://stacspec.org/

Il repository ufficiale di ODC-STAC sul Github ufficiale di ODC si trova al seguente indirizzo: https://github.com/opendatacube/odc-stac

La documentazione ufficiale di ODC-STAC si trova al seguente indirizzo: https:

//odc-stac.readthedocs.io/

Tornando sulla descrizione delle funzionalit‘a di ODC, i set di dati spaziali supportati da questŠultimo sono:

• Landsat 5 / 7 / 8 - ARD (surface reĆectance, USGS Collection-1, UTM projection, 30m).

(31)

• Landsat 5 / 7 / 8 - ARD (surface reĆectance, from LEDAPS and NBAR, Albers projection, 25-m).

• Sentinel-1 - ARD (gamma nought, 10m).

• Sentinel-1 - ARD (gamma nought, Albers projection, 12.5m).

• Sentinel-2 - Level-1C (MSI TOA reĆectance, Albers projection, 10/20/60m).

• ALOS-1/2 PALSAR Annual Mosaics - ARD (gamma nought, WGS84, 25m).

• ASTER Digital Elevation Model (DEM) - ARD (elevation).

• MODIS-MCD43 - ARD (BRDF Albedo, 16-Day L3 Global 500m).

Open Data Cube mette a disposizione degli utenti vari metodi di utilizzo, ognuno dei quali si presta alle diverse esigenze di ciascun utente. Le implementazioni che sono state implementate Ąno ad ora sono le seguenti:

• Open Data Cube core: ODC Core ‘e la soluzione implementativa di riferimento del progetto ODC dal momento che risulta pi‘u completa e funge come base per tutte le altre implementazioni. Installando ODC-core, infatti, si crea un ambiente Data Cube che pu‘o essere utilizzato per inserire dati ed eseguire processi di analisi. In Figura 1.15 possiamo vedere i vari step da seguire per lŠinstallazione e lŠinserimento dei dati su odc-core:

Figura 1.15.Pipeline di installazione ed indexing dei dati di Open Data Cube core.

CŠ‘e da notare che un aspetto mancante nella suddetta implementazione, ma che troviamo in ODC Web UI, ‘e sicuramente lŠinterfaccia utente. Qui, infatti, le fasi

(32)

di installazione ed indicizzazione non prevedono un supporto graĄco da parte della piattaforma e devono essere necessariamente svolte da riga di comando.

• Cube-in-a-Box: una soluzione pronta per lŠesecuzione ‘e denominata ŞODC Re- ference InstallŤ o, pi‘u comunemente, Cube-in-a-Box (CIAB). Questa implemen- tazione consiste in unŠimmagine docker contenente una istanza di ODC pronta per lŠuso che include nativamente lŠindicizzazione di dati Sentinel 2 di livello 2.

Anche in CIAB viene reso disponibile un Jupyter Notebook per permettere agli utenti di eseguire codice scritto in linguaggio Python.

• ODC Sandbox: questa alternativa permette di avere una sandbox di analisi senza dover installare alcuna componente dato che ‘e in cloud ed ‘e ottima per familia- rizzare con Open Data Cube. Dagli sviluppatori di ODC, questa soluzione viene descritta come Şpiattaforma dimostrativa, accessibile con un account GitHub o Google e gestita esternamente, perfetta da utilizzare prima che un utente in- stalli Open Data CubeŤ. A livello tecnico, ODC Sandbox ‘e un server notebook JupyterHub con Python e si basa sullŠindicizzazione della Global Collection 1 Landsat 8 AWS PDS. Il sistema in cloud fornisce agli utenti 2 core e 16 GB RAM.

• Open Data Cube Web UI ‘e unŠapplicazione web volta a visualizzare gli output dei codici in modo interattivo. LŠinterfaccia utente di Open Data Cube ‘e unŠap- plicazione Web Python per eseguire analisi su dati satellitari utilizzando Open Data Cube. Essa, quindi, agevola moltissimo la user experience con ODC for- nendo funzionalit‘a che aiutano a sempliĄcare la preparazione dei dati, nonch´e la loro elaborazione, visualizzazione ed esportazione, al Ąne di sfruttare il tutto per operare unŠanalisi completa sulle immagini satellitari della Terra. In poche parole, lŠinterfaccia utente consente di eseguire le analisi da unŠinterfaccia web.

Le tecnologie principali sulle quali si basa lŠinterfaccia utente sono: Django, Ce- lery + Redis, Open Data Cube, PostgreSQL, Apache / Mod WSGI, Bootstrap3.

LŠutilizzo di queste tecnologie fornisce una buona piattaforma di partenza per gli utenti dal momento che consente a questi ultimi di, accedere a vari dataset che abbiamo caricato, eseguire analisi personalizzate su aree e intervalli di tempo de- Ąniti dallŠutente, generare prodotti visivi (immagini) e dati (GeoTiff/NetCDF), fornire un facile accesso ai metadati e ai risultati delle analisi svolte.

• ODC + Google Earth Engine: questa soluzione implementativa, conosciuta anche con il nome ŞODC - Google SandboxŤ, consiste in unŠinterfaccia di programma- zione gratuita e aperta che collega gli utenti di ODC ai dataset di Google Earth Engine. Questo strumento consente agli utenti di eseguire algoritmi in linguag- gio Python utilizzando lŠenvironment notebook Colab di Google. Per utilizzare ODC con GEE ‘e necessario essere registrati come sviluppatori GEE e accettare di seguire i termini di servizio di Google per lŠutilizzo del loro prodotto.

In Figura 1.16 viene mostrato il funzionamento generale di questa soluzione implementativa appena descritta.

Per concludere la descrizione di questa prima tecnologia presentata, verranno analizzati, di seguito, i principali vantaggi e svantaggi di questŠultima.

In particolare, i principali vantaggi di ODC sono i seguenti:

• Astrazione dei dati: Open Data Cube, infatti, nasconde allŠutente i dettagli su come i dati vengono gestiti senza limitare la modalit‘a di accesso; questo,

(33)

Figura 1.16.Rappresentazione della soluzione implementativa che integra Google Earth Engine e Open Data Cube

chiaramente, porta lŠutente a lavorare ad un livello di astrazione pi‘u alto e, quindi, ad essere facilitato nellŠutilizzo dei dati. A livello tecnico, ODC imple- menta lŠastrazione dei dati attraverso lŠintroduzione di 2 concetti: ŞproductŤ e ŞdatasetŤ.

• Open governance: la piattaforma ODC, oltre che ad essere open source e a ren- dere disponibile il codice sorgente in repository aperti che consentono alla comu- nit‘a scientiĄca di partecipare in modo collaborativo al loro sviluppo, ‘e lŠunica che fornisce documenti divulgativi publici e che consente di creare o incorpo- rare nuove funzionalit‘a nella piattaforma. Le altre piattaforme di gestione ed analisi di dati satellitari, infatti, sono soluzioni che non consentono lo sviluppo collaborativo (come, ad esempio, Google Earth Engine) o la partecipazione alla governance da parte di membri esterni ai team responsabili, ma al massimo con- sentono la condivisione del loro codice attraverso repository open (come SEPAL, ad esempio).

• Replicabilit‘a dellŠinfrastruttura: ODC, infatti, fornisce la possibilit‘a di replicare lo stack software, i processi e i dati sulla propria infrastruttura. Inoltre ‘e possibile gestire le procedure di deployment della soluzione mediante immagini docker.

• Scalabilit‘a dello storage: ODC fornisce la capacit‘a di scalare lo spazio di stora- ge, aggiungendo pi‘u risorse (hw/sw), senza impattare il modo in cui gli utenti accedono ai dati. Questo viene consentito tramite Distributed File System e S3.

Uno dei maggiori vantaggi di ODC, infatti, riguarda lŠarchiviazione distribuita dei dati che ‘e fondamentale per ridurre al minimo lo spostamento di questi ul- timi durante lŠelaborazione; come abbiamo gi‘a detto, ci‘o ‘e consentito dal fatto che i dati vengono indicizzati al posto di essere presi e memorizzati Ąsicamente allŠinterno del database.

• Interoperabilit‘a di accesso ai dati: vengono offerti da ODC appositi servizi, basati su interfacce, che consentono ad altre applicazioni di accedere ai risultati delle analisi o ai dataset disponibili nella piattaforma.

• Extensibility: ODC consente di estendere il sistema per aggiungere nuovi stru- menti software che utilizzano i componenti della piattaforma. La componente che consente la suddetta funzionalit‘a ‘e ŞOpen Geospatial Consortium (OGC) Web ServicesŤ.

I principali svantaggi di ODC sono, invece, i seguenti:

(34)

• La fase di installazione e conĄgurazione del sistema, se non si usa Cube-in-a-Box, pu‘o non essere molto user friendly.

• La community di ODC ‘e ancora abbastanza piccola e questo inĆuisce sulla pos- sibilit‘a di reperire casi dŠuso, documentazione speciĄca per casi particolari e supporto.

• ‘E possibile incorrere in problemi di installazione derivanti dal mancato allinea- mento delle versioni di alcune librerie e dipendenze necessarie allŠinstallazione del sistema. Questo non sempre porta ad avere riscontri precisi ed aggiornati fra le guide ufficiali ed i passi veri e propri che sono necessari per lŠinstallazione e la conĄgurazione del sistema.

• Alcuni tipi di dati non sono supportati nativamente dalla piattaforma senza unŠelaborazione; fortunatamente, gli sviluppatori e la community aggiornano costantemente i repository Github cercando di risolvere tutte queste mancanze.

• ODC, cos‘ı come le altre piattaforme di gestione ed analisi di dati satellitari, non fornisce nativamente dei mezzi che consentono allŠutente di condividere le proprie analisi, esportare dati o riprodurre i risultati con altri utenti. LŠunico che consente, almeno in parte, alcune funzionalit‘a di condivisione tra gli utenti

‘e Google Earth Engine: questŠultimo, infatti, permette agli utilizzatori di con- dividere i propri script e dati, consentendo ad altri utenti della piattaforma di riprodurre la propria analisi; unŠosservazione doverosa da fare ‘e che GEE imple- menta solo in parte questa funzionalit‘a (come abbiamo gi‘a detto) perch´e non

‘e una soluzione open. Tornando ad ODC, quindi, il fatto che per questa piat- taforma non vi ‘e riproducibilit‘a delle analisi vuol dire che se un utente volesse condividere script e/o dati con altri utenti dovr‘a farlo manualmente (senza al- cuna funzionalit‘a di supporto fornita dalla piattaforma) per far si che le analisi possano essere replicate.

La seconda piattaforma che verr‘a presentata ‘e Google Earth Engine (GEE).

Essa ‘e una piattaforma basata su cloud per lŠanalisi geospaziale su scala planetaria che mette a disposizione le enormi capacit‘a di calcolo di Google per affrontare una serie di problemi sociali ad alto impatto, tra cui: deforestazione, siccit‘a, disastri, malattie, sicurezza alimentare, gestione dellŠacqua, monitoraggio del clima e prote- zione ambientale. La suddetta piattaforma, infatti, offre agli utenti degli strumenti per lŠanalisi scientiĄca e la visualizzazione di set di dati geospaziali, mettendo a disposizione immagini satellitari che vengono acquisite quotidianamente da oltre quarantŠanni e memorizzate in un archivio di dati pubblico. Google Earth Engine, che ‘e entrato ufficialmente in funzione nel 2010, ‘e una delle prime piattaforme cloud che hanno messo a disposizione degli utenti dei dati geospaziali gi‘a pre-processati e pronti per la fase di analisi (i cosiddetti ARD - Analysis Ready Data) su unŠinfra- struttura di big data, ed oggi ‘e una delle tecnologie pi‘u avanzate tra le piattaforme per la gestione e lŠanalisi di dati satellitari (Vollrath et al., 2020). CŠ‘e da notare che GEE ha riscosso grande successo non solo per le sue grandi potenzialit‘a, ma anche perch´e ‘e ampiamente utilizzabile da un pubblico che non ha particolari specializza- zioni in ambiti informatici e/o di dati satellitari. Parlando dei prezzi per lŠutilizzo della piattaforma, Google Earth Engine ‘e gratuito per ambiti di ricerca, istruzio- ne ed uso senza scopo di lucro; per usi a scopo commerciale, invece, ‘e necessario ottenere una licenza a pagamento.

(35)

Si deve stare attenti, per‘o, a non confondere Google Earth Engine con Google Earth, che ‘e un software che permette la visualizzazione di mappe, immagini satelli- tari, terreni ed ediĄci in 3D, ma non ‘e uno strumento di analisi; infatti, a differenza di Google Earth Engine, non consente di vagliare informazioni geospaziali (come la copertura forestale), i cambiamenti di uso del suolo o lo stato delle colture, e di trasformarle in un vero prodotto applicativo.

Parlando dellŠinterazione tra sistema e utenti, Google Earth Engine fornisce a questi ultimi unŠinterfaccia di programmazione (API) accessibile da Internet, e un ambiente di sviluppo interattivo (IDE) che consente la prototipazione rapida e la visualizzazione dei risultati.

Il sistema di Google Earth Engine si basa su una raccolta di tecnologie disponibili nellŠambiente Google. Fra queste tecnologie troviamo:

• il sistema di gestione dei cluster su larga scala Borg (Verma et al., 2015);

• i database distribuiti Bigtable (Chang et al., 2008) e Spanner (Corbett et al., 2013);

• Colossus, Ąle system distribuito e successore del Google File System (Ghemawat et al., 2003);

• il framework FlumeJava per lŠesecuzione di pipeline parallele (Chambers et al., 2010);

• Google Fusion Tables (Gonzalez et al., 2010), un database basato sul Web che supporta tabelle di dati geometrici (punti, linee e poligoni) con attributi.

Grazie a queste tecnologie, GEE assicura un ampio sistema di elaborazione pa- rallela che suddivide e distribuisce automaticamente il calcolo in modo che possa essere eseguito in un ambiente distribuito, consentendo alla piattaforma di ottenere prestazioni elevate e, quindi, analisi ad alto rendimento. Al termine di questo pro- cesso, i risultati possono essere visualizzati nellŠIDE oppure possono essere salvati in Google Drive, Google Cloud Storage o come un nuovo asset di Earth Engine in di- versi formati, tra cui GeoTIFF e TFRecord per le immagini e CSV, SHP, GeoJSON, KML e KMZ per i dati vettoriali.

Uno schema sempliĄcato dellŠarchitettura del sistema GEE viene mostrato in Figura 1.17. LŠeditor del codice di Earth Engine e le applicazioni di terze parti utilizzano le librerie client per inviare query interattive o batch al sistema tramite unŠAPI REST. Le richieste on-the-Ćy sono gestite da server Front End che inoltrano complesse sottoquery al modulo chiamato Compute Master; questŠultimo, a sua volta, gestisce la distribuzione del calcolo tra un pool di Compute Server. Il sistema batch funziona in modo simile a quello appena descritto, ma utilizza lŠarchitettura logica FlumeJava per gestire la distribuzione. Il supporto di entrambi i sistemi di calcolo ‘e una raccolta di servizi di dati, incluso un database di risorse che contiene i metadati per le immagini e fornisce capacit‘a di Ąltraggio efficienti. Il software di gestione del cluster Borg gestisce ogni componente del sistema e ogni servizio ‘e bilanciato dal carico su pi‘u ŞworkerŤ. Questo sistema ‘e efficiente dal momento che il fallimento di un singolo ŞworkerŤ comporter‘a solo la riemissione della query da parte del chiamante e non il restart di tutta la procedura.

Parlando delle query, queste ultime in Earth Engine si basano sulla composizione e sulla valutazione funzionale. Gli utenti costruiscono le query concatenando le ope- razioni tratte dalla libreria Earth Engine che contiene oltre 800 funzioni, che variano

Riferimenti

Documenti correlati

Svolgono funzioni di supporto amministrativo e di segretari verbalizzanti la Sig.ra Loreta Gambini quale Responsabile della Segreteria di Presidenza e la Dott.ssa Camilla

VISTA la consultazione telematica dei Docenti afferenti al Collegio di Dottorato ICAEA, effettuata in data 29/05/2020 relativa all’approvazione dell’ ” Accordo Quadro tra il

Valori al di sopra possono comportare una sindrome da QT lungo acquisita (LQTS), con sintomi che possono degenerare in aritmie ventricolare, torsioni di punta ed arresti

Vi è sempre di più un notevole interesse in molti porti nell'utilizzare il cold ironing che permette alle navi di alimentare i motori della nave con energia elettrica quando

Il Gruppo constata inoltre che le criticità rilevate dal NdV sono comuni anche ad altri Corsi delle Professioni sanitarie, ciò anche in considerazione della specificità formativa

didattica il Presidente del CdL ringrazia i docenti che durante il periodo di lock-down sono stati collaboranti, in particolare per lo svolgimento del Tirocinio Pratico Valutativo

L’ingresso di materiale rotabile di nuova generazione: SWING, JAZZ, POP e ROCK sulle linee regionali nel prossimo biennio e la scadenza della Manutenzione di secondo livello

Rodolfo Santilocchi – Dipartimento di Scienze Agrarie, Alimentari ed Ambientali, Università Politecnica delle Marche. Coltivazione delle specie officinali nelle