• Non ci sono risultati.

4. LOGICHE DI CONTROLLO

5.7 Sensitività del MOPSO

A titolo d’esempio vedremo come varia la velocità dell’algoritmo all’aumentare dei due parametri 𝑁 e 𝑁 , nel caso in cui si faccia uso della sola posizione nello spazio continuo delle variabili oppure si faccia uso di entrambe le posizioni. Il caso scelto e che vedremo meglio in seguito è quello del sistema facente uso delle rinnovabili collegato in rete, ma senza il serbatoio freddo, quindi con una logica di controllo semplice che non appesantisce troppo la simulazione.

65

Si osserva dalle figure seguenti che a parità di 𝑁 e 𝑁 e quindi di precisione i tempi tra le due simulazioni sono rilevanti, e la differenza cresce molto all’aumentare dei due parametri. Infatti, nel primo caso i tempi aumentano proporzionalmente con questi, mentre nel secondo questo effetto è assai meno marcato.

Ciò che si ottiene quindi è la possibilità di aumentare questi valori maggiormente senza preoccuparti dei tempi o definire dei residui sul fronte di Pareto, cosa difficile perché il numero di particelle sul fronte non è costante e non è nota la soluzione esatta. Infatti, come si osserva dall’ultimo caso analizzato, ovvero con 𝑁 = 300 e 𝑁 = 300, una volta giunti a convergenza l’algoritmo procede molto rapidamente verso la fine, perché a quel punto le mutazioni non avvengono più e il coefficiente d’inerzia si annulla quindi le particelle si spostano intorno al fronte dove si sono già calcolate le funzioni obiettivo nella maggior parte delle posizioni ottimali.

Figura 27: tempi computazionali dell’algoritmo al variare del numero di iterazioni e numero di particelle nei casi in cui non si usi la posizione discreta e quello in cui le si usino entrambi

0 10 20 30 40 50 60 70 80 90 100

numero d'iterazione [%]

0 0.5 1

1.5 Sensibilità del MOPSO, RES [ MaxIt=150 NPop=150 ] posizione continua t=119min posizione discreta t=52min

0 10 20 30 40 50 60 70 80 90 100

numero d'iterazione [%]

0 0.5 1

1.5 Sensibilità del MOPSO, RES [ MaxIt=300 NPop=150 ] posizione continua t=237min posizione discreta t=58min

0 10 20 30 40 50 60 70 80 90 100 numero d'iterazione [%] 0 0.5 1 1.5 2 2.5

3 Sensibilità del MOPSO, RES [ MaxIt=150 NPop=300 ] posizione continua t=235min posizione discreta t=65min

0 10 20 30 40 50 60 70 80 90 100 numero d'iterazione [%] 0 0.5 1 1.5 2 2.5

3 Sensibilità del MOPSO, RES [ MaxIt=300 NPop=300 ] posizione continua t=472min posizione discreta t=80min

66

Ovviamente i maggior vantaggi si hanno quando i tempi di calcolo delle funzioni obiettivo sono molto più rilevanti di quelli di un’iterazione dell’algoritmo come nel nostro caso, e visto che in seguito simuleremo impianti con logiche di controllo più intricate e maggiori numero di sistemi rispetto a quello preso in esempio il vantaggio sarà ancor più marcato.

Figura 28: andamento dei residui delle funzioni obiettivo in funzione dell’avanzamento dell’algoritmo e dei diversi parametri

Per quanto riguarda i residui rispetto alla soluzione ottenuta con 𝑁 = 1000 e 𝑁 = 1000 si osserva che l’aumento del numero d’iterazioni ha un effetto maggiore rispetto a quello che si ha aumentando il numero delle particelle, ottenendo un ordine di grandezza in più di precisione. Inoltre, dai grafici precedenti si è osservato inoltre che si ha un guadagno maggiore anche dal punto di vista dei tempi. Aumentarle entrambe in tal caso non porta grandi benefici in termini di precisione ma d’altro canto non si aumentano considerevolmente i tempi computazionali, infatti come si osserva dai dati precedenti in tal caso la velocità dell’algoritmo aumenta considerevolmente una volta arrivati al 40% delle iterazioni, rendendo trascurabile il tempo per arrivare alla fine rispetto a quello già passato. Per cui non sapendo a priori quale sia la soluzione esatta del problema, l’uso delle due posizioni ci permette di ottenere alti livelli di precisione a tempi assai più ridotti non preoccupandosi eccessivamente di questi parametri o definire uno stop dell’algoritmo sulla base dei residui ma lasciando scorrere l’algoritmo visto che una volta vicini alla convergenza i tempi del completamento si fanno trascurabili.

67

Il calcolo dei residui su un fronte di Pareto non è immediato, in quanto non si conosce la soluzione esatta del problema in genere, e non si possono calcolare rispetto all’iterazione precedente poiché l’algoritmo potrebbe non trovare nuove particelle dominanti e quindi il fronte restare immutato.

La qualità delle soluzioni, e quindi del fronte di Pareto, è funzione sia della distanza media delle particelle rispetto all’origine (minimo delle due funzioni), che del numero di soluzioni, avendo maggiori informazioni.

La funzione scelta per tener conto di ciò in modo semplice ma accurato è stata calcolata in più passi:

1. Si ottiene la soluzione migliore utilizzando 𝑁 = 1000, 𝑁 = 1000 e 𝑁 = ∞, qualora non sia disponibile quella esatta, da tenere come riferimento da confrontare con le successive soluzioni.

2. Tramite i valor massimi e minimi ottenuti dal passo precedente si normalizzano i depositi. ∀ 𝑥, 𝑖 𝑓(𝑥) = 𝑓 (𝑥) − 𝑓,

𝑓, − 𝑓,

Ciò è necessario per dare lo stesso peso alle due funzioni obiettivo, cosa che non è fattibile in genere per le diverse unità di misura o semplicemente per la natura del problema. 3. Quindi si costruisce la curva che unisce i

depositi come mostrato in figura, che fornisce una qualità del fronte di Pareto e quindi le si associa la funzione 𝐹, interale della curva, per avere un riferimento quantitativo. Non si è scelto di interpolare linearmente o tramite metodi più accurati il fronte in quanto tra due depositi contigui poiché in genere non si può esser sicuri di

quale sia l’andamento de fronte

nell’intervallo. Ma a parità di estremi, maggiori sono le soluzioni al loro interno

maggiore è la qualità della soluzione del problema, per cui come vediamo dalla figura sottostante avendo definito la curva in tal modo non si premia solo la vicinanza delle soluzioni all’origine ma anche il loro l’infittimento:

68 Figura 30: confronto tra due fronti di Pareto

La figura a sinistra mostra un Pareto formato dalle due soluzioni estreme, mentre quella a destra con 4 soluzioni di cui le due estreme in comune con la precedente. Se si interpolasse il fronte il primo avrebbe una funzione 𝐹 minore della seconda, cosa che non succede utilizzando la curva suddetta che premia ovviamente la vicinanza del fronte all’origine, essendo minore l’integrale ma anche l’infittimento delle soluzioni. Infatti, per definizione di soluzione dominante l’aggiunta di una soluzione a parità delle altre determina una minor funzione 𝐹. Per lo stesso motivo non si possono prendere in considerazioni funzioni basate sul valor medio delle soluzioni o sulla distanza media della curva all’origine.

4. Calcolata 𝐹 per la soluzione migliore all’ultima iterazione, viene chiamata 𝐹 e presa come riferimento per il calcolo dei residui.

5. Quindi per le successive ottimizzazione in cui si riducono 𝑁 e 𝑁 si ripete lo stesso percorso fatto per la soluzione di riferimento, in tal caso la normalizzazione viene fatta tenendo conto che 𝑓, e 𝑓, rimangono costanti e pari a quella della soluzione di riferimento. Infatti, non è detto che con le successive si ritrovino gli stessi estremi, ma la scala deve rimanere la stessa. Quindi per ogni caso 𝑘, funzione di 𝑁 e 𝑁 , e per ogni iterazione 𝑗 si calcola 𝐹(𝑘, 𝑗), per cui il residuo già definito positivo viene calcolato tramite:

𝑅(𝑘, 𝑗) = 𝐹(𝑘, 𝑗) − 𝐹 Oppure:

69

6.OTTIMIZZAZIONE

Come già detto, si valuterà il dimensionamento ottimale del sistema nei casi in cui questo sia in isola o collegato alla rete elettrica, con o senza la remunerazione dell’eccesso di produzione per vedere quanto questo parametro sia influente non solo sulle funzioni da ottimizzare ma sul dimensionamento dei singoli sistemi e le logiche di controllo che meglio le valorizzano. Quindi unendo i depositi dei fronti trovati in precedenza si conservano i non dominanti per avere un unico fronte di Pareto, in cui le soluzioni sono caratterizzate non solo dalle variabili ma anche dalla logica di controllo con le quali si ottengono. In tal modo sarà possibile osservare non solo le miglior soluzioni globali ma anche come le singole variabili e le logiche di controllo siano distribuite sul fronte di Pareto, ovvero se abbiano un maggior peso rispetto ad una delle due funzioni da minimizzare che sono:

1. 𝑆𝐴: spesa attualizzata durante l’arco di vita dell’impianto

2. : energia primaria assorbita dalla rete o ottenuta tramite l’EG/CHP La prima è il contributo di cinque fattori principali:

𝑐 : costi d’istallazione del sistema;

𝑐 = 𝐸𝑙𝐸𝑛 , ∗ 𝑐 ,

𝑅 In cui:

𝑐 è il costo annuale relativo all’acquisto dell’energia,

𝐸𝑙𝐸𝑛 , [𝑘𝑊ℎ/𝑎𝑛𝑛𝑜]: l’energia totale assorbita dalla rete durante l’anno, 𝑐 , = 0.2 [€/𝑘𝑊ℎ]: costo dell’energia;

𝑅 = 1.04: tasso d’interesse fisso durante l’arco di vita dell’impianto (20 anni). Mentre se in isola si acquista combustibile per cui i precedenti sono sostituiti da:

𝑐 = 𝑉 , ∗ 𝑐

𝑅 𝑐 : costo del carburante annuo;

𝑉 , [𝑙]: volume del carburante utilizzato durante tutto l’anno operativo; 𝑐 [€/𝑙]: costo del carburante per litro.

70

I costi di manutenzione dei PV, che sono quelli dell’interno impianto vengono attualizzati, come i costi di rimpiazzo dei sistemi, tenendo quindi conto non solo del valore del ricambio ma anche dell’anno in cui questo si rendesse necessario:

𝑐 & = 𝑂&𝑀

𝑅

𝑐 = 𝑐 ,

𝑅

In particolare, questo costo non è trascurabile per l’elettrochimico per cui a prescindere dall’uso che se ne faccia si prevede un rimpiazzo arrivati al 10 anno di vita, mentre ha meno peso per il motore elettrico che a seconda dello stato di funzionamento a cui viene sottoposto nel tempo potrebbe coprire interamente il servizio senza dover effettuare delle sostituzioni.

Infine, si attualizzano anche le entrate, ovvero gli incentivi:

𝑐 = 𝑐 ∗ 0.65

10 ∗ 𝑅

E la remunerazione della sovrapproduzione qualora fosse presente:

𝑐 = 𝐸𝑙𝐸𝑛 , ∗ 𝑐 ,

𝑅

In cui 𝑐 , = 0.05 [€/𝑘𝑊ℎ].

Quindi:

𝑆𝐴 = 𝑐 + 𝑐 & + 𝑐 − 𝑐 − 𝑐

Mentre per l’altra funzione obiettivo il calcolo è immediato. Ogni soluzione è soggetta a vincoli di qualità da rispettare:

• sulla temperatura del 𝑇𝑆 che deve essere sempre maggiore di 40°𝐶 per non avere disservizi sull’ACS;

• In tutte le ore deve essere garantito il servizio di cooling;

• In nessuna ora l’HP deve entrare in contrasto tra le funzioni di cooling e di ricarica del 𝑇𝑆 , ovvero deve avere una potenza abbastanza elevata per assolvere ai servizi anche qualora essi siano richiesti nella stessa ora;

71

• Per il caso in isola infine è necessario che la potenza dell’EG o del CHP sia tale da soddisfare la richiesta nel periodo operativo dell’impianto;

Quindi nel caso in cui si verificasse una delle quattro condizioni suddette la soluzione viene scartata.

Per i tre scenari detti in precedenza l’ottimizzazione verrà fatta in tre step, aggiungendo dei componenti rilevanti ad ogni passo per analizzare quanto questo/i influenzino le altre variabili e il fronte di Pareto:

1. NoRES: l’impianto non fa uso delle fonti rinnovabili

2. RES senza 𝑇𝑆 : l’impianto fa uso delle fonti rinnovabili ma non utilizza il serbatoio a bassa temperatura

3. RES con 𝑇𝑆 : l’impianto fa uso di tutti i sistemi valutati in precedenza.

Il primo è necessario per avere un riferimento con cui confrontare le future ottimizzazione degli impianti facente uso delle energie rinnovabili, e si valuterà se solo agendo sul controllo si possa effettivamente ridurre le funzioni obiettivo.

Il secondo si rende necessario per due motivi:

 Avendo studiato 7 logiche di controllo per il controllo del serbatoio ad alta temperatura e molte altre integrate per il controllo del restante sistema si dovrebbero effettuare più di 200 ottimizzazioni per ogni scenario considerando ogni combinazione. Per cui non valutando in un primo momento l’inserimento del serbatoio a bassa temperatura è possibile studiare solo le logiche di controllo riguardanti la gestione di quello ad alta temperatura e quindi sceglierne una o due per le prossime. Anche se a priori non è detto che l’inserimento del secondo serbatoio non influenzi il controllo del primo, vista la bassa domanda di ACS rispetto a quella di cooling e gli altri usi elettrici si presume che l’eventuale errore commesso non sia rilevante.

 Agendo in questo modo è possibile confrontare il fonte di soluzioni che fanno uso di questo componente rispetto a quello che non lo utilizza vedendone più facilmente i vantaggi e come interviene sul diverso dimensionamento dei restanti componenti. Nel MOPSO oltre alle funzioni obiettivo si è previsto l’inserimento di altri indici energetici ed economici non ottimizzati ma comunque di interesse al decision maker, quindi in totale ogni soluzione è caratterizzata da:

72

1. 𝑆𝐴: spesa attualizzata durante l’arco di vita dell’impianto con tasso d’interesse del 4%, questa come detto è la prima funzione obiettivo;

2. 𝑃𝑟𝐸𝑛: energia primaria assorbita dalla rete o ottenuta tramite l’EG/CHP, la seconda funzione obiettivo (non subordinata alla prima);

3. Costi d’istallazione;

4. VAN rispetto alla soluzione NoRES di riferimento, calcolato come differenza tra la spesa attualizzata dello scenario NoRES e quella della soluzione;

5. 𝑃𝐼: indice di redditività calcolato come rapporto tra il VAN e i costi d’istallazione; 6. 𝑆𝑃𝑃: anno in cui si rientra nell’investimento: trovato calcolando i flussi di cassa per il

caso NoRES e la soluzione e quindi appena la prima supera la seconda si ha il rientro nell’investimento, questo indice non tiene conto dei flussi di cassa che seguono;

7. 𝑆𝑃𝑃 𝑙𝑖𝑛𝑒𝑎𝑟𝑒: anno di rientro nell’investimento considerando tutte le spese attualizzate al tempo iniziale. Infatti, a causa dei costi di rimpiazzo di alcuni sistemi e gli incentivi che durano 10 anni rispetto ai 20 dell’impianto, i flussi di cassa sono molto variabili, per cui è rilevante la differenza tra i due indici economici.

8. 𝑃𝑟𝐸𝑛: energia primaria totale scambiata con la rete.

Si sono previsti degli incentivi perché sia in Italia tramite il Conto Termico 2.0 [29] che in Europa si incentivano questo tipo di sistemi a seconda del livello d’efficienza raggiunto. Questi sono stati destinati a sistemi che assorbono quantitativamente 15 𝑘𝑊ℎ/𝑚 𝑎𝑛𝑛𝑜 di energia primaria considerando che non tutti i consumi sono di natura termica ma che d’altra parte il periodo di funzionamento dell’impianto è inferiore rispetto ad un anno e le condizioni esterne sono meno rigide rispetto a quelle degli altri paesi appartenenti all’UE [30]. Il limite è stato posto sull’energia assorbita dalla rete, e non da quella netta scambiata perché in una visione più ampia è da considerare quale impatto possano avere questi edifici nei confronti della rete elettrica nazionale. Se si usasse come funzione obiettivo l’energia netta scambiata, la soluzione del problema sarebbe banale, in quanto il fronte di Pareto sarebbe principalmente funzione del numero di PV istallati con bassa se non nulla possibilità d’accumulo. Questi edifici di fatto sono caratterizzati da alte richieste dalla rete quando non si ha produzione e alte cessioni nel caso opposto creando i noti disagi che si verificano per gli impianti di alta taglia. Invece minimizzando l’energia assorbita si avrà maggior accumulo riducendo gli scambi in uscita ed in entrata, e come vedremo in seguito per alcune soluzioni l’energia scambiata in totale, quindi

73

somma di quella assorbita e ceduta, sarà anche minore della soluzione che non fa uso delle energie rinnovabili.

Gli input relativi ai costi dell’energia come noto possono essere molto variabili e difficilmente non cresceranno nei 20 anni, ma in via cautelativa si manterranno costanti (rispetto alla soluzione NoRES l’energia assorbita sarà minore quindi all’aumentare del suo prezzo aumenta il VAN rispetto alla soluzione non rinnovabile).

Documenti correlati