• Non ci sono risultati.

Applicazione di tecniche Montecarlo Sequenziale alla stima dell’affidabilità di vasti sistemi elettrici in ambito liberalizzato

N/A
N/A
Protected

Academic year: 2021

Condividi "Applicazione di tecniche Montecarlo Sequenziale alla stima dell’affidabilità di vasti sistemi elettrici in ambito liberalizzato"

Copied!
4
0
0

Testo completo

(1)

3

Premessa

Una delle caratteristiche principali dei grandi sistemi elettrici è la necessità di mantenere costante il bilanciamento tra l’energia immessa in rete da parte dei generatori ed il prelievo da parte del carico più le perdite di rete. Questo nodo fondamentale è dovuto al fatto che l’energia elettrica non è accumulabile come tale se non in quantità piccolissime se paragonate alle grandezze in gioco in un sistema elettrico. Per poter garantire questo bilancio in tempo reale viene seguita una logica di “inseguimento del carico” che prevede il costante adeguamento della produzione alle variazioni del carico che è quindi lasciato libero di evolvere nel tempo. Il segnale in grado di fornire l’informazione riguardo al bilancio energetico del sistema è la frequenza di rete, questa è la chiave per la gestione in tempo reale ed è determinata dalle equazioni dinamiche dei gruppi in parallelo con la rete. Un sistema automatico di regolazione in retroazione, che sulla base del segnale di frequenza agisce sulle unità di generazione e adegua la potenza prodotta a quella istantaneamente assorbita dai carichi, assicura così il mantenimento dell’equilibrio. Una condizione fondamentale per il funzionamento del meccanismo di regolazione è la disponibilità di un’adeguata capacità di generazione, si rendono quindi necessarie delle attività di previsione e programmazione ed in particolare:

 Programmazione giornaliera della produzione volta ad assicurare almeno in via previsionale la disponibilità di generazione necessaria a coprire il carico

 Predisposizione di un’adeguata riserva di produzione, che su vari livelli temporali sia pronta ad intervenire per garantire l’effettiva copertura del carico anche a seguito di variazioni impreviste del prelievo o di guasti sul sistema di produzione e trasmissione

(2)

4 Un sistema elettrico si dice “verticalmente integrato” quando queste ed altre attività sono svolte da un unico soggetto, che gestisce tutta la filiera elettrica dalla produzione alla vendita cercando di minimizzare i costi totali di sistema e ribalta tutti i costi sugli utenti della rete. A partire dagli anni ’90 si è assistito ad un progressivo passaggio da sistemi verticalmente integrati con capitale prevalentemente pubblico (quali erano allora la maggior parte dei grandi sistemi elettrici) a sistemi liberalizzati con capitale privato. Il Decreto Bersani del 1999 sancì l’avvio di questo percorso anche in Italia, percorso che ha raggiunto la sua prima pietra miliare nel 2003 con l’avvio della borsa dell’energia elettrica. Tra le principali novità del nuovo sistema si annoverano i seguenti punti:

 La programmazione giornaliera della produzione non è più affidata a logiche di ottimizzazione del parco di produzione tenendo conto anche dei vincoli e delle perdite di trasmissione, ma è stabilita secondo logiche di mercato tramite trattazioni bilaterali o offerte di vendita e di acquisto nella borsa elettrica

 Anche i servizi ancillari quali la riserva di produzione sono oggetto di un apposito mercato, il gestore dei servizi di dispacciamento provvede a raccogliere sul mercato le risorse necessarie alla gestione in sicurezza del sistema elettrico

Essendo la disponibilità di riserva una condizione fondamentale per la sicurezza di funzionamento dell’intero sistema, i costi riconducibili alle risorse di dispacciamento sono ribaltati dal gestore su tutti gli utenti del sistema elettrico. L’effettiva attivazione di tali risorse e la conseguente erogazione di energia di bilanciamento dipendono dalla misura in cui la richiesta di potenza e la generazione risultano effettivamente discostate nel tempo reale. Ne consegue che il rigoroso rispetto dei piani di immissione e prelievo stabiliti previsionalmente comportano una riduzione dei costi di funzionamento dell’intero sistema. Per questo esistono opportune regole di mercato volte ad incentivare la rigorosa esecuzione dei programmi orari di immissione e prelievo, addebitando ora per ora la remunerazione dell’energia di bilanciamento alle unità di produzione o prelievo che non li hanno rispettati.

Contestualmente a questi cambiamenti nella struttura gestionale dei sistemi elettrici si è assistito ad una crescente presa di coscienza da parte della popolazione civile e della politica verso i problemi ambientali legati anche al mondo dell’energia. In particolar modo in Europa si è assistito alla presa da parte degli stati membri di importanti impegni relativi alla riduzione delle emissioni tramite un più razionale utilizzo dell’energia e soprattutto un incremento delle fonti rinnovabili all’interno dei parchi di generazione. Ciò ha portato ad un notevole incremento della capacità istallata della produzione da fonti rinnovabili di tipo non programmabile, in particolare eolico, ed un ulteriore e più accentuato

(3)

5 incremento è atteso nei prossimi anni ponendo i sistemi elettrici di fronte ad una nuova sfida in quanto sul medio periodo si pone il problema di quale sia il limite di potenza da parte di fonti non dispacciabili oltre il quale siano prevalenti i benefici, mentre sul breve termine è diventato cruciale il problema di dover gestire in sicurezza un sistema in cui una crescente parte della produzione proviene da fonti caratterizzate da forte aleatorietà come quella eolica. Politiche di immissione in rete da parte di fonti rinnovabili che ne prevedono la sottrazione alle regole di mercato in modo da incentivarne la presenza, rendono ancora più complessa la loro gestione.

Tutto questo ha portato negli ultimi anni ad una diversa gestione dei sistemi elettrici, rispetto alle modalità per le quali sono stati progettati, comportando spesso il funzionamento in condizioni prossime al limite delle loro capacità. Questi nuovi scenari hanno portato i gestori di rete a dover rivedere le metodologie tese a salvaguardare la sicurezza del funzionamento del sistema, per quanto riguarda gli aspetti sia di programmazione che di carattere operativo. In un ambiente liberalizzato il Gestore di Rete (in Italia TERNA S.p.A.) è l’ente responsabile dell’affidabilità e della sicurezza del sistema e deve procurarsi le risorse necessarie a tale scopo, prima fra tutte la riserva operativa di potenza, suddivisa in secondaria e terziaria. Tali quantità di riserva dipendono da numerosi fattori legati all’indisponibilità (accidentale o programmata) dei gruppi, in particolare termici, alla limitata disponibilità di acqua nei bacini delle centrali idrauliche, ai livelli di carico, alla gestione delle centrali di pompaggio, la penetrazione della fonte eolica, ecc. In quanto responsabile della affidabilità e della sicurezza del sistema, il Gestore di Rete è chiamato a definire la quantità di potenza da allocare per la riserva tenendo conto sia del mantenimento di adeguati livelli di affidabilità del sistema elettrico, sia dei costi associati alle risorse di dispacciamento, in quanto tali costi ricadranno poi sugli utenti finali.

Tradizionalmente la definizione dei margini di riserva necessari è stata svolta in maniera deterministica, sulla base dell’applicazione del cosiddetto criterio di sicurezza N-1. Tale criterio prevede che gli elementi che rimangono in funzione dopo il guasto di un singolo elemento della rete (come una linea di trasmissione, un trasformatore, una unità di generazione etc…) devono essere in grado di sopportare in sicurezza il nuovo regime di funzionamento, ovvero i restanti elementi della rete sono sollecitati all’interno delle proprie curve di capability. Questo metodo conduce sostanzialmente al dimensionamento della riserva operativa sulla base dell’indisponibilità accidentale del gruppo di produzione di potenza maggiore o di una linea scelta all’interno di una lista assegnata, creata sulla base dell’importanza del componente e della sua criticità, nota anche in base all’esperienza maturata. Il criterio N-1 è sempre più messo in discussione in virtù della crescente aleatorietà nella produzione comportata dalle fonti rinnovabili e della complessità nel dispacciamento imposto dalle nuove regole di mercato, per questo criteri di natura probabilistica si

(4)

6 sono fatti sempre più strada. Un metodo basato su criteri di tipo probabilistico permette di svolgere analisi di sensibilità dell’affidabilità del sistema (sintetizzata da indici di rischio) al variare dei margini di riserva. Un approccio di tipo probabilistico può infatti tenere conto dei possibili guasti, anche a catena, cui possono andare incontro i componenti del sistema, nonché della sequenzialità degli eventi, permettendo di affinare la stima del fabbisogno di riserva operativa in funzione delle regole di dispacciamento e distacco di carico da attuare e dei vincoli di transito sulla rete. Il calcolo di opportuni indici di rischio, quali la probabilità di distacco di carico (LOLP) e l’energia probabile non fornita (EENS), consente di stabilire la soglia di rischio con la quale il sistema è esercito in modo più completo rispetto al criterio di sicurezza N-1.

Questi concetti sono stati implementati negli anni tra il 2004 e il 2006 in un applicativo denominato MC2 grazie a vari progetti di ricerca svolti dal Dipartimento di Sistemi Elettrici e Automazione dell’Università di Pisa che ne hanno permesso un costante aggiornamento a regole di mercato in continua evoluzione e l’arricchimento con nuove logiche e modelli più accurati. Tale applicativo facendo uso di tecniche di simulazione basate su metodi di tipo Montecarlo sequenziale, esegue l’analisi di affidabilità su di un sistema elettrico in generale, e di quello italiano in particolare, al variare di diversi parametri quali, ad esempio, l’andamento temporale del carico, le quantità di riserva allocate nelle diverse classi (riserva secondaria e riserva terziaria a 15 ed a 60 minuti) e per le differenti tipologie di unità di produzione (termoelettriche o idrauliche), la gestione dei gruppi di pompaggio, ecc.

Riferimenti

Documenti correlati

ColorVu è la massima evoluzione della tecnologia di ripresa delle immagini,definizione fino a 4K, obiettivo con apertura F1.0 e sensore avanzato 0.0005 Lux assicurano

I primi passi del processo di classificazione della si- curezza richiedono la valutazione delle caratteristi- che di disponibilità, riservatezza ed integrità dei dati (Tabella

In generale i metodi più dettagliati sono quelli basati sulla valutazione quantitativa del rischio di incidente rilevante (Quantitative Risk Assessment, QRA), la

2 RICHIAMI SULLA PROCEDURA SMAV Di recente sviluppo e applicazione in Italia è la metodologia SMAV, acronimo di Seismic Model from Ambient Vibrations, finalizzata alla

• Tra le tipologie di selezione delle variabili da inserire nel simplesso per la risoluzione del dispacciamento risulta ottenere l’ottimo economico con tempo di

Incremento del Valore aggiunto per giornate lavorate dagli addetti in funzione della riduzione settoriale della forza lavoro dipendente del relativo ISA e della caduta del valore

Dalla condotta tenuta dalla banca è derivata non solo l’impossibilità di proporre opposizione alla richiesta del debitore ma anche la liceità (quasi automatica) della proposta

Gli ISA si applicano agli esercenti attività d’impresa o di lavoro autonomo che svolgono, come “attività prevalente”, attività per le quali risulta ap- provato un ISA (si veda