Dopo aver caricato le immagini in memoria e aver creato il modello `e il momento di allenare la rete e vedere i risultati. Per l’allenamento della rete ho scelto alcune metriche valutative in modo da poter monitorare l’andamento del processo, utili anche alla rete stessa per poter tarare i pesi di conseguenza ai valori ottenuti epoca per epoca.
6.7.1
Metriche
Durante il training la rete neurale sfrutta alcune metriche di valutazione per con- trollare che le modifiche effettuate ai pesi ogni epoca stiano migliorando i risultati finali o meno. Nel nostro caso ovviamente le metriche devono essere improntate alla valutazione di quanto l’immagine predetta dalla rete sia simile a quella ”giusta”, per questo motivo le metriche utilizzate per il mio modello sono: Mean intersection over union, Dice coefficent, Intersection over union coefficent e Area under the cur- ve. Ovviamente oltre queste anche la funzione di loss Weighted Cross-entropy viene utilizzata per la validazione.
Intersection Over Union
L’Intersection-Over-Union (IoU), noto anche come indice Jaccard, `e una delle metri- che pi`u comunemente utilizzate nella segmentazione semantica. L’IoU `e una metrica molto semplice ed estremamente efficace.
In poche parole, l’IoU `e l’area di sovrapposizione tra la segmentazione predetta e il labeling ”giusto” divisa per l’area di unione tra le stesse due, come mostrato nella figura 6.12. Questa metrica varia da 0-1 (0-100%) con 0 che indica l’assenza di sovrapposizione e 1 che indica la segmentazione perfettamente sovrapposta. Per la segmentazione binaria (due classi) o multi-classe, la mean IoU dell’immagine viene calcolata prendendo l’IoU di ciascuna classe e calcolandone la media (`e implemen- tato in modo leggermente diverso nel codice).
La metrica pi`u semplice da utilizzare potrebbe sembrare quella della Pixel accu- racy, ovvero la corrispondenza tra i pixel della ground truth e quelli della segmen-
Figura 6.12: Formula per calcolare IoU.
tazione predetta, ma nel nostro caso il non bilanciamento delle classi rende inutile utilizzare questa metrica.
Dice coefficent
Il coefficiente di Dice `e pari a 2 x l’area di sovrapposizione tra ground truth e previsione della rete divisa per il numero totale di pixel in entrambe le immagini, vediamo un esempio in figura 6.13.
Il coefficiente di Dice `e molto simile all’IoU. Sono positivamente correlati, il che significa che se uno dice che il modello A `e migliore del modello B nel segmentare un’immagine, l’altro dir`a lo stesso. Come l’IoU, entrambi vanno da 0 a 1, con 1 che indica la massima somiglianza tra predizione e ground truth.
Figura 6.14: Tasso di TP vs FP a diverse soglie di classificazione. Area Under the Curve
La ROC curve (Receiver Operating Characteristic curve) `e un grafico che mostra le prestazioni di un modello di classificazione in tutte le soglie di classificazione. Questa curva traccia due parametri:
• Il tasso di ”veri” positivi; • Il tasso di falsi positivi.
True Positive Rate (TPR) `e sinonimo di recall ed `e quindi definito come segue: T P R = T P
T P + F N (6.26)
Il False Positive Rate (FPR) `e definito come segue: F P R = F P
F P + T N (6.27)
Una ROC curve traccia TPR vs. FPR a diverse soglie di classificazione. L’abbassa- mento della soglia di classificazione classifica pi`u elementi come positivi, aumentando cos`ı sia i falsi positivi che i ”veri” positivi. La figura 6.14 mostra una tipica cur- va ROC. Per calcolare i punti in una ROC curve, potremmo valutare molte volte un modello di regressione logistica con soglie di classificazione diverse, ma questo sarebbe inefficiente. Fortunatamente, esiste un efficiente algoritmo basato sull’ordi- namento che pu`o fornirci queste informazioni, chiamato AUC. AUC sta per ”Area under the ROC Curve”. Cio`e, l’AUC misura l’intera area bidimensionale sotto la curva ROC da (0,0) a (1,1), evidente l’area in figura 6.15.
L’AUC fornisce una misura aggregata delle prestazioni attraverso tutte le possibili soglie di classificazione. Un modo di interpretare l’AUC `e come la probabilit`a che
Figura 6.15: Esempio di area calcolata da AUC.
il modello classifichi un esempio positivo in modo pi`u elevato rispetto a un esempio negativo.
Il valore dell’AUC varia da 0 a 1. Un modello le cui previsioni sono errate al 100% ha un’AUC di 0,0; uno le cui previsioni sono corrette al 100% ha un’AUC di 1,0.
L’AUC `e utile per i seguenti due motivi:
• L’AUC ha l’invarianza di scala. Misura quanto bene vengono classificate le previsioni, piuttosto che i loro valori assoluti;
• L’AUC `e invariante alla soglia di classificazione. Misura la qualit`a delle pre- visioni del modello indipendentemente dalla soglia di classificazione scelta. Tuttavia, entrambi questi motivi sono accompagnati da avvertenze, che possono limitare l’utilit`a dell’AUC in alcuni casi d’uso:
• L’invarianza di scala non `e sempre desiderabile. Ad esempio, a volte abbiamo davvero bisogno di output di probabilit`a ben calibrati e l’AUC non ce lo dir`a; • L’invarianza alla soglia di classificazione non `e sempre desiderabile. Nei casi in cui vi sono ampie disparit`a nel costo dei falsi negativi rispetto ai falsi positivi, pu`o essere fondamentale ridurre al minimo un tipo di errore di classificazio- ne. Ad esempio, quando si esegue il rilevamento dello spam tramite posta elettronica, `e probabile che si desideri dare la priorit`a alla riduzione al mini- mo dei falsi positivi (anche se ci`o comporta un aumento significativo dei falsi negativi). L’AUC non `e una metrica utile per questo tipo di ottimizzazione.
6.7.2
Addestramento del modello
Il training della rete si `e svolto su 135 immagini delle 194 totali, utilizzandone altre 38 per la validation durante l’addestramento, le restanti immagini sono invece state
utilizzate per la fase di testing, quindi non sono state prese in considerazione in questa fase.
Il validation dataset `e il campione di dati utilizzato per fornire una valutazione imparziale di un modello adattato precedentemente al dataset di training durante l’ottimizzazione degli iperparametri del modello. La valutazione diventa pi`u par- ziale man mano che la competenza sul validation dataset viene incorporata nella configurazione del modello. Il validation dataset viene utilizzato per valutare un determinato modello, utilizziamo questi dati per mettere a punto gli iperparametri del modello. Quindi il modello occasionalmente vede questi dati, ma non “impara” mai da questi. Usiamo i risultati sul validation dataset e aggiorniamo gli iperpara- metri di livello superiore. Quindi il validation dataset influisce sul modello, ma solo indirettamente. Il validation dataset `e noto anche come set di sviluppo, ci`o ha senso poich´e questo set di dati aiuta durante la fase di ”sviluppo” del modello.
Per il training ho seguito questa procedura: ho svolto 100 epoche di addestra- mento in modo che la rete si stabilizzasse un minimo nelle ultime epoche e poi ho ripetuto questa procedura fino a raggiungere circa i 30000 step di apprendimento (epoche x numero di immagini), dopo i quali ho ritenuto la rete ”stabile”.
I parametri che ho utilizzato per il training sono:
1. Learning rate: `e un parametro riferito all’optimizer che determina la dimen- sione del ”passo” a ogni iterazione mentre ci si sposta verso un minimo di una funzione di loss. Influenza in che misura le informazioni acquisite di recente hanno la precedenza su quelle vecchie, rappresenta metaforicamente la velo- cit`a con cui un modello di apprendimento automatico ”apprende”. Nel nostro progetto `e stato settato inizialmente a 0.001;
2. Batch size: La dimensione del batch `e un iperparametro che definisce il numero di campioni su cui lavorare prima di aggiornare i parametri del modello interno, nel nostro caso `e stata settata a 2 perch`e gi`a con 2 immagini per volta veniva riempita quasi tutta la memoria RAM disponibile su Colab.
Per adattare il learning rate al procedere dell’apprendimento, in modo da non ”ca- dere” in minimi locali ho utilizzato una callback di Keras chiamata ReduceLROn- Plateau, la sua funzione `e quella di ridurre il learning rate quando una metrica smette di migliorare. I modelli spesso traggono vantaggio dalla riduzione del tasso di apprendimento una volta che l’apprendimento ristagna. Questa callback moni- tora una quantit`a e se non si vede alcun miglioramento per un numero di epoche impostato”, il tasso di apprendimento viene ridotto.
Nel nostro caso ho settato questa callback per il monitor della validation loss in modo che diminuisse il learning rate di un fattore 0.1 ogni qualvolta questa loss ”ristagnasse” per almeno 5 epoche, fino a raggiungere un minimo corrispondente a 0.00000001.