• Non ci sono risultati.

Lucidi teoria RNA - Parte 2

N/A
N/A
Protected

Academic year: 2021

Condividi "Lucidi teoria RNA - Parte 2"

Copied!
21
0
0

Testo completo

(1)

1

Introduzione alle Reti Neurali Artificiali - Prof. Paola Zuccolotto e Dr. Marco Sandri

Pro e contro delle RNA

Pro:

- flessibilità: le RNA sono approssimatori universali;

- aggiornabilità sequenziale: la stima dei pesi della rete può essere aggiornata man mano che arriva nuova informazione;

- le RNA sono adatte ad essere implementate su macchine per il calcolo parallelo;

(2)

2

Introduzione alle Reti Neurali Artificiali - Prof. Paola Zuccolotto e Dr. Marco Sandri

Pro e contro delle RNA

Contro:

- “data hungry” e overfitting: la stima dei pesi richiede numerosità consistenti;

- difficoltà di stima: presenza di molti minimi locali nella funzione obiettivo;

- interpretabilità: grosse difficoltà ad interpretare la relazione fra x ed y;

- inferenza: non ci sono metodi statistici per il calcolo degli errori di stima associati ai parametri, per la scelta del numero di neuroni nascosti e per il pruning della rete;

(3)

3

Introduzione alle Reti Neurali Artificiali - Prof. Paola Zuccolotto e Dr. Marco Sandri

Reti con apprendimento supervisionato

Reti neurali con un livello nascosto sono in grado di risolvere problemi molto più complessi:

• regressione non lineare

• classificazione con la presenza di due o più rette discriminanti

• classificazione con criteri non lineari

(4)

4

Introduzione alle Reti Neurali Artificiali - Prof. Paola Zuccolotto e Dr. Marco Sandri

Reti con apprendimento supervisionato

Si tratta di problemi difficilmente affrontabili con tecniche tradizionali e per i quali le RNA sanno dare contributi importanti.

(5)

5

Introduzione alle Reti Neurali Artificiali - Prof. Paola Zuccolotto e Dr. Marco Sandri

Reti con apprendimento supervisionato

RNA per la regressione non lineare

La regressione non lineare si ha quando Y è una variabile quantitativa che si assume dipendente da s variabili esogene X1, X2, …, Xs attraverso una funzione g non lineare.

( X , X , , X s )

ˆ = g 1 2 L

Y

(6)

6

Introduzione alle Reti Neurali Artificiali - Prof. Paola Zuccolotto e Dr. Marco Sandri

Reti con apprendimento supervisionato

Si può pensare sempre all’esempio della catena di ipermercati che desidera prevedere il fatturato di un nuovo punto vendita sulla base di tre variabili di contesto relative all’area in cui esso sorgerà.

( X 1 , X 2 , X 3 )

ˆ = g Y

Prima avevamo supposto che g fosse una funzione lineare, ma in realtà si potrebbe ipotizzare che il meccanismo che lega le variabili sia più complesso.

(7)

7

Introduzione alle Reti Neurali Artificiali - Prof. Paola Zuccolotto e Dr. Marco Sandri

Reti con apprendimento supervisionato

Graficamente si può rappresentare il caso di due sole variabili esogene X1 e X2.

La regressione lineare equivale ad ipotizzare che i punti (yi x1i x2i) siano interpolabili da un piano.

(8)

8

Introduzione alle Reti Neurali Artificiali - Prof. Paola Zuccolotto e Dr. Marco Sandri

Reti con apprendimento supervisionato

Con una regressione non lineare i punti (yi x1i x2i) vengono interpolati da funzioni più complesse.

(9)

9

Introduzione alle Reti Neurali Artificiali - Prof. Paola Zuccolotto e Dr. Marco Sandri

Reti con apprendimento supervisionato

La complessità della funzione di regressione è definita dalla forma che si imprime alle propagation rule ed alle funzioni di attivazione.

Ovviamente sono possibili un infinito numero di forme.

(10)

10

Introduzione alle Reti Neurali Artificiali - Prof. Paola Zuccolotto e Dr. Marco Sandri

Reti con apprendimento supervisionato

Vediamo cosa accade con due variabili esogene e una comune architettura di RNA:

• Un livello nascosto composto da due nodi (l=1, m=2)

• Propagation rule lineari sia nel livello nascosto che nel livello di output

• funzione di attivazione sigmoide nel livello nascosto e identità nel livello di output.

(11)

11

Introduzione alle Reti Neurali Artificiali - Prof. Paola Zuccolotto e Dr. Marco Sandri

Reti con apprendimento supervisionato

r2 r1

Y ω1

ω2 X1

X2

1 α0

β0

α1

β1

α2 β2

a

1

=

α0+ α1X1+ α2X2

a

2

=

β0+ β1X1+ β2X2

r

1

= 1/(1+exp( −

α0α1X1α2X2))

r

2

= 1/(1+exp( −

β0β1X1β2X2))

a =

ω1r1+ ω2r2 =

ω1

/(1+exp( −

α0α1X1α2X2))+

ω2

/(1+exp( −

β0− β1X1− β2X2))

Y = a

(12)

12

Introduzione alle Reti Neurali Artificiali - Prof. Paola Zuccolotto e Dr. Marco Sandri

Reti con apprendimento supervisionato

Graficamente, per una particolare configurazione dei parametri, si ha la seguente funzione interpolante

(13)

13

Introduzione alle Reti Neurali Artificiali - Prof. Paola Zuccolotto e Dr. Marco Sandri

Reti con apprendimento supervisionato

La stessa rete con una diversa configurazione dei parametri, è in grado di fornire una funzione di regressione completamente diversa !

(14)

14

Introduzione alle Reti Neurali Artificiali - Prof. Paola Zuccolotto e Dr. Marco Sandri

Reti con apprendimento supervisionato

Naturalmente quando le variabili esogene sono più di due non è più possibile rappresentare graficamente la funzione di regressione.

Inoltre per architetture più complesse cresce anche la complessità delle funzioni e la varietà di forme che esse possono assumere.

Aver esaminato a fondo dei casi semplici ci è servito unicamente per avere un’idea di come opera la rete nei casi complessi, che sono quelli effettivamente interessanti dal punto di vista operativo.

(15)

15

Introduzione alle Reti Neurali Artificiali - Prof. Paola Zuccolotto e Dr. Marco Sandri

Reti con apprendimento supervisionato

Quindi in generale:

• E’ estremamente difficile e comunque non interessa esplicitare la funzione di regressione.

• Non interessano i valori assunti dai parametri.

• Una volta dettate le regole fondamentali (l, m, propagation rule, funzioni di attivazione) la rete diviene una black box a cui fornire i nuovi inputs per ottenere i corrispondenti outputs.

(16)

16

Introduzione alle Reti Neurali Artificiali - Prof. Paola Zuccolotto e Dr. Marco Sandri

Reti con apprendimento supervisionato

Importa soltanto sapere che:

• Agendo sul numero di nodi nel livello nascosto, sulla forma delle propagation rule e delle funzioni di attivazione ai vari livelli, si ottengono un gran numero di diverse tipologie di non linearità

• Una stessa RNA è in genere in grado di approssimare una grande varietà di funzioni di regressione molto complesse

(17)

17

Introduzione alle Reti Neurali Artificiali - Prof. Paola Zuccolotto e Dr. Marco Sandri

Reti con apprendimento supervisionato

Tutto quanto detto per la classificazione con due variabili esogene si estende chiaramente anche al caso di s variabili esogene.

In questo caso si perde la possibilità di rappresentare graficamente i punti e le funzioni discriminanti ed inoltre cresce molto la complessità delle funzioni stesse.

Aver esaminato a fondo dei casi semplici ci è servito unicamente per avere un’idea di come opera la rete nei casi complessi, che sono quelli effettivamente interessanti dal punto di vista operativo.

(18)

18

Introduzione alle Reti Neurali Artificiali - Prof. Paola Zuccolotto e Dr. Marco Sandri

Reti con apprendimento supervisionato

Anche nel caso della classificazione dunque:

• E’ estremamente difficile e comunque non interessa esplicitare la funzione discriminante.

• Non interessano i valori assunti dai parametri.

• Una volta dettate le regole fondamentali (l, m, propagation rule, funzioni di attivazione) la rete diviene una black box a cui fornire i nuovi inputs per ottenere le corrispondenti classificazioni.

(19)

19

Introduzione alle Reti Neurali Artificiali - Prof. Paola Zuccolotto e Dr. Marco Sandri

Reti con apprendimento supervisionato

Importa soltanto sapere che:

• Agendo sul numero di nodi nel livello nascosto, sulla forma delle propagation rule e delle funzioni di attivazione ai vari livelli, si ottengono diverse tipologie di discriminazione (lineare o non lineare, a una, due o più funzioni discriminanti).

• Una RNA è in genere in grado di effettuare classificazioni anche in casi di forme molto complesse.

(20)

20

Introduzione alle Reti Neurali Artificiali - Prof. Paola Zuccolotto e Dr. Marco Sandri

Un’osservazione sulla terminologia

Un’ultima osservazione: nel campo delle RNA si utilizza, come abbiamo visto, una terminologia specifica.

Taluni termini sono spesso “di effetto” (si pensi alla parola “apprendimento”) ma non devono ingannare, nel senso che si deve sempre tenere presente il loro effettivo significato, per non attribuire alle RNA capacità che vanno oltre quelle di puro e semplice strumento matematico.

Vediamo quindi una breve rassegna di termini tipici delle RNA, associati al loro corrispondente nella terminolgia statistica classica.

(21)

21

Introduzione alle Reti Neurali Artificiali - Prof. Paola Zuccolotto e Dr. Marco Sandri

Un’osservazione sulla terminologia

Stima dei parametri Apprendimento

Addestramentoo

Campione Training set

Unità campionaria Esempio

Valori osservati Target

Variabili esogene o indipendenti Inputs

Valori teorici (o previsti) Outputs

Parametri Pesi

Statistica RNA

Riferimenti

Documenti correlati

Soggetti a basso rischio per problemi post dimissione: non richiedono un particolare impegno di pianificazione della loro. dimissione; la disabilità è

Il numero l di livelli nascosti ed il numero m di nodi in ogni livello è determinato dal ricercatore (in genere RNA con un solo livello nascosto sono in grado di fornire

Il volume raccoglie i risultati degli studenti del Corso di Studi di Architettura, Dipartimento Politecnico di Ingegneria e Architettura dell'U- niversità di Udine,

ESERCIZI sui LIMITI di FUNZIONI, parte 2 Provare di ciascuna delle seguenti a↵ermazioni se `e vera o

ESERCIZI sui LIMITI di FUNZIONI, parte 2 Provare di ciascuna delle seguenti a↵ermazioni se `e vera o

[r]

[r]

Un server concorrente, invece può gestire più richieste alla volta, quindi non comporta attese per i client, infatti crea un nuovo thread di controllo per gestire ogni richiesta ed