• Non ci sono risultati.

- &nbsp&nbsp&nbsp&nbsp&nbsp Ottavio Caligaris - Introduzione alle Reti Neurali.

N/A
N/A
Protected

Academic year: 2021

Condividi "- &nbsp&nbsp&nbsp&nbsp&nbsp Ottavio Caligaris - Introduzione alle Reti Neurali."

Copied!
33
0
0

Testo completo

(1)

¼ ½ ¶ · ´ ¹ ” I O .C .

Introduzione

alle

Reti Neurali

Senigallia 13-15 Ottobre 2006

Revised:26 settembre 2006 12h : 50min

(2)

¼ ½ ¶ · ´ ¹ ” I I N T R O D U Z IO N E

La natura `e fonte di ispirazione per i Modelli matematici.

Ad esempio:

La teoria geometrica dei frattaliGli algoritmi genetici

(3)

¼ ½ ¶ · ´ ¹ ” I I N T R O D U Z IO N E

Cronobibliografia sulle Reti Neurali.

1942 - McCulloch e Pitts

1949 - 1969 - Hebb, Rosenblatt, Widrow, Hoff, Minsky e Papert1969 - 1982 assenza di contributi rilevanti

1982 - in poi Nuovi importanti contributi: Hopfield, Kohonen, Rume-lhart, Minsky, Chua e Yang.

Attualmente l’interesse per le reti neurali `e molto alto.

Le reti neurali artificiali tentano di riprodurre il funzionamento delle reti neurali biologiche.

(4)

¼ ½ ¶ · ´ ¹ ” I I N T R O D U Z IO N E

Soma: `e la parte centrale della cellula dove `e collocato il nucleo

(5)

¼ ½ ¶ · ´ ¹ ” I I N T R O D U Z IO N E

Dendriti: costituiscono la struttu-ra attstruttu-raverso la quale il neurone acquisisce informazioni.

(6)

¼ ½ ¶ · ´ ¹ ” I I N T R O D U Z IO N E

Assone: estensione del neurone; pu `o essere lungo millimetri o metri. l’assone pi `u lungo `e il nervo sciati-co che parte dalla base della sciati- colon-na vertebrale e termicolon-na all’ alluce di ciascun piede.

(7)

¼ ½ ¶ · ´ ¹ ” I I N T R O D U Z IO N E

L’assone `e rivestito di mielina. Le cellule di Schwann producono la mielina.

(8)

¼ ½ ¶ · ´ ¹ ” I I N T R O D U Z IO N E

I nodi di Ranvier interrompono il ri-vestimento dell’assone a intervalli regolari. Hanno importanti funzio-ni nella trasmissione degli impulsi lungo l’assone.

(9)

¼ ½ ¶ · ´ ¹ ” I I N T R O D U Z IO N E

L’assone termina con una struttu-ra che mediante il rilascio di neuro-strasmettitori comunica con gli altri neuroni.

(10)

¼ ½ ¶ · ´ ¹ ” I I N T R O D U Z IO N E

k-esimo neurone dello strato i-esimo

b 1 ui 1 ui 2 ui ni wi 1,k wi 2,k wi n,k wi+1 k,1 wi+1 k,2 wk,ni+1i+1 uo uo= s(ηi) ηi=P kwkuik

Un neurone riceve segnali ui in in-gresso, pesati mediante i valori wik delle connessioni, li somma e li elabora mediante la funzione s di attivazione.

(11)

¼ ½ ¶ · ´ ¹ ” I I N T R O D U Z IO N E

Possibili funzioni di attivazione sono date da

x y σ(x) = 1 1 + e−x (1) x y σ(x) =  0 x ≤ a 1 x > a (2) x y σ(x) = 1 − e −x 1 + e−x (3) x y σ(x) =      −1 x ≤ −a x −a < x ≤ a 1 x > a (4)

(12)

¼ ½ ¶ · ´ ¹ ” I I N T R O D U Z IO N E

Solitamente `e vantaggioso considerare la funzione

x y σ(x) = 1 1 + e−x si ha infatti σ0 = σ(1 − σ)

questo semplifica l’algoritmo di backpropagation che consente di adattare la rete

(13)

¼ ½ ¶ · ´ ¹ ” I I N T R O D U Z IO N E x1 x2 xn b 1 b 1 b 1 b 1 b 1 b 1 b 1 b 1 b 1 x1 b 1 u3 1 x1 b 1 u3 1

Una rete neurale feedfoward `e co-stituita da un certo numero di neu-roni disposti su strati interconnes-si tra loro mediante collegamenti che trasportano segnali con diversa rilevanza.

(14)

¼ ½ ¶ · ´ ¹ ” I I N T R O D U Z IO N E

k-esimo neurone del primo strato

b 1 u0 j w1 k,n1 w1 k,2 w1 k,1 uo j

I neuroni del primo strato ricevono segnali dall’esterno e li passano allo strato successivo

(15)

¼ ½ ¶ · ´ ¹ ” I I N T R O D U Z IO N E

k-esimo neurone dello strato i-esimo

b 1 ui 1 ui 2 ui ni wi 1,k wi 2,k wi n,k wi+1 k,1 wi+1 k,2 wk,ni+1i+1 uo uo= s(ηi) ηi=P kwkuik

I neuroni degli strati interni elabora-no i segnali

(16)

¼ ½ ¶ · ´ ¹ ” I I N T R O D U Z IO N E

k-esimo neurone dell’ultimo strato

b 1 ui 1 ui 2 ui ni wi 1,k wi 2,k wi n,k uo uo= s(ηi) ηi=P kwkuik

I neuroni dell’ultimo strato somma-no i segnali ricevuti dallo strato pre-cedente e li passano all’esterno il risultato; in altre parole la funzio-ne di attivaziofunzio-ne dell’ultimo strato `e semplicemente l’identit`a.

( Ci `o consente di avere in usci-ta un qualunque numero reale (e non soltanto un valore compreso in [0, 1])

(17)

¼ ½ ¶ · ´ ¹ ” I I N T R O D U Z IO N E × × ×

Una rete neurale feedforward `e in grado di approssimare ogni funzione continua in modo molto semplice. Infatti ogni funzione continua pu `o essere approssimata mediante una funzione a scalini.

(18)

¼ ½ ¶ · ´ ¹ ” I I N T R O D U Z IO N E × × × a b α

Una funzione a scalini pu `o esse-re ottenuta come somma pesata di funzioni del tipo

     0 x < a α a ≤ x ≤ b 0 x > b

(19)

¼ ½ ¶ · ´ ¹ ” I I N T R O D U Z IO N E a 1 0 a b 0 1

e queste si possono ottenere come differenza di due funzioni del tipo

 0 x < a 1 x ≥ a ,  0 x < b 1 x ≥ b

(20)

¼ ½ ¶ · ´ ¹ ” I I N T R O D U Z IO N E −a 1 1 x y = n1 x ≥ a 0 x < a a 1

0 Ciascuna delle quali pu’o essere

ot-tenuta come uscita di un singolo neurone.

(21)

¼ ½ ¶ · ´ ¹ ” I I N T R O D U Z IO N E La rete neurale 1 1 1 1 −a −b 1 1 x y = (0 x < a 1 a ≤ x ≤ b 0 x > b y0= n1 x > a 0 x < a y1= n1 x > b 0 x < b definisce la funzione a b 0 1 a b 0 1

(22)

¼ ½ ¶ · ´ ¹ ” I I N T R O D U Z IO N E Mentre −1 −1 −1 −1 β γ α δ −b −c −a −d 1 1 1 1 x q =¯          0 x < a α a ≤ x ≤ b α + β b ≤ x ≤ c α + β + γ c ≤ x ≤ d α + β + γ + δ = 0 x > d y1=  1 x < b 0 x ≥ b y2= n1 x < c 0 x ≥ c y0= n1 x < a 0 x ≥ a y3=  1 x < d 0 x ≥ d fornisce 0 a b c d 0 α α + β α + β + γ 0 a b c d α β γ δ

(23)

¼ ½ ¶ · ´ ¹ ” I I N T R O D U Z IO N E Consideriamo (xj, tj) , j = 1..N

Problema: determinare i coefficienti Wi e bi di una rete neurale in modo che detti oj i risultati in uscita dalla rete che corrispondono agli ingressi xj,

sia minimo lo scarto quadratico tra oj e tj

E =

N

X

j=1

(24)

¼ ½ ¶ · ´ ¹ ” I I N T R O D U Z IO N E

E `e funzione dei coefficienti della rete

Si pu `o minimizzare usando il metodo del gradiente

nonostante la apparente complessit`a dei calcoli necessari per ottenere le derivate di E rispetto ad ognuno dei parametri

(25)

¼ ½ ¶ · ´ ¹ ” I I N T R O D U Z IO N E

Supponiamo ad esempio di considerare una rete neurale, a due strati nascosti, con

uno strato di input costituito da 2 neuroni

uno primo strato nascosto costituito da 4 neuroni uno secondo strato nascosto costituito da 3 neuroni uno strato di output costituito da 1 neurone

x1 u0 1 x2 u0 2 u1 1 b1 1 1 u1 2 b1 2 1 u1 3 b1 3 1 u1 4 b1 4 1 u2 1 b2 1 1 u2 2 b2 2 1 u2 3 b2 3 1 y b3 1 1 u3 1 w1 1,1 w1 1,2 w1 1,3 w1 1,4 w1 2,1 w1 2,2 w1 2,3 w1 2,4 w2 1,1 w2 1,2 w2 1,3 w2 2,1 w2 2,2 w2 2,3 w2 3,1 w2 3,2 w2 3,3 w2 4,1 w2 4,2 w2 4,3 w3 1,1 w3 2,1 w3 3,1 W1= w1

(26)

¼ ½ ¶ · ´ ¹ ” I I N T R O D U Z IO N E x1 u0 1 x2 u0 2 u1 1 b1 1 1 u1 2 b1 2 1 u1 3 b1 3 1 u1 4 b1 4 1 u2 1 b2 1 1 u2 2 b2 2 1 u2 3 b2 3 1 y b3 1 1 u3 1 w1 1,1 w1 1,2 w1 1,3 w1 1,4 w1 2,1 w1 2,2 w1 2,3 w1 2,4 w2 1,1 w2 1,2 w2 1,3 w2 2,1 w2 2,2 w2 2,3 w2 3,1 w2 3,2 w2 3,3 w2 4,1 w2 4,2 w2 4,3 w3 1,1 w3 2,1 w3 3,1 W1= w1

i,j W2= w2i,j W3= w3i,j

(27)

¼ ½ ¶ · ´ ¹ ” I I N T R O D U Z IO N E x1 u0 1 x2 u0 2 u1 1 b1 1 1 u1 2 b1 2 1 u1 3 b1 3 1 u1 4 b1 4 1 u2 1 b2 1 1 u2 2 b2 2 1 u2 3 b2 3 1 y b3 1 1 u3 1 w1 1,1 w1 1,2 w1 1,3 w1 1,4 w1 2,1 w1 2,2 w1 2,3 w1 2,4 w2 1,1 w2 1,2 w2 1,3 w2 2,1 w2 2,2 w2 2,3 w2 3,1 w2 3,2 w2 3,3 w2 4,1 w2 4,2 w2 4,3 w3 1,1 w3 2,1 w3 3,1 W1 = w1 i,j W 2 = w2 i,j W 3 = w3 i,j

`E identificata dalle matrici

W1 = {w1k,j} , W2 = {w2k,j} , W3 = {w3k,j} e dai vettori (bias)

(28)

¼ ½ ¶ · ´ ¹ ” I I N T R O D U Z IO N E x1 u0 1 x2 u0 2 u1 1 b1 1 1 u1 2 b1 2 1 u1 3 b1 3 1 u1 4 b1 4 1 u2 1 b2 1 1 u2 2 b2 2 1 u2 3 b2 3 1 y b3 1 1 u3 1 w1 1,1 w1 1,2 w1 1,3 w1 1,4 w1 2,1 w1 2,2 w1 2,3 w1 2,4 w2 1,1 w2 1,2 w2 1,3 w2 2,1 w2 2,2 w2 2,3 w2 3,1 w2 3,2 w2 3,3 w2 4,1 w2 4,2 w2 4,3 w3 1,1 w3 2,1 w3 3,1 W1 = w1 i,j W 2 = w2 i,j W 3 = w3 i,j

Lo stato della rete pu `o essere descritto mediante i vettori u0 il vettore di input u0 = (u0

1, u 0 2);

u1 il vettore di uscita del primo strato u2 = (u0 1, u 0 2, u 0 2, u 0 2)

u2 il vettore di uscita del secondo strato u2 = (u01, u02, u02) u3 il vettore di output u3 = o3

(29)

¼ ½ ¶ · ´ ¹ ” I I N T R O D U Z IO N E

Le rete neurale produce il corrispondente del segnale di input propagandolo in avanti u0 = (x1, x2) , u¯0 = (u0, 1) W1 = w 1 1,1 w 1 1,2 w 1 1,3 w 1 1,4 w12,1 w12,2 w12,3 w12,4  ¯ W1 =   w11,1 w11,2 w11,3 w11,4 w12,1 w12,2 w12,3 w12,4 b11 b12 b13 b14   η1 = u¯0W¯ 1 = (u01, u02, 1)   w11,1 w11,2 w11,3 w11,4 w1 2,1 w 1 2,2 w 1 2,3 w 1 2,4 b11 b12 b13 b14   u1 = s(η1) = (u11, u13, u13, u14) La funzione di attivazione s `e una sigmoide o l’identit`a

(30)

¼ ½ ¶ · ´ ¹ ” I I N T R O D U Z IO N E u1 = (u11, u13, u13, u14) , u¯1 = (u1, 1) W2 =     w21,1 w21,2 w21,3 w22,1 w22,2 w22,3 w23,1 w23,2 w23,3 w24,1 w24,2 w24,3     ¯ W2 =       w21,1 w21,2 w21,3 w2 2,1 w 2 2,2 w 2 2,3 w23,1 w23,2 w23,3 w2 4,1 w 2 4,2 w 2 4,3 b21 b22 b23       η2 = u¯1W¯ 2 = (u11, u13, u13, u14, 1)       w21,1 w21,2 w21,3 w22,1 w22,2 w22,3 w23,1 w23,2 w23,3 w24,1 w24,2 w24,3 b2 1 b 2 2 b 2 3       u2 = s(η2) = (u21, u22, u23)

(31)

¼ ½ ¶ · ´ ¹ ” I I N T R O D U Z IO N E u2 = s(η2) = (u21, u22, u23), , u¯2 = s(η2) = (u21, u22, u23, 1) W3 =   w21,1 w2 1,2 w21,3   W¯ 3 =     w3 1,1 w21,2 w31,3 b31     η3 = u¯2W¯ 3 = (u21, u22, u23, 1)     w31,1 w2 1,2 w31,3 b3 1     u3 = s(η3) = (u31) = y

(32)

¼ ½ ¶ · ´ ¹ ” I I N T R O D U Z IO N E

La rete viene adattata ai dati mediante Le formule di aggiornamento all’in-dietro. ¯ W3 = W¯ 3 − lr(δ3u¯2)T ¯ W2 = W¯ 2 − lr(δ2δ3u¯1)T ¯ W1 = W¯ 1 − lr(δ1δ2δ3u¯0)T dove

(33)

¼ ½ ¶ · ´ ¹ ” I I N T R O D U Z IO N E D2 =   u2 1(1 − u 2 1) 0 0 0 u22(1 − u22) 0 0 0 u2 3(1 − u 2 3)   D1 =     u11(1 − u11) 0 0 0 0 u1 2(1 − u 1 2) 0 0 0 0 u13(1 − u13) 0 0 0 0 u14(1 − u14)     e δ3 = (u3 − t) δ2 = D2W3 = u21(1 − u 1 1) 0 0 0 u2 2(1 − u12) 0 0 u23(1 − u 2 3) 0  w21,1 w2 1,2 w21,3  δ1 = D1W2 = u11(1 − u 1 1) 0 0 0 0 u1 2(1 − u12) 0 0 0 0 u13(1 − u 1 3) 0 0 0 0 u14(1 − u 1 4)  w21,1 w 2 1,2 w 2 1,3 w2 2,1 w22,2 w22,3 w23,1 w 2 3,2 w 2 3,3 w24,1 w 2 4,2 w 2 4,3 

Riferimenti

Documenti correlati

Real applications of proposed and verified formulas for the different devices are possible if associated to road solids build-up data, rainfall data,

Forse&amp;nbsp;per molti di voi una riduzione del Fondo Nazionale per le Politiche Sociali del 98% significa poco, ma vi assicuro -&amp;nbsp;ve lo dico&amp;nbsp;come ... Partì senza

[r]

[r]

[r]

[r]

[r]

Riva Crugnola a cura di, Lo sviluppo della competenza emotiva: percorsi tipici e atipici.. e Bates, E., La comunicazione nel primo anno di vita, Bollati Boringhieri, Torino,