Reti Neurali (Derivazione)
Corso di AA, anno 2017/18, Padova
Fabio Aiolli
06 Novembre 2017
Fabio Aiolli Reti Neurali (Derivazione) 06 Novembre 2017 1 / 6
Derivate notevoli
y = c, c ∈ R ⇒ y 0 = 0
y = c · x , c ∈ R ⇒ y 0 = c
y = x n , n ∈ N ⇒ y 0 = nx n−1
y = e x ⇒ y 0 = e x
Regole di Derivazione
D(k · f (x )) = k · f 0 (x ) D( P
i f i (x )) = P
i f 0 (x )
D(f (x ) · g (x )) = f 0 (x ) · g (x ) + f (x ) · g 0 (x ) D( g (x ) f (x ) ) = f
0(x )·g (x )−f (x )·g
0(x )
g (x )
2D( g (x ) 1 ) = − g (x ) g
0(x )
2D(g (f (x )) = g 0 (f (x )) · f 0 (x )
Fabio Aiolli Reti Neurali (Derivazione) 06 Novembre 2017 3 / 6
Gradiente
Definizione di Gradiente
Nel calcolo differenziale vettoriale, il gradiente di una funzione a valori reali f : R n → R `e una funzione vettoriale ∇f : R n → R n (a valori in R n ).
Il gradiente di una funzione ` e spesso definito come il vettore che ha come
componenti le derivate parziali della funzione, anche se questo vale solo se
si utilizzano coordinate cartesiane ortonormali. Il simbolo ∇ si legge nabla.
Minimizzazione con discesa di gradiente
Problema di minimizzazione
Sia f (x) : R n → R una funzione a valori vettoriali, trovare il vettore x ∗ ∈ R n che minimizza la funzione f , ovvero:
x ∗ = arg min
x f (x) Algoritmo di discesa di gradiente
k ← 0, x 0 ∈ R n while ∇f (x k ) 6= 0
Calcolare la direzione di discesa p
k:= −∇f (x
k) Calcolare il passo di discesa η
kx
k+1← x
k+ η
kp
kk ← k + 1
Fabio Aiolli Reti Neurali (Derivazione) 06 Novembre 2017 5 / 6