Universit` a degli Studi di Roma Tor Vergata
FACOLT ` A DI SCIENZE MATEMATICHE, FISICHE E NATURALI Corso di Laurea Magistrale in Matematica
Tesi di laurea magistrale
Studio della convergenza del metodo delle potenze
Candidato:
Sara Loss
Matricola 0245827
Relatore:
Carmine Di Fiore
Anno Accademico 2017–2018
Alla mia famiglia che ha creduto in me.
Indice
Introduzione 2
1 Nozioni utili 4
1.1 Norme vettoriali e prodotto scalare . . . . 4
1.2 Matrici . . . . 5
1.3 Autovalori ed autovettori . . . 13
2 Metodo delle Potenze 15 2.1 Caso A diagonalizzabile . . . 15
2.1.1 A definita positiva . . . 19
2.2 Caso A generica . . . 21
2.3 Caso A non negativa . . . 32
2.3.1 Cenni sulla teoria di Perron-Frobenius . . . 32
2.3.2 A non negativa ed irriducibile . . . 32
2.3.3 A non negativa, irriducibile e stocastica per colonne . . 35
3 Problema 38
Bibliografia 49
2
Introduzione
Data una qualsiasi matrice, non sempre `e necessario conoscere l’insieme di tutti i suoi autovalori , spesso `e possibile limitarsi alla ricerca di quelli estre- mi, ovvero quelli di modulo massimo e/o di modulo minimo.
In questa tesi esporremo il metodo delle potenze, che `e un classico metodo iterativo per approssimare l’autovalore di modulo massimo di una matrice, meglio detto autovalore dominante, e il corrispondente autovettore.
Nel Capitolo 1 iniziamo ad introdurre alcune definizioni ed osservazioni che saranno utili nei capitoli successivi. In particolare, tratteremo nozioni ri- guardanti la norma vettoriale, le matrici, gli autovalori ed i corrispondenti autovettori.
Nel Capitolo 2 introdurremo il metodo delle potenze. Inizieremo studiando tale metodo nel caso pi` u semplice, ovvero quello di una matrice diagonaliz- zabile (in particolare definita positiva) e successivamente, passeremo prima a studiare il caso in cui la matrice sia generica, per poi concludere con due casi particolari ovvero, il metodo delle potenze applicato ad una matrice non negativa ed irriducibile e ad una non negativa, irriducibile e stocastica per colonne.
Nel Capitolo 3 verr`a affrontato un problema riguardante la monotonia della successione ϕ
kdefinita nell’algoritmo del metodo delle potenze, visto nel capitolo precedente, nel caso particolare di una matrice non negativa ed irriducibile.
3
Capitolo 1 Nozioni utili
1.1 Norme vettoriali e prodotto scalare
Introduciamo alcune definizioni riguardanti le norme vettoriali ed il prodotto scalare.
Definizione 1.1. Una norma vettoriale `e un’applicazione || · || : C
n−→
R
+∪ {0} tale che valgono le seguenti propriet`a:
1. ||x|| ≥ 0 ∀x ∈ C
ne ||x|| = 0 se e solo se x = 0.
2. ||αx|| = |α|||x|| ∀α ∈ C, ∀x ∈ C
n.
3. ||x + y|| ≤ ||x|| + ||y|| ∀x, y ∈ C
n(disuguaglianza triangolare).
Esempi importanti di norme vettoriali sono:
1. ||x||
1=
n
P
j=1
|x
j| (norma-1 ).
2. ||x||
2=
nP
j=1
|x
j|
2 12(norma Euclidea o norma-2 ).
3. ||x||
∞= max
j
|x
j| (norma infinito).
Tutte queste norme sono casi particolari della norma-p, definita come:
||x||
p=
nX
j=1
|x
j|
p 1p.
Definizione 1.2. Il prodotto scalare su C
n`e un’applicazione h., .i : C
n× C
n−→ C che alla coppia (x, y) associa lo scalare hx, yi tale che:
4
CAPITOLO 1. NOZIONI UTILI 5 1. hx, xi ≥ 0 ∀x ∈ C
ne hx, xi = 0 se e solo se x = 0.
2. hx, yi = hy, xi ∀x, y ∈ C
n.
3. hx, λyi = λhx, yi ∀x ∈ C
n, ∀λ ∈ C.
4. hx + y, zi = hx, zi + hy, zi ∀x, y, z ∈ C
n.
Osservazione 1.1. (Disuguaglianza di Cauchy-Schwarz) Per ogni x e y vet- tori in C
n, il loro prodotto scalare soddisfa la disuguaglianza di Cauchy- Schwarz, cio`e:
|hx, yi|
2≤ ||x||
2· ||y||
2(nota: vale l’uguaglianza se e solo se i vettori x ed y sono linearmente dipendenti).
1.2 Matrici
Introduciamo alcune definizioni riguardanti le matrici, che ci saranno utili.
Definizione 1.3. Sia A una matrice quadrata di ordine n. Diremo che A `e diagonalizzabile se e solo se esiste P, matrice invertibile, tale che:
P
−1AP = D dove D `e diagonale.
La matrice P si dir`a la matrice diagonalizzante di A.
Definizione 1.4. Sia U una matrice complessa e quadrata di ordine n.
Diremo che U `e unitaria se soddisfa la condizione:
U
HU = UU
H= I
dove I `e la matrice identit`a e U
H`e la trasposta coniugata di U.
Esempio 1.1. Le matrici di permutazione sono esempi di matrici unitarie.
Ricordiamo che P ∈ R
n×nsi dice matrice di permutazione se `e ottenuta dalla matrice identica operando su di essa una permutazione delle righe o delle colonne. Sia {i
1, i
2, . . . , i
n} una permutazione degli indici {1, 2, . . . , n}
allora, ogni matrice di permutazione si pu`o scrivere come:
P =
e
i1e
i2. . . e
in
CAPITOLO 1. NOZIONI UTILI 6 dove e
k∈ C
ne:
(e
k)
r=
( 0 se r 6= k 1 se r = k Si osserva che:
P
TP =
e
Ti1e
Ti2...
e
Tin
·
e
i1e
i2. . . e
in
=
e
Ti1e
i1e
Ti1e
i2. . . . . . e
Ti1e
ine
Ti2e
i1e
Tine
i1e
Tine
in
ed in particolare:
(P
TP)
r,s= e
Tire
is=
( 0 se r 6= s 1 se r = s da cui ne segue che:
P
TP = I quindi, le matrici di permutazione sono unitarie.
Definizione 1.5. Una matrice quadrata A di ordine n si dice diagonale se gli unici elementi che possono essere non nulli sono quelli sulla diagonale principale. Ossia, se:
A
i,j= 0, i 6= j, ∀i, j = 1, . . . , n.
Definizione 1.6. Sia A una matrice quadrata di ordine n. Diremo che A `e diagonalizzabile mediante matrice unitaria se esiste una matrice unitaria U, tale che:
U
−1AU = D dove D `e diagonale.
Definizione 1.7. Due matrici A, B di ordine n si dicono simili se esiste P,
matrice invertibile, con la propriet`a che:
CAPITOLO 1. NOZIONI UTILI 7 P
−1AP = B.
Quindi, una matrice `e diagonalizzabile se `e simile ad una matrice diagonale.
Definizione 1.8. Una matrice quadrata A si dice triangolare se ha tutti gli elementi nulli sopra o sotto la diagonale principale.
In particolare, a seconda che gli elementi nulli siano sopra o sotto la diagonale, la matrice viene chiamata rispettivamente triangolare inferiore e triangolare superiore.
Definizione 1.9. Una matrice quadrata A di ordine n e complessa si dice normale se:
AA
H= A
HA.
Lemma 1.1. Una matrice normale e triangolare `e diagonale.
Dimostrazione. Consideriamo la matrice triangolare a blocchi:
a b
H0 C
dove C `e una matrice triangolare.
Poich´e per ipotesi `e normale, allora:
a 0 b C
H· a b
H0 C
= a b
H0 C
· a 0 b C
H. Da cui, sviluppando i calcoli:
aa ab
Hab bb
H+ C
HC
= aa + b
Hb b
HC
HCb CC
Hquindi, sono uguali se e solo se:
aa = aa + b
Hb ab
H= b
HC
Hab = Cb
bb
H+ C
HC = CC
Hda queste, otteniamo che:
(||b||
2)
2= 0 e quindi:
b = 0.
CAPITOLO 1. NOZIONI UTILI 8 Ma se b = 0, allora:
C
HC = CC
Hovvero, C `e normale.
Ma poich´e per ipotesi C, che ha ordine (n − 1) × (n − 1), `e triangolare allora
`e diagonale.
Da questo, ne segue che l’intera matrice quadrata di ordine n `e diagonale.
Teorema 1.1. (Decomposizione di Schur) Ogni matrice A ∈ C
n×nsi pu` o triangolarizzare con una trasformazione per similitudine data da una matri- ce unitaria. Ovvero, esistono una matrice triangolare superiore T ed una matrice unitaria U tali che:
U
HAU = T.
Dimostrazione. Procediamo per induzione sulla dimensione n della matrice A.
Sia n = 1.
In tal caso, la matrice A `e un numero complesso e la decomposizione di Schur vale con T = A e U = 1.
In generale, supponiamo ora che la decomposizione valga per dimensione n−1 e vogliamo dimostrare che ci`o `e vero anche se la dimensione della matrice `e pari ad n.
Consideriamo quindi A ∈ C
n×ne denotiamo con λ ed x rispettivamente un autovalore ed un autovettore di A, cio`e Ax = λx (vedi Definizione 1.17.).
Supponiamo che x sia normalizzato in modo che x
Hx = 1 e consideriamo una base ortonormale formata dai vettori {y
2, . . . , y
n} dello spazio ortogonale ad x.
Costruiamo la matrice Q le cui colonne sono costituite dai vettori {x, y
2, . . . , y
n}.
In particolare, la matrice appena costruita `e unitaria, ovvero:
Q
HQ = I ed inoltre si ha che:
Qe
1= x da cui e
1= Q
Hx, dove e
1= (1, 0, . . . , 0)
T. Inoltre vale:
Q
HAQ = λ u
T0 A
n−1dove A
n−1∈ C
(n−1)×(n−1).
Per verificare quest’ultima relazione, basta considerare Q
HAQe
1, che `e la
CAPITOLO 1. NOZIONI UTILI 9 prima colonna della matrice Q
HAQ.
Allora, vale:
Q
HAQe
1= Q
HAx = Q
Hλx = λQ
Hx = λe
1come richiesto.
Inoltre, per l’ipotesi induttiva, si ha che:
A
n−1= U
n−1T
n−1U
Hn−1da cui posto:
U
n= Q 1 0 U
n−1si ottiene:
U
HnAU
n= λ u
TU
Hn−10 T
n−1da cui la tesi, essendo U
HnAU
nuna matrice triangolare superiore.
Osservazione 1.2. Un’osservazione utile `e che la decomposizione di Schur della matrice A non `e unica. Infatti, per qualsiasi scelta di P matrice di permutazione e D matrice diagonale unitaria, moltiplicando A a sinistra per Pdiag{e
−iθ}U
Hned a destra per U
nPdiag{e
iθ}P
T, cio`e:
(Pdiag{e
−iθ}U
Hn)A(U
nPdiag{e
iθ}P
T)
si ottiene sempre una matrice triangolare superiore sulla cui diagonale vi sono gli autovalori di A.
La decomposizione di Schur ha delle conseguenze interessanti, una prima conseguenza riguarda in particolare le matrici hermitiane.
Infatti, se U
HAU = T `e la decomposizione di Schur della matrice hermitiana A allora, la propriet`a A = A
Himplica:
T
H= U
HA
HU = U
HAU = T.
Cio`e T `e hermitiana, e quindi essendo triangolare, `e diagonale.
Ovvero si ottiene che, le matrici hermitiane sono diagonalizzabili con una trasformazione per similitudine unitaria. In particolare, gli elementi diago- nali della matrice T sono tali che t
i,i= t
i,ie quindi sono reali.
Se invece la matrice A `e anti-hermitiana, cio`e se A = −A
Hprocedendo analogamente a quanto detto sopra, si ottiene che anche T `e una matrice anti-hermitiana ed in particolare, `e una matrice diagonale con elementi tali che t
i,i= −t
i,i.
Un risultato pi` u generale `e espresso dal seguente teorema.
CAPITOLO 1. NOZIONI UTILI 10 Teorema 1.2. Una matrice A ∈ C
n×n` e normale, cio` e A
HA = AA
H, se e solo se ` e diagonalizzabile mediante matrice unitaria.
Dimostrazione. Dimostriamo la doppia implicazione.
Si supponga dapprima che A sia normale. Per la decomposizione di Schur (Teorema 1.1.) esiste una matrice unitaria U tale che:
A = UTU
Hcon T matrice triangolare superiore.
Poich´e A `e normale, si ottiene:
(UTU
H)
H(UTU
H) = (UTU
H)(UTU
H)
H(UT
HU
H)(UTU
H) = (UTU
H)(UT
HU
H) (UT
H)(U
HU)(TU
H) = (UT)(U
HU)(T
HU
H) Da ci`o:
UT
HTU
H= UTT
HU
H⇒ T
HT = TT
Hovvero, T `e normale e triangolare. Ma questo, per il Lemma 1.1., implica che T `e una matrice diagonale.
Viceversa, supponiamo ora che A sia diagonalizzabile mediante una matrice unitaria e vogliamo dimostrare che A `e normale.
Per ipotesi esiste una matrice unitaria U tale che:
U
HAU = D dove D `e una matrice diagonale.
Da questo si ha che:
A = UDU
H. Calcoliamoci ora le quantit`a A
HA e AA
H:
A
HA = (UDU
H)
H(UDU
H) = (UD
HU
H)(UDU
H) = UD
HDU
HAA
H= (UDU
H)(UDU
H)
H= (UDU
H)(UD
HU
H) = UDD
HU
H. E quindi, si ha che AA
H= A
HA se e solo se:
DD
H= D
HD
ma questo `e sempre vero.
CAPITOLO 1. NOZIONI UTILI 11 Osservazione 1.3. Una matrice unitaria A `e in particolare una matrice normale e quindi la T della decomposizione di Schur `e diagonale. Inoltre, dal fatto che A
HA = I, segue che:
|t
i,i|
2= 1.
Osservazione 1.4. Se esiste una matrice unitaria U che diagonalizza A al- lora ogni altra UDP diagonalizza A, dove D = diag(e
iθk, k = 1, . . . , n)) e P di permutazione. (Vedi anche l’Osservazione 1.2.)
Infatti, se U diagonalizza la matrice A, per definizione si ha:
U
HAU = Λ
Adove Λ
A`e matrice diagonale che ha gli autovalori di A sulla diagonale prin- cipale.
Moltiplichiamo ora ambo i membri a sinistra per D
He a destra per D, ottenendo:
(D
HU
H)A(UD) = (UD)
HA(UD) = D
HΛ
AD da cui:
e
−iθ10 . . . 0 0 e
−iθ2. .. ...
... . .. ... 0 0 . . . 0 e
−iθn
Λ
A
e
iθ10 . . . 0 0 e
iθ2. .. ...
... ... ... 0 0 . . . 0 e
iθn
= Λ
A.
Definizione 1.10. Dato uno scalare λ, chiamiamo blocco di Jordan di ordine t con autovalore λ la matrice di ordine t avente tutti gli elementi appartenenti alla diagonale principale uguali a λ, tutti gli elementi della diagonale subito superiore a quella principale uguali ad 1 e tutti gli altri nulli.
(nota: si dimostra che ogni matrice A ∈ C
n×n`e simile ad una matrice diagonale a blocchi dove i blocchi diagonali sono di Jordan).
Definizione 1.11. Una matrice A si dice non negativa se tutti i suoi elementi sono maggiori o uguali a zero.
Definizione 1.12. Una matrice A si dice riducibile se esiste una matrice di permutazione P tale che PAP
−1= PAP
T`e triangolare a blocchi, cio`e:
PAP
−1= B 0 C D
dove B e D sono matrici quadrate.
Una matrice A che non `e riducibile si dice irriducibile.
CAPITOLO 1. NOZIONI UTILI 12 Definizione 1.13. Una matrice quadrata A = {a
i,j} di ordine n ad elementi non negativi si dice stocastica per colonne (righe) se la somma degli elementi su ogni colonna (o su ogni riga) `e uguale ad 1, cio`e:
a
i,j≥ 0 e
n
P
i=1
a
i,j= 1, j = 1, . . . , n o analogamente sommando sulle righe.
Definizione 1.14. Una matrice quadrata A di ordine n e complessa si dice hermitiana se coincide con la trasposta coniugata, ovvero:
A = A
HDefinizione 1.15. Una matrice quadrata A di ordine n si dice definita positiva se:
z
HAz > 0, ∀z ∈ C
ne z 6= 0
Osservazione 1.5. A definita positiva ⇒ A hermitiana, A con elementi diagonali positivi ed A diagonalizzabile con autovalori positivi.
Osservazione 1.6. Data una matrice A definita positiva, esiste una matrice B definita positiva tale che:
B
2= A.
Infatti, A = UDU
Hcon D
i,ipositivi, quindi:
A = (U √
DU
H)(U √
DU
H) dove √
D `e la matrice diagonale dove gli elementi sulla diagonale sono le radici degli autovalori.
Definizione 1.16. Una matrice di Toeplitz `e una matrice in cui gli elementi su ogni diagonale discendente da sinistra a destra sono uguali tra loro.
Per esempio, una matrice quadrata A di ordine n `e detta di Toeplitz se:
A =
a
0a
−1a
−2. . . . . . a
−n+1a
1a
0a
−1. .. ...
... a
1. .. ... ... ...
... . .. ... a
−1a
−2... . .. a
0a
−1a
n−1. . . . . . . . . a
1a
0
= (a
i−j)
ni,j=1.
CAPITOLO 1. NOZIONI UTILI 13
1.3 Autovalori ed autovettori
Introduciamo alcune definizioni ed osservazioni riguardanti gli autovalori ed autovettori di una matrice.
Definizione 1.17. Sia A una matrice quadrata di ordine n; λ ∈ C `e detto autovalore di A se esiste x ∈ C
n, x 6= 0, tale che:
Ax = λx
Dove il vettore x `e detto autovettore associato all’autovalore λ.
In particolare se λ `e autovalore di A allora `e soluzione dell’equazione ca- ratteristica:
p
A(λ) = det(λI − A) = 0
dove I `e la matrice identit`a e p
A(λ) `e detto polinomio caratteristico di A.
Definizione 1.18. Data una generica matrice A viene chiamato σ(A), lo spettro di A, l’insieme degli autovalori della matrice, cio`e:
σ (A) = {λ ∈ C : ∃v 6= 0 tale che Av = λv}
e si definisce ρ(A) il suo raggio spettrale:
ρ(A) = max
λ∈σ(A)
|λ|
Definizione 1.19. Sia A una matrice quadrata di ordine n e λ ∈ C au- tovalore di A. Si dice molteplicit`a algebrica di λ (e si indica con m
a(λ)) la molteplicit`a che λ ha come radice del polinomio caratteristico.
Si dice invece molteplicit`a geometrica di λ (e si indica con m
g(λ)) la dimensio- ne dell’autospazio relativo a λ, ovvero il numero degli autovettori linearmente indipendenti relativi all’autovalore λ.
Lemma 1.2. Siano A ∈ C
n×n, λ ∈ C autovalore di A ed x ∈ C
ncorrispet- tivo autovettore, cio` e Ax = λx. Allora ne segue che:
p(A)x = p(λ)x per ogni polinomio p.
Osservazione 1.7. Una matrice quadrata A di ordine n `e diagonalizzabile se e solo se la molteplicit`a algebrica e geometrica coincidono per ogni autovalore di A. Inoltre, se A `e diagonalizzabile, gli elementi sulla diagonale di D (vedi Definizione 1.3.) sono gli autovalori di A
1e le colonne di P sono gli autovettori corrispondenti.
1
P
−1AP = D ⇒ p
A(λ) = p
D(λ)
CAPITOLO 1. NOZIONI UTILI 14 Osservazione 1.8. Autovettori relativi ad autovalori distinti sono indipen- denti. In particolare, nel caso in cui la matrice `e normale, sono ortogonali.
Osservazione 1.9. Se A `e una matrice quadrata di ordine n e definita
positiva, allora i suoi autovalori sono tutti strettamente positivi. Inoltre, il
massimo autovalore coincide proprio con il raggio spettrale ρ(A) (nota: ρ(A)
pu`o avere molteplicit`a algebrica maggiore di 1).
Capitolo 2
Metodo delle Potenze
2.1 Caso A diagonalizzabile
In questa sezione dimostriamo un teorema in cui si analizza la convergenza delle potenze di una matrice A diagonalizzabile (vedi Teorema 2.1.).
Il metodo delle potenze `e un metodo iterativo per il calcolo approssimato dell’autovalore di modulo massimo di una matrice e di un autovettore ad esso associato.
Sia A ∈ C
n×ndiagonalizzabile con autovalori λ
1, λ
2, . . . , λ
n. Supponiamo, inoltre, che gli autovalori siano ordinati in modo tale che:
|λ
1| > |λ
j|, ∀λ
j6= λ
1(nota: molteplicit`a geometrica ed algebrica di λ
1coincidono).
Con tali ipotesi λ
1`e detto autovalore dominante per la matrice A.
Siccome per ipotesi A `e diagonalizzabile, esiste una base di autovettori {x
1, ..., x
n} dove x
i`e l’autovettore associato all’autovalore λ
i, cio`e Ax
i= λ
ix
i, i = 1, ..., n. Sia v ∈ C
n, allora questo pu`o essere scritto come:
v =
n
X
i=1
α
ix
iOsserviamo che, per le identit`a A
kx
i= λ
kix
i(vedi Lemma 1.2.), l’azione di A
ksu v ammette la seguente rappresentazione:
A
kv = A
kn
X
i=1
α
ix
i=
n
X
i=1
α
iA
kx
i=
n
X
i=1
α
iλ
kix
i= X
i:λi=λ1
α
iλ
k1x
i+ X
i:λi6=λ1
α
iλ
kix
i.
15
CAPITOLO 2. METODO DELLE POTENZE 16 Dividiamo adesso ambo i membri per λ
k1e si ha:
1
λ
k1A
kv = X
i:λi=λ1
α
ix
i+ X
i:λi6=λ1
α
iλ
iλ
1 kx
ie passando al limite per k → ∞ si ottiene che:
1
λ
k1A
kv → X
i:λi=λ1
α
ix
i(2.1)
e quindi 1
λ
k1A
kv tende a disporsi nella direzione dell’autovettore x = P
i:λi=λ1
α
ix
iassociato all’autovalore λ
1. Dalla (2.1) otteniamo:
||A
kv||
|λ
1|
k−−−→
k→∞
||x|| (2.2)
Considerando sia la (2.1) che la (2.2) si ha una successione convergente all’autovettore x normalizzato:
|λ
1|
kλ
k1A
kv
||A
kv|| −−−→
k→∞
x
||x|| . (2.3)
La (2.1) implica pure che, per ogni vettore u ∈ C
n: 1
λ
k1(u
HA
kv) −−−→
k→∞
u
Hx allora sar`a anche vero che:
1
λ
k+11(u
HA
k+1v) −−−→
k→∞
u
Hx (2.4)
e quindi, se u
Hx 6= 0:
u
HA
k+1v u
HA
kv −−−→
k→∞
λ
1(2.5)
Da cui possiamo osservare che, con il metodo delle potenze, `e possibile cal- colare anche l’autovalore dominante.
Enunciamo di conseguenza il seguente teorema:
Teorema 2.1. Sia A ∈ C
n×ndiagonalizzabile, siano λ
i, i = 1, 2, ... , n,
i suoi autovalori e x
iautovettori linearmente indipendenti corrispondenti ai
λ
i.
CAPITOLO 2. METODO DELLE POTENZE 17 Supponiamo |λ
1| > |λ
j|, ∀λ
j6= λ
1(osservazione: m
a(λ
1) = m
g(λ
1)).
Sia v ∈ C
n, ||v|| = 1, tale che nella rappresentazione di v, v =
n
P
i=1
α
ix
i, il vettore x = P
i:λi=λ1
α
ix
isia non nullo (nota: ci` o implica A
kv non nullo,
∀k = 1, 2, 3, ...).
Sia anche u ∈ C
n, tale che u
Hx 6= 0 (nota: 1
λ
k1(u
HA
kv) −−−→
k→∞
u
Hx e quindi
∃k
∗∈ N per cui sono non nulli ∀k > k
∗). Allora:
|λ
1|
kλ
k1A
kv
||A
kv|| −−−→
k→∞
x
||x|| (2.6)
u
HA
k+1v u
HA
kv −−−→
k→∞
λ
1(2.7)
dove la successione in (2.6) `e ben definita ∀k ed ∃k
∗∈ N tale che la succes- sione (2.7) `e ben definita ∀k > k
∗.
Le quantit` a in (2.6) e (2.7) si possono calcolare tramite il seguente algoritmo:
v
0:= v. Per k = 1, 2, ...
a
k:= Av
k−1ϕ
k:= u
Ha
ku
Hv
k−1, u
Hv
k−16= 0 ∀k v
k:= a
k||a
k||
(2.8)
Infatti, ϕ
k= u
HA
kv
u
HA
k−1v (e quindi ϕ
k−−−→
k→∞
λ
1) e v
k= A
kv
||A
kv|| ∀k = 1, 2, ...
(e quindi |λ
1|
kλ
k1v
k−−−→
k→∞
x
||x|| ).
Dimostrazione. Rimangono da dimostrare solamente le affermazioni:
1. A
kv non nullo, ∀k = 1, 2, 3, ...
2. ϕ
k= u
HA
kv
u
HA
k−1v e v
k= A
kv
||A
kv|| ∀k = 1, 2, ...
Punto 1:
Supponiamo per assurdo che A
kv sia nullo, allora anche la sua rappresenta- zione data da:
A
kv = X
i:λ1=λi
α
iλ
k1x
i+ X
i:λi6=λ1
α
iλ
kix
iCAPITOLO 2. METODO DELLE POTENZE 18 sar`a nulla.
Ma poich´e per ipotesi gli autovettori x
isono linearmente indipendenti, que- sto implica che gli scalari α
i, con i : λ
i= λ
1, siano tutti uguali a 0 (perch´e λ
16= 0). Da questo ne segue per`o che anche il vettore x sarebbe nullo, che `e assurdo.
Punto 2:
Procediamo per induzione.
Sia k = 1 e vogliamo dimostrare che:
v
1= Av
||Av||
ϕ
1= u
HAv u
Hv .
Utilizzando le definizioni dell’algoritmo (2.8) otteniamo:
v
1= a
1||a
1|| = Av
0||Av
0|| = Av
||Av||
ϕ
1= u
Ha
1u
Hv
0= u
HAv
0u
Hv
0= u
HAv u
Hv . Ora supponiamo che la tesi `e vera per k ≤ n, in particolare:
ϕ
n= u
HA
nv u
HA
n−1v v
n= A
nv
||A
nv||
Dimostriamola per k = n + 1, cio`e vogliamo dimostrare che:
ϕ
n+1= u
HA
n+1v u
HA
nv v
n+1= A
n+1v
||A
n+1v|| .
Utilizzando le definizioni dell’algoritmo (2.8) e ci`o che abbiamo supposto vero nell’ipotesi induttiva, otteniamo:
ϕ
n+1= u
Ha
n+1u
Hv
n= u
HAv
nu
Hv
n= u
HA(A
nv)
u
HA
nv = u
HA
n+1v u
HA
nv v
n+1= a
n+1||a
n+1|| = Av
n||Av
n|| = A
n+1v
||A
n+1v||
la tesi `e quindi verificata.
CAPITOLO 2. METODO DELLE POTENZE 19 Osservazione 2.1. La velocit`a di convergenza del metodo va come:
max
j:λj6=λ1
|λ
j|
|λ
1|
k.
Osservazione 2.2. Il costo per ogni passo `e dato dal prodotto della matrice A per un vettore. In generale quindi `e n
2, ma nel caso in cui A ha qualche particolare struttura, tale costo si pu`o ridurre. Ad esempio, se A `e di Toeplitz (vedi Definizione 1.16.) allora A pu`o essere immersa in una matrice circolante di ordine 2n e quindi, il prodotto di A per un vettore `e calcolabile con O(n log n) operazioni aritmetiche (vedi [5]).
2.1.1 A definita positiva
Come conseguenza del Teorema 2.1., scegliendo ||.|| = ||.||
2e u = v, si pu`o enunciare il seguente risultato nel caso particolare in cui la matrice sia definita positiva.
Corollario 2.1. Sia A ∈ C
n×ndefinita positiva, siano 0 < λ
n≤ · · · ≤ λ
t+1< λ
t= · · · = λ
1i suoi autovalori e x
iautovettori corrispondenti ai λ
iper i = 1, 2, . . . .
Sia v ∈ C
n, ||v||
2= 1, tale che nella rappresentazione di v, v = P
i≤t
α
ix
i+ P
i>t
α
ix
i, il vettore x = P
i≤t
α
ix
isia non nullo (nota: ci` o implica che A
kv 6= 0, v
Hx = (||x||
2)
26= 0 (vedi Osservazione 1.8.)).
Sia anche u = v ∈ C
n, (nota: v
Hx 6= 0 e 0 < 1
λ
k1(v
HA
kv) −−−→
k→∞
v
Hx
∀k ∈ N). Allora:
A
kv
||A
kv||
2= |λ
1|
kλ
k1A
kv
||A
kv||
2−−−→
k→∞
x
||x||
2(2.9) v
HA
k+1v
v
HA
kv −−−→
k→∞
λ
1(2.10)
dove le successioni in ( 2.9) e (2.10) sono ben definite ∀k ∈ N.
Le quantit` a in (2.9) e (2.10) si possono calcolare tramite il seguente algoritmo:
v
0:= v. Per k = 1, 2, ...
a
k:= Av
k−1ϕ
k:= v
Ha
kv
Hv
k−1, v
Hv
k−16= 0 ∀k v
k:= a
k||a
k||
2(2.11)
CAPITOLO 2. METODO DELLE POTENZE 20
Infatti, ϕ
k= v
HA
kv
v
HA
k−1v (e quindi ϕ
k−−−→
k→∞
λ
1) e v
k= A
kv
||A
kv||
2∀k = 1, 2, ...
(e quindi v
k−−−→
k→∞
x
||x||
2). Inoltre:
ϕ
k≤ ϕ
k+1≤ λ
1= ρ(A) ∀k = 1, 2, . . . . (2.12) cio` e la successione ϕ
kconverge in modo monotono a λ
1= ρ(A).
Dimostrazione. Rimane solo da dimostrare che la successione ϕ
kottenuta in (2.11) `e crescente.
Utilizzando la definizione di ϕ
kin (2.11) si ha che ϕ
k≤ ϕ
k+1se e solo se:
v
HA
kv
v
HA
k−1v ≤ v
HA
k+1v v
HA
kv
cio`e se e solo se moltiplicando il membro di destra per v
HA
k−1v e quello di sinistra per v
HA
kv:
(v
HA
kv)
2≤ (v
HA
k−1v)(v
HA
k+1v). (2.13) Ma la (2.13) risulta verificata perch´e equivale alla seguente disuguaglianza di Cauchy-Schwarz:
v
HA
k−12A
k+12v
2≤ ||A
k−12v||
2 2||A
k+12v||
2 2(nota: `e possibile considerare la radice quadrata della matrice A in quanto quest’ultima per ipotesi `e definita positiva (vedi Osservazione 1.6.)).
Abbiamo verificato quindi che, nel caso in cui A `e matrice definita po- sitiva, si genera una successione ϕ
kche tende in modo monotono, in questo caso crescente, all’autovalore dominante di A.
Osservazione 2.3. Se si volesse invece calcolare l’autovalore minimo, che chiamiamo λ
min, della matrice A definita positiva, basta applicare il Corol- lario precedente alla sua inversa, ovvero ad A
−1.
In particolare, in tal caso, si produce una successione ϕ
kche tende in modo crescente a 1
λ
min, ovvero, una successione 1
ϕ
kche tende in modo decrescente
a λ
mindi A. Il costo per ogni passo `e dato dal prodotto della matrice A
−1per un vettore, ovvero risolvere un sistema lineare con A matrice dei coeffi-
cienti. In generale quindi `e O(n
3). Per`o, se A ad esempio `e di Toeplitz allora
il costo si riduce a O(n
2)(vedi [2]).
CAPITOLO 2. METODO DELLE POTENZE 21
2.2 Caso A generica
Sia A ∈ C
n×ngenerica e sia X ∈ C
n×suna matrice del tipo:
X =
x
1x
2. . . . . . x
s
tale che:
AX = X
λ 1 0 . . . 0 0 . .. ... ... ...
... ... ... ... 0 ... . .. ... 1 0 . . . . 0 λ
(2.14)
ovvero:
Ax
1= λx
1Ax
2= x
1+ λx
2Ax
3= x
2+ λx
3...
Ax
s= x
s−1+ λx
sPoich´e ci servir`a successivamente, vogliamo ora ottenere una rappresentazio- ne di A
kx
jcon: 1 ≤ j ≤ s.
Per j = 1 si ha immediatamente che:
A
kx
1= λ
kx
1Vediamo il caso in cui j = 2:
A
2x
2= A(Ax
2) = A(x
1+ λx
2) = Ax
1+ λAx
2= λx
1+ λx
1+ λ
2x
2= 2λx
1+ λ
2x
2A
3x
2= A(A
2x
2) = 2λAx
1+ λ
2Ax
2= 2λ
2x
1+ λ
2x
1+ λ
3x
2= 3λ
2x
1+ λ
3x
2A
4x
2= A(A
3x
2) = A(3λ
2x
1+ λ
3x
2) = 3λ
2Ax
1+ λ
3Ax
2= 3λ
3x
1+ λ
3x
1+ λ
4x
2= 4λ
3x
1+ λ
4x
2CAPITOLO 2. METODO DELLE POTENZE 22 Dalle precedenti uguaglianze possiamo congetturare:
A
kx
2= kλ
k−1x
1+ λ
kx
2, k ≥ 1 (2.15) (nota: (2.15) `e vera anche per k = 0 se λ 6= 0).
Dimostrazione. Dimostriamo la congettura procedendo per induzione.
Sia k = 1, allora per quanto gi`a visto precedentemente:
Ax
2= x
1+ λx
2.
Supponiamo ora che sia vera per k ≤ n, in particolare:
A
nx
2= nλ
n−1x
1+ λ
nx
2. Dimostriamola per k = n + 1:
A
n+1x
2= A(A
nx
2) = A(nλ
n−1x
1+ λ
nx
2)
= nλ
n−1Ax
1+ λ
nAx
2= nλ
n−1(λx
1) + λ
n(x
1+ λx
2)
= nλ
nx
1+ λ
nx
1+ λ
n+1x
2= (n + 1)λ
nx
1+ λ
n+1x
2la congettura `e quindi verificata.
Caso j = 3:
A
2x
3= A(Ax
3) = A(x
2+ λx
3)
= Ax
2+ λAx
3= x
1+ λx
2+ λx
2+ λ
2x
3= x
1+ 2λx
2+ λ
2x
3A
3x
3= A(A
2x
3) = Ax
1+ 2λAx
2+ λ
2Ax
3= λx
1+ 2λ(x
1+ λx
2) + λ
2(x
2+ λx
3)
= λx
1+ 2λx
1+ 2λ
2x
2+ λ
2x
2+ λ
3x
3= 3λx
1+ 3λ
2x
2+ λ
3x
3A
4x
3= A(A
3x
3) = A(3λx
1+ 3λ
2x
2+ λ
3x
3)
= 3λAx
1+ 3λ
2Ax
2+ λ
3Ax
3= 3λ(λx
1) + 3λ
2(x
1+ λx
2) + λ
3(x
2+ λx
3)
= 3λ
2x
1+ 3λ
2x
1+ 3λ
3x
2+ λ
3x
2+ λ
4x
3= 6λ
2x
1+ 4λ
3x
2+ λ
4x
3CAPITOLO 2. METODO DELLE POTENZE 23 Da quanto ottenuto possiamo congetturare che:
A
kx
3= 1
2 k(k − 1)λ
k−2x
1+ kλ
k−1x
2+ λ
kx
3, k ≥ 2 (2.16) (nota: (2.16) `e vera anche per k = 0, 1 se λ 6= 0).
Dimostrazione. Procediamo a dimostrare la congettura per induzione.
Per k = 2 otteniamo che:
A
2x
3= x
1+ 2λx
2+ λ
2x
3e ci`o `e vero per quanto visto precedentemente.
Supponiamo che sia vera per k ≤ n, in particolare:
A
nx
3= 1
2 n(n − 1)λ
n−2x
1+ nλ
n−1x
2+ λ
nx
3. Dimostro ora che la congettura `e vera per k = n + 1.
A
n+1x
3= A(A
nx
3) = A 1
2 n(n − 1)λ
n−2x
1+ nλ
n−1x
2+ λ
nx
3= 1
2 n(n − 1)λ
n−2Ax
1+ nλ
n−1Ax
2+ λ
nAx
3= 1
2 n(n − 1)λ
n−1x
1+ nλ
n−1(x
1+ λx
2) + λ
n(x
2+ λx
3)
= 1
2 n(n − 1)λ
n−1x
1+ nλ
n−1x
1+ nλ
nx
2+ λ
nx
2+ λ
n+1x
3= 1
2 n(n + 1)λ
n−1x
1+ (n + 1)λ
nx
2+ λ
n+1x
3La congettura `e quindi verificata.
Da ci`o che abbiamo verificato precedentemente, possiamo quindi conget- turare il caso per j generico in {1, 2, . . . , s}:
A
kx
j=
k j − 1
λ
k−j+1x
1+
k j − 2
λ
k−j+2x
2+ ...+
+ k
2 (k − 1)λ
k−2x
j−2+ kλ
k−1x
j−1+ λ
kx
j, k ≥ j − 1
(2.17)
(nota: (2.17) `e vera anche per k = 0, 1, . . . , j − 2 se λ 6= 0).
CAPITOLO 2. METODO DELLE POTENZE 24 Dimostrazione. Nell’ipotesi (2.14) pi` u precisamente dimostriamo questo:
A
kx
j= (
kk
λ
0x
j−k+
k−1kλx
j−k+1+ · · · +
k1λ
k−1x
j−1+
k0λ
kx
jse k < j − 1
k
j−1
λ
k−j+1x
1+
j−2kλ
k−j+2x
2+ · · · +
k1λ
k−1x
j−1+
k0λ
kx
jse k ≥ j − 1 (2.18)
Le formule del sistema (2.18) sono intuitive esaminando i casi in cui j `e piccola, oppure come segue, procediamo a dimostrarle per induzione su j.
Abbiamo che: A
kx
1= λ
kx
1per k ≥ 0, da cui ne segue che la (2.18) `e vera per j = 1. Inoltre:
A
kx
2=
( x
2se k = 0
kλ
k−1x
1+ λ
kx
2se k ≥ 1 quindi la (2.18) `e vera per j = 2.
Supponiamo che la tesi sia vera per j, si deve dimostrare ora che sia ve- ra anche per j + 1, j = 1, . . . , s − 1, cio`e:
A
kx
j+1= (
kk
λ
0x
j+1−k+
k−1kλx
j−k+2+ · · · +
k1λ
k−1x
j+
k0λ
kx
j+1se k < j
k
j
λ
k−jx
1+
j−1kλ
k−j+1x
2+ · · · +
k1λ
k−1x
j+ λ
kx
j+1se k ≥ j ovvero che:
(A
k−λ
kI)x
j+1= (
kk
λ
0x
j+1−k+
k−1kλx
j−k+2+ · · · +
k1λ
k−1x
jse k < j
k
j
λ
k−jx
1+
j−1kλ
k−j+1x
2+ · · · +
k1λ
k−1x
jse k ≥ j . Si nota innanzitutto che:
(A
k−1+ λA
k−2+ λ
2A
k−3+ · · · + λ
k−2A + λ
k−1I)(A − λI)
= A
k− λA
k−1+ λA
k−1− λ
2A
k−2+ λ
2A
k−2− λ
3A
k−3+ + · · · + λ
k−2A
2− λ
k−1A + λ
k−1A − λ
kI = A
k− λ
kI e (A − λI)x
j+1= x
jper j = 1, 2, . . . , s − 1.
Da questo ne segue che:
(A
k− λ
kI)x
j+1= (A
k−1+ λA
k−2+ λ
2A
k−3+ · · · + λ
k−2A + λ
k−1I)x
j= A
k−1x
j+ λA
k−2x
j+ λ
2A
k−3x
j+ · · · + λ
k−2Ax
j+ λ
k−1x
j. Ora, per quest’ultimo risultato ottenuto, nei due casi distinti si ha:
Primo caso: k < j
CAPITOLO 2. METODO DELLE POTENZE 25 In tal caso, per tutti gli addendi utilizziamo la prima equazione della (2.18), ottenendo:
(A
k− λ
kI)x
j+1= k − 1 k − 1
λ
0x
j−k+1+ k − 1 k − 2
λx
j−k+2+ · · · + k − 1 0
λ
k−1x
j+ λ k − 2 k − 2
λ
0x
j−k+2+ k − 2 k − 3
λx
j−k+3+ . . . + k − 2
0
λ
k−2x
j+ λ
2k − 3 k − 3
λ
0x
j−k+3+ k − 3 k − 4
λx
j−k+4+ k − 3 0
λ
k−3x
j+ · · · + λ
k−21 1
λ
0x
j−1+ 1 0
λx
j+ λ
k−10 0
λ
0x
j= k − 1 k − 1
x
j−k+1+ λx
j−k+2k − 2 k − 2
+ k − 1 k − 2
+ + λ
2x
j−k+3k − 3 k − 3
+ k − 2 k − 3
+ k − 1 k − 3
+ . . . + λ
k−2x
j−11 1
+ 2
1
· · · + k − 1 1
+ + λ
k−1x
j0 0
+ 1
0
+ · · · + k − 1 0
= k k
x
j−k+1+ λx
j−k+2k k − 1
+ λ
2x
j−k+3k k − 2
+ . . . + λ
k−2x
j−1k 2
+ λ
k−1x
jk 1
nota: nell’ultimo passaggio abbiamo usato il fatto che:
ks=
k−1P
j=s−1 j s−1
.
Secondo caso: k ≥ j
In questo caso, per i primi k − j + 1 addenti utilizziamo la seconda equazione della (2.18) e per i rimanenti successivi, la prima. Ottenendo:
(A
k− λ
kI)x
j+1= k − 1 j − 1
λ
k−jx
1+ k − 1 j − 2
λ
k−j+1x
2+ · · · + k − 1 2
λ
k−3x
j−2+ + k − 1
1
λ
k−2x
j−1+ λ
k−1x
j+ λ k − 2 j − 1
λ
k−j−1x
1+ + k − 2
j − 2
λ
k−jx
2+ · · · + k − 2 2
λ
k−4x
j−2+ k − 2 1
λ
k−3x
j−1+
CAPITOLO 2. METODO DELLE POTENZE 26
+ λ
k−2x
j+ · · · + λ
k−jj − 1 j − 1
λ
0x
1+ j − 1 j − 2
λx
2+ · · · + + j − 1
2
λ
j−3x
j−2+ j − 1 1
λ
j−2x
j−1+ λ
j−1x
j+ + λ
k−j+1j − 2
j − 2
λ
0x
2+ j − 2 j − 3
λx
3+ · · · + j − 2 1
λ
j−3x
j−1+ + j − 2
0
λ
j−2x
j+ λ
k−j+2j − 3 j − 3
λ
0x
3+ j − 3 j − 4
λx
4+ + · · · + j − 3
1
λ
j−4x
j−1+ j − 3 0
λ
j−3x
j+ · · · + + λ
k−32
2
λ
0x
j−2+ 2 1
λx
j−1+ 2 0
λ
2x
j+ + λ
k−21
1
λ
0x
j−1+ 1 0
λx
j+ λ
k−10 0
λ
0x
j= λ
k−1x
j0 0
+ 1
0
+ · · · + j − 3 0
+ j − 2 0
+ k − j + 1
+ + λ
k−2x
j−11 1
+ 2
1
+ · · · + j − 3 1
+ j − 2 1
+ j − 1 1
+ + · · · + k − 2
1
+ k − 1 1
+ λ
k−3x
j−22 2
+ 3
2
+ · · · + + j − 3
2
+ j − 2 2
+ j − 1 2
+ · · · + k − 2 2
+ k − 1 2
+ + · · · + λ
k−j+1x
2j − 2 j − 2
+ j − 1 j − 2
+ · · · + k − 2 j − 2
+ + k − 1
j − 2
+ λ
k−jx
1j − 1 j − 1
+ · · · + k − 2 j − 1
+ k − 1 j − 1
= λ
k−1x
jk 1
+ λ
k−2x
j−1k 2
+ λ
k−3x
j−2k 3
+ · · · + λ
k−j+1x
2k j − 1
+ λ
k−jx
1k j
. Quindi in entrambi i casi, la tesi risulta verificata.
Dal risultato appena dimostrato, possiamo enunciare il seguente corolla- rio.
Corollario 2.2. i) Nell’ipotesi (2.14) vale (2.18) per j ∈ {1, 2, . . . , s}.
ii) Sia k < s − 1. Sappiamo allora che vale la seconda rappresentazione in
CAPITOLO 2. METODO DELLE POTENZE 27 (2.18) di A
kx
jper j = 1, 2, . . . , k + 1 mentre vale la prima rappresentazione per j = k + 2, . . . , s, cio`e:
A
k
x
1. . . x
kx
k+1x
k+2. . . x
s
=
x
1. . . x
kx
k+1x
k+2. . . x
s
·
k
0
λ
k. . .
k−1kλ
kk0 . . . 0 0 . .. .. .
k−1kλ
kk. .. .. . .. . . ..
k0λ
k.. . . .. ... 0
.. . 0
k0λ
k. ..
kk
.. . 0 . ..
kk−1
λ
.. . . .. ... .. .
0 . . . . . . . . . . . . 0
k0λ
k
.
Sia invece k ≥ s−1. Sappiamo che vale la seconda rappresentazione in (2.18) di A
kx
jper j = 1, 2, . . . , s (cio`e per tutte le colonne x
1, . . . , x
srelative al blocco di Jordan di λ), cio` e:
A
k
x
1x
2. . . x
j. . . x
s
=
x
1x
2. . . x
j. . . x
s
·
k
0
λ
k k1λ
k−1. . .
j−1kλ
k−j+1. . .
s−1kλ
k−s+10
k0λ
k k1λ
k−1. . . . . .
s−2kλ
k−s+2.. . 0
k0λ
k. .. .. .
.. . 0
k0λ
k. .. .. .
.. . 0 . ..
k1
λ
k−10 . . . . . . . . . 0
k0λ
k
.
Sia J la forma canonica di Jordan di A allora, ∃X ∈ C
n×nnon singolare:
AX = XJ. Siano x
i+1, . . . , x
i+sle colonne di X corrispondenti al generico
CAPITOLO 2. METODO DELLE POTENZE 28 blocco di J di ordine s di A. Dalla (2.18) possiamo dire che, per k abbastanza grande, k ≥ s − 1, `e vera la seguente relazione:
A
kx
i+j=
k j − 1
λ
k−j+1x
1+i+
k j − 2
λ
k−j+2x
2+i... + k
2 (k − 1)λ
k−2x
j−2+i+ kλ
k−1x
j−1+i+ λ
kx
j+i=
j
X
r=1
x
i+rλ
k+r−jk j − r
, j = 1, . . . , s.
(2.19) Per k ≥ n − 1 la (2.19) `e vera per le colonne di X corrispondenti ad ogni blocco di Jordan di A.
Dato un autovalore λ generico, per comodit`a chiamiamo g la sua molte- plicit`a geometrica (cio`e il numero di blocchi di Jordan ad esso associati) ed a quella algebrica.
Assumiamo che il generico blocco di Jordan associato a λ occupi le posizioni i
l+ 1 e i
l+ s
lquindi, s
l`e la dimensione del blocco mentre la somma degli s
lper l = 1, . . . , g `e uguale ad a.
Sia ora v ∈ C
n, ||v|| = 1, allora v si pu`o rappresentare in questo modo:
v = · · · +
g
X
l=1 sl
X
j=1
α
il+jx
il+j+ · · · + x (2.20)
dove x =
t
P
m=1
α
mx
me t = m
a(λ
1) = m
g(λ
1).
Si suppone che un autovalore dominante di A, λ
1, abbia molteplicit`a geo- metrica ed algebrica coincidenti e che occupi la parte in alto della forma canonica di Jordan di A (J
k,k= λ
1, k = 1, . . . , t).
Moltiplichiamo ora entrambi i membri della (2.20) per A
k, ottenendo quindi:
A
kv = A
kx + A
k(· · · +
g
X
l=1 sl
X
j=1
α
il+lx
il+j+ . . . )
= λ
k1x + (· · · +
g
X
l=1 sl
X
j=1
α
il+jA
kx
il+j+ . . . )
Utilizzando poi la relazione (2.19) su ci`o che abbiamo appena ottenuto, si ha:
A
kv = λ
k1x + · · · +
g
X
l=1 sl
X
j=1
α
il+jj
X
r=1