• Non ci sono risultati.

Studio della convergenza del metodo delle potenze

N/A
N/A
Protected

Academic year: 2021

Condividi "Studio della convergenza del metodo delle potenze"

Copied!
51
0
0

Testo completo

(1)

Universit` a degli Studi di Roma Tor Vergata

FACOLT ` A DI SCIENZE MATEMATICHE, FISICHE E NATURALI Corso di Laurea Magistrale in Matematica

Tesi di laurea magistrale

Studio della convergenza del metodo delle potenze

Candidato:

Sara Loss

Matricola 0245827

Relatore:

Carmine Di Fiore

Anno Accademico 2017–2018

(2)

Alla mia famiglia che ha creduto in me.

(3)

Indice

Introduzione 2

1 Nozioni utili 4

1.1 Norme vettoriali e prodotto scalare . . . . 4

1.2 Matrici . . . . 5

1.3 Autovalori ed autovettori . . . 13

2 Metodo delle Potenze 15 2.1 Caso A diagonalizzabile . . . 15

2.1.1 A definita positiva . . . 19

2.2 Caso A generica . . . 21

2.3 Caso A non negativa . . . 32

2.3.1 Cenni sulla teoria di Perron-Frobenius . . . 32

2.3.2 A non negativa ed irriducibile . . . 32

2.3.3 A non negativa, irriducibile e stocastica per colonne . . 35

3 Problema 38

Bibliografia 49

2

(4)

Introduzione

Data una qualsiasi matrice, non sempre `e necessario conoscere l’insieme di tutti i suoi autovalori , spesso `e possibile limitarsi alla ricerca di quelli estre- mi, ovvero quelli di modulo massimo e/o di modulo minimo.

In questa tesi esporremo il metodo delle potenze, che `e un classico metodo iterativo per approssimare l’autovalore di modulo massimo di una matrice, meglio detto autovalore dominante, e il corrispondente autovettore.

Nel Capitolo 1 iniziamo ad introdurre alcune definizioni ed osservazioni che saranno utili nei capitoli successivi. In particolare, tratteremo nozioni ri- guardanti la norma vettoriale, le matrici, gli autovalori ed i corrispondenti autovettori.

Nel Capitolo 2 introdurremo il metodo delle potenze. Inizieremo studiando tale metodo nel caso pi` u semplice, ovvero quello di una matrice diagonaliz- zabile (in particolare definita positiva) e successivamente, passeremo prima a studiare il caso in cui la matrice sia generica, per poi concludere con due casi particolari ovvero, il metodo delle potenze applicato ad una matrice non negativa ed irriducibile e ad una non negativa, irriducibile e stocastica per colonne.

Nel Capitolo 3 verr`a affrontato un problema riguardante la monotonia della successione ϕ

k

definita nell’algoritmo del metodo delle potenze, visto nel capitolo precedente, nel caso particolare di una matrice non negativa ed irriducibile.

3

(5)

Capitolo 1 Nozioni utili

1.1 Norme vettoriali e prodotto scalare

Introduciamo alcune definizioni riguardanti le norme vettoriali ed il prodotto scalare.

Definizione 1.1. Una norma vettoriale `e un’applicazione || · || : C

n

−→

R

+

∪ {0} tale che valgono le seguenti propriet`a:

1. ||x|| ≥ 0 ∀x ∈ C

n

e ||x|| = 0 se e solo se x = 0.

2. ||αx|| = |α|||x|| ∀α ∈ C, ∀x ∈ C

n

.

3. ||x + y|| ≤ ||x|| + ||y|| ∀x, y ∈ C

n

(disuguaglianza triangolare).

Esempi importanti di norme vettoriali sono:

1. ||x||

1

=

n

P

j=1

|x

j

| (norma-1 ).

2. ||x||

2

=



n

P

j=1

|x

j

|

2



12

(norma Euclidea o norma-2 ).

3. ||x||

= max

j

|x

j

| (norma infinito).

Tutte queste norme sono casi particolari della norma-p, definita come:

||x||

p

=



n

X

j=1

|x

j

|

p



1p

.

Definizione 1.2. Il prodotto scalare su C

n

`e un’applicazione h., .i : C

n

× C

n

−→ C che alla coppia (x, y) associa lo scalare hx, yi tale che:

4

(6)

CAPITOLO 1. NOZIONI UTILI 5 1. hx, xi ≥ 0 ∀x ∈ C

n

e hx, xi = 0 se e solo se x = 0.

2. hx, yi = hy, xi ∀x, y ∈ C

n

.

3. hx, λyi = λhx, yi ∀x ∈ C

n

, ∀λ ∈ C.

4. hx + y, zi = hx, zi + hy, zi ∀x, y, z ∈ C

n

.

Osservazione 1.1. (Disuguaglianza di Cauchy-Schwarz) Per ogni x e y vet- tori in C

n

, il loro prodotto scalare soddisfa la disuguaglianza di Cauchy- Schwarz, cio`e:

|hx, yi|

2

≤ ||x||

2

· ||y||

2

(nota: vale l’uguaglianza se e solo se i vettori x ed y sono linearmente dipendenti).

1.2 Matrici

Introduciamo alcune definizioni riguardanti le matrici, che ci saranno utili.

Definizione 1.3. Sia A una matrice quadrata di ordine n. Diremo che A `e diagonalizzabile se e solo se esiste P, matrice invertibile, tale che:

P

−1

AP = D dove D `e diagonale.

La matrice P si dir`a la matrice diagonalizzante di A.

Definizione 1.4. Sia U una matrice complessa e quadrata di ordine n.

Diremo che U `e unitaria se soddisfa la condizione:

U

H

U = UU

H

= I

dove I `e la matrice identit`a e U

H

`e la trasposta coniugata di U.

Esempio 1.1. Le matrici di permutazione sono esempi di matrici unitarie.

Ricordiamo che P ∈ R

n×n

si dice matrice di permutazione se `e ottenuta dalla matrice identica operando su di essa una permutazione delle righe o delle colonne. Sia {i

1

, i

2

, . . . , i

n

} una permutazione degli indici {1, 2, . . . , n}

allora, ogni matrice di permutazione si pu`o scrivere come:

P =

e

i1

e

i2

. . . e

in

(7)

CAPITOLO 1. NOZIONI UTILI 6 dove e

k

∈ C

n

e:

(e

k

)

r

=

( 0 se r 6= k 1 se r = k Si osserva che:

P

T

P =

 e

Ti1

e

Ti2

...

e

Tin

·

e

i1

e

i2

. . . e

in

=

e

Ti1

e

i1

e

Ti1

e

i2

. . . . . . e

Ti1

e

in

e

Ti2

e

i1

e

Tin

e

i1

e

Tin

e

in

 ed in particolare:

(P

T

P)

r,s

= e

Tir

e

is

=

( 0 se r 6= s 1 se r = s da cui ne segue che:

P

T

P = I quindi, le matrici di permutazione sono unitarie.

Definizione 1.5. Una matrice quadrata A di ordine n si dice diagonale se gli unici elementi che possono essere non nulli sono quelli sulla diagonale principale. Ossia, se:

A

i,j

= 0, i 6= j, ∀i, j = 1, . . . , n.

Definizione 1.6. Sia A una matrice quadrata di ordine n. Diremo che A `e diagonalizzabile mediante matrice unitaria se esiste una matrice unitaria U, tale che:

U

−1

AU = D dove D `e diagonale.

Definizione 1.7. Due matrici A, B di ordine n si dicono simili se esiste P,

matrice invertibile, con la propriet`a che:

(8)

CAPITOLO 1. NOZIONI UTILI 7 P

−1

AP = B.

Quindi, una matrice `e diagonalizzabile se `e simile ad una matrice diagonale.

Definizione 1.8. Una matrice quadrata A si dice triangolare se ha tutti gli elementi nulli sopra o sotto la diagonale principale.

In particolare, a seconda che gli elementi nulli siano sopra o sotto la diagonale, la matrice viene chiamata rispettivamente triangolare inferiore e triangolare superiore.

Definizione 1.9. Una matrice quadrata A di ordine n e complessa si dice normale se:

AA

H

= A

H

A.

Lemma 1.1. Una matrice normale e triangolare `e diagonale.

Dimostrazione. Consideriamo la matrice triangolare a blocchi:

a b

H

0 C



dove C `e una matrice triangolare.

Poich´e per ipotesi `e normale, allora:

a 0 b C

H



· a b

H

0 C



= a b

H

0 C



· a 0 b C

H

 . Da cui, sviluppando i calcoli:

aa ab

H

ab bb

H

+ C

H

C



= aa + b

H

b b

H

C

H

Cb CC

H



quindi, sono uguali se e solo se:

 

 

 

 

aa = aa + b

H

b ab

H

= b

H

C

H

ab = Cb

bb

H

+ C

H

C = CC

H

da queste, otteniamo che:

(||b||

2

)

2

= 0 e quindi:

b = 0.

(9)

CAPITOLO 1. NOZIONI UTILI 8 Ma se b = 0, allora:

C

H

C = CC

H

ovvero, C `e normale.

Ma poich´e per ipotesi C, che ha ordine (n − 1) × (n − 1), `e triangolare allora

`e diagonale.

Da questo, ne segue che l’intera matrice quadrata di ordine n `e diagonale.

Teorema 1.1. (Decomposizione di Schur) Ogni matrice A ∈ C

n×n

si pu` o triangolarizzare con una trasformazione per similitudine data da una matri- ce unitaria. Ovvero, esistono una matrice triangolare superiore T ed una matrice unitaria U tali che:

U

H

AU = T.

Dimostrazione. Procediamo per induzione sulla dimensione n della matrice A.

Sia n = 1.

In tal caso, la matrice A `e un numero complesso e la decomposizione di Schur vale con T = A e U = 1.

In generale, supponiamo ora che la decomposizione valga per dimensione n−1 e vogliamo dimostrare che ci`o `e vero anche se la dimensione della matrice `e pari ad n.

Consideriamo quindi A ∈ C

n×n

e denotiamo con λ ed x rispettivamente un autovalore ed un autovettore di A, cio`e Ax = λx (vedi Definizione 1.17.).

Supponiamo che x sia normalizzato in modo che x

H

x = 1 e consideriamo una base ortonormale formata dai vettori {y

2

, . . . , y

n

} dello spazio ortogonale ad x.

Costruiamo la matrice Q le cui colonne sono costituite dai vettori {x, y

2

, . . . , y

n

}.

In particolare, la matrice appena costruita `e unitaria, ovvero:

Q

H

Q = I ed inoltre si ha che:

Qe

1

= x da cui e

1

= Q

H

x, dove e

1

= (1, 0, . . . , 0)

T

. Inoltre vale:

Q

H

AQ = λ u

T

0 A

n−1



dove A

n−1

∈ C

(n−1)×(n−1)

.

Per verificare quest’ultima relazione, basta considerare Q

H

AQe

1

, che `e la

(10)

CAPITOLO 1. NOZIONI UTILI 9 prima colonna della matrice Q

H

AQ.

Allora, vale:

Q

H

AQe

1

= Q

H

Ax = Q

H

λx = λQ

H

x = λe

1

come richiesto.

Inoltre, per l’ipotesi induttiva, si ha che:

A

n−1

= U

n−1

T

n−1

U

Hn−1

da cui posto:

U

n

= Q 1 0 U

n−1

 si ottiene:

U

Hn

AU

n

= λ u

T

U

Hn−1

0 T

n−1



da cui la tesi, essendo U

Hn

AU

n

una matrice triangolare superiore.

Osservazione 1.2. Un’osservazione utile `e che la decomposizione di Schur della matrice A non `e unica. Infatti, per qualsiasi scelta di P matrice di permutazione e D matrice diagonale unitaria, moltiplicando A a sinistra per Pdiag{e

−iθ

}U

Hn

ed a destra per U

n

Pdiag{e

}P

T

, cio`e:

(Pdiag{e

−iθ

}U

Hn

)A(U

n

Pdiag{e

}P

T

)

si ottiene sempre una matrice triangolare superiore sulla cui diagonale vi sono gli autovalori di A.

La decomposizione di Schur ha delle conseguenze interessanti, una prima conseguenza riguarda in particolare le matrici hermitiane.

Infatti, se U

H

AU = T `e la decomposizione di Schur della matrice hermitiana A allora, la propriet`a A = A

H

implica:

T

H

= U

H

A

H

U = U

H

AU = T.

Cio`e T `e hermitiana, e quindi essendo triangolare, `e diagonale.

Ovvero si ottiene che, le matrici hermitiane sono diagonalizzabili con una trasformazione per similitudine unitaria. In particolare, gli elementi diago- nali della matrice T sono tali che t

i,i

= t

i,i

e quindi sono reali.

Se invece la matrice A `e anti-hermitiana, cio`e se A = −A

H

procedendo analogamente a quanto detto sopra, si ottiene che anche T `e una matrice anti-hermitiana ed in particolare, `e una matrice diagonale con elementi tali che t

i,i

= −t

i,i

.

Un risultato pi` u generale `e espresso dal seguente teorema.

(11)

CAPITOLO 1. NOZIONI UTILI 10 Teorema 1.2. Una matrice A ∈ C

n×n

` e normale, cio` e A

H

A = AA

H

, se e solo se ` e diagonalizzabile mediante matrice unitaria.

Dimostrazione. Dimostriamo la doppia implicazione.

Si supponga dapprima che A sia normale. Per la decomposizione di Schur (Teorema 1.1.) esiste una matrice unitaria U tale che:

A = UTU

H

con T matrice triangolare superiore.

Poich´e A `e normale, si ottiene:

(UTU

H

)

H

(UTU

H

) = (UTU

H

)(UTU

H

)

H

(UT

H

U

H

)(UTU

H

) = (UTU

H

)(UT

H

U

H

) (UT

H

)(U

H

U)(TU

H

) = (UT)(U

H

U)(T

H

U

H

) Da ci`o:

UT

H

TU

H

= UTT

H

U

H

⇒ T

H

T = TT

H

ovvero, T `e normale e triangolare. Ma questo, per il Lemma 1.1., implica che T `e una matrice diagonale.

Viceversa, supponiamo ora che A sia diagonalizzabile mediante una matrice unitaria e vogliamo dimostrare che A `e normale.

Per ipotesi esiste una matrice unitaria U tale che:

U

H

AU = D dove D `e una matrice diagonale.

Da questo si ha che:

A = UDU

H

. Calcoliamoci ora le quantit`a A

H

A e AA

H

:

A

H

A = (UDU

H

)

H

(UDU

H

) = (UD

H

U

H

)(UDU

H

) = UD

H

DU

H

AA

H

= (UDU

H

)(UDU

H

)

H

= (UDU

H

)(UD

H

U

H

) = UDD

H

U

H

. E quindi, si ha che AA

H

= A

H

A se e solo se:

DD

H

= D

H

D

ma questo `e sempre vero.

(12)

CAPITOLO 1. NOZIONI UTILI 11 Osservazione 1.3. Una matrice unitaria A `e in particolare una matrice normale e quindi la T della decomposizione di Schur `e diagonale. Inoltre, dal fatto che A

H

A = I, segue che:

|t

i,i

|

2

= 1.

Osservazione 1.4. Se esiste una matrice unitaria U che diagonalizza A al- lora ogni altra UDP diagonalizza A, dove D = diag(e

k

, k = 1, . . . , n)) e P di permutazione. (Vedi anche l’Osservazione 1.2.)

Infatti, se U diagonalizza la matrice A, per definizione si ha:

U

H

AU = Λ

A

dove Λ

A

`e matrice diagonale che ha gli autovalori di A sulla diagonale prin- cipale.

Moltiplichiamo ora ambo i membri a sinistra per D

H

e a destra per D, ottenendo:

(D

H

U

H

)A(UD) = (UD)

H

A(UD) = D

H

Λ

A

D da cui:

e

−iθ1

0 . . . 0 0 e

−iθ2

. .. ...

... . .. ... 0 0 . . . 0 e

−iθn

 Λ

A

e

1

0 . . . 0 0 e

2

. .. ...

... ... ... 0 0 . . . 0 e

n

= Λ

A

.

Definizione 1.10. Dato uno scalare λ, chiamiamo blocco di Jordan di ordine t con autovalore λ la matrice di ordine t avente tutti gli elementi appartenenti alla diagonale principale uguali a λ, tutti gli elementi della diagonale subito superiore a quella principale uguali ad 1 e tutti gli altri nulli.

(nota: si dimostra che ogni matrice A ∈ C

n×n

`e simile ad una matrice diagonale a blocchi dove i blocchi diagonali sono di Jordan).

Definizione 1.11. Una matrice A si dice non negativa se tutti i suoi elementi sono maggiori o uguali a zero.

Definizione 1.12. Una matrice A si dice riducibile se esiste una matrice di permutazione P tale che PAP

−1

= PAP

T

`e triangolare a blocchi, cio`e:

PAP

−1

= B 0 C D



dove B e D sono matrici quadrate.

Una matrice A che non `e riducibile si dice irriducibile.

(13)

CAPITOLO 1. NOZIONI UTILI 12 Definizione 1.13. Una matrice quadrata A = {a

i,j

} di ordine n ad elementi non negativi si dice stocastica per colonne (righe) se la somma degli elementi su ogni colonna (o su ogni riga) `e uguale ad 1, cio`e:

a

i,j

≥ 0 e

n

P

i=1

a

i,j

= 1, j = 1, . . . , n o analogamente sommando sulle righe.

Definizione 1.14. Una matrice quadrata A di ordine n e complessa si dice hermitiana se coincide con la trasposta coniugata, ovvero:

A = A

H

Definizione 1.15. Una matrice quadrata A di ordine n si dice definita positiva se:

z

H

Az > 0, ∀z ∈ C

n

e z 6= 0

Osservazione 1.5. A definita positiva ⇒ A hermitiana, A con elementi diagonali positivi ed A diagonalizzabile con autovalori positivi.

Osservazione 1.6. Data una matrice A definita positiva, esiste una matrice B definita positiva tale che:

B

2

= A.

Infatti, A = UDU

H

con D

i,i

positivi, quindi:

A = (U √

DU

H

)(U √

DU

H

) dove √

D `e la matrice diagonale dove gli elementi sulla diagonale sono le radici degli autovalori.

Definizione 1.16. Una matrice di Toeplitz `e una matrice in cui gli elementi su ogni diagonale discendente da sinistra a destra sono uguali tra loro.

Per esempio, una matrice quadrata A di ordine n `e detta di Toeplitz se:

A =

a

0

a

−1

a

−2

. . . . . . a

−n+1

a

1

a

0

a

−1

. .. ...

... a

1

. .. ... ... ...

... . .. ... a

−1

a

−2

... . .. a

0

a

−1

a

n−1

. . . . . . . . . a

1

a

0

= (a

i−j

)

ni,j=1

.

(14)

CAPITOLO 1. NOZIONI UTILI 13

1.3 Autovalori ed autovettori

Introduciamo alcune definizioni ed osservazioni riguardanti gli autovalori ed autovettori di una matrice.

Definizione 1.17. Sia A una matrice quadrata di ordine n; λ ∈ C `e detto autovalore di A se esiste x ∈ C

n

, x 6= 0, tale che:

Ax = λx

Dove il vettore x `e detto autovettore associato all’autovalore λ.

In particolare se λ `e autovalore di A allora `e soluzione dell’equazione ca- ratteristica:

p

A

(λ) = det(λI − A) = 0

dove I `e la matrice identit`a e p

A

(λ) `e detto polinomio caratteristico di A.

Definizione 1.18. Data una generica matrice A viene chiamato σ(A), lo spettro di A, l’insieme degli autovalori della matrice, cio`e:

σ (A) = {λ ∈ C : ∃v 6= 0 tale che Av = λv}

e si definisce ρ(A) il suo raggio spettrale:

ρ(A) = max

λ∈σ(A)

|λ|

Definizione 1.19. Sia A una matrice quadrata di ordine n e λ ∈ C au- tovalore di A. Si dice molteplicit`a algebrica di λ (e si indica con m

a

(λ)) la molteplicit`a che λ ha come radice del polinomio caratteristico.

Si dice invece molteplicit`a geometrica di λ (e si indica con m

g

(λ)) la dimensio- ne dell’autospazio relativo a λ, ovvero il numero degli autovettori linearmente indipendenti relativi all’autovalore λ.

Lemma 1.2. Siano A ∈ C

n×n

, λ ∈ C autovalore di A ed x ∈ C

n

corrispet- tivo autovettore, cio` e Ax = λx. Allora ne segue che:

p(A)x = p(λ)x per ogni polinomio p.

Osservazione 1.7. Una matrice quadrata A di ordine n `e diagonalizzabile se e solo se la molteplicit`a algebrica e geometrica coincidono per ogni autovalore di A. Inoltre, se A `e diagonalizzabile, gli elementi sulla diagonale di D (vedi Definizione 1.3.) sono gli autovalori di A

1

e le colonne di P sono gli autovettori corrispondenti.

1

P

−1

AP = D ⇒ p

A

(λ) = p

D

(λ)

(15)

CAPITOLO 1. NOZIONI UTILI 14 Osservazione 1.8. Autovettori relativi ad autovalori distinti sono indipen- denti. In particolare, nel caso in cui la matrice `e normale, sono ortogonali.

Osservazione 1.9. Se A `e una matrice quadrata di ordine n e definita

positiva, allora i suoi autovalori sono tutti strettamente positivi. Inoltre, il

massimo autovalore coincide proprio con il raggio spettrale ρ(A) (nota: ρ(A)

pu`o avere molteplicit`a algebrica maggiore di 1).

(16)

Capitolo 2

Metodo delle Potenze

2.1 Caso A diagonalizzabile

In questa sezione dimostriamo un teorema in cui si analizza la convergenza delle potenze di una matrice A diagonalizzabile (vedi Teorema 2.1.).

Il metodo delle potenze `e un metodo iterativo per il calcolo approssimato dell’autovalore di modulo massimo di una matrice e di un autovettore ad esso associato.

Sia A ∈ C

n×n

diagonalizzabile con autovalori λ

1

, λ

2

, . . . , λ

n

. Supponiamo, inoltre, che gli autovalori siano ordinati in modo tale che:

1

| > |λ

j

|, ∀λ

j

6= λ

1

(nota: molteplicit`a geometrica ed algebrica di λ

1

coincidono).

Con tali ipotesi λ

1

`e detto autovalore dominante per la matrice A.

Siccome per ipotesi A `e diagonalizzabile, esiste una base di autovettori {x

1

, ..., x

n

} dove x

i

`e l’autovettore associato all’autovalore λ

i

, cio`e Ax

i

= λ

i

x

i

, i = 1, ..., n. Sia v ∈ C

n

, allora questo pu`o essere scritto come:

v =

n

X

i=1

α

i

x

i

Osserviamo che, per le identit`a A

k

x

i

= λ

ki

x

i

(vedi Lemma 1.2.), l’azione di A

k

su v ammette la seguente rappresentazione:

A

k

v = A

k

n

X

i=1

α

i

x

i

=

n

X

i=1

α

i

A

k

x

i

=

n

X

i=1

α

i

λ

ki

x

i

= X

i:λi1

α

i

λ

k1

x

i

+ X

i:λi6=λ1

α

i

λ

ki

x

i

.

15

(17)

CAPITOLO 2. METODO DELLE POTENZE 16 Dividiamo adesso ambo i membri per λ

k1

e si ha:

1

λ

k1

A

k

v = X

i:λi1

α

i

x

i

+ X

i:λi6=λ1

α

i

 λ

i

λ

1



k

x

i

e passando al limite per k → ∞ si ottiene che:

1

λ

k1

A

k

v → X

i:λi1

α

i

x

i

(2.1)

e quindi 1

λ

k1

A

k

v tende a disporsi nella direzione dell’autovettore x = P

i:λi1

α

i

x

i

associato all’autovalore λ

1

. Dalla (2.1) otteniamo:

||A

k

v||

1

|

k

−−−→

k→∞

||x|| (2.2)

Considerando sia la (2.1) che la (2.2) si ha una successione convergente all’autovettore x normalizzato:

1

|

k

λ

k1

A

k

v

||A

k

v|| −−−→

k→∞

x

||x|| . (2.3)

La (2.1) implica pure che, per ogni vettore u ∈ C

n

: 1

λ

k1

(u

H

A

k

v) −−−→

k→∞

u

H

x allora sar`a anche vero che:

1

λ

k+11

(u

H

A

k+1

v) −−−→

k→∞

u

H

x (2.4)

e quindi, se u

H

x 6= 0:

u

H

A

k+1

v u

H

A

k

v −−−→

k→∞

λ

1

(2.5)

Da cui possiamo osservare che, con il metodo delle potenze, `e possibile cal- colare anche l’autovalore dominante.

Enunciamo di conseguenza il seguente teorema:

Teorema 2.1. Sia A ∈ C

n×n

diagonalizzabile, siano λ

i

, i = 1, 2, ... , n,

i suoi autovalori e x

i

autovettori linearmente indipendenti corrispondenti ai

λ

i

.

(18)

CAPITOLO 2. METODO DELLE POTENZE 17 Supponiamo |λ

1

| > |λ

j

|, ∀λ

j

6= λ

1

(osservazione: m

a

1

) = m

g

1

)).

Sia v ∈ C

n

, ||v|| = 1, tale che nella rappresentazione di v, v =

n

P

i=1

α

i

x

i

, il vettore x = P

i:λi1

α

i

x

i

sia non nullo (nota: ci` o implica A

k

v non nullo,

∀k = 1, 2, 3, ...).

Sia anche u ∈ C

n

, tale che u

H

x 6= 0 (nota: 1

λ

k1

(u

H

A

k

v) −−−→

k→∞

u

H

x e quindi

∃k

∈ N per cui sono non nulli ∀k > k

). Allora:

1

|

k

λ

k1

A

k

v

||A

k

v|| −−−→

k→∞

x

||x|| (2.6)

u

H

A

k+1

v u

H

A

k

v −−−→

k→∞

λ

1

(2.7)

dove la successione in (2.6) `e ben definita ∀k ed ∃k

∈ N tale che la succes- sione (2.7) `e ben definita ∀k > k

.

Le quantit` a in (2.6) e (2.7) si possono calcolare tramite il seguente algoritmo:

v

0

:= v. Per k = 1, 2, ...

 

 

 

 

a

k

:= Av

k−1

ϕ

k

:= u

H

a

k

u

H

v

k−1

, u

H

v

k−1

6= 0 ∀k v

k

:= a

k

||a

k

||

(2.8)

Infatti, ϕ

k

= u

H

A

k

v

u

H

A

k−1

v (e quindi ϕ

k

−−−→

k→∞

λ

1

) e v

k

= A

k

v

||A

k

v|| ∀k = 1, 2, ...

(e quindi |λ

1

|

k

λ

k1

v

k

−−−→

k→∞

x

||x|| ).

Dimostrazione. Rimangono da dimostrare solamente le affermazioni:

1. A

k

v non nullo, ∀k = 1, 2, 3, ...

2. ϕ

k

= u

H

A

k

v

u

H

A

k−1

v e v

k

= A

k

v

||A

k

v|| ∀k = 1, 2, ...

Punto 1:

Supponiamo per assurdo che A

k

v sia nullo, allora anche la sua rappresenta- zione data da:

A

k

v = X

i:λ1i

α

i

λ

k1

x

i

+ X

i:λi6=λ1

α

i

λ

ki

x

i

(19)

CAPITOLO 2. METODO DELLE POTENZE 18 sar`a nulla.

Ma poich´e per ipotesi gli autovettori x

i

sono linearmente indipendenti, que- sto implica che gli scalari α

i

, con i : λ

i

= λ

1

, siano tutti uguali a 0 (perch´e λ

1

6= 0). Da questo ne segue per`o che anche il vettore x sarebbe nullo, che `e assurdo.

Punto 2:

Procediamo per induzione.

Sia k = 1 e vogliamo dimostrare che:

v

1

= Av

||Av||

ϕ

1

= u

H

Av u

H

v .

Utilizzando le definizioni dell’algoritmo (2.8) otteniamo:

v

1

= a

1

||a

1

|| = Av

0

||Av

0

|| = Av

||Av||

ϕ

1

= u

H

a

1

u

H

v

0

= u

H

Av

0

u

H

v

0

= u

H

Av u

H

v . Ora supponiamo che la tesi `e vera per k ≤ n, in particolare:

ϕ

n

= u

H

A

n

v u

H

A

n−1

v v

n

= A

n

v

||A

n

v||

Dimostriamola per k = n + 1, cio`e vogliamo dimostrare che:

ϕ

n+1

= u

H

A

n+1

v u

H

A

n

v v

n+1

= A

n+1

v

||A

n+1

v|| .

Utilizzando le definizioni dell’algoritmo (2.8) e ci`o che abbiamo supposto vero nell’ipotesi induttiva, otteniamo:

ϕ

n+1

= u

H

a

n+1

u

H

v

n

= u

H

Av

n

u

H

v

n

= u

H

A(A

n

v)

u

H

A

n

v = u

H

A

n+1

v u

H

A

n

v v

n+1

= a

n+1

||a

n+1

|| = Av

n

||Av

n

|| = A

n+1

v

||A

n+1

v||

la tesi `e quindi verificata.

(20)

CAPITOLO 2. METODO DELLE POTENZE 19 Osservazione 2.1. La velocit`a di convergenza del metodo va come:

 max

j:λj6=λ1

 |λ

j

|

1

|



k

.

Osservazione 2.2. Il costo per ogni passo `e dato dal prodotto della matrice A per un vettore. In generale quindi `e n

2

, ma nel caso in cui A ha qualche particolare struttura, tale costo si pu`o ridurre. Ad esempio, se A `e di Toeplitz (vedi Definizione 1.16.) allora A pu`o essere immersa in una matrice circolante di ordine 2n e quindi, il prodotto di A per un vettore `e calcolabile con O(n log n) operazioni aritmetiche (vedi [5]).

2.1.1 A definita positiva

Come conseguenza del Teorema 2.1., scegliendo ||.|| = ||.||

2

e u = v, si pu`o enunciare il seguente risultato nel caso particolare in cui la matrice sia definita positiva.

Corollario 2.1. Sia A ∈ C

n×n

definita positiva, siano 0 < λ

n

≤ · · · ≤ λ

t+1

< λ

t

= · · · = λ

1

i suoi autovalori e x

i

autovettori corrispondenti ai λ

i

per i = 1, 2, . . . .

Sia v ∈ C

n

, ||v||

2

= 1, tale che nella rappresentazione di v, v = P

i≤t

α

i

x

i

+ P

i>t

α

i

x

i

, il vettore x = P

i≤t

α

i

x

i

sia non nullo (nota: ci` o implica che A

k

v 6= 0, v

H

x = (||x||

2

)

2

6= 0 (vedi Osservazione 1.8.)).

Sia anche u = v ∈ C

n

, (nota: v

H

x 6= 0 e 0 < 1

λ

k1

(v

H

A

k

v) −−−→

k→∞

v

H

x

∀k ∈ N). Allora:

A

k

v

||A

k

v||

2

= |λ

1

|

k

λ

k1

A

k

v

||A

k

v||

2

−−−→

k→∞

x

||x||

2

(2.9) v

H

A

k+1

v

v

H

A

k

v −−−→

k→∞

λ

1

(2.10)

dove le successioni in ( 2.9) e (2.10) sono ben definite ∀k ∈ N.

Le quantit` a in (2.9) e (2.10) si possono calcolare tramite il seguente algoritmo:

v

0

:= v. Per k = 1, 2, ...

 

 

 

 

a

k

:= Av

k−1

ϕ

k

:= v

H

a

k

v

H

v

k−1

, v

H

v

k−1

6= 0 ∀k v

k

:= a

k

||a

k

||

2

(2.11)

(21)

CAPITOLO 2. METODO DELLE POTENZE 20

Infatti, ϕ

k

= v

H

A

k

v

v

H

A

k−1

v (e quindi ϕ

k

−−−→

k→∞

λ

1

) e v

k

= A

k

v

||A

k

v||

2

∀k = 1, 2, ...

(e quindi v

k

−−−→

k→∞

x

||x||

2

). Inoltre:

ϕ

k

≤ ϕ

k+1

≤ λ

1

= ρ(A) ∀k = 1, 2, . . . . (2.12) cio` e la successione ϕ

k

converge in modo monotono a λ

1

= ρ(A).

Dimostrazione. Rimane solo da dimostrare che la successione ϕ

k

ottenuta in (2.11) `e crescente.

Utilizzando la definizione di ϕ

k

in (2.11) si ha che ϕ

k

≤ ϕ

k+1

se e solo se:

v

H

A

k

v

v

H

A

k−1

v ≤ v

H

A

k+1

v v

H

A

k

v

cio`e se e solo se moltiplicando il membro di destra per v

H

A

k−1

v e quello di sinistra per v

H

A

k

v:

(v

H

A

k

v)

2

≤ (v

H

A

k−1

v)(v

H

A

k+1

v). (2.13) Ma la (2.13) risulta verificata perch´e equivale alla seguente disuguaglianza di Cauchy-Schwarz:

v

H

A

k−12

A

k+12

v 

2

≤ ||A

k−12

v||

2



2

||A

k+12

v||

2



2

(nota: `e possibile considerare la radice quadrata della matrice A in quanto quest’ultima per ipotesi `e definita positiva (vedi Osservazione 1.6.)).

Abbiamo verificato quindi che, nel caso in cui A `e matrice definita po- sitiva, si genera una successione ϕ

k

che tende in modo monotono, in questo caso crescente, all’autovalore dominante di A.

Osservazione 2.3. Se si volesse invece calcolare l’autovalore minimo, che chiamiamo λ

min

, della matrice A definita positiva, basta applicare il Corol- lario precedente alla sua inversa, ovvero ad A

−1

.

In particolare, in tal caso, si produce una successione ϕ

k

che tende in modo crescente a 1

λ

min

, ovvero, una successione 1

ϕ

k

che tende in modo decrescente

a λ

min

di A. Il costo per ogni passo `e dato dal prodotto della matrice A

−1

per un vettore, ovvero risolvere un sistema lineare con A matrice dei coeffi-

cienti. In generale quindi `e O(n

3

). Per`o, se A ad esempio `e di Toeplitz allora

il costo si riduce a O(n

2

)(vedi [2]).

(22)

CAPITOLO 2. METODO DELLE POTENZE 21

2.2 Caso A generica

Sia A ∈ C

n×n

generica e sia X ∈ C

n×s

una matrice del tipo:

X =

x

1

x

2

. . . . . . x

s

 tale che:

AX = X

λ 1 0 . . . 0 0 . .. ... ... ...

... ... ... ... 0 ... . .. ... 1 0 . . . . 0 λ

(2.14)

ovvero:

Ax

1

= λx

1

Ax

2

= x

1

+ λx

2

Ax

3

= x

2

+ λx

3

...

Ax

s

= x

s−1

+ λx

s

Poich´e ci servir`a successivamente, vogliamo ora ottenere una rappresentazio- ne di A

k

x

j

con: 1 ≤ j ≤ s.

Per j = 1 si ha immediatamente che:

A

k

x

1

= λ

k

x

1

Vediamo il caso in cui j = 2:

A

2

x

2

= A(Ax

2

) = A(x

1

+ λx

2

) = Ax

1

+ λAx

2

= λx

1

+ λx

1

+ λ

2

x

2

= 2λx

1

+ λ

2

x

2

A

3

x

2

= A(A

2

x

2

) = 2λAx

1

+ λ

2

Ax

2

= 2λ

2

x

1

+ λ

2

x

1

+ λ

3

x

2

= 3λ

2

x

1

+ λ

3

x

2

A

4

x

2

= A(A

3

x

2

) = A(3λ

2

x

1

+ λ

3

x

2

) = 3λ

2

Ax

1

+ λ

3

Ax

2

= 3λ

3

x

1

+ λ

3

x

1

+ λ

4

x

2

= 4λ

3

x

1

+ λ

4

x

2

(23)

CAPITOLO 2. METODO DELLE POTENZE 22 Dalle precedenti uguaglianze possiamo congetturare:

A

k

x

2

= kλ

k−1

x

1

+ λ

k

x

2

, k ≥ 1 (2.15) (nota: (2.15) `e vera anche per k = 0 se λ 6= 0).

Dimostrazione. Dimostriamo la congettura procedendo per induzione.

Sia k = 1, allora per quanto gi`a visto precedentemente:

Ax

2

= x

1

+ λx

2

.

Supponiamo ora che sia vera per k ≤ n, in particolare:

A

n

x

2

= nλ

n−1

x

1

+ λ

n

x

2

. Dimostriamola per k = n + 1:

A

n+1

x

2

= A(A

n

x

2

) = A(nλ

n−1

x

1

+ λ

n

x

2

)

= nλ

n−1

Ax

1

+ λ

n

Ax

2

= nλ

n−1

(λx

1

) + λ

n

(x

1

+ λx

2

)

= nλ

n

x

1

+ λ

n

x

1

+ λ

n+1

x

2

= (n + 1)λ

n

x

1

+ λ

n+1

x

2

la congettura `e quindi verificata.

Caso j = 3:

A

2

x

3

= A(Ax

3

) = A(x

2

+ λx

3

)

= Ax

2

+ λAx

3

= x

1

+ λx

2

+ λx

2

+ λ

2

x

3

= x

1

+ 2λx

2

+ λ

2

x

3

A

3

x

3

= A(A

2

x

3

) = Ax

1

+ 2λAx

2

+ λ

2

Ax

3

= λx

1

+ 2λ(x

1

+ λx

2

) + λ

2

(x

2

+ λx

3

)

= λx

1

+ 2λx

1

+ 2λ

2

x

2

+ λ

2

x

2

+ λ

3

x

3

= 3λx

1

+ 3λ

2

x

2

+ λ

3

x

3

A

4

x

3

= A(A

3

x

3

) = A(3λx

1

+ 3λ

2

x

2

+ λ

3

x

3

)

= 3λAx

1

+ 3λ

2

Ax

2

+ λ

3

Ax

3

= 3λ(λx

1

) + 3λ

2

(x

1

+ λx

2

) + λ

3

(x

2

+ λx

3

)

= 3λ

2

x

1

+ 3λ

2

x

1

+ 3λ

3

x

2

+ λ

3

x

2

+ λ

4

x

3

= 6λ

2

x

1

+ 4λ

3

x

2

+ λ

4

x

3

(24)

CAPITOLO 2. METODO DELLE POTENZE 23 Da quanto ottenuto possiamo congetturare che:

A

k

x

3

= 1

2 k(k − 1)λ

k−2

x

1

+ kλ

k−1

x

2

+ λ

k

x

3

, k ≥ 2 (2.16) (nota: (2.16) `e vera anche per k = 0, 1 se λ 6= 0).

Dimostrazione. Procediamo a dimostrare la congettura per induzione.

Per k = 2 otteniamo che:

A

2

x

3

= x

1

+ 2λx

2

+ λ

2

x

3

e ci`o `e vero per quanto visto precedentemente.

Supponiamo che sia vera per k ≤ n, in particolare:

A

n

x

3

= 1

2 n(n − 1)λ

n−2

x

1

+ nλ

n−1

x

2

+ λ

n

x

3

. Dimostro ora che la congettura `e vera per k = n + 1.

A

n+1

x

3

= A(A

n

x

3

) = A  1

2 n(n − 1)λ

n−2

x

1

+ nλ

n−1

x

2

+ λ

n

x

3



= 1

2 n(n − 1)λ

n−2

Ax

1

+ nλ

n−1

Ax

2

+ λ

n

Ax

3

= 1

2 n(n − 1)λ

n−1

x

1

+ nλ

n−1

(x

1

+ λx

2

) + λ

n

(x

2

+ λx

3

)

= 1

2 n(n − 1)λ

n−1

x

1

+ nλ

n−1

x

1

+ nλ

n

x

2

+ λ

n

x

2

+ λ

n+1

x

3

= 1

2 n(n + 1)λ

n−1

x

1

+ (n + 1)λ

n

x

2

+ λ

n+1

x

3

La congettura `e quindi verificata.

Da ci`o che abbiamo verificato precedentemente, possiamo quindi conget- turare il caso per j generico in {1, 2, . . . , s}:

A

k

x

j

=

 k j − 1



λ

k−j+1

x

1

+

 k j − 2



λ

k−j+2

x

2

+ ...+

+ k

2 (k − 1)λ

k−2

x

j−2

+ kλ

k−1

x

j−1

+ λ

k

x

j

, k ≥ j − 1

(2.17)

(nota: (2.17) `e vera anche per k = 0, 1, . . . , j − 2 se λ 6= 0).

(25)

CAPITOLO 2. METODO DELLE POTENZE 24 Dimostrazione. Nell’ipotesi (2.14) pi` u precisamente dimostriamo questo:

A

k

x

j

= (

k

k

0

x

j−k

+

k−1k

λx

j−k+1

+ · · · +

k1

k−1

x

j−1

+

k0

k

x

j

se k < j − 1

k

j−1

k−j+1

x

1

+

j−2k

k−j+2

x

2

+ · · · +

k1

k−1

x

j−1

+

k0

k

x

j

se k ≥ j − 1 (2.18)

Le formule del sistema (2.18) sono intuitive esaminando i casi in cui j `e piccola, oppure come segue, procediamo a dimostrarle per induzione su j.

Abbiamo che: A

k

x

1

= λ

k

x

1

per k ≥ 0, da cui ne segue che la (2.18) `e vera per j = 1. Inoltre:

A

k

x

2

=

( x

2

se k = 0

k−1

x

1

+ λ

k

x

2

se k ≥ 1 quindi la (2.18) `e vera per j = 2.

Supponiamo che la tesi sia vera per j, si deve dimostrare ora che sia ve- ra anche per j + 1, j = 1, . . . , s − 1, cio`e:

A

k

x

j+1

= (

k

k

0

x

j+1−k

+

k−1k

λx

j−k+2

+ · · · +

k1

k−1

x

j

+

k0

k

x

j+1

se k < j

k

j

k−j

x

1

+

j−1k

k−j+1

x

2

+ · · · +

k1

k−1

x

j

+ λ

k

x

j+1

se k ≥ j ovvero che:

(A

k

−λ

k

I)x

j+1

= (

k

k

0

x

j+1−k

+

k−1k

λx

j−k+2

+ · · · +

k1

k−1

x

j

se k < j

k

j

k−j

x

1

+

j−1k

k−j+1

x

2

+ · · · +

k1

k−1

x

j

se k ≥ j . Si nota innanzitutto che:

(A

k−1

+ λA

k−2

+ λ

2

A

k−3

+ · · · + λ

k−2

A + λ

k−1

I)(A − λI)

= A

k

− λA

k−1

+ λA

k−1

− λ

2

A

k−2

+ λ

2

A

k−2

− λ

3

A

k−3

+ + · · · + λ

k−2

A

2

− λ

k−1

A + λ

k−1

A − λ

k

I = A

k

− λ

k

I e (A − λI)x

j+1

= x

j

per j = 1, 2, . . . , s − 1.

Da questo ne segue che:

(A

k

− λ

k

I)x

j+1

= (A

k−1

+ λA

k−2

+ λ

2

A

k−3

+ · · · + λ

k−2

A + λ

k−1

I)x

j

= A

k−1

x

j

+ λA

k−2

x

j

+ λ

2

A

k−3

x

j

+ · · · + λ

k−2

Ax

j

+ λ

k−1

x

j

. Ora, per quest’ultimo risultato ottenuto, nei due casi distinti si ha:

Primo caso: k < j

(26)

CAPITOLO 2. METODO DELLE POTENZE 25 In tal caso, per tutti gli addendi utilizziamo la prima equazione della (2.18), ottenendo:

(A

k

− λ

k

I)x

j+1

= k − 1 k − 1



λ

0

x

j−k+1

+ k − 1 k − 2



λx

j−k+2

+ · · · + k − 1 0

 λ

k−1

x

j

+ λ k − 2 k − 2



λ

0

x

j−k+2

+ k − 2 k − 3



λx

j−k+3

+ . . . + k − 2

0

 λ

k−2

x

j



+ λ

2

k − 3 k − 3



λ

0

x

j−k+3

+ k − 3 k − 4



λx

j−k+4

+ k − 3 0

 λ

k−3

x

j



+ · · · + λ

k−2

1 1



λ

0

x

j−1

+ 1 0

 λx

j



+ λ

k−1

0 0

 λ

0

x

j

= k − 1 k − 1



x

j−k+1

+ λx

j−k+2

k − 2 k − 2



+ k − 1 k − 2



+ + λ

2

x

j−k+3

k − 3 k − 3



+ k − 2 k − 3



+ k − 1 k − 3



+ . . . + λ

k−2

x

j−1

1 1

 + 2

1



· · · + k − 1 1



+ + λ

k−1

x

j

0 0

 + 1

0



+ · · · + k − 1 0



= k k



x

j−k+1

+ λx

j−k+2

 k k − 1



+ λ

2

x

j−k+3

 k k − 2

 + . . . + λ

k−2

x

j−1

k 2



+ λ

k−1

x

j

k 1



nota: nell’ultimo passaggio abbiamo usato il fatto che:

ks

 =

k−1

P

j=s−1 j s−1

.

Secondo caso: k ≥ j

In questo caso, per i primi k − j + 1 addenti utilizziamo la seconda equazione della (2.18) e per i rimanenti successivi, la prima. Ottenendo:

(A

k

− λ

k

I)x

j+1

= k − 1 j − 1



λ

k−j

x

1

+ k − 1 j − 2



λ

k−j+1

x

2

+ · · · + k − 1 2



λ

k−3

x

j−2

+ + k − 1

1



λ

k−2

x

j−1

+ λ

k−1

x

j

+ λ k − 2 j − 1



λ

k−j−1

x

1

+ + k − 2

j − 2



λ

k−j

x

2

+ · · · + k − 2 2



λ

k−4

x

j−2

+ k − 2 1



λ

k−3

x

j−1

+

(27)

CAPITOLO 2. METODO DELLE POTENZE 26

+ λ

k−2

x

j



+ · · · + λ

k−j

j − 1 j − 1



λ

0

x

1

+ j − 1 j − 2



λx

2

+ · · · + + j − 1

2



λ

j−3

x

j−2

+ j − 1 1



λ

j−2

x

j−1

+ λ

j−1

x

j

 + + λ

k−j+1

j − 2

j − 2



λ

0

x

2

+ j − 2 j − 3



λx

3

+ · · · + j − 2 1



λ

j−3

x

j−1

+ + j − 2

0

 λ

j−2

x

j



+ λ

k−j+2

j − 3 j − 3



λ

0

x

3

+ j − 3 j − 4

 λx

4

+ + · · · + j − 3

1



λ

j−4

x

j−1

+ j − 3 0

 λ

j−3

x

j



+ · · · + + λ

k−3

2

2



λ

0

x

j−2

+ 2 1



λx

j−1

+ 2 0

 λ

2

x

j

 + + λ

k−2

1

1



λ

0

x

j−1

+ 1 0

 λx

j



+ λ

k−1

0 0

 λ

0

x

j



= λ

k−1

x

j

0 0

 + 1

0



+ · · · + j − 3 0



+ j − 2 0



+ k − j + 1

 + + λ

k−2

x

j−1

1 1

 + 2

1



+ · · · + j − 3 1



+ j − 2 1



+ j − 1 1



+ + · · · + k − 2

1



+ k − 1 1



+ λ

k−3

x

j−2

2 2

 + 3

2



+ · · · + + j − 3

2



+ j − 2 2



+ j − 1 2



+ · · · + k − 2 2



+ k − 1 2



+ + · · · + λ

k−j+1

x

2

j − 2 j − 2



+ j − 1 j − 2



+ · · · + k − 2 j − 2

 + + k − 1

j − 2



+ λ

k−j

x

1

j − 1 j − 1



+ · · · + k − 2 j − 1



+ k − 1 j − 1



= λ

k−1

x

j

k 1



+ λ

k−2

x

j−1

k 2



+ λ

k−3

x

j−2

k 3



+ · · · + λ

k−j+1

x

2

 k j − 1



+ λ

k−j

x

1

k j

 . Quindi in entrambi i casi, la tesi risulta verificata.

Dal risultato appena dimostrato, possiamo enunciare il seguente corolla- rio.

Corollario 2.2. i) Nell’ipotesi (2.14) vale (2.18) per j ∈ {1, 2, . . . , s}.

ii) Sia k < s − 1. Sappiamo allora che vale la seconda rappresentazione in

(28)

CAPITOLO 2. METODO DELLE POTENZE 27 (2.18) di A

k

x

j

per j = 1, 2, . . . , k + 1 mentre vale la prima rappresentazione per j = k + 2, . . . , s, cio`e:

A

k

x

1

. . . x

k

x

k+1

x

k+2

. . . x

s

=

x

1

. . . x

k

x

k+1

x

k+2

. . . x

s

·

k

0

k

. . .

k−1k

kk



0 . . . 0 0 . .. .. .

k−1k

kk

 . .. .. . .. . . ..

k0

k

.. . . .. ... 0

.. . 0

k0

k

. ..

k

k



.. . 0 . ..

k

k−1

.. . . .. ... .. .

0 . . . . . . . . . . . . 0

k0

k

 .

Sia invece k ≥ s−1. Sappiamo che vale la seconda rappresentazione in (2.18) di A

k

x

j

per j = 1, 2, . . . , s (cio`e per tutte le colonne x

1

, . . . , x

s

relative al blocco di Jordan di λ), cio` e:

A

k

x

1

x

2

. . . x

j

. . . x

s

=

x

1

x

2

. . . x

j

. . . x

s

·

k

0

k k1

k−1

. . .

j−1k

k−j+1

. . .

s−1k

k−s+1

0

k0

k k1

k−1

. . . . . .

s−2k

k−s+2

.. . 0

k0

k

. .. .. .

.. . 0

k0

k

. .. .. .

.. . 0 . ..

k

1

k−1

0 . . . . . . . . . 0

k0

k

 .

 Sia J la forma canonica di Jordan di A allora, ∃X ∈ C

n×n

non singolare:

AX = XJ. Siano x

i+1

, . . . , x

i+s

le colonne di X corrispondenti al generico

(29)

CAPITOLO 2. METODO DELLE POTENZE 28 blocco di J di ordine s di A. Dalla (2.18) possiamo dire che, per k abbastanza grande, k ≥ s − 1, `e vera la seguente relazione:

A

k

x

i+j

=

 k j − 1



λ

k−j+1

x

1+i

+

 k j − 2



λ

k−j+2

x

2+i

... + k

2 (k − 1)λ

k−2

x

j−2+i

+ kλ

k−1

x

j−1+i

+ λ

k

x

j+i

=

j

X

r=1

x

i+r

λ

k+r−j

 k j − r



, j = 1, . . . , s.

(2.19) Per k ≥ n − 1 la (2.19) `e vera per le colonne di X corrispondenti ad ogni blocco di Jordan di A.

Dato un autovalore λ generico, per comodit`a chiamiamo g la sua molte- plicit`a geometrica (cio`e il numero di blocchi di Jordan ad esso associati) ed a quella algebrica.

Assumiamo che il generico blocco di Jordan associato a λ occupi le posizioni i

l

+ 1 e i

l

+ s

l

quindi, s

l

`e la dimensione del blocco mentre la somma degli s

l

per l = 1, . . . , g `e uguale ad a.

Sia ora v ∈ C

n

, ||v|| = 1, allora v si pu`o rappresentare in questo modo:

v = · · · +

g

X

l=1 sl

X

j=1

α

il+j

x

il+j

+ · · · + x (2.20)

dove x =

t

P

m=1

α

m

x

m

e t = m

a

1

) = m

g

1

).

Si suppone che un autovalore dominante di A, λ

1

, abbia molteplicit`a geo- metrica ed algebrica coincidenti e che occupi la parte in alto della forma canonica di Jordan di A (J

k,k

= λ

1

, k = 1, . . . , t).

Moltiplichiamo ora entrambi i membri della (2.20) per A

k

, ottenendo quindi:

A

k

v = A

k

x + A

k

(· · · +

g

X

l=1 sl

X

j=1

α

il+l

x

il+j

+ . . . )

= λ

k1

x + (· · · +

g

X

l=1 sl

X

j=1

α

il+j

A

k

x

il+j

+ . . . )

Utilizzando poi la relazione (2.19) su ci`o che abbiamo appena ottenuto, si ha:

A

k

v = λ

k1

x + · · · +

g

X

l=1 sl

X

j=1

α

il+j

j

X

r=1

x

il+r

λ

k+r−j

 k j − r



+ . . . (2.21)

Riferimenti

Documenti correlati

A differenza dei metodi di- retti (come ad esempio il metodo LU), in genere un metodo iterativo stazionario convergente calcola usualmente solo un approssimazione della soluzione x

Convergenza del metodo di Jacobi e Gauss-Seidel per matrici a predominanza diagonale.. Teorema di Kahan (condizione

Gli autova- lori stanno nella disco centrato in (2, 0) e raggio 2 (primo teorema di Gershgorin), ma non sulla frontiera (terzo teorema di Gershgorin).. [1, p.47]) e quindi applicando

Una volta trovata una tale matrice A simmetrica e definita positiva, si modifichi il file demo algebra lineare cos`ı da confrontare su un test il metodo di Jacobi, Gauss-Seidel,

Applicare i rispettivi metodi di Richardson ottimali e osservare sia i (possibili) miglioramenti in termini di errore dopo un numero prefissato di iterazioni sia il miglior

Dobbiamo salvare gli scambi effettuati su A, per poterli applicare anche al termine noto in un secondo momento. Utilizziamo un’altra matrice P, inizialmente uguale

ESERCIZIO 1. A) Generare una matrice Q, simmetrica e definita positiva, di dimensione 2 o possibilmente anche più alta (eventualmente seguire il suggerimento posto al fondo degli

Corso