• Non ci sono risultati.

2. Isomorfismo tra uno spazio vettoriale di dimensione n e Kn.

N/A
N/A
Protected

Academic year: 2021

Condividi "2. Isomorfismo tra uno spazio vettoriale di dimensione n e Kn."

Copied!
4
0
0

Testo completo

(1)

Alex Gotev

Prova orale di Geometria, A.A. 2009/2010, prof. Raffaele Scapellato Elenco dei teoremi richiesti con dimostrazione

1. Annullamento del prodotto per gli spazi vettoriali

Proposizione (2.2.2, pag. 38)

Sia: k ∈K , v ∈Vk scalare , v vettore  Si ha kv =0 see solo se k =0 oppurev =0 Dimostrazione

Si consideri kv=v 0k   kv =v0kv  0=v0 Si consideri anche kv=k  0v  kv=k0kv  0=k0

Viceversa se kv=0 e k ≠0, esiste k−1K tale che v=k−1kv =k−1⋅0=0

2. Isomorfismo tra uno spazio vettoriale di dimensione n e Kn.

Proposizione (Teorema 5.1.6, pag. 86)

SiaV  K uno spazio vettoriale contenente una base B=v1,v2,.. , vn. Esiste unisomorfismo TBda V  K  a Kn, che si ottiene facendo

corrispondere ad ogni vettorela n−upla delle sue coordinate rispetto alla base.

Dimostrazione

La proposizione assicura che la funzione TBdescritta è ben definita ed è una biiezione.

Essa è anche lineare , infatti si considerino:

u=

i=1 n

aivi v=

i=1 n

bivi

allora uv =

i=1 n

aibivi

dunque TBuv = a1b1,... , anbn = TBuTBv

inoltre ku=

i=1 n

k aivi quindi si ha TBku = ka1,... , k an = kTBu

Pagina 1 di 4

(2)

Alex Gotev

3. Teorema di interpolazione.

Proposizione (Teorema 6.1.6, pag. 96)

Siano V  K  e V '  K  spazi vettoriali , sia

{

v1,... , vn

}

una base di V.

Per ogni w1,... , wnV ' esiste un' unica funzione lineare T :V V '

tale che T v1=w1, T v2=w2,... , T vn=wn Dimostrazione

Il generico v ∈ V si può scrivere nella forma: v=

i=1 n

aivi Definiamo: T v =

i=1 n

aiwi.

La linearità si verifica direttamente , mostrandol ' esistenza della funzione con l e proprietà richieste.

Per quanto riguarda l ' unicità , sia T1:V  V ' una F.L.tale che T1vi=wi per ogni i=1, ... , n

allora T1v =T1

i=1n aivi

=

i=1n aiT1vi =

i=1n aiwi = T v  , quindi T1=T

4. Indipendenza di autovettori relativi ad autovalori distinti.

Proposizione (Proposizione 7.1.7, pag. 109)

Sia T :V V lineare. Se v1,... , vk sono autovettori di T corrispondenti ad autovalori distinti 1,... , k, allora v1,... , vk sono linearmente indipendenti.

Dimostrazione

Procediamo per induzione su k :

se k =1 l ' autovettore v1 non è nullo e quindi è indipendente.

Sia ora k 1 e supponiamo che a1v1...anvn=0 Applicando T si ha anche , per linearità

a1T  v1...akT vk=0, cioè a 1v1...akkvk=0

Sottraendo la prima uguaglianza moltiplicata per k dall ' ultima , si ottiene : a11−kv1...ak−1k −1−kvk−1=0

Per l ' ipotesi induttiva v1,... , vk−1 sonoindipendenti e quindi a11−k=...=ak−1k−1−k=0

da cui a1=...=ak−1=0 e quindi anche akvk=0 e ak=0

Pagina 2 di 4

(3)

Alex Gotev

5. Caratterizzazione degli autovalori come radici del polinomio caratteristico

Proposizione (Teorema 7.2.1, pag. 109)

T: Endomorfismo di uno spazio n-dimensionale Vn(K) A: Matrice associata a T rispetto ad una base B Le seguenti condizioni sono equivalenti:

1. Lo scalare  ∈ K è autovalore di T 2. Esiste x ≠ 0 in Kn tale che Ax = λx 3. det(A – λIn) = 0

Dimostrazione Se x = TB(v),

T(v) = λv se e solo se Ax = λx.

Dunque λ è autovalore se e solo se il sistema lineare omogeneo (A – λIn) = 0 ha una soluzione non nulla, che si verifica se e solo se det(A – λIn) = 0

6. Caratterizzazione delle matrici associate a endomorfismi simmetrici.

Proposizione (Proposizione 9.1.3, pag. 140) Sia B=e1,... , enuna base ortonormale di V.

aSe x e y sono i vettori colonnadelle coordinate di v e w rispetto a B , allora

v , w= xT y nel caso reale , v , w= xT y nel caso complesso bL ' endomorfismo T è simmetrico se e solo sela matrice associata A= MBT 

è simmetrica , è hermitiano se e solo se la matrice A= MBT  è hermitiana cioè A=AT

Dimostrazione

aSia nel caso reale che complesso vale

v , w=

j

k

xjykej, ek =

j

xjyj = xT y , perchè B è ortonormale

bPer a, nel caso reale

T v  , w =  Ax T y = xTATy , mentre v , T w = xTAy Se AT=A , allora T v  , w  = v , T w  e T è simmetrico.

Viceversa , se T è simmetrico scegliendo v =ej e w=ek si ottiene  ATjk=ajk cioè Aè una matrice simmetrica.

Nel caso hermitiano v ,T w = xTAy  = xTA y e si conclude come nel casoreale.

Pagina 3 di 4

(4)

Alex Gotev

7. Diagonalizzazione delle forme quadratiche

Proposizione (Teorema 9.3.5, pag. 145)

Ogni forma quadratica è diagonalizzabile mediante una trasformazione ortogonale di coordinate

Dimostrazione

Per il teorema spettrale, per ogni matrice reale simmetrica A, esistono:

una matrice diagonale D e

una matrice ortogonale P tali che:

P-1AP = PTAP = D

Dunque A è congruente a D e la forma quadratica associata ad A diventa, mediante la trasformazione ortogonale x = Py, la forma quadratica

q '  y =1y12...nyn2 dove 1,... ,n sono gli autovalori di A

Testo di riferimento:

M. P. Manara, A. Perotti, R. Scapellato - Geometria e algebra lineare, Esculapio, 2a Edizione, 2007.

Pagina 4 di 4

Riferimenti

Documenti correlati

Esonero del 15

[r]

Autorizzo la pubblicazione in rete del

[r]

Sia M R (2) lo spazio vettoriale delle matrici reali quadrate di ordine 2... Scrivere il polinomio caratteristico

Ad esempio utilizzando lo sviluppo di Laplace rispetto all’ultima colonna, rapida- mente si vede che det(A) = 0.. Tuttavia considerando la sottomatrice A(2, 3, 4|2, 3, 4), notiamo

(i) Poiche l’equazione che definisce W e’ lineare, W e’ banalmente chiuso rispetto alla somma e rispetto al prodotto per uno scalare.. Facilmente si vede che tali vettori formano

Determinare tutti i punti di tipo ellittico, parabolico, iperbolico di