• Non ci sono risultati.

Appunti per Geometria 1 - secondo modulo

N/A
N/A
Protected

Academic year: 2022

Condividi "Appunti per Geometria 1 - secondo modulo"

Copied!
88
0
0

Testo completo

(1)

Appunti per Geometria 1 - secondo modulo

Monica Id`a November 5, 2017

Contents

1 Applicazioni lineari 3

1.1 Le prime definizioni . . . 3

1.2 La dualit`a . . . 10

1.3 Applicazioni lineari e matrici . . . 13

1.4 Equazioni di un sottospazio vettoriale . . . 19

2 Autovalori ed autovettori 21 2.1 Radici di un polinomio . . . 21

2.2 Matrici simili - Endomorfimi diagonalizzabili . . . 22

2.3 Condizioni di diagonalizzabilit`a . . . 25

3 La forma di Jordan 37 3.1 Spazi quoziente . . . 37

3.2 Matrici a blocchi . . . 39

3.3 Endomorfismi nilpotenti . . . 42

3.4 La forma di Jordan . . . 48

4 Spazi vettoriali euclidei 53 4.1 Forme bilineari . . . 53

4.2 Prodotti scalari . . . 55

4.3 Esistenza di basi ortonormali . . . 58

4.4 Endomorfismi unitari . . . 62

4.5 Il teorema spettrale . . . 65

5 Spazi affini 68 5.1 La struttura di spazio affine su uno spazio vettoriale . . . 68

5.2 Affinit`a . . . 73

5.3 Equazioni di una affinit`a . . . 77

6 Spazi euclidei 80 6.1 La struttura di spazio euclideo su uno spazio vettoriale reale . . . 80

6.2 Isometrie . . . 82

6.3 Le isometrie di E2 . . . 83

(2)

Queste sono le note del secondo modulo del corso di Geometria 1, di cui il primo modulo `e stato tenuto dalla prof.M.Manaresi; quindi qui assumiamo noto tutto quanto visto in tale modulo.

Useremo le seguenti notazioni:

Se A e B sono due insiemi, A ⊆ B vuol dire che A `e contenuto in o uguale a B, mentre A ⊂ B vuol dire che A `e incluso strettamente in B.

Siano f : X → Y e g : Y → Z due funzioni; la composizione di f e g `e la funzione

g ◦ f : X → Z

x 7→ g(f (x))

Siano f : X → Y una funzione, sia A ⊆ X, e sia B ⊆ Y tale che f (A) ⊆ B; allora possiamo considerare f ristretta ad A e coristretta a B, che `e la funzione:

f|A|B : A → B x 7→ f (x)

Sia V un K-spazio vettoriale, e U, W due sottospazi di V ; se la somma U + W `e diretta, diremo che U e W formano una somma diretta; se V = U ⊕ W , diremo U `e un supplementare di W .

(3)

1 Applicazioni lineari

1.1 Le prime definizioni

Nel seguito K denota un campo fissato.

Definizione 1.1 Siano V , W due K-spazi vettoriali; una applicazione f : V → W `e detta lineare se ∀v, v0∈ V , ∀a, b ∈ K, si ha:

f (av + bv0) = af (v) + bf (v0)

Osserviamo che, in particolare, f (0) = f (0v) = 0f (v) = 0.

Nel seguito la frase: “ Sia f : V → W lineare” sottointende che V e W sono spazi vettoriali su uno stesso campo.

Osservazione 1.2 Ricordiamo che se V `e un K-spazio vettoriale, (V, +) `e un gruppo abeliano;

quindi una applicazione lineare f : V → W `e un morfismo dei gruppi additivi che soddisfi la condizione f (av) = af (v) ∀v ∈ V , ∀a ∈ K.

Esempi 1.3 Sono lineari le seguenti applicazioni:

1) f : RR

x 7→ 3x

2) g : R2R2

(x, y) 7→ (x + y, 3x − y)

3) d : R[x] → R[x]

a0+ a1x + . . . + anxn 7→ a1+ 2a2x + . . . + nanxn−1 4) f : M2(R) → M2(R)

a b c d

 7→

a − d b

c 0



Esempi 1.4 Non sono lineari le seguenti applicazioni:

1) g : R2R2

(x, y) 7→ (1 + x, y)

2) f : RR

x 7→ x2

Infatti: in 1) g(0) 6= 0; in 2) f (1 + 2) = 9, f (1) + f (2) = 5.

Definizione 1.5 Siano V , W due K-spazi vettoriali.

Una applicazione lineare f : V → V `e detta endomorfismo di V .

Una applicazione lineare e biettiva f : V → W `e detta isomorfismo (di spazi vettoriali). Se esiste un isomorfismo f : V → W , scriviamo V ∼= W .

Un isomorfismo f : V → V `e detto automorfismo di V .

(4)

Proposizione 1.6 a) Siano V, W, U K-spazi vettoriali e f : V → W , g : W → U applicazioni lineari. Allora g ◦ f : V → U `e lineare.

b) Sia f : V → W un isomorfismo. Allora l’applicazione inversa f−1 `e lineare e quindi `e un isomorfismo.

c) Si ha: V ∼= V ; V ∼= W ⇒ W ∼= V ;

V ∼= W, W ∼= U ⇒ V ∼= U .

Dimostrazione a) ∀a, b ∈ K, ∀v, v0 ∈ V , si ha:

(g◦f )(av+bv0) = g(f (av+bv0)) = g(af (v)+bf (v0)) = ag(f (v))+b(g(f (v0)) = a(g◦f )(v)+b(g◦f )(v0).

b) La f−1 : W → V esiste perch´e f `e biettiva. Siano w, w0 ∈ W , a, b ∈ K; allora esistono, e sono unici, v, v0 ∈ V tali che f (v) = w, f (v0) = w0, e si ha

f−1(aw + bw0) = f−1(af (v) + bf (v0)) = f−1(f (av + bv0)) = av + bv0 = af−1(w) + bf−1(w0)

c) L’identit`a su V `e lineare e biettiva, quindi V ∼= V ;id V ∼= W ⇒ Wf

f−1

∼= V per il punto b);

V ∼= W, Wf

g

= U ⇒ V

g◦f∼= U per il punto a), tenendo conto che la composizione di due biezioni `e una biezione.

Notazione 1.7 Sia V un K-spazio vettoriale finitamente generato (d’ora in poi scriviamo f.g.), e sia B = (v1, . . . , vn) una base. Il vettore di coordinate (a1, . . . , an) rispetto alla base B verr`a denotato cos`ı:

(a1, . . . , an)B := a1v1+ . . . + anvn

Proposizione-Definizione 1.8 Sia V un K-spazio vettoriale f.g., e sia B = (v1, . . . , vn) una base.

L’applicazione:

ψB : Kn → V

(a1, . . . , an) 7→ (a1, . . . , an)B

`

e un isomorfismo di K-spazi vettoriali, detto l’isomorfismo tra V e Kndefinito dalla base B.

Dimostrazione Sappiamo che ψB `e biunivoca. Linearit`a:

ψB(a(a1, . . . , an)+b(b1, . . . , bn)) = ψB((aa1+bb1, . . . , aan+bbn)) = (aa1+bb1)v1+. . .+(aan+bbn)vn=

= a(a1v1+ . . . + anvn) + b(b1v1+ . . . bnvn) = aψB((a1, . . . , an)) + bψB((b1, . . . , bn))

Notazione 1.9 Nel seguito denotiamo sempre con φB l’isomorfismo inverso di ψB, che associa ad ogni vettore v ∈ V , v = (a1, . . . , an)B, le sue coordinate rispetto alla base B:

φB : V → Kn

v 7→ (a1, . . . , an)

(5)

Esempi 1.10 1) Se V = Kn e E = (e1, . . . , en) `e la base canonica, ∀(a1, . . . , an) ∈ Kn si ha (a1, . . . , an) = (a1, . . . , an)E, quindi ψE = idKn.

2) Siano v1 = (1, 2), v2 = (3, 1) ∈ R2; allora B = (v1, v2) `e una base per R2. Consideriamo ad esempio il vettore v = (0, 5); si ha v = 3v1− v2, quindi v = (3, −1)B e φB(v) = (3, −1).

Abbiamo quindi dimostrato il:

Teorema 1.11 Se V `e un K-spazio vettoriale di dimensione finita n > 0, allora V ∼= Kn.

Teorema 1.12 Siano V e W K-spazi vettoriali, sia V f.g. e sia B = (v1, . . . , vn) una sua base;

siano w1, . . . , wn vettori di W . Allora esiste un’unica applicazione lineare f : V → W tale che

f (vi) = wi, i = 1, . . . , n (∗)

Dimostrazione ∃): ∀v ∈ V , siano a1, . . . , an∈ K tali che v =Paivi; poniamo f (Xaivi) :=Xaiwi

La f cos`ı definita `e lineare: ∀v, v0 ∈ V , v =Paivi, v0 =Pbivi, ∀a, b ∈ K, si ha:

f (av + bv0) = f (aXaivi+ bXbivi) = f (X(aai+ bbi)vi) =

=X(aai+ bbi)wi= aXaiwi+ bXbiwi = af (v) + bf (v0)

!): Siano f, g applicazioni lineari tali che f (vi) = wi, g(vi) = wi i = 1, . . . , n; allora ∀v ∈ V , v =Paivi, si ha:

f (v) = f (Xaivi) =

|{z}

f lineare

Xaif (vi) =Xaiwi=Xaig(vi) =

|{z}

g lineare

g(Xaivi) = g(v)

Notazione 1.13 Nelle notazioni di Teorema 1.12 diciamo che l’applicazione lineare f `e ottenuta estendendo per linearit`a le (∗)

Esempio 1.14 L’applicazione definita in 1.8 `e ottenuta estendendo per linearit`a le ei7→ vi. Teorema 1.15 Sia f : V → W lineare. Allora valgono le seguenti affermazioni:

a) Se v1, . . . , vn∈ V sono l.d., allora f (v1), . . . , f (vn) sono l.d.

b) Se U `e sottospazio di V , allora f (U ) := {f (u) | u ∈ U } `e sottospazio di W . c) Se T `e sottospazio di W , allora f−1(T ) := {v ∈ V | f (v) ∈ T } `e sottospazio di V .

(6)

Dimostrazione a) Per ipotesi esistono a1, . . . , an∈ K non tutti 0 tali che: a1v1+ . . . + anvn= 0;

allora

0 = f (a1v1+ . . . + anvn) = a1f (v1) + . . . + anf (vn) b) ∀a, b ∈ K, ∀w, w0∈ f (U ), esistono u, u0 tali che w = f (u), w0 = f (u0), e quindi:

aw + bw0 = af (u) + bf (u0) = f (au + bu0

| {z }

∈U

) ∈ f (U )

c) ∀a, b ∈ K, ∀v, v0 ∈ f−1(T ), si ha f (v), f (v0) ∈ T , e quindi:

f (av + bv0) = af (v) + bf (v0) ∈ T ⇒ av + bv0 ∈ f−1(T ) d) Si ha

f (U ) = {w ∈ W | ∃u ∈ U, w = f (u)} =

= {w ∈ W | ∃a1, . . . , an∈ K, w = f (a1u1+ . . . + anun) = a1f (u1) + . . . + anf (un)} =

=< f (u1), . . . , f (un) >

Proposizione-Definizione 1.16 Sia f : V → W lineare. Il nucleo di f `e il nucleo di f come morfismo dei gruppi additivi:

Kerf := {v ∈ V, f (v) = 0}

e l’immagine di f `e l’immagine insiemistica di f :

Imf := f (V ) = {w ∈ W, ∃v ∈ V, w = f (v)}.

Si ha che Kerf `e un sottospazio di V , e Imf `e un sottospazio di W . Inoltre:

per definizione f `e suriettiva se e solo se Imf = W ; f `e iniettiva se e solo se Kerf = {0};

se (v1, . . . , vn) sono generatori per V , Imf =< f (v1), . . . , f (vn) >.

Dimostrazione Kerf = f−1(< 0 >) e Imf = f (V ) sono sottospazi rispettivamente di V e W per Teorema 1.15.

f iniettiva ⇒ Kerf = {0} `e ovvio; viceversa, sia Kerf = {0}; allora f (v) = f (v0) ⇒ f (v − v0) = 0 ⇒ v − v0∈ Kerf ⇒ v = v0.

Proposizione 1.17 Siano V e W K-spazi vettorali f.g., f : V → W un isomorfismo, v1, . . . , vn∈ V , e U ⊆ V , T ⊆ W sottospazi. Allora si ha:

a) v1, . . . , vn generatori per V ⇐⇒ f (v1), . . . , f (vn) generatori per W ; b) v1, . . . , vn l.i. ⇐⇒ f (v1), . . . , f (vn) l.i.;

c) (v1, . . . , vn) base per V ⇐⇒ (f (v1), . . . , f (vn)) base per W ; d) dimV = dimW ;

e) dimU = dimf (U ), dimT = dimf−1(T ).

(7)

Dimostrazione a) segue da Teorema 1.15 d); b) segue da Teorema 1.15 a); c) segue da a)+b); d) segue da c); e) si vede cos`ı: f (U ) e f−1(T ) sono sottospazi per Teorema 1.15, e le applicazioni:

f|U|f (U ): U → f (U )

v 7→ f (v), f−1 |f

−1(T )

|T : T → f−1(T )

w 7→ f−1(w)

sono lineari e biettive, quindi isomorfismi di spazi vettoriali, e si conclude usando d).

Proposizione-Definizione 1.18 Sia V di dimensione finita n, B base per V , e siano v1, . . . , vk∈ V , di coordinate rispetto a B:

v1 = (v11, . . . , vn1)B, . . . , vk= (v1k, . . . , vnk)B. Allora

rg(v1, . . . , vk) := dim < v1, . . . , vk >= rg

v11 . . . v1k

. . . vn1 . . . vnk

Dimostrazione Consideriamo l’isomorfismo che associa ad ogni vettore v ∈ V , v = (a1, . . . , an)B, le sue coordinate rispetto alla base B (vedi 1.9):

φB : V → Kn

v 7→ (a1, . . . , an) allora φB(vi) = (v1i, . . . , vni); per Prop. 1.17 e),

dim < v1, . . . , vk>= dim < (v11, . . . , vn1), . . . , (v1k, . . . , vnk) >= rg

v11 . . . v1k vn1 . . . vnk

 .

Teorema 1.19 Sia f : V → W lineare, e sia V f.g.. Allora Kerf e Imf hanno dimensione finita e si ha:

dimV = dim Kerf + dim Imf

Dimostrazione Poich´e Kerf `e un sottospazio di V , anche Kerf `e f.g.; sia quindi (v1, . . . , vs) una sua base, e completiamola ad una base (v1, . . . , vs, vs+1, . . . , vn) di V .

Basta quindi provare dim Imf = n − s; facciamo vedere che f (vs+1), . . . , f (vn) `e una base per Imf :

f (vs+1), . . . , f (vn) sono generatori: Imf =< f (v1)

| {z }

=0

, . . . , f (vs)

| {z }

=0

, f (vs+1), . . . , f (vn) >

f (vs+1), . . . , f (vn) sono l.i.: siano as+1, . . . , an∈ K tali che:

0 = as+1f (vs+1) + . . . + anf (vn) = f (as+1vs+1+ . . . + anvn) ⇒ as+1vs+1+ . . . + anvn∈ Kerf

⇒ ∃a1, . . . , astali che as+1vs+1+ . . . + anvn= a1v1+ . . . + asvs⇒ a1v1+ . . . + asvs− as+1vs+1− . . . − anvn= 0 ⇒

|{z}

v1,...,vnl.i.

a1 = . . . = an= 0

(8)

Definizione 1.20 Sia f : V → W lineare, sia V f.g., e sia (v1, . . . , vn) una base per V ; si chiama rango di f l’intero

rg(f ) := dim Imf = rg(f (v1), . . . , f (vn))

Corollario 1.21 Siano V, W spazi vettoriali f.g. con dimV = dimW = n, e sia f : V → W lineare. Sono equivalenti:

a) Kerf =< 0 >

b) Imf = W c) f isomorfismo.

Dimostrazione c) ⇒ a) e c) ⇒ b) sono ovvi.

a) ⇒ c) : da Teorema 1.19 si ha

dimV = 0 + dim Imf ⇒ dim Imf = n ⇒ Imf = W quindi f `e 1 − 1 e su, cio´e f isomorfismo; b) ⇒ c) `e analogo.

Teorema 1.22 Due K-spazi vettoriali V e W f.g. sono isomorfi se e solo se dimV = dimW . Dimostrazione Prop. 1.17 dice che V ∼= W ⇒ dimV = dimW . Viceversa:

dimV = dimW = n ⇒

|{z}

1.11

V ∼= Kn, W ∼= Kn

|{z}

1.6

V ∼= W.

Esempio 1.23 Siano V e W K-spazi vettoriali con dimV = dimW , e siano B = (v1, . . . , vn), C = (w1, . . . , wn) basi rispettivamente per V e W . Per costruire un isomorfismo tra V e W basta considerare l’applicazione lineare (vedi 1.12):

f : V → W

v1 7→ w1 ... ... ... vn 7→ wn

che `e un isomorfismo; infatti Imf =< f (v1), . . . , f (vn) >=< w1, . . . , wn>= W . Esempio 1.24 Consideriamo l’applicazione lineare:

g : M2(R) → R4

a b c d



7→ (a, b, c, d)

Kerg =< 0 >, quindi per Cor. 1.21 `e un isomorfismo di R-spazi vettoriali; si ha dimM2(R) = dimR4 = 4.

Quindi i sottospazi di M2(R) sono tutti e soli i sottoinsiemi di M2(R) della forma {

a b c d



∈ M2(R), h1(a, b, c, d) = 0, . . . hs(a, b, c, d) = 0, hi lineare omogeneo}

Per esempio,

(9)

U := {

a b c d



∈ M2(R), a − b + 2c = 0, 3a + b = 0} = {

 a −3a

−2a d



, a, d ∈R}

`

e un sottospazio di dimensione 2, perch´e rg

1 −1 2 0

3 1 0 0



= 2, quindi il sottospazio di R4 g(U ) = {(a, b, c, d) ∈R4| a − b + 2c = 0, 3a + b = 0} ha dimensione 2.

Esempio 1.25 Consideriamo l’applicazione lineare:

f : M2(R) → M2(R)

a b c d

 7→

a − d b

c 0



Ci chiediamo se f `e un isomorfismo; studiamo ad esempio il nucleo di f :

Kerf = {

a b c d



∈ M2(R), a − d = 0, b = 0, c = 0} = {

a 0 0 a



, a ∈R} =< I2>6= 0 quindi f non `e un isomorfismo, e dimKerf = 1 ⇒ dimImf = 3.

Se vogliamo conoscere una base di Imf , possiamo fare ad esempio cos`ı: utilizziamo l’isomorfismo g visto nell’esempio precedente; allora

Imf = {

a − d b

c 0



∈ M2(R), a, b, c, d ∈R} ⇒ g(Imf ) = {(a − d, b, c, 0) ∈R4, a, b, c, d ∈R} e si ha

{(a − d, b, c, 0) ∈R4, a, b, c, d ∈R} = {(a − d)(1, 0, 0, 0) + b(0, 1, 0, 0) + c(0, 0, 1, 0), a, b, c, d ∈R} =

=< (1, 0, 0, 0), (0, 1, 0, 0), (0, 0, 1, 0) >

essendo i vettori e1, e2, e3 l.i., essi formano una base per g(Imf ), quindi una base per Imf `e data da:

(

1 0 0 0

 ,

0 1 0 0

 ,

0 0 1 0

 )

Osservazione 1.26 Dalle precedenti proposizioni ed esempi si capisce che la filosofia `e questa:

per ogni questione attinente all’algebra lineare si pu`o sostituire V con W se se V e W sono spazi vettoriali isomorfi.

Adesso che abbiamo definito le applicazioni lineari, passiamo a studiare gli insiemi di applicazioni lineari, che come vedremo hanno anch’essi una struttura di K-spazio vettoriale.

Definizione 1.27 Siano V, W K-spazi vettoriali; poniamo:

Hom(V, W ) := {f, f : V → W lineare}

End(V ) := Hom(V, V ) = {f, f : V → V lineare}

V:= Hom(V, K) = {f, f : V → K lineare}

(10)

Proposizione-Definizione 1.28 Siano V e W due K-spazi vettoriali; per ogni f, g ∈ Hom(V, W ), per ogni λ ∈ K, definiamo le applicazioni lineari f + g e λf cos`ı:

f + g : V → W

v 7→ f (v) + g(v)

λf : V → W

v 7→ λf (v) Questo d`a due operazioni somma e prodotto per scalari:

+ : Hom(V, W ) × Hom(V, W ) → Hom(V, W )

(f, g) 7→ f + g

· : K × Hom(V, W ) → Hom(V, W )

(λ, f ) 7→ λf

che rendono Hom(V, W ) un K-spazio vettoriale.

Dimostrazione Basta verificare che le operazioni sono ben definite, cio´e che f +g e λf sono lineari, e che Hom(V, W ) verifica le propriet`a richieste ad un K-spazio vettoriale (esercizio).

Notiamo che, in particolare, lo 0 di Hom(V, W ) `e l’applicazione nulla:

0 : V → W

v 7→ 0

Osservazione 1.29 In particolare quindi, End(V ) e V sono K-spazi vettoriali; V `e detto lo spazio duale di V .

Si osservi che GL(V ) non `e un K-spazio vettoriale con queste operazioni: per esempio, se f ∈ GL(V ), anche −f ∈ GL(V ), ma f − f = 0 /∈ GL(V ).

1.2 La dualit`a

Proposizione-Definizione 1.30 Sia V un K-spazio vettoriale di dimensione finita, e sia B = (v1, . . . , vn) una base di V . Per i = 1, . . . , n sia ηi: V → K l’applicazione lineare cos`ı definita:

ηi(vj) :=

( 0 se i 6= j 1 se i = j

Allora B= (η1, . . . , ηn) `e una base per V, detta la base duale di B.

In particolare, dimV = dimV e quindi V ∼= V. Dimostrazione Le ηi sono ben definite (1.12).

Proviamo V =< η1, . . . , ηn>:

sia f ∈ V; allora risulta f = f (v11+. . .+f (vnn, infatti queste due applicazioni lineari prendono gli stessi valori sui vettori della base B:

(f (v11+ . . . + f (vnn)(vi) = f (v11(vi) + . . . + f (vnn(vi) = f (vii(vi) = f (vi) i = 1, . . . , n Proviamo η1, . . . , ηn l.i.: se a1, . . . , an∈ K, e a1η1. . . + anηn= 0, si ha:

ai = (a1η1. . . + anηn)(vi) = 0(vi) = 0 i = 1, . . . , n

(11)

Osservazione 1.31 Nelle notazioni precedenti, per quanto visto nella dimostrazione, se f ∈ V si ha:

f = (f (v1), . . . , f (vn))B

cio´e le coordinate di una applicazione lineare f : V → K rispetto alla base duale di B sono i suoi valori sui vettori di B.

Osservazione 1.32 Nelle notazioni precedenti, si ha ηi((x1, . . . , xn)B) = xi

infatti ηi((x1, . . . , xn)B) = ηi(x1v1+ . . . + xnvn) = x1ηi(v1) + . . . + xnηi(vn) = xi, cio´e l’applicazione lineare ηi : V → K associa ad un vettore la sua i-esima coordinata rispetto alla base B.

Quindi, se a1, . . . , an, b1, . . . , bn∈ K, si ha:

(a1η1+ . . . + anηn)(b1v1+ . . . + bnvn) = a1b1+ . . . + anbn.

Esempi 1.33 a) Sia V = R3, sia E = (e1, e2, e3) la base canonica e sia E = (ε1, ε2, ε3) la base duale; allora

ε1((x, y, z)) = x, ε2((x, y, z)) = y, ε3((x, y, z)) = z Consideriamo l’applicazione lineare

f : R3R

(x, y, z) 7→ 2x + z

allora f (e1) = 2, f (e2) = 0, f (e3) = 1, quindi in V si ha f = (2, 0, 1)E = 2ε1+ ε3. b) Sia V =R3, con la base B = (1, 1, 1)

| {z }

v1

, (1, 0, 1)

| {z }

v2

, (0, 0, 2)

| {z }

v3

, e sia B= (η1, η2, η3) la base duale. Allora se v = (5, 2, 7), si ha v = 2v1+ 3v2+ v3, da cui per esempio

(3η1− η2+ 2η3)(v) = (3η1− η2+ 2η3)(2v1+ 3v2+ v3) = 3 · 2 + (−1) · 3 + 2 · 1 = 5

Definizione 1.34 Sia V un K-spazio vettoriale; lo spazio vettoriale (V)`e detto lo spazio biduale di V , e viene denotato con V∗∗.

Osservazione 1.35 Se V ha dimensione finita n, allora V ∼= V ∼= V∗∗

e dimV = dimV∗∗ per 1.30.

Sia B = (v1, . . . , vn) una base di V , e sia B = (η1, . . . , ηn); allora un possibile isomorfismo `e dato da (vedi 1.23):

φ : V → V v1 7→ η1 ... ... ... vn 7→ ηn

(12)

Esempio 1.36 Sia V =R2, sia E = (e1, e2) la base canonica e sia E = (ε1, ε2) la base duale; sia v2 = (1, 1) e consideriamo anche la base B = (e1, v2), e la sua duale B = (η1, η2).

Osserviamo che ε1 6= η1, infatti per esempio:

ε1(e2) = 0, η1(e2) = η1(−e1+ v2) = −1.

Consideriamo i due isomorfismi

φ : V → V e1 7→ ε1

e2 7→ ε2

ψ : V → V e1 7→ η1

v2 7→ η2 Si ha

φ(e1) = ε1 6= η1 = ψ(e1) ⇒ φ 6= ψ.

Teorema 1.37 Sia V un K-spazio vettoriale di dimensione finita; esiste un isomorfismo canonico (nel senso che dipende solo da V , e non dalla scelta di una base di V ):

β : V →= V∗∗

v 7→ v∗∗

dove v∗∗: V → K

f 7→ f (v)

Dimostrazione - β `e ben definita perch´e v∗∗: V → K `e lineare, infatti:

v∗∗(af + bg) = (af + bg)(v) = af (v) + bg(v) = av∗∗(f ) + bv∗∗(g), ∀a, b ∈ K, ∀f, g ∈ V - β `e lineare:

β(av + bw) = (av + bw)∗∗ ?= aβ(v) + bβ(w) = av∗∗+ bw∗∗ ∀a, b ∈ K, ∀v, w ∈ V Questo `e vero poich´e si ha, ∀f ∈ V:

(av + bw)∗∗(f ) = f (av + bw) = af (v) + bf (w) = av∗∗(f ) + bw∗∗(f ) = (av∗∗+ bw∗∗)(f ) - β `e 1 − 1 perch´e Kerβ =< 0 >, infatti:

v ∈ Kerβ ⇐⇒ v∗∗= 0 ⇐⇒ v∗∗(f ) = 0 ∀f ∈ V ⇐⇒ f (v) = 0 ∀f ∈ V ⇐⇒ v = 0(♥) proviamo (♥):

se v = 0 ⇒ f (v) = 0 ∀f ∈ V `e banalmente vero; viceversa, supponiamo f (v) = 0 ∀f ∈ V e v 6= 0, e completiamo v ad una base (v, v2, . . . , vn) di V ; allora l’applicazione lineare

f : V → K

v 7→ 1

v2 7→ 0 ... ... ... vn 7→ 0 non si annulla in v, contraddizione.

- β `e su perch´e `e una applicazione lineare 1 − 1 tra spazi vettoriali f.g. della stessa dimensione.

(13)

1.3 Applicazioni lineari e matrici

Definizione 1.38 Siano V , W due K-spazi vettoriali f.g., e siano B = (v1, . . . , vn) base per V , C = (w1, . . . , ws) base per W .

Sia f : V → W una applicazione lineare; la matrice s × n la cui i-esima colonna `e data dalle coordinate del vettore f (vi) rispetto alla base C si chiama la matrice associata ad f rispetto alle basi B nel dominio e C nel codominio, e si denota con MC,B(f ):

MC,B(f ) =

a11 . . . a1n

... ... ... as1 . . . asn

dove

f (vi) = a1iw1+ . . . + asiws= (a1i, . . . , asi)C

Proposizione 1.39 Siano V , W due K-spazi vettoriali f.g., siano B = (v1, . . . , vn) base per V , C = (w1, . . . , ws) base per W , e sia f : V → W una applicazione lineare.

Allora se v = (x1, . . . , xn)B e f (v) = (y1, . . . , ys)C, risulta:

y1

... ys

= MC,B(f )

x1

... xn

Dimostrazione Sia

MC,B(f ) =

a11 . . . a1n

... ... ... as1 . . . asn

. Allora

f (v) = f (x1v1+ . . . + xnvn) = x1f (v1) + . . . + xnf (vn) =

= x1(a11w1+. . .+as1ws)+. . .+xn(a1nw1+. . .+asnws) = (a11x1+. . .+a1nxn)w1+. . .+(as1x1+. . .+asnxn)ws

cio´e

y1= a11x1+ . . . + a1nxn ...

ys= as1x1+ . . . + asnxn

(∗)

Le (∗) si possono scrivere in forma matriciale cos`ı:

y1

... ys

=

a11 . . . a1n ... ... ... as1 . . . asn

x1

... xn

(∗∗)

(14)

Definizione 1.40 Le (∗) o equivalentemente le (∗∗) vengono dette le equazioni della f rispetto alle basi B nel dominio e C nel codominio.

Ponendo X :=

x1

... xn

, Y :=

y1

... ys

, le (∗∗) si scrivono:

Y = MC,B(f ) X Esempio 1.41 Consideriamo l’applicazione lineare:

f : R2R2 e1 7→ (1, 3) e2 7→ (−2, 7) quindi f agisce sul generico vettore (x, y) ∈R2 cos`ı:

f ((x, y)) = f (xe1+ ye2) = xf (e1) + yf (e2) = x(1, 3) + y(−2, 7) = (x − 2y, 3x + 7y) e si ha

ME,E(f ) =

1 −2

3 7



Siano v1= (1, 1), v2 = (2, −1); poich´e det

1 2 1 −1



6= 0, v1, v2sono l.i.; sia B = (v1, v2); cerchiamo ME,B(f ). Si ha:

f (v1) = f ((1, 1)) = (−1, 10), f (v2) = f ((2, −1)) = (4, −1) per cui

ME,B(f ) =

−1 4 10 −1



Quindi se v = (1, 3)B, si ha f (v) = (11, 7) perch´e

−1 4 10 −1

 1 3



=

11 7



Definizione 1.42 Siano V , W due K-spazi vettoriali f.g. e siano B = (v1, . . . , vn) base per V , C = (w1, . . . , ws) base per W . Sia A = (aij) ∈ Ms,n(K); si dice applicazione lineare associata ad A rispetto alle basi B nel dominio e C nel codominio l’applicazione, che si verifica essere lineare,

FC,B(A) : V → W

(x1, . . . , xn)B 7→ (y1, . . . , ys)C

dove

y1

... ys

= A

x1

... xn

cio´e FC,B(A)(vi) := a1iw1+ . . . + asiws.

(15)

Proposizione 1.43 Siano V , W due K-spazi vettoriali f.g. e siano B = (v1, . . . , vn) base per V , C = (w1, . . . , ws) base per W . L’applicazione

MC,B: Hom(V, W ) → Ms,n(K) f 7→ MC,B(f )

`

e un isomorfismo di K-spazi vettoriali, con inversa

FC,B : Ms,n(K) → Hom(V, W )

A 7→ FC,B(A)

In particolare, dimHom(V, W ) = ns.

Dimostrazione - linearit`a di MC,B: bisogna provare che ∀f, g ∈ Hom(V, W ), ∀a, b ∈ K, MC,B(af + bg) = aMC,B(f ) + bMC,B(g)

questo `e vero perch´e vale (af + bg)(vi) = af (vi) + bg(vi), quindi queste uguaglianze si mantengono scrivendo i vettori in coordinate rispetto a C; basta ora ricordare la definizione di somma di due matrici e di prodotto di uno scalare per una matrice.

- biettivit`a di MC,B: risulta dalla definizione

MC,B(FC,B(A)) = A ∀A ∈ Ms,n(K),

FC,B(MC,B(f )) = f ∀f ∈ Hom(V, W ) Quindi MC,B `e biettiva con inversa FC,B.

Osservazione 1.44 Siano V , W due K-spazi vettoriali f.g., siano B = (v1, . . . , vn) base per V , C = (w1, . . . , ws) base per W , e sia f : V → W una applicazione lineare.

Da 1.39 si ha che le coordinate di f (v) rispetto a C si scrivono come polinomi lineari omogenei nelle coordinate di v rispetto a B; infatti, come visto nella dimostrazione di 1.39, se v = (x1, . . . , xn)B, f (v) = (y1, . . . , ys)C, e MC,B(f ) =

a11 . . . a1n ... ... ... as1 . . . asn

, si ha:

y1= a11x1+ . . . + a1nxn ...

ys= as1x1+ . . . + asnxn

(∗)

Viceversa, si verifica facilmente che se f : V → W `e una applicazione tale che le coordinate di f (v) rispetto a C si scrivono come polinomi lineari omogenei nelle coordinate di v rispetto a B, cio´e una applicazione della forma:

f : V → W

(x1, . . . , xn)B 7→ (b11x1+ . . . + b1nxn, . . . , bs1x1+ . . . + bsnxn)C

dove i bij ∈ K, allora f `e lineare. Infatti, posto

B :=

b11 . . . b1n ... ... ...

(16)

basta osservare che si ha

f = FC,B(B).

Siamo quindi in grado di riconoscere subito se una applicazione data mediante le coordinate sia lineare o meno, e di scrivere facilmente esempi di applicazioni lineari.

Proposizione 1.45 Siano U , V , W K-spazi vettoriali f.g. di basi rispettivamente A = (u1, . . . , ut), B = (v1, . . . , vn), C = (w1, . . . , ws). Siano g : U → V e f : V → W applicazioni lineari. Allora

MC,A(f ◦ g) = MC,B(f )MB,A(g) dove il prodotto tra matrici `e il prodotto righe per colonne.

Dimostrazione

g f

U → V → W

A B C

Siano

u = (z1, . . . , zt)A, v = g(u) = (x1, . . . , xn)B, w = f (v) = f (g(u)) = (y1, . . . , ys)C

allora

y1

... ys

= MC,B(f )

x1

... xn

= MC,B(f )

MB,A(g)

z1

... zt

= (MC,B(f )MB,A(g))

z1

... zt

Osservazione 1.46 a) Siano V , W due K-spazi vettoriali f.g., siano B = (v1, . . . , vn) base per V , C = (w1, . . . , ws) base per W , e sia f : V → W una applicazione lineare; poniamo

A := MC,B(f ) =

a11 . . . a1n

... ... ... as1 . . . asn

. Allora si ha

Kerf = {(x1, . . . , xn)B∈ V | A

x1

... xn

= 0}, Imf =< (a11. . . as1)C, . . . , (a1n. . . asn)C>

Ne segue

rg(f ) = dim Imf = rg(f (v1), . . . , f (vn)) = rg(A), e

dimKerf = n − rg(A).

b) Nelle notazioni precedenti supponiamo inoltre dimW = dimV = n. Da a) segue:

f isomorfismo ⇐⇒ MC,B(f ) ∈ GLn(K) ()

(17)

Notazione 1.47 Sia V uno spazio vettoriale f.g., sia B = (v1, . . . , vn) una base di V , sia f ∈ End(V ) e sia A ∈ Mn(K). Poniamo:

MB(f ) := MB,B(f ) (detta la matrice di f rispetto a B)

FB(A) := FB,B(A) (detto l’endomorfismo di V associato ad A rispetto a B)

Proposizione 1.48 Sia V uno spazio vettoriale f.g., sia B = (v1, . . . , vn) una base di V e sia f ∈ End(V ). Allora valgono i seguenti fatti:

f = idV ⇐⇒ MB(f ) = In; f ∈ GL(V ) ⇐⇒ MB(f ) ∈ GLn(K);

se f ∈ GL(V ) o equivalentemente se MB(f ) ∈ GLn(K), allora MB(f−1) = MB(f )−1.

Osserviamo che se B e C sono due basi, allora MC,B(idV) 6= In ⇐⇒ B 6= C.

Dimostrazione La prima affermazione segue dalla definizione di matrice associata, la seconda `e un caso particolare di 1.46 b), la terza si vede cos`ı:

f ◦ f−1 = idV ⇐⇒ MB(f ◦ f−1) = In ⇐⇒ MB(f )MB(f−1) = In. Corollario 1.49 Nelle notazioni precedenti, l’isomorfismo di K-spazi vettoriali

MB : End(V ) → Mn(K) f 7→ MB(f )

`

e anche un isomorfismo di anelli, prendendo come operazioni su End(V ) la somma usuale e la composizione di funzioni come prodotto, e su Mn(K) la somma usuale e il prodotto righe per colonne.

Dimostrazione Essendo un isomorfismo di spazi vettoriali lo `e in particolare di gruppi additivi;

poich´e per 1.45 MB(f ◦ g) = MB(f )MB(g), e MB(idV) = In, `e anche un morfismo di anelli, dunque essendo biettiva `e un isomorfismo.

Definizione 1.50 Sia V un K-spazio vettoriale f.g. e siano B = (v1, . . . , vn), C = (w1, . . . , wn) due sue basi.

La matrice MC,B(idV) `e detta la matrice del cambiamento di coordinate dalla base B alla base C, o anche la matrice del cambiamento di base da B a C; si ha

MC,B(idV) =

v11 . . . v1n ... ... ... vn1 . . . vnn

dove la colonna i-esima `e formata dalle coordinate di vi rispetto alla base C.

Risulta, se v = (x1, . . . , xn)B = (y1, . . . , yn)C:

y1

...

= MC,B(idV)

x1

...

(18)

Proposizione 1.51 Nelle notazioni di 1.50 si ha

MC,B(idV)−1= MB,C(idV) Dimostrazione

MC,B(idV)MB,C(idV) = MC,C(idV) = In, MB,C(idV)MC,B(idV) = MB,B(idV) = In.

(19)

1.4 Equazioni di un sottospazio vettoriale

Nel seguito sono fissate le seguenti notazioni: V `e un K-spazio vettoriale, dimV = n, B = (v1, .., vn)

`

e una base per V .

E facile provare le seguenti affermazioni:`

(equazioni cartesiane di un sottospazio vettoriale)

a) Siano M =

m11 . . . m1n ... ... ms1 . . . msn

∈ Ms,n(K), X =

x1

... xn

, 0 =

0... 0

. Allora

W := {(x1, .., xn)B ∈ V | M X = 0}

`

e un sottospazio vettoriale di dimensione n − r(M ).

b) Sia W un sottospazio vettoriale di dimensione t; allora esiste un sistema lineare omogeneo M X = 0 di rango n − t in n incognite tale che

W = {(x1, .., xn)B ∈ V | M X = 0}.

Si dice che M X = 0 `e un sistema di equazioni cartesiane di W rispetto alla base B.

Dunque, un sottospazio vettoriale di dimensione t pu`o venire rappresentato da n − t equazioni indipendenti, cio´e come intersezione di n − t iperpiani.

Si osservi che le equazioni cartesiane non sono univocamente determinate: tutti e soli i sistemi lineari equivalenti a M X = 0 danno equazioni cartesiane per W rispetto a B.

(equazioni parametriche di un sottospazio vettoriale) a) Date espressioni della forma:

x1 = b11λ1+ ... + b1sλs ...

xn= bn1λ1+ ... + bnsλs λ1, ..., λs∈ K,

l’insieme W := {(x1, .., xn)B ∈ V | ∃λ1, ..., λs ∈ K, xi = bi1λ1 + ... + bisλs, i = 1, .., n} `e il sottospazio vettoriale di dimensione r(bij):

W =< (b11, .., bn1)B, .., (b1s, .., bns)B > .

b) Sia W =< w1, ..., ws> un sottospazio vettoriale di V , con w1= (b11, .., bn1)B, .., ws= (b1s, .., bns)B. Allora W si pu`o descrivere come l’insieme dei vettori (x1, .., xn)B tali che esistono λ1, ..., λs ∈ K tali che:

x1 = b11λ1+ ... + b1sλs

...

xn= bn1λ1+ ... + bnsλs, λ1, ..., λs∈ K,

(∗)

(20)

x1

... xn

= λ1

b11

... bn1

+ . . . + λs

b1s

... bns

Si dice che le (∗) sono un sistema di equazioni parametriche di W rispetto ad B, e λ1, ..., λssono detti parametri; si ha dimW = r(bij).

Dunque un sottospazio vettoriale di dimensione t pu`o venire rappresentato con esattamente t parametri; basta scegliere i generatori wiin modo che siano linearmente indipendenti. Si osservi che le equazioni parametriche non sono univocamente determinate: cambiando sistema di generatori per W si hanno altre equazioni parametriche.

Osservazione a) Sia W un sottospazio vettoriale di dimensione t e di equazioni cartesiane M X = 0 rispetto a B (sar`a quindi r(M ) = n − t); per passare ad equazioni parametriche sempre rispetto a B basta scrivere la soluzione generale del sistema che dipender`a da t incognite libere, cio`e da t parametri.

b) Sia W un sottospazio vettoriale di dimensione t e di equazioni parametriche (∗) rispetto a B;

per passare ad equazioni cartesiane sempre rispetto a B basta imporre

r

x1 b11 . . . b1s ...

xn bn1 . . . bns

= t

scegliemdo un minore non nullo di ordine t della matrice (bij), ed imponendo che i suoi orlati di ordine t + 1 siano tutti nulli..

(21)

2 Autovalori ed autovettori

Iniziamo richiamando qualcosa sulle somme dirette di sottospazi:

Proposizione 2.1 Sia V un K-spazio vettoriale, siano E1, . . . , Es sottospazi di V di dimensione finita, e sia nj := dimEj > 0, j = 1, . . . , s. Sono equivalenti:

a) E1+ . . . + Es `e somma diretta;

b) Se Bj = (vj,1, . . . , vj,nj) `e base per Ej, j = 1, . . . , s, allora

B = (v1,1, . . . , v1,n1, . . . , vs,1, . . . , vs,ns)

`

e base per E1+ . . . + Es (in altre parole, gli insiemi B1, . . . , Bs sono a due a due disgiunti, e la loro unione dotata di un ordine `e una base per E1+ . . . + Es);

c) dim(E1+ . . . + Es) = dimE1+ . . . + dimEs.

Avremo anche bisogno di qualche richiamo sulle radici di un polinomio.

2.1 Radici di un polinomio

Lavoriamo con polinomi a coefficienti in un campo K; K[x] denota l’anello di tali polinomi.

Per maggiori dettagli e per le dimostrazioni si rimanda per esempio alle Note di Algebra 2:

http://www.dm.unibo.it/ ida/tutto11-12-14.pdf

Definizione 2.2 Sia f = a0+ a1x + . . . + anxn un polinomio a coefficienti in K; diciamo che un elemento u di K `e una radice, o uno zero, di f se f (u) = a0 + a1u + . . . + anun = 0 (se cio´e la funzione polinomiale associata ad f si annulla in u).

Definizione 2.3 Siano f, g ∈ K[x]; diciamo che g divide f e scriviamo g | f se esiste un polinomio h tale che f = gh.

Proposizione 2.4 Sia K campo, u ∈ K, f ∈ K[x]; allora x − u | f ⇐⇒ f (u) = 0

Definizione 2.5 Sia K campo, u ∈ K, f ∈ K[x], f 6= 0; la molteplicit`a µ(u) di u come radice di f `e l’unico intero m ∈Ntale che

f = (x − u)mg, g(u) 6= 0 Si dimostra che la definizione `e ben posta e che si ha

µ(u) = max{k ∈N, (x − u)k| f } Quindi se µ(u) = 0 allora f (u) 6= 0.

Una radice semplice, risp. multipla, di f `e una radice di molteplicit`a 1, risp. > 1.

Proposizione 2.6 Sia K campo, f ∈ K[x], f di grado n (cio´e f = a0+a1x+. . .+anxncon an6= 0);

allora se u1, . . . , uk sono le radici (a due a due distinte) di f in K, si ha µ(u1) + . . . + µ(uk) ≤ n.

Se µ(u1) + . . . + µ(uk) = n, diciamo che f ha n radici contate con molteplicit`a in K, e in tal caso f fattorizza nel prodotto di n fattori lineari:

µ(u )· . . . · (x − u µ(u )

(22)

Esempio 2.7 a) Sia f = x2− 6x − 5; se pensiamo ad f come polinomio reale, le radici inRsono 3 ±√

9 + 5 cio´e u1= 3 +√

14, u2 = 3 −√

14. Quindi x − u1| f e x − u2| f ; `e facile verificare che x2− 6x − 5 = (x − (3 +√

14))(x − (3 −√ 14))

D’altra parte f ha coefficienti interi, quindi in Q, ma le sue radici non stanno in Q, quindi come polinomio razionale f non si fattorizza in fattori lineari.

b) Sia f = 2x2− 6x − 3; se pensiamo ad f come polinomio reale, le radici in R sono

9+6 2 cio´e u1 = 3+

15

2 , u2 = 3−

15

2 . Quindi x − u1| f e x − u2| f ; `e facile verificare che 2x2− 6x − 3 = 2(x − 3 +√

15

2 )(x −3 −√ 15 2 ).

La differenza con il caso precedente `e che x2− 6x − 5 `e un polinomio monico, cio´e con coefficiente direttore = 1, mentre 2x2− 6x − 3 ha coefficiente direttore = 2.

2.2 Matrici simili - Endomorfimi diagonalizzabili

In questa sessione V denota sempre un K-spazio vettoriale, se di dimensione finita o no verr`a pre- cisato di volta in volta, e id denota idV, mentre I denota la matrice identit`a dell’ordine opportuno.

Proposizione 2.8 Sia dimV = n, A, B basi per V , f ∈ EndV . Si ha:

MA(f ) = MB,A(id)−1MB(f ) MB,A(id) Dimostrazione

id f id

V → V → V → V

A B B A

Dato che id ◦ f ◦ id = f , per 1.45 si ha:

MA(f ) = MA,A(id ◦ f ◦ id) = MA,B(id) MB,B(f ) MB,A(id) = MB,A(id)−1MB(f ) MB,A(id)

Corollario 2.9 Nelle notazioni di 2.8, si ha

detMA(f ) = detMB(f ) Dimostrazione Per il Teorema di Binet si ha:

detMA(f ) = detMB,A(id)−1 detMB(f ) detMB,A(id) = (det (MB,A(id)))−1 detMB(f ) detMB,A(id) Definizione 2.10 Sia V f.g., B una sua base e sia f ∈ EndV . Poniamo

detf := detMB(f ).

Si osservi che la definizione `e ben posta grazie a 2.9

(23)

Definizione 2.11 Due matrici A, B ∈ Mn(K) si dicono simili se esiste P ∈ GLn(K) tale che B = P−1AP

Osservazione 2.12 La similitudine `e una relazione di equivalenza in Mn(K). Infatti:

- A = In−1AIn

- B = P−1AP ⇒ P BP−1 = A ⇒ A = (P−1)−1BP−1

- B = P−1AP, C = Q−1BQ ⇒ C = Q−1(P−1AP )Q = (P Q)−1A(P Q) dove P, Q sono invertibili, quindi anche P−1 e P Q lo sono.

Proposizione 2.13 Sia dimV = n, e siano A, B ∈ Mn(K). Allora A e B sono simili ⇐⇒

rappresentano uno stesso endomorfismo di V rispetto a due basi diverse. Pi`u precisamente, A, B simili ⇐⇒ ∃f ∈ EndV, C, D basi di V tali che A = MC(f ), B = MD(f ) Dimostrazione ⇐) : segue da 2.8

⇒) : Sia P = (pij) ∈ GLn(K) tale che B = P−1AP . Sia C = (v1, . . . , vn) una base arbitraria e sia f = FC(A). Sia D = (w1, . . . , wn) la base di V tale che le coordinate di wi rispetto a C siano la colonna i-esima di P : wi = (p1i, . . . , pni)C. Allora P = MC,D(id), e si ha:

B = (MC,D(id))−1MC(f )MC,D(id) =

|{z}

P rop.2.8

MD(f )

Definizione 2.14 Una matrice A ∈ Mn(K) si dice diagonalizzabile (abbreviato in dz) se `e simile ad una matrice diagonale.

Diagonalizzare una matrice A ∈ Mn(K) che sia dz vuol dire trovare una P ∈ GLn(K) tale che P−1AP sia diagonale.

Sia dimV = n; un endomorfismo f ∈ EndV si dice diagonalizzabile se esiste una base B di V tale che MB(f ) sia una matrice diagonale; in tal caso, B si dice base diagonalizzante.

Per Prop. 4.35, f `e dz ⇐⇒ se C `e una qualsiasi base di V , MC(f ) `e dz.

Osservazione 2.15 Se f `e dz e B = (v1, . . . , vn) `e una base diagonalizzante, si ha

MB(f ) =

λ1 0 . . . 0 ... . .. ... ... . .. ... 0 0 . . . λn

e quindi

f (v1) = λ1v1, . . . , f (vn) = λnvn.

Viceversa, se f `e tale che esista una base B = (v1, . . . , vn) con f (v1) = λ1v1, . . . , f (vn) = λnvn, allora f `e dz e B `e base diagonalizzante.

Riferimenti

Documenti correlati

Se, in luogo dello spazio affine costruito a partire dallo spazio vettoriale R n , si considera quello associato allo spazio euclideo reale E n si ottiene un spazio affine nel quale

…cie con curvatura negativa, la pseudosfera, per un punto fuori da una retta è possibile tracciare in…nite parallele alla retta, la somma degli angoli interni di un triangolo è

Per farlo basta considerare la matrice ortogonale speciale M le cui colonne sono una base ortonormale di autovettori di B... Questa ` e proprio la traslazione che stavamo cercando

Idea: costruire un modello di geometria non euclidea prendendo come spazio una superficie di curvatura costante negativa e come rette le sue geodetiche.. Difficolt` a: nello

_ VERIFICA IN ITINERE (cfr. traccia consegnata in aula: ricerca delle tracce del piano che contiene la falda abc della copertura di una piccola abitazione; individuazione

rappresentazione della retta comune a due piani generici (intersezione tra piani) rappresentazione di un piano determinato da due rette incidenti. rappresentazione di una

Ricercatore, Dottore di Ricerca in Rappresentazione dell'Architettura e dell'Ambiente Università degli Studi della Basilicata – CdL in Architettura, DICEM,. Via Lazazzera,

3) Calcolare il volume del tetraedro regolare di spigolo l. 4) Individuare la posizione del punto P sull’altezza di un cono in modo che il piano passante per P e parallelo alla