• Non ci sono risultati.

A.A Geometria 2 UNICA. Stefano Montaldo

N/A
N/A
Protected

Academic year: 2022

Condividi "A.A Geometria 2 UNICA. Stefano Montaldo"

Copied!
170
0
0

Testo completo

(1)

13 -1 4 .

Geometria 2

UNICA Stefano Montaldo

(2)
(3)

Indice

1 Generalità sugli spazi affini 1

1.1 Spazi affini . . . 1

1.1.1 Sottospazi affini . . . 3

1.1.2 Intersezione di sottospazi affini parallelismo . . . 4

1.1.3 Coordinate affini . . . 5

1.1.4 Cambiamenti di coordinate affini . . . 6

1.2 Trasformazioni affini . . . 8

1.2.1 Il gruppo affine . . . 11

1.3 Esercizi . . . 11

2 Generalità sugli spazi euclidei 13 2.1 Il prodotto scalare . . . 13

2.1.1 Proiezioni ortogonali . . . 16

2.1.2 Il procedimento di Gram-Schmidt . . . 17

2.1.3 Applicazioni della proiezione ortogonale . . . 18

2.2 Spazi euclidei . . . 20

2.2.1 Coordinate ortogonali . . . 20

2.2.2 Trasformazioni ortogonali . . . 21

2.2.3 Endomorfismi simmetrici . . . 22

2.2.4 Trasformazioni euclide ed isometrie . . . 24

2.2.5 Il gruppo delle isometrie . . . 27

2.3 Esercizi . . . 27

(4)

3 Geometria euclidea del piano e dello spazio 29

3.1 Riferimento Cartesiano nello spazio . . . 29

3.2 Sottospazi affini del piano e dello spazio . . . 33

3.2.1 La retta affine . . . 33

3.2.2 Geometria piana della retta . . . 34

3.2.3 Esercizi . . . 40

3.2.4 Il piano affine . . . 42

3.3 Problemi geometrici sulle rette ed i piani nello spazio . . . 48

3.3.1 Esercizi . . . 57

4 Classificazione delle isometrie del piano e dello spazio 60 4.1 Trasformazioni ortogonali di uno spazio di dimensione 2 . . . 61

4.2 Classificazione delle isometrie del piano . . . 64

4.3 Classificazione delle trasformazioni ortogonali in dimensione 3 68 4.4 Angoli di Eulero . . . 70

4.5 Classificazione delle isometrie dello spazio . . . 72

4.6 Esercizi . . . 74

5 Geometria quadratica 1 76 5.1 Sfere e circonferenze . . . 76

5.1.1 Circonferenza per tre punti e sfera per quattro punti . . 78

5.1.2 Parametrizzazione della circonferenza e della sfera . . 80

5.1.3 Intersezione di una sfera (circonferenza) con una retta 81 5.1.4 Potenza di un punto rispetto ad una sfera (circonferenza) 85 5.1.5 Intersezione di due circonferenze . . . 88

5.1.6 Fasci di circonferenze . . . 89

5.1.7 Circonferenza su un piano qualunque dello spazio . . . 90

5.1.8 Esercizi . . . 92

5.2 Cilindri e Coni . . . 95

5.2.1 Equazione cartesiana del cilindro e del cono . . . 96

5.2.2 Cono e cilindro circoscritto ad una sfera . . . 98

5.2.3 Esercizi . . . 98

5.3 Coniche come luogo geometrico . . . 99

5.3.1 Esercizi . . . 104

5.3.2 Parametrizzazioni delle coniche in forma canonica . . 105

5.4 Superfici di rivoluzione . . . 106 5.4.1 Equazione parametrica di una superficie di rivoluzione 107

(5)

5.5 Quadriche di rotazione . . . 107

5.5.1 Ellissoidi . . . 108

5.5.2 Iperboloidi . . . 109

5.5.3 Paraboloidi . . . 111

5.5.4 Esercizi . . . 114

6 Geometria quadratica 2: quadriche e coniche affini 116 6.1 La definizione di quadrica e conica . . . 116

6.2 Intersezione di una quadrica con un piano . . . 121

6.3 Intersezione di una quadrica con una retta . . . 123

6.3.1 Asintoti di una conica . . . 125

6.3.2 Asintoti di una quadrica . . . 127

6.3.3 Generatori rettilinei di una quadrica . . . 129

6.3.4 Rette tangenti ad una quadrica . . . 130

6.4 Centro di simmetria . . . 133

6.5 Diametri di una quadrica . . . 137

6.6 Classificazione affine delle quadriche . . . 138

6.6.1 Invarianti affini . . . 142

6.6.2 Classificazione affine delle quadriche . . . 143

7 Geometria quadratica 3: quadriche e coniche euclidee 148 7.1 Direzioni principali . . . 148

7.2 Classificazione euclidea delle coniche e delle quadriche . . . . 151

7.2.1 Invarianti euclidei . . . 156

7.3 Riduzione di una conica e di una quadrica in forma canonica . 160 7.3.1 Quadriche a centro . . . 160

7.3.2 Quadriche non degeneri senza centro . . . 161

7.3.3 Quadriche degeneri con ρ = 2 . . . 161

7.3.4 Quadriche degeneri con ρ = 1 . . . 162

7.3.5 Forma canonica delle coniche . . . 163

7.4 Esercizi . . . 163

(6)
(7)

1

Generalit`a sugli spazi affini

1.1 Spazi affini

Definizione 1.1. Uno spazio affine è una terna (A, V, η), dove A è un insieme, V è uno spazio vettoriale mentre η è una applicazione

η: A× A → V

che ad ogni coppia ordinata (A, B), A, B∈ A, associa un vettore v = η(A, B)====de f AB , tale che:

(i) per ogni punto A ∈ A, l’applicazione ηA : A → V definita, per ogni B∈ A, da ηA(B) = η(A, B) è una biezione;

(ii) per ogni A, B, C∈ A vale la relazione AB = AC +CB (regola di Chasles).

L’insieme A si chiama spazio dei punti, mentre lo spazio vettoriale V prende il nome di spazio vettoriale associato allo spazio dei punti A o giacitura dello spazio affine.

(8)

La dimensione di uno spazio affine (A, V, η) è definita come la dimensione dello spazio vettoriale V. Si osservi che quest’ultima potrebbe essere infinita.

In ogni caso in questo testo ci occuperemo esclusivamente del caso in cui la dimensione sia finita ed, in particolare, del caso di dimensione 1, 2 o 3.

Dalla definizione di spazio affine segue immediatamente che, per ogni A, BA, AA = 0 e AB =−BA.

Esempio 1.2.

(i) L’insieme vuoto è uno spazio affine rispetto a qualsiasi spazio vettoriale associato. Si conviene che in questo caso lo spazio affine non abbia dimensione.

(ii) L’insieme formato da un unico elemento è uno spazio affine, con spazio vettoriale associato V ={0}, di dimensione zero.

(iii) Uno spazio vettoriale V si può pensare in modo naturale (canonico) come lo spazio affine (V, V, η) con η(u, v) = v− u, u, v ∈ V.

(iv) Se (A1,V1, η1) e (A2,V2, η2) sono due spazi affini si consideri il prodotto cartesiano A1× A2. Definendo l’applicazione

η: (A1× A2)× (A1× A2)→ V1× V2

come η((A1,A2), (B1,B2)) = (η1(A1,B1), η2(A2,B2)) è facile verificare che η soddisfa la Definizione 1.1. Quindi la terna (A1× A2,V1× V2, η) definisce uno spazio affine chiamato spazio affine prodotto.

Da ora in poi, quando non vi è pericolo di ambiguità, indicheremo con A uno spazio affine intendendo che è chiaro dal contesto lo spazio vettoriale associato.

Osservazione 1.3. Dato uno spazio affine A e fissato un punto O ∈ A segue, dalla definizione, che ad ogni punto B ∈ A resta associato un unico vettore v ∈ V. Possiamo quindi introdurre sull’insieme dei punti A una struttura di spazio vettoriale nel modo seguente. Dati A, B ∈ A definiamo A + B = Q con OA + OB = OQ, mentre dato un numero λ∈ R definiamo λA come quel punto di A tale che OλA = λ(OA). Si noti, tuttavia, che la struttura di spazio vettoriale introdotta su A dipende dal punto O∈ A che gioca il ruolo del vettore nullo.

(9)

1.1.1 Sottospazi affini

Definizione 1.4. Un sottoinsieme F ⊂ A di uno spazio affine (A, V, η) è un sottospazio affine se è vuoto o se contiene un punto A tale che ηA(F) è un sottospazio vettoriale di V.

La definizione di sottospazio affine non dipende dalla scelta del punto A, infatti si ha

Proposizione 1.5. Sia F un sottospazio affine di A. Allora esiste un sottospazio vettoriale W di V tale che, per ogni B∈ F, ηB(F) = W.

Dimostrazione. Essendo F un sottospazio affine esiste A∈ F tale che ηA(F) = {AC : C ∈ F} = W è un sottospazio vettoriale di V. Sia adesso B ∈ F un altro punto e si consideri ηB(F) = {BC : C ∈ F}. Dalla regola di Chasles segue che BC = BA + AC =−AB + AC ∈ W. Quindi ηB(F)⊆ W. Dimostriamo che ηB(F) è un sottospazio vettoriale di W. Siano v, w ∈ ηB(F), dalla definizione esistono C, C ∈ F tali che v = BC e w = BC. Siccome v + w ∈ V esiste C′′ ∈ A con v + w = BC + BC = BC′′. Per dimostrare che v + w ∈ ηB(F) bisogna verificare che C′′ ∈ F. Da BC′′ = BA + AC′′ = AC′′ − AB, essendo BC′′,AB∈ W, segue che AC′′ ∈ W da cui, per definizione di W, C′′ ∈ F. Allo stesso modo si dimostra che se v ∈ ηB(F) e λ ∈ R allora λv ∈ ηB(F). In fine, AC = AB + BC =−BC + BC ∈ ηB(F) da cui W ⊆ ηB(F).  Vice versa, si ha la seguente

Proposizione 1.6. Sia W un sottospazio vettoriale di V e sia A ∈ A. Allora esiste un unico sottospazio affine F contenente A con giacitura W.

Dimostrazione. Sia A∈ A e definiamo

F ={B ∈ A : AB ∈ W} = η−1A (W) .

Chiaramente A ∈ F e ηA(F) = W, quindi F è un sottospazio affine contenente A il cui spazio vettoriale associato è W. Per l’unicità, supponiamo per assurdo che esista F , Fcon ηA(F) = W e A∈ F. Osserviamo per primo che Fnon può essere un sottoinsieme proprio di F, essendo entrami in corrispondenza biunivoca tramite ηA con W. Sia quindi C ∈ Fcon C < F. Segue che ηA(C)W e, per la biettività di ηA, si ha che C = η−1AA(C))∈ F.  Esempio 1.7.

(10)

(i) Tutti i punti di uno spazio affine sono sottospazi di dimensione zero.

(ii) Un sottospazio affine di dimensione uno si chiama retta affine.

(iii) Un sottospazio affine di dimensione due si dice piano affine.

Proposizione 1.8. Sia V uno spazio vettoriale visto come spazio affine e sia f : V → W un’applicazione lineare da V in un altro spazio vettoriale W. Per ogni w ∈ f (V), l’insieme delle contro immagini f−1(w) ⊂ V è un sottospazio affine di V con giacitura ker( f ).

Dimostrazione. Basta mostrare che, dato u∈ f−1(w), si ha ηu( f−1(w)) = ker( f ) ,

dove, per definizione, ηu(x) = x− u. Sia y ∈ ker( f ), allora f (y + u) = f (u) = w, quindi y + u = x ∈ f−1(w). Segue che y = x − u = ηu(x) ∈ ηu( f−1(w)), cioè ker( f ) ⊆ ηu( f−1(w)). Vice versa, sia y ∈ ηu( f−1(w)), allora y = x− u per qualche x ∈ f−1(w). Segue che f (y) = f (x)− f (u) = w − w = 0, quindi ηu( f−1(w))⊆ ker( f ).

 Osservazione 1.9. La proposizione precedente dice che tutti i punti del sotto- spazio affine f−1(w) si possono scrivere nella forma u0+ y dove u0 è un punto fissato di f−1(w) mentre y è un elemento del nucleo. Più in generale, si può mo- strare che i sottospazi affini di uno spazio vettoriale V sono della forma W + v0, dove W è un sottospazio vettoriale e v0è un vettore di V. Si osservi che W + v0 definisce un sottospazio vettoriale solo se v0 ∈ W o, in altri termini, W + v0

definisce un sottospazio vettoriale solo se contiene il vettore nullo.

1.1.2 Intersezione di sottospazi affini parallelismo

Proposizione 1.10. Siano F1 e F2due sottospazi affini di uno spazio affine A.

Allora l’intersezione F1∩ F2 è un sottospazio affine di A.

Dimostrazione. Sia V la giacitura di A. Se F1∩ F2 =∅ allora è un sottospazio affine. Altrimenti si scelga A ∈ F1 ∩ F2. Segue che ηA(Fi) = Wi ⊂ V è la giacitura di Fi per ogni i = 1, 2. Poniamo W = W1 ∩ W2. Allora F1∩ F2 è l’unico sottospazio affine passante per A con giacitura W. 

(11)

Definizione 1.11. Due sottospazi affini F1 e F2 di uno spazio affine A sono detti paralleli (si scrive F1 ∥ F2) se hanno la stessa giacitura.

Osservazione 1.12. Si noti che due sottospazi possono essere disgiunti senza essere paralleli, per esempio una retta affine la cui giacitura è un sottospazio della giacitura di un piano affine non è parallela al piano. In ogni caso in uno spazio affine di dimensione 2 due rette affini sono parallele se e solo se sono disgiunte.

Qualche volta si utilizza una definizione di parallelismo più debole: due sot- tospazi affini F1 e F2 di uno spazio affine A sono detti debolmente paralleli se la giacitura di uno è un sottospazio vettoriale della giacitura dell’altro. Con questa terminologia ha senso parlare di retta affine parallela ad un piano affine.

Esempio 1.13. Se f : V → W è una applicazione lineare, allora tutti i sotto- spazi f−1(w), w∈ f (V), sono paralleli avendo la stessa giacitura ker( f ).

1.1.3 Coordinate affini

Sia (A, V, η) uno spazio affine. Fissato un punto O∈ A, ad ogni altro punto A ∈ A resta associato un unico vettore OA ∈ V. Scelta una base B = {e1, . . . ,en} dello spazio vettoriale V il vettore OA ammette un unica decomposizione ri- spetto alla baseB:

OA = a1e1+· · · + anen = Xn

i=1

aiei, ai ∈ R.

Definizione 1.14. Definiamo coordinate affini del punto A rispetto alla base B ed al punto O la n-pla (a1, . . . ,an) delle componenti del vettore OA rispetto alla baseB. La coppia (O, B) prende il nome di riferimento affine.

Al punto O resta associata la n-pla (0, . . . , 0) ed è comunemente chiamato origine.

Quando l’origine O e la baseB sono fissate useremo la notazione breve A = (a1, . . . ,an)

per indicare un punto di uno spazio affine. Facendo riferimento alla struttura di spazio vettoriale definita su uno spazio affine nella Osservazione 1.3, si vede facilmente che le operazioni ivi descritte diventano:

(12)

A + B = (a1, . . . ,an) + (b1, . . . ,bn) = (a1+ b1, . . . ,an+ bn)

λA = λ(a1, . . . ,an) = (λa1, . . . , λan) A, B∈ A, λ ∈ R.

Osservazione 1.15. Se A = (a1, . . . ,an) e B = (b1, . . . ,bn) rispetto ad un ri- ferimento affine (O,B) su A, allora le componenti del vettore AB sono (b1a1, . . . ,bn− an). Infatti, dalla regola di Chasles si ha

AB = AO + OB = OB− OA.

1.1.4 Cambiamenti di coordinate affini

Sia (A, V, η) uno spazio affine. Siano (a1, . . . ,an) le coordinate affini di un pun- to A ∈ A rispetto ad un origine O ∈ A ed ad una base B = {e1, . . . ,en} di V.

Vediamo come cambiano le coordinate affini se si cambia l’origine e/o la base della giacitura.

Iniziamo cambiando solo l’origine. Sia O ∈ A un altro punto di A di coor- dinate affini (o1, . . . ,on) e siano (a1, . . . ,an) le coordinate affini di A rispetto al riferimento (O,B). Dalla regola di Chasles si ha

OA = OO+ OA o, equivalentemente,

OA = OA− OO

da cui segue che per un cambiamento d’origine le coordinate affini rispetto alla nuova origine sono le vecchie coordinate meno le coordinate della nuova origine rispetto alla vecchia. In formula

(a1, . . . ,an) = (a1, . . . ,an)− (o1, . . . ,on).

Vediamo adesso il caso in cui cambiamo la base dello spazio vettoriale V. Sia dunque B = {e1, . . . ,en} una nuova base di V. La matrice M = (mi j) del cambiamento di base è definita da

ei = m1ie1+· · · + mnien, ∀i = 1, . . . n.

(13)

Se le componenti del vettore OA rispetto alla baseB sono (a1, . . . ,an) allora le componenti di OA rispetto alla baseBsono date da

ai = Xn

j=1

mi jaj. (1.1)

Infatti, da una parte si ha

OA = Xn

j=1

ajej = Xn

j=1

aj





 Xn

i=1

mi jei







= Xn

i=1







 Xn

j=1

mi jaj







ei,

dall’altra, scomponendo il vettore OA rispetto alla baseBsi trova

OA = Xn

i=1

aiei.

Per semplificare le notazioni da ora in poi indicheremo con

AO,B=









 a1

... an











il vettore colonna delle componenti del vettore OA rispetto al riferimento affine (O,B). Con questa notazione la (1.1) diventa

AO,B = M AO,B.

Combinando il cambiamento di origine con quello di base si ha:

Proposizione 1.16. Sia (A, V, η) uno spazio affine e siano (O,B) e (O,B) due riferimenti affini. Allora per ogni A∈ A si ha

AO,B = M(AO,B− OO,B),

dove M rappresenta la matrice del cambiamento di base (la i-esima colonna di M rappresenta le componenti del i-esimo vettore diB rispetto alla base B).

(14)

1.2 Trasformazioni affini

Siano (A, V, η) e (A,V, η) due spazi affini di dimensione n. Una trasforma- zione geometrica da A ad A è una applicazione biettiva

ϕ: A→ A.

Le trasformazioni geometriche si possono comporre: se ϕ : A → A e ψ : A→ A′′sono due trasformazioni geometriche, la composizione

ψ◦ ϕ : A → A′′

è definita da ψ◦ ϕ(A) = ψ(ϕ(A)), A ∈ A. È facile mostrare che l’operazione di composizione è associativa. Per definizione ogni trasformazione geometrica ϕ : A → A è invertibile, cioè esiste la trasformazione inversa ϕ−1 : A → A tale che ϕ−1◦ ϕ = IdAe ϕ◦ ϕ−1= IdA.

Un caso molto speciale si ha quando la trasformazione ϕ è definita dallo spazio affine in se stesso. Sia

Tras(A) ={ϕ : A → A : ϕ biettiva}

l’insieme di tutte le trasformazioni geometriche di uno spazio affine in se stes- so. Dotando l’insieme Tras(A) dell’operazione di composizione segue, dal- le proprietà viste sopra, che (Tras(A),◦) è un gruppo algebrico. Tale gruppo prende il nome di gruppo delle trasformazioni geometriche.

Sia ϕ : A→ Auna trasformazione geometrica. Se introduciamo un riferimen- to affine (O,B) su A ed uno (O,B) su A, e se indichiamo con (x1, . . . ,xn) le coordinate di un punto P ∈ A e con (x1, . . . ,xn) le coordinate di ϕ(P) ∈ A, segue che l’applicazione ϕ si scrive, in coordinate, come:













x1 = ϕ1(x1, . . . ,xn) ...

xn = ϕn(x1, . . . ,xn)

per delle opportune funzioni ϕi : Rn → R, i = 1, . . . , n. Quindi per cono- scere una trasformazione geometrica in coordinate è sufficiente conoscere le n funzioni ϕi.

(15)

Dato un punto O ∈ A una trasformazione geometrica ϕ : A → A induce un’applicazione biettiva f : V → V, chiamata applicazione indotta, definita nel modo seguente. Sia v∈ V, con v = OA, allora f (v) = ϕ(O)ϕ(A) . Si osservi che la funzione f non è necessariamente lineare.

Viceversa, fissati due punti O∈ A e O ∈ A, un’applicazione biettiva f : VV (con f (0) = 0) induce una trasformazione geometrica ϕ : A→ A, tale che ϕ(O) = O, definita nel modo seguente: dato A∈ A, ϕ(A) = Adove A ∈ Aè l’unico punto di Atale che f (OA) = OA.

Definiamo adesso un sottogruppo notevole del gruppo delle trasformazioni geometriche. Per far questo diamo la seguente

Definizione 1.17. Siano (A, V, η) e (A,V, η) due spazi affini. Una trasforma- zione geometrica

ϕ: A→ A

è una trasformazione affine se esistono due riferimenti affini (O,B) e (O,B) di A e A rispettivamente, tale che, per ogni A ∈ A, le coordinate del pun- to A rispetto al riferimento (O,B) e le coordinate del punto ϕ(A) rispetto al riferimento (O,B) coincidono.

In altre parole, la Definizione 1.17 dice che una trasformazione geometrica è af- fine se esistono due riferimenti affini (O,B) e (O,B) di A e Arispettivamente, tali che l’espressione di ϕ in coordinate diventi:













x1 = x1 ... xn = xn.

Proposizione 1.18. Una trasformazione affine ϕ : A → A si scrive, rispetto a due riferimenti affini qualsiasi (O,B) e (O,B) di A e A rispettivamente, come

xi =

n

X

j=1

mi jxj+ βi i = 1, . . . , n o, usando la notazione matriciale,

XO,B = M XO,B+ β ,

dove M = (mi j) rappresenta una matrice invertibile n×n e β un vettore colonna di componenti βi ∈ R , i = 1, . . . , n.

(16)

Dimostrazione. Siano ( ˆO, ˆB) e ( ˜O, ˜B) i riferimenti affini di A e A rispetto ai quali la trasformazione affine si scrive come X˜

O, ˜B = XO, ˆˆB. Operando gli opportuni cambiamenti di riferimento affine si ha che X˜

O, ˜B = M X˜ O,B + ˜β mentre XO, ˆˆB = ˆM XO,B + ˆβ con ˜M e ˆM matrici non singolari n× n (sono le matrici del cambiamento di base). Dalla X˜

O, ˜B= XO, ˆˆB, segue che M X˜ O,B+ ˜β = ˆM XO,B+ ˆβ

da cui

XO,B = ˜M−1M Xˆ O,B+ ˜M−1( ˆβ− ˜β) = M XO,B+ β

dove abbiamo posto M = ˜M−1M e β = ˜ˆ M−1( ˆβ− ˜β).  In particolare, si ha il seguente

Corollario 1.19. Siano V e W due spazi vettoriali di dimensione n pensati come spazi affini. Allora una trasformazione geometrica ϕ : V → W è affine se e solo se esiste un vettore w0 ∈ W ed un isomorfismo f : V → W tale che ϕ(v) = f (v) + w0per tutti i v∈ V.

Si osservi che se ϕ : A → A è una trasformazione affine, l’applicazione in- dotta f : V → W è un isomorfismo. La dimostrazione che f è un isomorfismo è lasciata per esercizio.

Segue che una definizione alternativa di trasformazione affine è la seguente Definizione 1.20. Siano (A, V, η) e (A,V, η) due spazi affini. Una trasforma- zione geometrica

ϕ: A→ A

è una trasformazione affine se esiste un punto O ∈ A e un isomorfismo f : V → W tale che per ogni A ∈ A

f (OA) = ϕ(O)ϕ(A).

Osservazione 1.21. Si noti che se ϕ : A→ A è affine la definizione dell’iso- morfismo indotto non dipende dal punto O. Infatti, sia Oun altro punto, allora si ha

ϕ(O)ϕ(A) =ϕ(O)ϕ(O) + ϕ(O)ϕ(A)

=− ϕ(O)ϕ(O) + ϕ(O)ϕ(A)

=− f (OO) + f (OA)

= f (OA− OO) (usando la linearità di f )

= f (OA).

(17)

La stessa proprietà non vale se ϕ è una trasformazione geometrica qualunque in quanto abbiamo utilizzato la linearità di f .

1.2.1 Il gruppo affine

Dalla Proposizione 1.18 segue immediatamente che la composizione di tra- sformazioni affini è una trasformazione affine ed allo stesso modo che l’inversa di una trasformazione affine è affine. L’insieme delle trasformazioni affini da uno spazio affine in se stesso forma quindi un sottogruppo del gruppo delle trasformazioni geometriche denotato con Aff(A).

La geometria affine studia le proprietà delle figure in uno spazio affine che rimangono invarianti per trasformazioni affini.

1.3 Esercizi

1. Siano A1,A2, . . . ,An, n punti arbitrari di uno spazio affine. Un punto G si chiama baricentro se

GA1+ GA2+· · · + GAn= 0.

• Dimostrare che se G esiste allora è unico.

• Sia O un qualsiasi punto dello spazio affine. Dimostrare che OG è caratterizzato dalla formula

OG = 1

n(OA1+ OA2+· · · + OAn)

Soluzione (1)Supponiamo esista H con HA1 + HA2 +· · · + HAn = 0.

Segue che 0 = GA1 + GA2+· · · + GAn− (HA1+ HA2+ · · · + HAn) = (GA1−HA1)+· · ·+(GAn−HAn) = (GA1+A1H)+· · ·+(GAn+AnH) = nGH, da cui la tesi G = H. (2) OG = OAi + AiG, ∀i = 1, . . . , n. Segue che nOG =P OAi+P AiG =P OAi.

2. Dimostrare che le diagonali di un parallelogramma si intersecano nel loro punto medio, cioè se AABB è un parallelogramma e se M soddisfa AB= 2AM, allora AB = 2AM.

3. Dati tre punti A, B e C di un piano affine si consideri il baricentro G.

(18)

• Dimostrare che G è il punto di incontro delle mediane del triangolo A, B, C e che divide ogni mediana in due parti una doppia dell’altra.

• Dimostrare che noti due vertici del triangolo ed il baricentro è noto il rimanente vertice.

4. Dimostrare che esiste un’unica retta affine contenente due dati punti A, B di uno spazio affine.

5. Sia ϕ : A → Auna trasformazione affine. Dimostrare che l’applicazio- ne indotta f : V → Vè un isomorfismo.

6. Data una trasformazione affine ϕ : A→ A un punto M ∈ A si dice fisso se ϕ(M) = M. Dimostrare che ϕ ha un unico punto fisso se e solo se l’isomorfismo indotto f : V → V ha solo il punto fisso 0 ∈ V.

7. Dimostrare che una trasformazione affine ϕ : A → A manda tre punti allineati in tre punti allineati. Allineati significa che appartengono ad una stessa retta affine.

8. Determinare una trasformazione affine di un piano affine che mandi i vertici di un triangolo A, B, C sui loro punti simmetrici rispetto ai punti medi dei lati opposti. Dove dato P il suo simmetrico rispetto a M è il punto Ptale che MP+MP = 0. (Aiuto: fissare un sistema di riferimento affine utilizzando i punti A, B, C).

9. Una trasformazione affine ϕ di un piano affine A in se stesso è una prospettività se ha una retta affine F di punti fissi e se per ogni punto A, B∈ A i vettori Aϕ(A) e Bϕ(B) sono paralleli.

• Fissato un riferimento affine (O, e1,e2) sul piano con O ∈ F, e1 parallelo alla giacitura di F e e2 parallelo a Aϕ(A), determinare le espressioni x1 = ϕ1(x1,x2), x2= ϕ2(x1,x2) della prospettività.

• Se rispetto ad un sistema di riferimento affine del piano una trasfor- mazione è data da x1= 4x1+ x2− 5, x2 = 6x1+ 3x2− 10, dimostrare che è una prospettività.

(19)

2

Generalit`a sugli spazi euclidei

2.1 Il prodotto scalare

Un prodotto scalare su uno spazio vettoriale V è una forma bilineare h, i : V × V → R

simmetrica e definita positiva, cioè tale che:

(a) hv, wi = hw, vi per tutti i v, w ∈ V;

(b) hv, vi ≥ 0 per tutti i v ∈ V e hv, vi = 0 se e solo se v = 0.

Definizione 2.1. Uno spazio vettoriale euclideo è uno spazio vettoriale dotato di un prodotto scalare.

Esempio 2.2. Lo spazio Rncon il prodotto scalare canonico hv, wi =

n

X

i=1

viwi

dove v = (v1, . . . ,vn), w = (w1, . . . ,wn), è uno spazio vettoriale euclideo.

(20)

Ricordiamo alcune definizioni e proprietà.

• Dato uno spazio vettoriale euclideo definiamo la norma di un vettore v∈ V come kvk =

hv, vi.

• Due vettori v, w ∈ V si dicono perpendicolare o ortogonali (si scrive v⊥ w) se hv, wi = 0.

• Una base B = {e1, . . . ,en} si dice orto-normale se hei,eji = δi j =





1 se i = j 0 se i , j

cioè se i vettori della base hanno tutti norma 1 e sono a due a due ortogonali.

• Un vettore v ∈ V si decompone rispetto ad una base orto-normale B = {e1, . . . ,en} come v =P

ihv, eii ei.

• Rispetto ad una base orto-normale, il prodotto scalare tra due vettori v = P

iviei e w =P

iwiei si scrive, in forma matriciale, come hv, wi = XTY

dove X e Y rappresentano i vettori colonna le cui entrate sono le compo- nenti di v e w, rispettivamente.

Proposizione 2.3. Sia V uno spazio vettoriale euclideo e siano v, w∈ V. Allora si ha:

(a) la disuguaglianza di Cauchy-Schwarz

|hv, wi| ≤ kvk kwk

e l’uguale vale se e solamente se v e w sono linearmente dipendenti;

(b) la disuguaglianza triangolare

kv + wk ≤ kvk + kwk;

(c) il teorema di Pitagora: se v⊥ w, allora

kv + wk2 =kvk2+kwk2.

(21)

Dimostrazione. (a) Dato un numero reale λ si ha, dalla positività del prodotto scalare, che per ogni v, w∈ V

hv + λw, v + λwi ≥ 0.

Espandendo quest’ultima si trova la disequazione quadratica in λ

hw, wiλ2+ 2hv, wiλ + hv, vi ≥ 0. (2.1) Se w , 0, segue, per le note proprietà delle disequazioni di secondo grado, che il discriminante dell’equazione associata è non positivo, cioè

hv, wi2− hv, vihw, wi ≤ 0.

Quest’ultima implica

hv, wi2 ≤ kvk2kwk2

da cui, estraendo la radice, si ha la tesi. Se w = 0 la disuguaglianza è banale.

Dimostriamo adesso il caso in cui valga l’uguale. Se v e w sono linearmente dipendenti esiste un numero λ tale che w = λv. Si ha quindi

|hv, wi| = |λ|hv, vi = |λ| kvk kvk = kwk kvk.

Viceversa, se

|hv, wi| = kwk kvk

il discriminante della (2.1) vale zero, da cui segue che esiste un unico λ0con hw, wiλ20+ 2hv, wiλ0+hv, vi = 0,

ovvero,

hv + λ0w, v + λ0wi = 0.

L’ultima equazione implica che v + λ0w = 0, quindi v e w sono linearmente dipendenti.

(b) Dalla disuguaglianza di Cauchy-Schwarz si ha

kv + wk2 = hv + w, v + wi = hv, vi + 2hv, wi + hw, wi

≤ kvk2+ 2kvk kwk + kwk2 = (kvk + kwk)2.

(c) Segue immediatamente dalla dimostrazione di (b). 

(22)

2.1.1 Proiezioni ortogonali

Sia V uno spazio vettoriale euclideo e sia W ⊂ V un suo sottospazio. Definiamo il complemento ortogonale di W come

W={v ∈ V : hv, wi = 0 ∀w ∈ W}.

È facile mostrare che Wè un sottospazio vettoriale. Inoltre lo spazio vettoriale V si decompone come somma diretta (dimostrarlo per esercizio)

V = W⊕ W. (2.2)

vW W

v v

Figura 2.1 – Proiezione di v su W.

Sia v ∈ V un vettore e sia W un sottospazio vettoriale di V. Dalla decomposizione (2.2) segue che v si può scrivere come

v = vW + v

con vW ∈ W e v ∈ W. Chiamiamo vW

la proiezione ortogonale di v su W. Se dim(W) = k e seB = {e1, . . . ,ek} è una base orto-normale di W, segue che

vW =

k

X

i=1

hvW,eii ei =

k

X

i=1

hv, eii ei.

La proiezione ortogonale di un vettore v su un sottospazio W si può caratterizzare come l’unico vettore vW ∈ W tale che

hvW,wi = hv, wi , ∀w ∈ W. (2.3) La dimostrazione dell’equivalenza tra le due definizioni di proiezione ortogo- nale è lasciata per esercizio.

La proiezione ortogonale di un vettore su un sottospazio ha la seguente in- terpretazione geometrica. Dato un vettore v ∈ V ed un sottoinsieme S ⊂ V definiamo la distanza di v da S come

d(v, S ) = inf

s∈S kv − sk.

Se S non è uno spazio vettoriale non è detto che l’inf sia raggiunto. Invece, nel caso in cui S sia un sottospazio vettoriale di V, si ha la seguente

(23)

Proposizione 2.4. Sia V uno spazio vettoriale euclideo, sia W ⊂ V un sotto- spazio vettoriale e sia v∈ V. Allora

d(v, W) =kv − vWk.

Dimostrazione. Sia w un vettore di W. Allora v− vW = v è ortogonale a vW− w ∈ W. Segue, dal Teorema di Pitagora, l’uguaglianza

kv − wk2 =kv − vW + (vW − w)k2 =kv − vWk2+kvW− wk2 la quale implica, se w , vW,

kv − wk2 >kv − vWk2.



2.1.2 Il procedimento di Gram-Schmidt

Sia V uno spazio vettoriale euclideo e sia B = {v1, . . . ,vn} una sua base. Il procedimento di Gram-Schmidt permette di costruire, a partire dalla baseB, una base ortonormaleB= {e1, . . . ,en}. Si procede nel modo seguente.

• Si pone u1= v1.

• A partire dal vettore v2 si costruisce un vettore che sia combinazione lineare di u1 e v2 e sia perpendicolare al primo. Geometricamente basta sottrarre a v2 la proiezione ortogonale di v2 su u1. Se scriviamo u2 = v2 + λu1 la condizione hu1,v2i = 0 implica che λ = −hu1,u2i/ku1k2. Poniamo quindi

u2 = v2hu1,v2i ku1k2 u1.

• In modo analogo si costruisce un vettore u3che sia combinazione lineare di u1, u2 e v3 e che sia perpendicolare ai primi due, Scrivendo u3 = v3+ λ1u1+ λ2u2 si orriene

u3 = v3hu1,v3i

ku1k2 u1hu2,v3i ku2k2 u2.

• Ripetendo il procedimento per tutti i vettori della base B si ottiene una base{u1, . . . ,un} costituita da vettori a due a due ortogonali. Dividendo ciascuno degli ui per la corrispondente norma, si ottiene la base ortonor- maleB ={e1, . . . ,en} con ei = u1/kuik, i = 1, . . . n.

(24)

2.1.3 Applicazioni della proiezione ortogonale

La Proposizione 2.4 si applica in molte situazioni in cui si debba determinare, di una data famiglia di oggetti, quello più vicino ad un altro dato. Vediamo qualche esempio.

Esempio 2.5. Determinare la successione aritmetica i cui primi tre termini meglio approssimano la terna (3, 4, 6). Una successione aritmetica è data da an= a0+ nd ed i primi tre termini sono

(a0+ d, a0+ 2d, a0+ 3d) i quali si possono decomporre come

(a0+ d, a0+ 2d, a0+ 3d) = a0(1, 1, 1) + d(1, 2, 3).

Possiamo quindi pensare la terna v = (3, 4, 6) come un vettore dello spazio vet- toriale R3 dotato del prodotto scalare canonico, mentre i vettori e1 = (1, 1, 1) e e2 = (1, 2, 3) generano un sottospazio vettoriale W = L((1, 1, 1), (1, 2, 3))⊂ R3 che coincide con lo spazio dei primi tre termini di una successione aritmeti- ca. Segue dalla Proposizione 2.4 che la terna che meglio approssima la terna v = (3, 4, 6) è la proiezione ortogonale di v su W. Sia vW = a0e1 + de2 allora, dalla (2.3), a0e d sono soluzioni del sistema





hvW,e1i = hv, e1i hvW,e2i = hv, e2i

cioè 





3a0+ 6d = 13 6a0+ 14d = 29 la cui soluzione è a0 = 4/3 e d = 3/2.

Esempio 2.6. Sullo spazio delle funzioni continue C([a, b], R) si può definire il seguente prodotto scalare. Siano f , g : [a, b] → R due funzioni continue.

Definiamo il prodotto scalare tra f e g come ( f , g) =

Z b a

f (x)g(x)dx. (2.4)

Lasciamo per esercizio la dimostrazione che la (2.4) definisce un prodotto scalare su C([a, b], R)

(25)

Si consideri il seguente problema: determinare tra tutti i polinomi di primo grado definiti in [0, 1] quello che meglio approssima il polinomio x2.

Per risolvere il problema possiamo pensare lo spazio dei polinomi di primo grado come il sottospazio W delle funzioni continue da [0, 1] in R generato dalle funzioni x→ 1 e x → x, cioè

W = L(1, x) ⊂ C([1, 0], R).

Dalla Proposizione 2.4 il polinomio cercato è dato dalla proiezione ortogonale della funzione f (x) = x2su W. Sia fW = ax + b la proiezione di f su W, allora, dalla (2.3), a e b sono soluzioni del sistema





( fW,1) = ( f , 1) ( fW,x) = ( f , x) cioè





a/2 + b = 1/3 a/3 + b/2 = 1/4

le cui soluzioni sono a = 1 e b = −1/6. Si veda in, Figura 2.2, la rappre- sentazione grafica della funzione y = x2 e della approssimazione y = x − 1/6.

1 y=x2

y=x16

Figura 2.2 – Approssimazione della funzione x2.

(26)

2.2 Spazi euclidei

Definizione 2.7. Uno spazio affine euclideo (o semplicemente spazio eucli- deo) è uno spazio affine (E, V, η) il cui spazio vettoriale associato è uno spazio vettoriale euclideo.

A differenza di uno spazio affine in uno spazio euclideo è possibile definire il concetto di distanza tra due punti. Ricordiamo che una distanza su E è una funzione d : E× E → R che soddisfa alle seguenti proprietà:

(i) d(A, B) = d(B, A)

(ii) d(A, B)≥ 0 e d(A, B) = 0 se e solo se A = B

(iii) d(A, B)≤ d(A, C) + d(C, B) (disuguaglianza triangolare) . Se adesso definiamo

d(A, B) =kABk , A, B∈ E (2.5)

è facile verificare che la (2.5) soddisfa alle proprietà (i)–(iii): la dimostrazione delle quali segue dalle proprietà del prodotto scalare (quali la disuguaglianza di Cauchy-Schwarz) ed è lasciata come esercizio. Si osservi inoltre che l’ugua- glianza nella disuguaglianza triangolare vale se e solo se i punti A, B, C sono allineati (nel senso che appartengono ad una stessa retta affine) e C si trova tra A e B.

2.2.1 Coordinate ortogonali

Seguendo lo stesso procedimento fatto negli spazi affini dotiamo uno spazio euclideo di coordinate. Sia (E, V, η) uno spazio euclideo. Fissato un punto OE ad ogni altro punto A ∈ E resta associato un unico vettore OA ∈ V. Scelta una baseB = {e1, . . . ,en} orto-normale dello spazio vettoriale V il vettore OA ammette un unica decomposizione rispettoB:

OA = a1e1+· · · + anen, ai ∈ R.

Definizione 2.8. Definiamo coordinate ortogonali (o cartesiane) del punto A rispetto alla base orto-normale B ed al punto O la n-pla (a1, . . . ,an) delle componenti del vettore OA rispetto alla base B. La coppia (O, B) prende il nome di riferimento ortogonale (o cartesiano).

(27)

Le coordinate ortogonali sono un caso speciale delle coordinate affini. In par- ticolare, tute le formule valide per le coordinate affini continuano a valere per quelle ortogonali. Naturalmente nel caso delle coordinate ortogonali valgono delle proprietà peculiari. Per esempio, per i cambiamenti di coordinate si ha:

Proposizione 2.9. Sia (E, V, η) uno spazio euclideo e siano (O,B) e (O,B) due riferimenti ortogonali. Allora per ogni A∈ E si ha

AO,B = M(AO,B− OO,B),

dove la matrice M del cambiamento di base soddisfa alla relazione MTM = M MT = Id .

Dimostrazione. Basta dimostrare che la matrice di passaggio da una base orto- normale ad una base orto-normale soddisfa alla condizione MTM = M MT = Id. Per definizione, posto M = (mi j), si ha

ei =X

k

mkiek

Segue che

δi j =hei,eji = hX

k

mkiek,X

mjei =X

k

X

mkimjhek,ei

= X

k

X

mkimjδkℓ

= X

k

mkimk j

dalla quale segue, per la definizione di prodotto di matrici, che MTM = Id.  Le matrici soddisfacenti alla condizione MTM = Id sono dette matrici orto- gonali è formano un gruppo, rispetto alla moltiplicazione di matrici, comune- mente denotato con O(n) e chiamato gruppo ortogonale.

2.2.2 Trasformazioni ortogonali

Siano V e W due spazi vettoriali euclidei di dimensione n. Denotiamo conh, iV

eh, iW i prodotti scalari su V e W rispettivamente.

(28)

Definizione 2.10. Un isomorfismo f : V → W è detto un’isometria lineare o trasformazione ortogonale se

hv, wiV = h f (v), f (w)iW

per ogni v, w∈ V.

Osservazione 2.11. Per verificare che un isomorfismo f : V → W sia un’iso- metria lineare è sufficiente mostrare che

kvkV = k f (v)kW ∀v ∈ V.

Infatti il prodotto scalare si può descrivere in funzione della norma di opportuni vettori come mostra la seguente formula:

hv, wi = 1 4

kv + wk2− kv − wk2 .

Data una trasformazione ortogonale f : V → W la matrice associata, rispetto a due basi orto-normali di V e W, è una matrice ortogonale. La dimostrazione è simile a quella della Proposizione 2.9 e viene lasciata per esercizio.

2.2.3 Endomorfismi simmetrici

Diamo la seguente

Definizione 2.12. Sia V uno spazio vettoriale euclideo. Un endomorfismo f : V → V si dice simmetrico se per ogni v, w ∈ V vale la seguente identità:

hv, f (w)i = h f (v), wi .

Gli endomorfismi simmetrici, come avremo modo di vedere nei prossimi capi- toli, hanno un ruolo fondamentale nella descrizione e classificazione di alcune curve notevoli.

Una proprietà semplice, che in parte giustifica il nome, afferma che la matrice associata ad un endomorfismo simmetrico rispetto ad una base ortonormale di V è simmetrica. Lasciamo la dimostrazione di questo fatto per esercizio.

(29)

La proprietà più importante degli endomorfismi simmetrici è che sono dia- gonalizzabili. Per dimostrarlo verifichiamo per primo che tutti gli autovalori sono reali ed in seguito mostriamo che esiste una base dello spazio vettoriale V costituita da autovettori dell’endomorfismo simmetrico f .

Proposizione 2.13. Sia f : V → V un endomorfismo simmetrico di uno spazio vettoriale euclideo. Allora tutti gli autovalori sono reali.

Dimostrazione. Supponiamo che λ sia un autovalore e scriviamo λ = a + ib, con a, b ∈ R e i l’unità immaginaria. Sia adesso v , 0 un autovettore relativo all’autovalore λ. Rispetto ad una baseB = {e1, . . . ,en} di V possiamo scrivere v = Pn

j=1(xj + iyj)ej, xi,yj ∈ R. Sia X = Pn

j=1xjej e Y = Pn

j=1yjej. Allora v = X + iY. La condizione f (v) = λv diventa f (X + iY) = (a + ib)(X + iY) cioè

f (X) + i f (Y) = aX− bY + i(bX + aY) , la quale implica che





f (X) = aX− bY f (Y) = bX + aY . Segue che

hY, f (X)i = hY, aX − bYi = ahY, Xi − bhY, Yi e

h f (Y), Xi = hbX + aY, Xi = ahY, Xi + bhX, Xi . Usando la simmetria di f si ottiene

b (kXk2+kYk2) = 0 .

L’ultima equazione, essendo kXk2 + kYk2 , 0, implica che b = 0 da cui la

tesi. 

Siamo pronti per enunciare l’importante

Teorema 2.14. Sia f : V → V un endomorfismo simmetrico di uno spazio vettoriale euclideo. Allora f è diagonalizzabile.

Dimostrazione. Dimostriamo il teorema per induzione sulla dimensione n del- lo spazio vettoriale V. Sia n = 1 e sia λ un autovalore di f . Per la Proposi- zione 2.13 λ ∈ R. Sia adesso v un autovettore relativo all’autovalore λ, allora

(30)

B = {v} costituisce una base di V formata da autovettori di f . Supponiamo adesso che la tesi valga quando la dimensione di V è n− 1 e dimostriamo che vale quando la dimensione di V è n. Sia λ un autovalore di f (necessariamente reale) e sia u un autovettore relativo a λ. Sia adesso u= {v ∈ V : hv, ui = 0} il complemento ortogonale di u in V. La dimensione di uè (n− 1) ed inoltre se v∈ u, usando la simmetria di f , si ha

h f (v), ui = hv, f (u)i = λhv, ui = λ 0 = 0 ,

dalla quale segue che f è un endomorfismo di u. Siccome uè un sottospazio vettoriale di V ed f : V → V è simmetrico, f : u → uè un endomorfismo simmetrico. Per ipotesi induttiva, esiste una base B = {u1, . . .un−1} di u costituita da autovettori di f . In fine, essendo u ortogonale a tutti gli elementi della baseB, l’insieme{u1, . . . ,un−1,u} costituisce una base di V formata, per

costruzione, da autovettori di f . 

2.2.4 Trasformazioni euclide ed isometrie

Siano E e Edue spazi euclidei e sia ϕ : E→ Euna trasformazione geometrica.

La trasformazione geometrica ϕ è:

(a) un’isometria se d(A, B) = d(ϕ(A), ϕ(B)) per ogni A, B∈ E;

(b) una trasformazione euclidea se esistono due riferimenti ortogonali (O,B) e (O,B) di E e Erispettivamente, tali che, per ogni A∈ E, le coordinate del punto A rispetto al riferimento (O,B) e le coordinate del punto ϕ(A) rispetto al riferimento (O,B) coincidono.

Usando la notazione matriciale, una trasformazione euclidea, rispetto a due riferimenti orto-normali qualsiasi di E e E, si scrive come

XO,B = MXO,B+ β

dove M = (mi j) rappresenta una matrice ortogonale e β un vettore colonna.

Proposizione 2.15. Una trasformazione euclidea ϕ : E → E induce un’iso- metria lineare f : V → W. Viceversa, data un’isometria lineare f : V → W e due punti O∈ E e O ∈ E, esiste un unica trasformazione euclidea ϕ : E→ E tale che ϕ(O) = O.

(31)

Dimostrazione. Supponiamo che ϕ : E→ Esia una trasformazione euclidea e mostriamo che l’isomorfismo indotto f : V → W è un’isometria lineare. Infatti sia v ∈ V e siano A, B ∈ E con v = AB. Siano X, Y e X,Y i vettori colonna delle componenti di A, B e A = ϕ(A), B = ϕ(B) rispetto a due riferimenti orto-normali di E e E rispettivamente. Allora si ha

X = MX + β e Y= MY + β con M matrice ortogonale e β∈ Rn. Segue che

f (v) = ϕ(A)ϕ(B) = AB = Y− X = MY− MX = M(Y − X) Infine

k f (v)k2W = h f (v), f (v)iW

= hM(Y − X), M(Y − X)iW = (Y− X)TMTM(Y− X)

= (Y − X)T(Y − X) = h(Y − X), (Y − X)iV

= hv, viV = kvk2V.

Mostriamo il viceversa. Sia f : V → W un’isometria lineare e siano O ∈ E e O ∈ E. SiaB = {e1, . . . ,en} una base orto-normale di V. Allora (O, B) è un riferimento ortogonale in E. Siccome f conserva il prodotto scalare segue cheB ={ f (e1), . . . , f (en)} è una base orto-normale di W. Quindi (O,B) è un riferimento ortogonale in E. Per costruzione ϕ(A) = A con f (OA) = OA. Siano (a1, . . . ,an) le coordinate di A, cioè OA = P

iaiei. Dalla linearità di f segue che

OA = f (OA) = f (X

i

aiei) = X

i

ai f (ei).

Quindi A ed A hanno le stesse coordinate rispetto ai riferimenti ortogonali

(O,B) e (O,B). 

Mostriamo adesso che i concetti di isometria e trasformazione euclidea coinci- dono.

Teorema 2.16. Una trasformazione geometrica ϕ : E → E è un’isometria se e solo se è una trasformazione euclidea.

Riferimenti

Documenti correlati

[r]

ereditate

- se valgono convessità delle preferenze e ottimo interno, la tangenza è necessaria e sufficiente per ottimo, - se vale solo convessità potremmo avere un ottimo di frontiera

[r]

c) l’accelerazione di gravit` a d) la sua temperatura.. Due cariche elettriche di uguale valore assoluto ma di segno opposto, si muovono con la stessa velocit` a in un campo

PROVA SCRITTA DI GEOMETRIA DEL 17/02/2017 SOLUZIONE DEGLI ESERCIZI PROPOSTI..

Trovare il valore ottimale della costante C j per ciascuna variabile

equivalente alla densità di probabilità della