• Non ci sono risultati.

Matrici e trasformazioni lineari

Nel documento Appunti di Analisi Matematica (pagine 117-121)

8.5.8 Piano per tre punti

Bisogna ricordare inanzitutto che `e condizione necessaria il fatto che i tre punti presi in esame (~q1, ~q2, ~q3) non siano collineari. Detto ci`o, possiamo ricondurre questo problema ad uno gi`a risolto. Infatti, abbiamo che un punto appartenente al piano `e sicuramente ~q1, ed una retta perpendicolare al piano `e la retta perpendicolare ai vettori

~ q2− ~q1 e

~ q3− ~q1

Ma un vettore perpendicolare a questi due `e

(~q3− ~q1) ∧ (~q2− ~q1) E quindi la formula del piano cercato `e la seguente:

(~x − ~q1) · [(~q3− ~q1) ∧ (~q2− ~q1)] = 0

8.6 Matrici e trasformazioni lineari

Le trasformazioni lineari sono una particolare famiglia di funzioni vettoriali a valori vettoriali, ovvero funzioni (o applicazioni ), che prendono dei vettori come variabile indipendente e restituiscono sempre vettori come variabile dipendente.

Genericamente quindi la trasformazione lineare T sar`a della forma: T : Rq→ Rp, q, p ∈ N ≥ 1

Vengono dette trasformazioni lineari quelle funzioni che possiedono le seguente propriet`a: 1. T (~u + ~v) = T (~u) + T (~v)

2. T (λ~u) = λT (~u), λ ∈ R

Ovvero, scritto in un’unica formula:

T (λ~u + γ~v) = λT (~u) + γT (~v)

Prendiamo ora il caso pi`u semplice, ovvero quello in cui p = q = 1; in questo caso quindi ci troviamo di fronte ad una funzione reale a valori reali:

T : R → R Le condizioni ora esposte diventano quindi:

f (a + b) = f (a) + f (b) e

f (λa) = λf (a)

Ora, un qualsiasi vettore ~x in uno spazio unidimensionale pu`o essere rappresentato da un singolo numero: (x). Un’altra rappresentazione `e la seguente: ~x = x · ~1, dove ~1 `e il vettore unitario unidimensionale, ovvero ~1 = (1). Quindi, otteniamo:

f (~x) = f (x · ~1)

Ma x `e un valore reale, e quindi possiamo utilizzare la seconda propriet`a che abbiamo imposto e dire che: f (x · ~1) = xf (~1)

Ora, se poniamo α = f (~1) (ricordiamoci che teoricamente la funzione restituisce un vettore, ma essendo esso unidimensionale possiamo ancora una volta considerarlo alla stregua di un numero reale), abbiamo trovato che:

f (x) = αx Funzione che rispetta anche la prima propriet`a:

f (a + b) = α(a + b) = αa + αb = f (a) + f (b)

Ecco quindi che, nel caso unidimensionale, le uniche trasformazioni lineari sono le funzioni che rappresentano rette passanti per l’origine – le condizioni imposte sono quindi molto restrittive!

Ora passiamo al caso Rq

→ Rp. Considero una matrice:

Ap×q= (aij) E la trasformazione

Ed un generico vettore

~

v = (x1, x2, . . . , xn) ∈ Rq Ora definiamo la TA dichiarata prima nel seguente modo:

TA: ~y ∈ Rp def= A      x1 x2 .. . xq     

Dove quindi la variabile indipendente `e data dal prodotto tra la matrice A e il vettore colonna ~x. Effettivamente, essendo Ap×q× Xq×1, il risultato sar`a di dimensioni Yp×1, e quindi anche il vettore ~y sar`a un vettore colonna, questa volta di dimensione p. Ebbene, le trasformazioni cos`ı definite sono l’unico tipo di trasformazioni lineari possibili.

Dimostriamo allora che queste sono trasformazioni sono lineari. Prendiamo la base canonica di Rq ed indichiamola con

~ e1= (1, 0, 0, . . . , 0) ~ e2= (0, 1, 0, . . . , 0) . . . ~ eq = (0, 0, 0, . . . , q) Allora possiamo scrivere il vettore ~x nel seguente modo:

~x = x1~e1+ x2~e2+ . . . + xq~eq Quindi

T (~x) = T (x1~e1+ x2~e2+ . . . + xq~eq) = x1T (~e1) + x2T (~e2) + . . . + xqT (~eq)

Quindi, per conoscere il valore di un generico T (~x) basta conoscere i valori di T (~e1), T (~e2), . . . , T (~eq), ovvero un numero finito di valori. Tutti questi vettori ovviamente apparterrano a Rp

. Ora, prendiamo la base canonica di Rp, questa volta, ed indichiamola con: ~ ε1= (1, 0, 0, . . . , 0) ~ ε2= (0, 1, 0, . . . , 0) . . . ~ εp= (0, 0, 0, . . . , p) Da notare che, essendo genericamente p 6= q, allora ~en6= ~εn!

Ora quindi possiamo rappresentare ognuno dei T (~en) come combinazione lineare della base ~εn. T (~e1) = a111+ a212+ . . . + ap1p

T (~e2) = a121+ a222+ . . . + ap2p . . .

T (~eq) = a1q1+ a2q2+ . . . + apqp

Quindi cos`ı possiamo definire la matrice

Ap×q= (aij)

Dalla rappresentazione che ne abbiamo dato, ogni colonna di A contiene il vettore colonna T (~en): 

 T (~e1) T (~e2) . . . T (~eq)  

E quindi a questo punto basta applicare la regola di moltiplicazione tra matrici per constatare che

T (~x) = A      x1 x2 .. . xq     

Esempio 8.6.1 Determinare se la funzione che associa ad un vettore la sua rotazione intorno all’origine di un angolo θ: Tθ: R2→ R2

`

e una trasformazione lineare, e in questo caso darne l’espressione matriciale.

Inanzitutto esprimiamo le formule che danno questa trasformazione. Nel nostro caso avremo che ~e1= ~ε1= ~i e ~e2= ~ε2= ~j. Sicuramente la trasformazione data `e lineare, infatti `e facile verificare che

8.6. MATRICI E TRASFORMAZIONI LINEARI 111 e

T (λ~a) = λT (~a)

per mezzo di considerazioni geometriche. Allora, come avevamo visto precendentemente, per determinare la trasformazione, basta avere T (~i) e T (~j). La rotazione di un angolo θ dei due versori si ricava per mezzo di considerazioni trigonometriche, e da questi risultati:

T (~i) = ~i cos θ + ~j sin θ T (~j) = −~i sin θ + ~j cos θ La matrice A sar`a quindi data da queste due trasformazioni poste come colonne:

A =cos θ − sin θ sin θ cos θ



Ecco allora che la trasformazione `e esprimibile con la formula: Tθ(~x) =cos θ − sin θ sin θ cos θ  a b  ~ x = a~i + b~j

Esempio 8.6.2 Determinare la trasformazione lineare che associa ad ogni vettore il suo simmetrico rispetto all’asse delle x. Anche in questo caso, il nostro scopo `e di trovare T (~i) e T (~j), trovandoci sempre nel caso di una trasformazione da R2 ad R2. In questo caso si ricavano anche pi`u facilmente:

T (~i) = ~i T (~j) = −~j E quindi troviamo: T (a~i + b~j) = a~i − b~j O anche T (a~i + b~j) =1 0 0 −1  a b 

Esempio 8.6.3 Determinare la trasformazione lineare che associa ad ogni punto dello spazio, un punto ruotato di θ intorno all’asse zeta.

L’unica differenza in questo caso `e che abbiamo una trasformazione da R3 ad R3. Con il solito procedimento:

T (~i) = (cos θ, sin θ, 0) T (~j) = (− sin θ, cos θ, 0) T (~k) = (0, 0, 1) E quindi: T (a~i + b~j + c~k) =   cos θ sin θ 0 − sin θ cos θ 0 0 0 1     a b c  

Nei precedenti esempi abbiamo trovato vari esempi di importanti trasformazioni lineari, tuttavia bisogna ricordare che, nonostante ci`o, la maggior parte delle funzioni vettoriali a valori vettoriali sono non lineari. Prendiamo ad esempio

f : (x, y) ∈ R2→ (x2, y + x2) ∈ R2 Questa trasformazione `e chiaramente non lineare. Infatti se prendiamo

f (~u = (a, b)) = (a2, b + a2) e

f (~v = (c, d)) = (c2, d + c2) Ora, se fosse una trasformazione lineare,

f (~u + ~v) = f ((a + c, b + d)) = (a2+ 2ac + c2, b + d + a2+ 2ac + c2) Dovrebbe essere uguale a

Cosa che non avviene. Questo era per ribadire che le trasformazioni lineari sono solo una piccola famiglia delle funzioni vettoriali a valori vettoriali!

Da ricordare il fatto che la composizione di trasformazioni lineari `e ancora una trasformazione lineare, ovvero, se abbiamo le trasformazioni lineari

T : Rq → Rp

e

S : Rp→ Rs

Allora la loro composizione

S ◦ T `

E ancora una trasformazione lineare. `E facile verificare che la matrice di trasformazione associata, se quella della trasformazione T `e Ap×q e quella della trasformazione S `e Bs×p, `e:

Cs×q = B × A

Una particolare trasformazione lineare `e quella che ha per matrice la matrice identit`a: in questo caso ogni vettore viene trasformato in s`e stesso, e la trasformazione prende il nome di trasformazione identit`a. Essa viene indicata con:

Idn: Rn → Rn

Se la trasformazione

T : Rn→ Rn

`

E biettiva (ovvero iniettiva e suriettiva), allora sar`a anche invertibile, e la trasformazione inversa T−1: Rn→ Rn

Avr`a per matrice di trasformazione l’inversa della matrice originale, ovvero AT−1= (AT)−1

Esempio 8.6.4 Sapendo che la trasformazione che compie la rotazione di un vettore in R2 ha per matrice A =cos θ − sin θ

sin θ cos θ 

Verificare che effettivamente la matrice della trasformazione inversa (che `e una rotazione in senso antiorario) `e l’inversa della matrice A.

Inanzitutto, troviamo la matrice della trasformazione inversa. Se essa `e una rotazione in senso antiorario, baster`a sostituire −θ a θ: A =cos(−θ) − sin(−θ) sin(−θ) cos(−θ)  = cos θ sin θ − sin θ cos θ  Ora calcoliamo A−1 e verifichiamo che coincide con questa matrice.

det A = cos θ cos θ − (− sin θ) sin θ = 1 Quindi essa `e sempre invertibile.

A−1= 1 det A cos θ − sin θ sin θ cos θ T = cos θ sin θ − sin θ cos θ  Ecco che i due risultati portano lo stesso risultato.

Capitolo 9

Funzioni vettoriali a valori reali

Nel documento Appunti di Analisi Matematica (pagine 117-121)