• Non ci sono risultati.

D’ora innanzi, al posto dell’espressione ”segmento orientato con primo estremo in A” diremo ”vettore applicato in A”

N/A
N/A
Protected

Academic year: 2021

Condividi "D’ora innanzi, al posto dell’espressione ”segmento orientato con primo estremo in A” diremo ”vettore applicato in A”"

Copied!
12
0
0

Testo completo

(1)

Analisi dei dati corso integrato - Algebra lineare, 19.02.08 - 20.02.08

1. In questa lezione si riprendono, in modo informale e brevemente, alcune nozioni ed alcuni fatti sui vettori, cosi’ come emergono nello studio della geometeria dello spazio.

Dati due punti A e B nello spazio, indichiamo con AB il segmento che li con- giunge, pensato con il verso di percorrenza privilegiato da A verso B.

Fissato un segmento orientato AB, per ogni punto A0 dello spazio esiste uno ed un solo segmento orientato A0B0 con primo estremo A0 che abbia la stessa lunghezza, direzione e verso di AB.

©©©©©*

A

B

Se A0 e’ sulla retta individuata da A e B, allora e’ intuitivamente chiaro come possiamo costruire A0B0.

©©©©©©©©©©©©©©©©

©©©©©*

A

B ©©

©©©*

A0

B0

Se A0 non e’ sulla retta individuata da A e B, allora possiamo costruire B0 inter- secando la retta per A0 parallela alla retta per A, B con la retta per B parallela alla retta per A, A0.

(2)

©©©©©©©©©©©©©©

©©©©©©©©©©©©©©©©

@@

@@

@@

@@

@@

@@

@@

@@

@@

@@

©©©©©*

A

B

©©©©©*

A0

B0

Diciamo che abbiamo ”tralsato” il segmento orientato AB nel segmento orientato A0B0.

2. D’ora innanzi, al posto dell’espressione ”segmento orientato con primo estremo in A” diremo ”vettore applicato in A”; indicheremo i vettori applicati con simboli come u, v, . . . .

Sia O un punto fissato nello spazio.

Dati due vettori u, v applicati in O,

u -

¢¢¢¢¢¢¢¸

v

O

definiamo il vettore

u + v

loro somma come il vettore applicato in O costruito come segue: prima trasliamo il vettore v in modo che il suo primo estremo coincida col secondo estremo di u, ottenendo cosi’ un nuovo vettore v0

u -

¢¢¢¢¢¢¢¸

v

¢¢¢¢¢¢¢¸

v0

O

(3)

poi consideriamo il vettore applicato in O avente come secondo estremo il secondo estremo di v0 :

u -

¢¢¢¢¢¢¢¸

v

¢¢¢¢¢¢¢¸

v0

©©©©©©©©©©©©©©*

u + v

O

In altri termini, u + v e’ la diagonale, uscente da O, del parallelogramma che ammette u e v come lati consecutivi.

Nel caso di vettori allineati, la somma e’ sostanzialmente quella dei numeri reali:

u-

¾v ¾ u + v

O

Questa operazione di addizione di vettori risulta essere associativa u + v = v + u,

e commutativa:

(u + v) + w = u + (v + w), per ogni terna di vettori u, v, w.

Per esecizio, si verifichi graficamente su un esempio la proprieta’ associativa.

Il ruolo del numero zero viene svolto dal vettore i cui estremi coincidono con il punto O; questo vettore viene detto vettore nullo, e viene indicato col simbolo

0.

La somma di un qualsiasi vettore col vettore suo simmetrico rispetto ad O ha per risultato il vettore nullo; cosi’, per ogni v, il suo simmetrico rispetto ad 0 viene indicato con

−v.

3. Dato un vettore v applicato in O, c’e’ un modo naturale per definire il prodotto di un numero reale per v : per un numero intero n, si pone

nv =



v + v + · · · + v n volte per n = 1, 2, . . .

0 per n = 0

(−v) + (−v) + · · · + (−v) −n volte per n = −1, −2, . . .

... poi si passa, possiamo dire ”per suddivisione” , al caso dei numeri razionali, e infine, possiamo dire ”per continuita’” ai reali.

(4)

u- -

1 2u

-

2u

¾

−u

O

4. Abbiamo cosi’ definito due operazioni: l’addizione di due vettori applicati in O, che fornisce un vettore applicato in O, e la moltiplicazione di un vettore applicato in O per uno scalare reale, che fornisce ancora un vettore applicato in O.

Il calcolo con queste due operazioni gode delle usuali proprieta’ del calcolo let- terale; bisogna solo tenere presente che abbiamo oggetti di due nature, vettori e scalari, possiamo sommare vettori con vettori, moltiplicare vettori per scalari, ma non possiamo sommare vettori con scalari, ne’ moltiplicare vettori per vettori.

Data una sequenza di un cero numero di vettori a1, a2, . . . , ed una sequenza dello stesso numero di scalari r1, r2, . . . , moltiplicando ciascun vettore per il corrispon- dente scalare e poi sommando otteniamo un nuovo vettore

r1a1+ r2a2+ · · · ,

detto combinazione lineare dei vettori dati; il numero reale ri viene detto il peso del vettore ai nella combinazione lineare.

Esempio

• La combinazione lineare dei vettori u, v applicati in O

u -

¢¢¢¢¢¢¢¸

v

O

con pesi rispettivi 23 e 2 da’ come risultato il vettore

-

- u

¢¢¢¢¢¢¢¸

¢¢¢¢¢¢¢¢¢¢¢¢¢¢¸

¢¢¢¢¢¢¢¢¢¢¢¢¢¢

v

¡¡¡¡¡¡¡¡¡¡¡¡¡¡µ

2

3u + 2v

O

(5)

5. Possiamo costruire un sistema di riferimento per lo spazio scegliendo un punto O e di seguito:

• un vettore u applicato in O, diverso dal vettore nullo 0;

• un vettore v applicato in O, non appartenente all’unica retta contenente u;

• un vettore w applicato in O, non appartenente all’unico piano contenente u, v.

I vettori cosi’ ottenuti non sono complanari: non solo w non appartiene al piano contenente u, v, ma anche: v non appartiene al piano contenente u, w, e u non appartiene al piano contenente v, w.

Ora, ciascun vettore applicato in O si puo’ scrivere come combinazione lineare dei vettori u, v, w.

Infatti, per ciascun vettore b applicato in O,

• possiamo tracciare dal secondo estremo di b il piano parallelo al piano indi- viduato da v, w, e intersecarlo con la retta individuata da u, ottenendo un vettore che possiamo esprimere nella forma

ru per un opportuno scalare r;

• possiamo tracciare dal secondo estremo di b il piano parallelo al piano indi- viduato da u, w, e intersecarlo con la retta individuata da v, ottenendo un vettore che possiamo esprimere nella forma

sv per un opportuno scalare s;

• possiamo tracciare dal secondo estremo di b il piano parallelo al piano indi- viduato da u, v, e intersecarlo con la retta individuata da w, ottenendo un vettore che possiamo esprimere nella forma

tw per un opportuno scalare t.

Possiamo allora esprimere il vettore b nella forma b = ru + sv + tw.

In realta’, questa scrittura e’ unica. Diciamo che i vettori u, v, w formano una base dello spazio, e diciamo che r, s, t sono le coordinate del vettore b rispetto al questa base.

6. Con riferimento al puntp precedente, si puo’ osservare che:

(6)

• l’uguaglianza ru = 0

vale soltanto per r = 0;

• l’uguaglianza ru + sv = 0

vale soltanto per r = s = 0;

• l’uguaglianza ru + sv + tw = 0

vale soltanto per r = s = t = 0.

Ciascuno degli insiemi {u},

{u, v}, {u, v, w}

ha dunque la seguente proprieta’:

una combinazione lineare dei vettori dell’insieme e’ uguale al vettore nullo soltanto se tutti i coefficienti della combinazione sono nulli.

Un insieme con questa proprieta’ si dice linearmente indipendente; altrimenti, si dice che e’ linearmente dipendente.

Nello spazio si verifica che:

• ogni insieme linearmente indipendente di p ≤ 3 vettori si puo’ completare ad un insieme linearmente indipendente di 3 vettori;

• se un insieme di 3 vettori e’ linearmente indipendente, allora i suoi vettori formano una base dello spazio;

• un insieme di quattro o piu’ vettori e’ sempre linearmente dipendente.

Vedremo di seguito come questi concetti e risultati si estendono agli spazi vetto- riali Rn.

7. Sia n un intero positivo fissato. Lo spazio vettoriale Rn e’ l’insieme delle n−ple ordinate di numeri reali, che rappresenteremo sempre come vettori colonna

 a1 ...

an

 ,

munito dell’operazione di addizione di due n−ple, definita da

 a1 ...

an

 +

 b1 ...

bn

 =



a1+ b1 ...

an+ bn



(7)

e dell’operazione di moltiplicazione di una n−pla per un numero reale, definita

da 

 a1

...

an

 r =

 a1r ...

anr

 .

Penseremo ciascuna n−pla come un’unica entita’, e le indicheremo con lettere minuscole sottolineate a.b, . . . , v, . . . . La n-pla

0 =

 0...

0



viene detta vettore nullo.

Al posto di n−pla useremo spesso il termine vettore, e al posto di ’numero reale’

il termine ’scalare’.

Dati p vettori a1, a2, . . . , ap ∈ Rn e p scalari r1, r2, . . . , rp ∈ R, moltiplicando ciascun vettore per il corrispondente scalare e poi sommando otteniamo un nuovo vettore

a1r1 + a2r2 + · · · + aprp ∈ Rn,

detto combinazione lineare dei vettori a1, a2, . . . , ap con coefficienti r1, r2, . . . , rp. Dato un nuovo vettore b, ci possiamo chiedere se b si puo’ scrivere come combi- nazione lineare

a1x1+ a2x2+ · · · + apxp = b

dei vettori a1, a2, . . . , ap e, in caso affermativo, secondo quali coefficienti. Ora, posto

aj =

 a1j

...

anj

 , j = 1, . . . , p,

possiamo riconoscere che l’equazione di sopra e’ equivalente al sistema lineare





a11x1+ a12x2+ · · · + a1pxp = b1 ...

an1x1+ an2x2+ · · · + anpxp = bn

di n equazioni nelle p incognite x1, x2, . . . , xp. Osserviamo che la corrispondente matrice completa 



a11 a12 · · · a1p b1

... ... ... ...

an1 an2 · · · anp bn



ha per colonne esattamente i vettori a1, a2, . . . , ap e b :



... ... ... ...

a1 a2 · · · ap b ... ... ... ...

 .

(8)

8. Definizione Diciamo che i vettori a1, . . . , ap ∈ Rn sono linearmente indipendenti se e solo se l’uguaglianza

a1 r1+ · · · + ap rp = 0

e’ soddisfatta solo per r1 = . . . = rp = 0. In caso contrario, cioe’ se se esistono r1, . . . , rp ∈ R non tutti nulli tali che valga l’uguaglianza

a1 r1 + · · · + ap rp = 0,

diciamo che i vettori a1, . . . , ap sono linearmente dipendenti.

Posto aj =

 a1j ...

anj

 , j = 1, . . . , p,

si ha che i vettori a1, . . . , ap sono linearmente indipendenti se e solo se il sistema lineare omogeneo





a11x1+ a12x2+ · · · + a1pxp = 0 ...

an1x1+ an2x2+ · · · + anpxp = 0

di n equazioni nelle p incognite x1, x2, . . . , xp avente matrice dei coefficienti

£ a1 a2 · · · ap ¤

=



a11 a12 · · · a1p ... ... ...

an1 an2 · · · anp



ha solo la soluzione banale x1 = x2 = . . . = xp = 0.

Osserviamo che:

• se questa matrice e’ triangolare superiore non degenere, cioe’ del tipo







a11 a12 a13 . . . . 0 a22 a23 . . . . 0 0 a33 . . . .

0 0 . ..

... ... ...





 ,

con coefficienti diagonali aii non nulli, allora e’ facile riconoscere che nel caso p ≤ n i vettori a1, . . . , ap sono linearmente indipendenti, mentre nel caso p > n sono linearmente dipendenti.

• Se questa matrice non e’ triangolare superiore, nel caso p ≤ n puo’ succedere che i vettori a1, . . . , ap siano linearmente dipendenti, mentre nel caso p > n sono linearmente dipendenti (cfr. Appendice).

(9)

Noi faremo ripetutamente uso della seguente

Proposizione Siano dati dei vettori u, . . . , v ∈ Rn linearmente in- dipendenti, ed un vettore w ∈ Rn. Allora i vettori u, . . . , v, w sono linearmente dipendenti se e solo se il vettore w si puo’ scrivere come combinazione lineare dei vettori u, . . . , v.

Dimostrazione.

Supponiamo che il vettore w si possa scrivere come combinazione lin- eare

w = u r + · · · + v s

dei vettori u, . . . , v; allora si ha l’uguaglianza 0 = u r + · · · + v s − w

nella quale il peso di w e’ −1 6= 0, cosi’ i vettori u, . . . , v, w sono linearmente dipendenti.

Supponiamo che i vettori u, . . . , v, w siano linearmente dipendenti, cioe’

che esistano degli scalari r, . . . , s, t non tutti nulli tali che valga l’uguaglianza

0 = u r+ · · · + v s+ w t.

Ora, nel caso in cui t = 0, varrebbe l’uguaglianza 0 = u r+ · · · + v s

con r, . . . , s non tutti nulli, cioe’ i vettori u, . . . , v sarebbero linear- mente dipendenti, contro l’ipotesi.

Dunque deve essere t 6= 0, e cio’ ci permette di ricavare w come com- binazione lineare

w = −u rt − · · · − v st

dei vettori u, . . . , v.

Questa proposizione suggerisce un processo ideale di costruzione di insiemi in- dipendenti via via piu’ grandi, processo che puo’ essere descritto informalmente cosi’: scegliere un vettore v1, diverso da 0; per ciascun vettore v1 costruito al primo passo, scegliere un vettore v2, non proporzionale a v1 :

v2 6∈ {v1α; α ∈ R};

per ciascun insieme di due vettori v1, v2 costruito nei primi due passi, scegliere un vettore v3 che non sia combinazione lineare di v1, v2 :

v3 6∈ {v1α1+ v2α2; α1, α2 ∈ R}

....

(10)

per ciascun insieme di p vettori v1, . . . , vp costruito nei primi due passi, scegliere un vettore vp+1 che non sia combinazione lineare di v1, . . . , vp

vp+16∈ { Xp

j=1

vjαj; αj ∈ R}

...

In Rnquesto processo termina al piu’ all’ennesimo passo, in quanto abbiamo visto che un insieme formato da piu’ di n vettori e’ sempre linearmente dipendente.

Cosi’ il processo termina con la costruzione di un insieme linearmente indipen- dente massimale. In realta’, tutti gli insiemi linearmente indipendenti massimali si ottengono da questo processo.

In generale, se X e’ un insieme e P una proprieta’ relativa ai sui sottinsiemi, si dice che un sottinsieme S di X e’ massimale rispetto alla proprieta’ P se e solo se:

S possiede la proprieta’ P; S non e’ contenuto propriamente in alcun sottinsieme T di X che possieda la proprieta’ P.

Posto vj =

 v1j ...

vnj

 , j = 1, . . . , m,

si ha che l’insieme dei vettori v1, . . . , vm e’ linearmente indipendente massimale se e solo se il sistema lineare omogeneo





v11x1+ v12x2 + · · · + v1mxm = 0 ...

vn1x1+ vn2x2+ · · · + vnmxm = 0 ha solo la soluzione banale e tutti i sistemi lineari





v11x1 + v12x2+ · · · + v1mxm = b1 ...

vn1x1+ vn2x2+ · · · + vnmxm = bm

hanno soluzione. Cio’ e’ possibile solo per m = n (cfr. Appendice). Abbiamo cosi’ trovato che

in Rn, tutti gli insiemi linearmente indipendenti massimali sono for- mati da n vettori.

Questo e’ il significato profondo della frase lo spazio vettoriale Rn ha dimensione n.

Sappiamo che, se S e’ un insieme linearmente indipendente massimale in Rn, allora ogni vettore di Rnsi puo’ scrivere come combinazione lineare dei vettori di S, in realta’ possiamo dire qualcosa di piu’:

(11)

Proposizione. Se l’insieme dei vettori v1, . . . , vn e’ linearmente in- dipendente massimale, allora ogni vettore v di Rn si puo’ scrivere in uno ed un solo modo come combinazione lineare

v1r1+ v2r2+ · · · + vnrn= v dei vettori v1, . . . , vn.

dimostrazione. Dobbiamo mostrare solo l’unicita’ della scrittura.

Consideriamo due scritture v1r1 + v2r2+ · · · + vnrn = v v1s1+ v2s2+ · · · + vnsn = v

di uno stesso vettore v come combinazione lineare dei vettori v1, . . . , vn. Sottraendo membro a membro, otteniamo l’uguaglianza

v1(r1− s1) + v2(r2− s2) + · · · + vn(rn− sn) = 0

la quale, essendo i vettori v1, . . . , vn linearmente indipendenti, e’ sod- disfatta solo per r1− s1 = r2 − s2 = · · · = rn− sn = 0, cioe’ solo per r1 = s1, r2 = s2, . . . rn = sn.

Un insieme linearmente indipendente massimale in Rn viene detto base di Rn; i coefficienti della rappresentazione di un vettore come combinazione lineare dei vettori di una base vengono detti coordinate del vettore rispetto alla base.

Posto vj =

 v1j ...

vnj

 , j = 1, . . . , n; A =£

v1 v2 · · · vn ¤

si ha che l’insieme dei vettori v1, . . . , vn e’ una base di Rn se e solo se tutti i sistemi lineari

Ax = b

sono determinati, cioe’ se e solo se la matrice A e’ non singolare.

In tal caso, le coordinate del vettore b rispetto alla base sono date dal vettore x = A−1b

Appendice: Alcuni concetti e risultati sui sistemi lineari 1. Sia data una matrice quadrata

A =





a11 a12 . . . a1n a21 a22 . . . a2n ... ... ...

an1 an2 . . . ann



.

(12)

Se tutti i sistemi lineari









a11x1+ a12x2+ · · · + a1nxn= b1 a21x1+ a22x2+ · · · + a2nxn= b2

...

am1x1+ am2x2 + · · · + amnxn= bm ,

che ammettono A come matrice dei coefficienti sono determinati, allora diciamo che A e’ una matrice non singolare.

Teorema 1 Per una matrice quadrata A le seguenti condizioni sono equivalenti.

• A e’ non singolare;

• il sistema lineare omogeneo Ax = 0 ha solo la soluzione banale x = 0;

• A e’ equivalente per righe ad una matrice triangolare superiore non degenere;

• A possiede matrice inversa A−1;

• DetA 6= 0.

Teorema 2 Sia

A =



a11 . . . a1n

... ...

am1 . . . amn



una matrice di tipo m × n.

• Se m < n, allora il sistema lineare omogeneo





a11x1+ a12x2+ · · · + a1nxn= 0 ...

am1x1+ am2x2+ · · · + amnxn = 0 e’ indeterminato.

• Se m > n, allora esistono dei numeri reali b1, . . . , bm tali che il sistema

lineare









a11x1+ · · · + a1nxn= b1 a21x1+ · · · + a2nxn= b2 ...

am1x1+ · · · + amnxn= bm sia impossibile.

• Se tutti i sistemi lineari che ammettono A come matrice dei coefficienti sono determinati, allora m = n, cioe’ A deve essere quadrata.

Riferimenti

Documenti correlati

Le coordinate di un vettore b rispetto ad una base ortogonale, cioe’ una base formata da tre vettori u, v, w fra loro ortogonali, sono particolarmente facili da ricavare..

Ora, la lunghezza di un lato di un triangolo non supera la somma delle lunghezze degli altri due... dove r e’ uno

• possiamo tracciare dal secondo estremo di b il piano parallela al piano individuato da u, v e intersecarlo con la retta indi- viduata da w, ottenendo un vettore che possiamo

Nello spazio ordinario, si ha che la proiezione ortogonale di un vettore b su un piano e’, fra i vettori del piano, quello piu’ vicino al vettore b.. Osserviamo che, per ogni vettore

[r]

[r]

Definizione di quantit`a di moto, momento angolare, forza di inerzia, momento risultante delle forze di inerzia ed energia cinetica di un sistema particellare o continuo..

Lʼenergia meccanica totale intesa come la somma dellʼenergia cinetica del punto e della energia potenziale della forza peso si conserva... Si esprima tale deformazione